單一4090可推理,2000億稀疏大模型「天工MoE」開源
在大模型浪潮中,訓練和部署最先進的密集集LLM在運算需求和相關成本上帶來了巨大挑戰,尤其是在數百億或數千億參數的規模上。為了應對這些挑戰,稀疏模型,如專家混合模型(MoE),已經變得越來越重要。 這些模型透過將計算分配給各種專門的子模型或“專家”,提供了一種經濟上可行的替代方案,有可能以極低的資源需求達到甚至超過密集集模型的性能。
6 月3 日,開源大模型領域又傳來重要消息:崑崙萬維宣布開源2 千億稀疏大模型Skywork-MoE,在保持性能強勁的同時,大幅降低了推理成本。
基於先前崑崙萬維開源的Skywork-13B模型中間checkpoint擴展而來,是首個完整將MoE Upcycling技術應用並落地的開源千億MoE大模型,也是首個支持用單台4090伺服器推理的開源千億MoE大模型。
讓大模型社群更為關注的是,Skywork-MoE 的模型權重、技術報告完全開源,免費商用,無需申請。
模型權重下載位址:
○ https://huggingface.co/Skywork/Skywork-MoE-base
#○ https://huggingface.co/Skywork/Skywork-MoE-Base-FP8
模型開源倉庫:https://github.com/SkyworkAI/Skywork-MoE
模型技術報告:https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe-tech-report.pdf
#模型推理程式碼:(支援8x4090 伺服器上8 bit 量化載入推理)https://github.com/SkyworkAI/vllm
Skywork-MoE 是目前能在8x4090 伺服器上推理的最大的開源MoE 模型。 8x4090 伺服器一共有192GB 的GPU 顯存,在FP8 量化下(weight 佔用146GB),使用崑崙萬維團隊首創的非均勻Tensor Parallel 並行推理方式,Skywork-MoE 可以在合適的batch size 內達到2200 tokens/s 的合適的吞吐。
完整相關的推理框架程式碼與安裝環境請參考:https://github.com/SkyworkAI/Skywork-MoE
Skywork-MoE ##介紹
本次開源的Skywork-MoE 模型隸屬於天工3.0 的研發模型系列,是其中的中檔大小模型(Skywork-MoE-Medium),模型的總參數量為146B,啟動參數量22B,共有16 個Expert,每個Expert 大小為13B,每次啟動其中的2 個Expert。
據了解,天工 3.0 也訓練了 75B (Skywork-MoE-Small) 和 400B (Skywork-MoE-Large)兩檔 MoE 模型,並不在此次開源之列。
崑崙萬維基於目前各大主流模式評測榜單評測了Skywork-MoE,在相同的激活參數量20B(推理計算量)下,Skywork-MoE 能力在行業前列,接近70B 的Dense模型。使得模型的推理成本有近 3 倍的下降。
值得注意的是, Skywork-MoE 的總參數大小比DeepSeekV2 的總參數大小要小1/3,用更小的參數規模做到了相近的能力。
技術創新
為了解決MoE 模型訓練困難,泛化效能差的問題,Skywork-MoE 設計了兩種訓練最佳化演算法:
Gating Logits 歸一化操作
Skywork-MoE 在Gating Layer 的token 分發邏輯處新增了一個normalization 操作,使得Gating Layer 的參數學習更加趨向於被選中的top -2 experts,增加了MoE 模型對於top-2 的置信度:
#自適應的Aux Loss
有別於傳統的固定係數(固定超參)的aux loss, Skywork-MoE 在MoE 訓練的不同階段讓模型自適應的選擇合適的aux loss 超參係數,從而讓Drop Token Rate 保持在合適的區間內,既能做到expert 分發的平衡,又能讓expert 學習具備差異化,進而提升模型整體的效能與泛化程度。在MoE 訓練的前期,由於參數學習不到位,導致Drop Token Rate 太高(token 分佈差異太大),此時需要較大的aux loss 幫助token load balance;在MoE 訓練的後期,Skywork-MoE 團隊希望Expert 之間仍保證一定的區分度,避免Gating 傾向隨機分發Token,因此需要較低的aux loss 來降低糾偏。
訓練 Infra
如何對 MoE 模型高效的進行大規模分散式訓練是一個有難度的挑戰。 Skywork-MoE 提出了兩個重要的平行最佳化設計,從而在千卡叢集上實現了 MFU 38% 的訓練吞吐,其中 MFU 以 22B 的活化參數計算理論計算量。
Expert Data Parallel
區別於Megatron-LM 社群中已有的EP(Expert Parallel)和ETP(Expert Tensor Parallel)設計,Skywork-MoE 團隊提出了一種稱為Expert Data Parallel 的平行設計方案,這種並行方案可以在Expert 數量較小時仍能有效率地切分模型,對Expert 引入的all2all 通訊也可以最大程度的最佳化和掩蓋。相較於EP 對GPU 數量的限制和ETP 在千卡集群上的低效, EDP 可以較好的解決大規模分散式訓練MoE 的並行痛點,同時EDP 的設計簡單、魯棒、易擴展,可以較快的實現與驗證。
一個最簡單的EDP 的例子,兩卡情況下TP = 2, EP = 2, 其中Attention 部分採用Tensor Parallel , Expert 部分採用Expert Parallel
非均勻切分流水並行
由於first stage 的Embedding 計算和last stage 的Loss 計算,以及Pipeline Buffer 的存在, 流水並行下均勻切分Layer 時的各stage 計算負載與顯存負載均有較明顯的不平衡情況。 Skywork-MoE 團隊提出了非均勻的流水並行切分和重計算 Layer 分配方式,使得總體的計算 / 顯存負載更均衡,約有 10% 左右的端到端訓練吞吐提升。
比較均勻切分和非均勻切分下的流水並行氣泡:對於一個24 層Layer 的LLM, (a) 是均勻切分成4 個stage,每個stage 的layer 數量是:[6, 6, 6, 6].(b) 是經過優化後的非均勻切分方式,切成5 個stage, 每個stage 的layer 數量是:[5, 5, 5, 5, 4] , 在中間流水打滿的階段,非均勻切分的氣泡較低。
此外,Skywork-MoE 也透過一系列基於 Scaling Law 的實驗,探討哪些限制會影響 Upcycling 和 From Scratch 訓練 MoE 模型的好壞。
一個可以遵循的經驗規則是:如果訓練MoE 模型的FLOPs 是訓練Dense 模型的2 倍以上,那麼選擇from Scratch 訓練MoE 會更好,否則的話,選擇Upcycling 訓練MoE 可以大幅減少訓練成本。
以上是單一4090可推理,2000億稀疏大模型「天工MoE」開源的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

但可能打不過公園裡的老大爺?巴黎奧運正在如火如荼地進行中,乒乓球項目備受關注。同時,機器人打乒乓球也取得了新突破。剛剛,DeepMind提出了第一個在競技乒乓球比賽中達到人類業餘選手等級的學習型機器人智能體。論文地址:https://arxiv.org/pdf/2408.03906DeepMind這個機器人打乒乓球什麼程度呢?大概和人類業餘選手不相上下:正手反手都會:對手採用多種打法,機器人也能招架得住:接不同旋轉的發球:不過,比賽激烈程度似乎不如公園老大爺對戰。對機器人來說,乒乓球運動

8月21日,2024世界機器人大會在北京隆重召開。商湯科技旗下家用機器人品牌「元蘿蔔SenseRobot」家族全系產品集體亮相,並最新發布元蘿蔔AI下棋機器人-國際象棋專業版(以下簡稱「元蘿蔔國象機器人」),成為全球首個走進家庭的西洋棋機器人。作為元蘿蔔的第三款下棋機器人產品,全新的國象機器人在AI和工程機械方面進行了大量專項技術升級和創新,首次在家用機器人上實現了透過機械爪拾取立體棋子,並進行人機對弈、人人對弈、記譜複盤等功能,

開學將至,該收心的不只即將開啟新學期的同學,可能還有AI大模型。前段時間,Reddit擠滿了吐槽Claude越來越懶的網友。 「它的水平下降了很多,經常停頓,甚至輸出也變得很短。在發布的第一周,它可以一次性翻譯整整4頁文稿,現在連半頁都輸出不了!」https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/在一個名為“對Claude徹底失望了的帖子裡”,滿滿地

在北京舉行的世界機器人大會上,人形機器人的展示成為了現場絕對的焦點,在星塵智能的展台上,由於AI機器人助理S1在一個展區上演揚琴、武術、書法三台大戲,能文能武,吸引了大量專業觀眾和媒體的駐足。在有彈性的琴弦上優雅的演奏,讓S1展現出速度、力度、精準度兼具的精細操作與絕對掌控。央視新聞對「書法」背後的模仿學習和智慧控制進行了專題報道,公司創始人來傑解釋到,絲滑動作的背後,是硬體側追求最好力控和最仿人身體指標(速度、負載等),而是在AI側則採集人的真實動作數據,讓機器人遇強則強,快速學習進化。而敏捷

視覺與機器人學習的深度融合。當兩隻機器手絲滑地互相合作疊衣服、倒茶、將鞋子打包時,加上最近老上頭條的1X人形機器人NEO,你可能會產生一種感覺:我們似乎開始進入機器人時代了。事實上,這些絲滑動作正是先進機器人技術+精妙框架設計+多模態大模型的產物。我們知道,有用的機器人往往需要與環境進行複雜精妙的交互,而環境則可被表示成空間域和時間域上的限制。舉個例子,如果要讓機器人倒茶,那麼機器人首先需要抓住茶壺手柄並使之保持直立,不潑灑出茶水,然後平穩移動,一直到讓壺口與杯口對齊,之後以一定角度傾斜茶壺。這

本屆ACL大會,投稿者「收穫滿滿」。為期六天的ACL2024正在泰國曼谷舉辦。 ACL是計算語言學和自然語言處理領域的頂級國際會議,由國際計算語言學協會組織,每年舉辦一次。一直以來,ACL在NLP領域的學術影響力都名列第一,它也是CCF-A類推薦會議。今年的ACL大會已是第62屆,接收了400餘篇NLP領域的前沿工作。昨天下午,大會公佈了最佳論文等獎項。此次,最佳論文獎7篇(兩篇未公開)、最佳主題論文獎1篇、傑出論文獎35篇。大會也評出了資源論文獎(ResourceAward)3篇、社會影響力獎(

會議簡介隨著科技的快速發展,人工智慧成為了推動社會進步的重要力量。在這個時代,我們有幸見證並參與分散式人工智慧(DistributedArtificialIntelligence,DAI)的創新與應用。分散式人工智慧是人工智慧領域的重要分支,這幾年引起了越來越多的關注。基於大型語言模型(LLM)的智能體(Agent)異軍突起,透過結合大模型的強大語言理解和生成能力,展現了在自然語言互動、知識推理、任務規劃等方面的巨大潛力。 AIAgent正在接棒大語言模型,成為目前AI圈的熱門話題。 Au

今天下午,鸿蒙智行正式迎来了新品牌与新车。8月6日,华为举行鸿蒙智行享界S9及华为全场景新品发布会,带来了全景智慧旗舰轿车享界S9、问界新M7Pro和华为novaFlip、MatePadPro12.2英寸、全新MatePadAir、华为毕昇激光打印机X1系列、FreeBuds6i、WATCHFIT3和智慧屏S5Pro等多款全场景智慧新品,从智慧出行、智慧办公到智能穿戴,华为全场景智慧生态持续构建,为消费者带来万物互联的智慧体验。鸿蒙智行:深度赋能,推动智能汽车产业升级华为联合中国汽车产业伙伴,为
