AMD公司近日發(fā)布博文,宣布推出首個(gè)完全開放的 10 億參數(shù)語言模型系列 AMD OLMo,為開發(fā)者和研究人員提供強(qiáng)大的 AI 研究工具。
AMD OLMo 模型使用從零開始訓(xùn)練的 10 億參數(shù)語言模型系列(LMs),在 AMD Instinct™ MI250 GPU 集群上訓(xùn)練,使用了超過 1.3 萬億個(gè) tokens 進(jìn)行預(yù)訓(xùn)練,讓模型在處理自然語言任務(wù)時(shí)具有強(qiáng)大的推理能力。
IT之家援引新聞稿,OLMo 模型采用解碼器(decoder-only)架構(gòu),并通過下一個(gè)標(biāo)記預(yù)測(cè)(next-token prediction)進(jìn)行訓(xùn)練,這種架構(gòu)在生成文本和理解上下文方面表現(xiàn)出色。
與其他同類開源模型相比,AMD OLMo 在推理能力和聊天能力上表現(xiàn)優(yōu)異。尤其是在多個(gè)基準(zhǔn)測(cè)試中,其性能與最新的 OLMo 模型相當(dāng),且計(jì)算預(yù)算僅為其一半。
OLMo 除數(shù)據(jù)中心使用外,更支持配備 NPU(Neural Processing Unit,神經(jīng)處理單元)的 AMD Ryzen AI PC 能夠部署模型,使開發(fā)者能在個(gè)人設(shè)備提供 AI 功能。
AMD OLMo 是完全開源的,這意味著其他開發(fā)者和公司可以自由使用和修改這些模型,這讓其成為希望探索 AI 技術(shù)替代方案的企業(yè)的一個(gè)可行選擇。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。