您的当前位置:首页 > 百科 > AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍 名为“AMD-135M” 正文
时间:2025-01-18 18:44:36 来源:网络整理 编辑:百科
快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM),名为“AMD-135M”。相比于越来越庞大的大语言模型(LLM),它体积小巧,更加灵活,更有针对性,非常适合私
快科技10月1日消息,布首倍AMD发布了自己的语言亿首个小语言模型(SLM),名为“AMD-135M”。模型
相比于越来越庞大的推测提速大语言模型(LLM),它体积小巧,解码更加灵活,布首倍更有针对性,语言亿非常适合私密性、模型专业性很强的推测提速企业部署。
AMD-135小模型隶属于Llama家族,布首倍有两个版本:
一是语言亿基础型“AMD-Llama-135M”,拥有多达6700亿个token,模型在八块Instinct MIM250 64GB加速器上训练了六天。推测提速
二是解码延伸型“AMD-Llama-135M-code”,额外增加了专门针对编程的200亿个token,同样硬件训练了四天。
创建与部署流程
它使用了一种名为“推测解码”(speculative decoding)的方法,通过较小的草稿模型,在单次前向传播中生成多个候选token,然后发送给更大的、更精确的目标模型,进行验证或纠正。
这种方法可以同时生成多个token,不会影响性能,还可以降低内存占用,但因为数据交易更多,功耗也会增加。
AMD还使用AMD-Llama-135M-code作为CodeLlama-7b的草案模型,测试了推测解码使用与否的性能。
比如在MI250加速器上,性能可提升最多约2.8倍,锐龙AI CPU上可提升最多约3.88倍,锐龙AI NPU上可提升最多约2.98倍。
推测解码
AMD-135M小模型的训练代码、数据集等资源都已经开源,遵循Apache 2.0。
按照AMD的说法,它的性能与其他开源小模型基本相当或略有领先,比如Hellaswag、SciQ、ARC-Easy等任务超过Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任务则基本类似GTP2-124MN、OPT-125M。
拉瑞安工作室的新作可能要等到2029年2025-01-18 18:17
新研究:火星內部深層存在大量液態水2025-01-18 18:09
哈馬斯要求加沙停火調停方基於過去談判基礎制定計劃2025-01-18 17:55
美國最新隱形無人機加了駕駛艙2025-01-18 17:30
《星空》DLC“破碎空间”褒贬不一 好评率仅43%2025-01-18 17:30
韓國最大在野黨將選新黨首 李在明連勝16場初選2025-01-18 17:27
首爾市長稱首爾將申辦2036年夏季奧林匹克運動會 自信能比巴黎做得更好2025-01-18 17:21
美報告:美國就業市場形勢愈發嚴峻 近半求職者失業超過一年2025-01-18 16:49
抛出1500万元:收刘强东红包的老人老师要交税吗 律师给答案2025-01-18 16:20
大地震預警惹擔憂 日本住宿業遭大量退訂2025-01-18 16:09
iPhone 17 Air最薄处仅5.5mm:为了超薄设计 苹果砍掉实体SIM卡槽2025-01-18 18:40
美國馬里蘭州發生爆炸事件 已致2人死亡2025-01-18 18:16
巴西找到墜機遇難者全部遺骸 多方就事故原因發聲2025-01-18 18:12
印度中央邦一教練機墜毀 2名飛行員受傷2025-01-18 18:04
《咒》Steam试玩发布 好评湾产恐怖电影改编2025-01-18 17:53
國際油價12日顯著上漲2025-01-18 17:43
蘇丹多地暴雨和洪災已致53人死亡2025-01-18 17:40
日本宮崎縣日向灘地區發生4.5級地震2025-01-18 17:21
曝《生化危机0》重制版游戏和电影都在开发中2025-01-18 16:55
「血腥周末」再現 美國2024年已發生343起大規模槍擊案2025-01-18 16:28