来源:量子位
从Meta的LLaMA发展出的羊驼家族一系列大模型,已成为开源AI重要力量。
但LLamA开源了又没全开,只能用于研究用途,还得填申请表格等,也一直被业界诟病。
好消息是,两大对标LLaMA的完全开源项目同时有了新进展。
可商用开源大模型来了,还一下来了俩:
MosaicML推出MPT系列模型,其中70亿参数版在性能测试中与LLaMA打个平手。
Together的RedPajama系列模型,30亿参数版在RTX2070游戏显卡上就能跑。
钟庚发:IPFS是否有价值要从投资者和行业两大角度分析:IPFS100.com现场报道,2020年8月11日14:00,由DAP总冠名、大德资本、金色财经、PBank主办的2020第一届新经济资产数字化高峰论坛在深圳福田香格里拉大酒店拉开帷幕。在以《炒作还是实力——IPFS价值几何》为题的圆桌中,链上ChainUP创始人&CEO钟庚发谈及IPFS的投资价值问题,他指出:价值要从两个角度来看,从投资者角度,Filecoin是当前一个热点项目,可以带来短期价值,但需要谨慎投资。另一个是行业角度,对于整个行业而言,Filecoin是有价值的,能让我们去验证去中心化存储的基础设施能否真正跑在区块链上,并且实现落地应用。综上,我认为Filecoin/IPFS是具有长期价值,因此我们投资了金色算力云平台布局这个赛道。[2020/8/11]
对于这些进展,特斯拉前AI主管AndrejKarpathy认为,开源大模型生态有了寒武纪大爆发的早期迹象。
声音 | 农业银行研发中心赵韵东:跨链的信息孤岛和隐私保护两大问题仍待解决:金色财经报道,中国农业银行研发中心副总经理赵韵东在采访时表示,银行对于新技术的应用很积极,也乐于尝试。但是大规模的使用和推广则是相对谨慎的。区块链技术的发展仍处于爬坡阶段,尚不完全成熟,很多应用也是在持续探索中。银行应用新技术要从三个方面着眼,第一是技术的价值,是否能够实现降本增效,扩大客户群体和提升服务能力,第二是技术和金融场景的匹配程度,第三是技术本身的成熟度。尽管区块链技术在银行业的应用初步达成了共识,但是跨链的信息孤岛和隐私保护两大问题却仍待解决。[2019/11/9]
MPT,与LLaMA五五开
MPT系列模型,全称MosaicMLPretrainedTransformer,基础版本为70亿参数。
动态 | 百度智能云发布两大区块链创新解决方案:据玩点新科技消息,5月9日,百度智能云在上海举办“ABC Tech On 2019技术与应用论坛 | 区块链”。百度智能云还发布了两大创新解决方案和区块链商业化超级合作伙伴计划。其中,可信数据生态链解决方案,也称为\"百度海洋引擎Ocean Engine\",提供一站式企业级可信数据协作解决方案;百度智能云区块链音视频版权保护解决方案,针对是当前严峻的版权保护问题。[2019/5/10]
MPT在大量数据上训练,与LLaMA相当,高于StableLM,Pythia等其他开源模型。
支持84ktokens超长输入,并用FlashAttention和FasterTransformer方法针对训练和推理速度做过优化。
在各类性能评估中,与原版LLaMA不相上下。
声音 | 百度首席架构师谭待:当前区块链发展存在两大难点:在2018区块链行业P.O.D大会上,百度首席架构师兼区块链实验室负责人谭待表示,目前区块链的发展存在两个难点,一个是底层技术限制,技术发展初期性能、容量、安全性待提升,技术壁垒高。第二个是没有真正影响力的应用,他认为,满足用户需求从而激活大量用户,才是区块链技术的真正落地。[2018/9/6]
除了MPT-7BBase基础模型外还有三个变体。
MPT-7B-Instruct,用于遵循简短指令。
MPT-7B-Chat,用于多轮聊天对话。
MPT-7B-StoryWriter-65k+,用于阅读和编写故事,支持65ktokens的超长上下文,用小说数据集微调。
MosaicML由前英特尔AI芯片项目Nervana负责人NaveenRao创办。
该公司致力于降低训练神经网络的成本,推出的文本和图像生成推理服务成本只有OpenAI的1/15。
RedPajama,2070就能跑
RedPajama系列模型,在5TB的同名开源数据上训练而来。
除70亿参数基础模型外,还有一个30亿参数版本,可以在5年前发售的RTX2070游戏显卡上运行。
目前70亿版本完成了80%的训练,效果已经超过了同规模的Pythia等开源模型,略逊于LLamA。
预计在完成1Ttokens的训练后还能继续改进。
背后公司Together,由苹果前高管VipulVedPrakash,斯坦福大模型研究中心主任PercyLiang,苏黎世联邦理工大学助理教授张策等人联合创办。
开源模型发布后,他们的近期目标是继续扩展开源RedPajama数据集到两倍规模。
OneMoreThing
来自南美洲的无峰驼类动物一共4种,已被各家大模型用完了。
Meta发布LLaMA之后,斯坦福用了Alpaca,伯克利等单位用了Alpaca,JosephCheung等开发者团队用了Guanaco。
以至于后来者已经卷到了其他相近动物,比如IBM的单峰骆驼Dromedary,Databricks的Dolly来自克隆羊多莉。
国人研究团队也热衷于用古代传说中的神兽,如UCSD联合中山大学等推出的白泽。
港中文等推出的凤凰……
最绝的是哈工大基于中文医学知识的LLaMA微调模型,命名为华驼。
参考链接:
https://www.mosaicml.com/blog/mpt-7b
https://www.together.xyz/blog/redpajama-models-v1
https://twitter.com/karpathy/status/1654892810590650376?s=20
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。