或许每一次历史潮流的开场,总是这么熙熙攘攘,年初被ChatGPT引爆的AI大型语言模型(LLM),又迎来一位重磅入局者——Stability AI。
4月19日,推出火爆AI绘画赛道Stable Diffusion的开源模型的公司Stability AI,宣布“加入战局,叫板ChatGPT”,推出开源大语言模型StableLM。
在Stability AI公告大语言模型的网页上,一只体现了Stable Diffusion XL作画特点的绿鹦鹉先于语言大模型的介绍出现了,大语言模型的"Stable Diffusion”时刻或许就这样不期而至。
对于大语言模型StableLM,网站介绍道:
目前StableLM的Alpha版本中拥有30亿和70亿参数。
已经可以从GitHub等开源平台上下载:https://github.com/stability-AI/stableLM/
Stability AI后续还将推出150亿至650亿参数的版本。
与Stable Diffusion类似,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。
抨击OpenAI不够“open”的Stability AI,能稳定发挥,推出超越ChatGPT的大语言模型吗?
大语言模型的“安卓时刻”
Stability AI成立于 2019 年,是生成式AI领域最知名的公司之一。
在ChatGPT“占领”的大语言模型市场上,不少人期待着类似Stable Diffusion的开源模型能尽快出现。
大语言模型的"Stable Diffusion”时刻可能在十几个小时前到来了。
AI军备竞赛的开启可以追溯到去年7月,在Open AI的绘画模型DALL- E2之后,Stability AI发布的模型图像生成模型 Stable Diffusion,因其源代码开源,且对公众开放使用,在当时吸引了更多的注意力(使用 DALL-E2 需要申请,通过率很低)。
Stability AI把StableLM的发布比作了Stable Diffusion,这让AI可以继续服务所有人:
2022年,Stability AI推动了Stable Diffusion的公开发布,这是一款革命性的图像模型,代表了透明、开放、可扩展的AI。
这次我们发布开源StableLM模型,想继续让所有人都能使用AI。
我们的StableLM模型可以生成文本和代码,并将支持一系列下游应用。
正如Stability AI的CEO Emad Mostaque所说,他们最新发布的LLM代表着Stability AI的初心“开源”:
现在每个人都可以在Hugging Face上测试驱动这个7B版本的聊天机器人。
Emad Mostaque认为,LLM不应在大公司内部进行训练,社区系统的开放性也至关重要,需要更多监督,巨头控制流量算法的游戏规则——是对人们的操纵。
Emad Mostaque 来源:Stability AI
因此,Stability AI在今年年初与Hugging Face等几个初创公司一起资助了研究中心Eleuther AI,而StableLM便建立在Eleuther AI的开源模型上:
StableLM建立在我们与非营利性研究中心EleutherAI一起开源的早期语言模型基础上,这些语言模型包括GPT-J、GPT-NeoX和Pythia等等。
此次大模型也是在The Pile开源的数据集上进行的训练,该数据集结合了PubMed、StackExchange和维基百科等网站的的文本样本,其规模是The Pile的三倍,包含1.5万亿个内容标记。
Stability AI表示,正式因为这个丰富的数据集,尽管参数规模和GPT-3没有可比性,但StableLM在交流和编程方面都展现了“惊人的高性能”(surprisingly high performance ):
尽管StableLM参数规模只有30亿至70亿(相比之下,GPT-3有1750亿参数),但性能非常好,下面是例子:
在这个例子里,StableLM回到了有关“对于从高中毕业的朋友你回说些什么?”以及“写一封邮件”的请求。
在这个例子里要求该模型写一个“计算生命意义的C语言程序”,但该模型表示无法完成此项任务,但写了一个计算生命长度的程序。
Mostaque在Twitter上表示,他相信StableLM及其训练数据会随着时间而变得更好,没有人知道这个模型可以被优化到什么程度:
我知道现在还有很长的路要走,这只是一个开始。我认为我们可以在接下来的3-6个月内让该模型变得和Stable Diffusion一样有用,而在接下来的几年里,发展将是惊人的。
OpenAI不够Open,Stability AI够稳吗
前不久,马斯克批评Open AI背离了开源、非盈利的初衷,这是Open AI一直以来面临的争议,也是Stability AI“暗戳戳”的讽刺OpenAI的要点。
尽管OpenAI不够开放,但GPT-4无疑是当下最好用的大语言模型。而够开放的Stability AI,其语言模型StableLM够稳吗。
要知道,目前StableLM的Alpha版本拥有30亿和70亿参数,而GPT-3.5模型的参数量为2000亿。
有网友称,Stability AI并没有在公告上说明StableLM当前的局限性。
该模型是否存在与其他模型一样倾向于编造事实?是否会经常答非所问?
媒体分析认为,该模型基于The Pile训练,而The Pile数据集内存在大量不雅用语,因此对话过程可能会让用户不适。
还有网友表示,他尝试在Hugging Face上测试这些模型,但每次都遇到“满负荷”的问题,无法成功在前端上运行,这很可能与模型的大小及受欢迎的程度有关。
“大语言模型是否应该开源”也成了近期争论的焦点。有研究人员认为,类似StableLM等开源模型的发布,很可能被用于,发送钓鱼信息或协助恶意软件攻击等不良目的。
但Stability AI认为,开源模型的出现可以协助研究人员识别潜在风险,并制定一些列保护措施。
Stability AI的营收困境
更严重的问题是,Stability AI或许正面临营收困境。
最近有媒体报道称,Stability AI正在以惊人的速度烧钱,但却没有明确的盈利途径。而且在竞争激烈的AI赛道,还面临着一众初创企业和科技巨头的“围剿”。
Meta此前发布开源大语言模型LLaMA,使得越来越多的公司有望在开源模型基础上定制自己的大模型,人工智能也正在迎来“安卓时刻”。
Stability AI现在正在寻找新的高管人才,希望他能在恶劣的条件下给公司带来收入,以解决当前“疯狂烧钱、营收可怜”的窘况。
去年底,Stability AI 宣布融资1.01亿美元,并称Stable Diffusion已成为当前可用性最高的开源模型。
据《福布斯》的数据,每天约有有1000万人使用 Stable Diffusion——比使用 OpenAI 的 DALL-E 2 的人数还要多。同时,Stability AI还提供面向消费者的产品——DreamStudio, 目前拥有来100万名注册用户。
但训练模型所需的计算资源和成本让Stability AI不得不探索新商业模式。Mostaque 曾在 Twitter 上回复一位用户时说:
“实际上,我们模型使用了256个A100显卡,总共15万小时,所以按市场价格计算为60 万美元。”
Stability AI去年融到的1亿美元至今已经“烧”掉大半。
还有一个不可忽略的事实是,其竞争对手Midjourney已经成为互联网上事实上的图像生成模型的领跑者,甚至一定程度上击败了OpenAI的DALL-E。
当前,有消息称,Stability AI正在谋求新一轮融资,希望能将公司的估值涨至40亿美元。Stability AI能否扭转局面,筹集到足够的资金来维持局面,还有待观察。
来源:元宇宙之心
元宇宙之心
企业专栏
阅读更多
金色财经 善欧巴
Chainlink预言机
白话区块链
金色早8点
Odaily星球日报
欧科云链
深潮TechFlow
BTCStudy
MarsBit
Arcane Labs
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。