FORT:叫板ChatGPT AI作画鼻祖Stability AI也推出大型语言模型_FORINT

或许每一次历史潮流的开场,总是这么熙熙攘攘,年初被ChatGPT引爆的AI大型语言模型(LLM),又迎来一位重磅入局者——StabilityAI。

4月19日,推出火爆AI绘画赛道StableDiffusion的开源模型的公司StabilityAI,宣布“加入战局,叫板ChatGPT”,推出开源大语言模型StableLM。

在StabilityAI公告大语言模型的网页上,一只体现了StableDiffusionXL作画特点的绿鹦鹉先于语言大模型的介绍出现了,大语言模型的"StableDiffusion”时刻或许就这样不期而至。

对于大语言模型StableLM,网站介绍道:

目前StableLM的Alpha版本中拥有30亿和70亿参数。

已经可以从GitHub等开源平台上下载:https://github.com/stability-AI/stableLM/

StabilityAI后续还将推出150亿至650亿参数的版本。

与StableDiffusion类似,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。

抨击OpenAI不够“open”的StabilityAI,能稳定发挥,推出超越ChatGPT的大语言模型吗?

大语言模型的“安卓时刻”

StabilityAI成立于2019年,是生成式AI领域最知名的公司之一。

在ChatGPT“占领”的大语言模型市场上,不少人期待着类似StableDiffusion的开源模型能尽快出现。

大语言模型的"StableDiffusion”时刻可能在十几个小时前到来了。

AI军备竞赛的开启可以追溯到去年7月,在OpenAI的绘画模型DALL-E2之后,StabilityAI发布的模型图像生成模型StableDiffusion,因其源代码开源,且对公众开放使用,在当时吸引了更多的注意力。

StabilityAI把StableLM的发布比作了StableDiffusion,这让AI可以继续服务所有人:

2022年,StabilityAI推动了StableDiffusion的公开发布,这是一款革命性的图像模型,代表了透明、开放、可扩展的AI。

这次我们发布开源StableLM模型,想继续让所有人都能使用AI。

我们的StableLM模型可以生成文本和代码,并将支持一系列下游应用。

正如StabilityAI的CEOEmadMostaque所说,他们最新发布的LLM代表着StabilityAI的初心“开源”:

现在每个人都可以在HuggingFace上测试驱动这个7B版本的聊天机器人。

EmadMostaque认为,LLM不应在大公司内部进行训练,社区系统的开放性也至关重要,需要更多监督,巨头控制流量算法的游戏规则——是对人们的操纵。

EmadMostaque来源:StabilityAI

因此,StabilityAI在今年年初与HuggingFace等几个初创公司一起资助了研究中心EleutherAI,而StableLM便建立在EleutherAI的开源模型上:

StableLM建立在我们与非营利性研究中心EleutherAI一起开源的早期语言模型基础上,这些语言模型包括GPT-J、GPT-NeoX和Pythia等等。

此次大模型也是在ThePile开源的数据集上进行的训练,该数据集结合了PubMed、StackExchange和维基百科等网站的的文本样本,其规模是ThePile的三倍,包含1.5万亿个内容标记。

StabilityAI表示,正式因为这个丰富的数据集,尽管参数规模和GPT-3没有可比性,但StableLM在交流和编程方面都展现了“惊人的高性能”:

尽管StableLM参数规模只有30亿至70亿,但性能非常好,下面是例子:

在这个例子里,StableLM回到了有关“对于从高中毕业的朋友你回说些什么?”以及“写一封邮件”的请求。

在这个例子里要求该模型写一个“计算生命意义的C语言程序”,但该模型表示无法完成此项任务,但写了一个计算生命长度的程序。

Mostaque在Twitter上表示,他相信StableLM及其训练数据会随着时间而变得更好,没有人知道这个模型可以被优化到什么程度:

我知道现在还有很长的路要走,这只是一个开始。我认为我们可以在接下来的3-6个月内让该模型变得和StableDiffusion一样有用,而在接下来的几年里,发展将是惊人的。

OpenAI不够Open,StabilityAI够稳吗

前不久,马斯克批评OpenAI背离了开源、非盈利的初衷,这是OpenAI一直以来面临的争议,也是StabilityAI“暗戳戳”的讽刺OpenAI的要点。

尽管OpenAI不够开放,但GPT-4无疑是当下最好用的大语言模型。而够开放的StabilityAI,其语言模型StableLM够稳吗。

要知道,目前StableLM的Alpha版本拥有30亿和70亿参数,而GPT-3.5模型的参数量为2000亿。

有网友称,StabilityAI并没有在公告上说明StableLM当前的局限性。

该模型是否存在与其他模型一样倾向于编造事实?是否会经常答非所问?

媒体分析认为,该模型基于ThePile训练,而ThePile数据集内存在大量不雅用语,因此对话过程可能会让用户不适。

还有网友表示,他尝试在HuggingFace上测试这些模型,但每次都遇到“满负荷”的问题,无法成功在前端上运行,这很可能与模型的大小及受欢迎的程度有关。

“大语言模型是否应该开源”也成了近期争论的焦点。有研究人员认为,类似StableLM等开源模型的发布,很可能被用于,发送钓鱼信息或协助恶意软件攻击等不良目的。

但StabilityAI认为,开源模型的出现可以协助研究人员识别潜在风险,并制定一些列保护措施。

StabilityAI的营收困境

更严重的问题是,StabilityAI或许正面临营收困境。

最近有媒体报道称,StabilityAI正在以惊人的速度烧钱,但却没有明确的盈利途径。而且在竞争激烈的AI赛道,还面临着一众初创企业和科技巨头的“围剿”。

Meta此前发布开源大语言模型LLaMA,使得越来越多的公司有望在开源模型基础上定制自己的大模型,人工智能也正在迎来“安卓时刻”。

StabilityAI现在正在寻找新的高管人才,希望他能在恶劣的条件下给公司带来收入,以解决当前“疯狂烧钱、营收可怜”的窘况。

去年底,StabilityAI宣布融资1.01亿美元,并称StableDiffusion已成为当前可用性最高的开源模型。

据《福布斯》的数据,每天约有有1000万人使用?StableDiffusion——比使用OpenAI的DALL-E2的人数还要多。同时,StabilityAI还提供面向消费者的产品——DreamStudio,目前拥有来100万名注册用户。

但训练模型所需的计算资源和成本让StabilityAI不得不探索新商业模式。Mostaque曾在Twitter上回复一位用户时说:

“实际上,我们模型使用了256个A100显卡,总共15万小时,所以按市场价格计算为60万美元。”

StabilityAI去年融到的1亿美元至今已经“烧”掉大半。

还有一个不可忽略的事实是,其竞争对手Midjourney已经成为互联网上事实上的图像生成模型的领跑者,甚至一定程度上击败了OpenAI的DALL-E。

当前,有消息称,StabilityAI正在谋求新一轮融资,希望能将公司的估值涨至40亿美元。StabilityAI能否扭转局面,筹集到足够的资金来维持局面,还有待观察。

?来源:元宇宙之心

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

区块博客

[0:0ms0-3:781ms