MET:Meta推出先进大型语言模型 下一个ChatGPT不远了?_Lift.Kitchen ETH

ChatGPT的爆火引爆了AI行业,全球科技巨头争相杀入这一领域展开混战。周五,Meta也宣布推出大型语言模型LLaMA,加入到由微软、谷歌等科技巨头主导的AI“军备竞赛”中。

当地时间2月24日,Meta宣布将推出针对研究社区的“Meta人工智能大型语言模型”系统(Large Language Model Meta AI),简称“LLaMA”。

同ChatGPT、New Bing不同,LLaMA并不是一个任何人都可以与之对话的产品,也并未接入任何Meta应用。更为确切地说,该产品将是一个开源的“研究工具”。

公司CEO扎克伯格在社交媒体上表示,LLaMA旨在帮助研究人员推进研究工作,LLM(大型语言模型)在文本生成、问题回答、书面材料总结,以及自动证明数学定理、预测蛋白质结构等更复杂的方面也有很大的发展前景。

Meten Holding Group签订非公开发行普通股股份认购协议:金色财经报道,加密矿业公司Meten Holding Group宣布已与两家外国投资者(包括机构投资者Future Satoshi Ltd和个人投资者)签订认购协议,发行和出售400万股公司普通股,票面价值为每股0.003美元(“普通股”),总收益为1,000,000美元,即每股0.25美元。

公司预计认购协议拟定的交易将于2023年8月16日左右完成。该公司计划利用所得款项购买额外的矿机,预计这将进一步提高该公司加密货币矿机的总算力。[2023/8/7 21:29:49]

Meta前副总裁Sharma将担任Stripe的收入和财务管理工作:金色财经报道,Meta旗下虚拟现实社交平台Horizon Worlds的前副总裁Vivek Sharma宣布与Stripe新产品团队合作。在LinkedIn展示的帖子中,Vivek Sharma本周开始担任Stripe的新收入和财务管理主管,并正在与一个新团队合作开发旨在帮助企业管理、跟踪和分析收入的产品。

金色财经此前报道,8月28日,Meta旗下虚拟现实社交平台Horizon的副总裁Vivek Sharma将离职,其团队将直接向Meta元宇宙副总裁Vishal Shah汇报。[2022/10/17 17:28:11]

Meta与印度IT部合作推出Metaverse加速器计划:9月14日消息,Meta与印度IT部合作推出Metaverse加速器计划,将资助40家从事扩展现实项目的初创公司进行研发。Meta全球政策副总裁Joel Kaplan表示,“我们帮助创建一个生态系统,使印度的科技初创公司和创新者能够建立元宇宙的基础。”

此外,Meta最近与印度中央中等教育委员会合作,推出有助于加速采用扩展现实的新产品。(nftgators)[2022/9/14 13:28:05]

Meta表示,LLaMA可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者,正在接受研究人员的申请。

MetaMask推出MetaMask Snaps以连接StarkWare等非EVM兼容网络:6月29日消息,MetaMask宣布将StarkWare集成到ZK-RollupSnap中。MetaMask Snaps允许开发人员扩展MetaMask的功能,包括连接到非EVM网络,如StarkNet。其为首个实现ZK-rollup支持的Layer2 snap,使用户能够更广泛地访问无权限的去中心化网络,以实现快速、低成本的应用程序。此外,除了查看、管理和添加基于StarkNet的代币外,Consensys还开发了一个Stark Netdapp来安装snap。密钥和交易批准将在MetaMask Flask中进行管理。MetaMaskSnaps允许开发人员在MetaMask之上构建并根据他们dapp的需求对其进行自定义。此外,Snaps目前仅在开发版本MetaMask Flask中可用,即仅限于开发者使用。[2022/6/29 1:40:03]

此外,LLaMA将提供底层代码供用户使用,因此用户可以自行调整模型,并将其用于与研究相关的用例。与之截然不同的是,谷歌旗下的DeepMind和OpenAI并不公开训练代码。

该公司还表示,LLaMA作为一个基础模型被设计成多功能的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。

比GPT3.5性能更强

根据Meta官网介绍,LLaMA包含4个基础模型,参数分别为70亿、130亿、330亿和650亿。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 万亿个 tokens 上训练,而最小的模型 LLaMA 7B 也经过了 1 万亿个 tokens 的训练。

Meta表示,在大多数基准测试中,参数小的多的LLaMA-13B的性能优于GPT3.5的前身GPT3-175B,而LLaMA-65B更可与业内最佳的Chinchilla-70B和PaLM-540B竞争。值得一提的是,近期大火的ChatGPT便是由GPT3.5提供支持。

Meta 还提及,LLaMA-13B对算力的要求“低得多”,可以在单个数据中心级GPU(Nvidia Tesla V100)上运行。

扎克伯格写道:

“Meta 致力于这种开放的研究模式,我们将向 AI 研究社区提供我们的新模型。”

值得一提的是,去年5月,Meta 也曾推出过大型语言模型 OPT-175B。该项目同样也是针对研究人员的,这构成了其聊天机器人 blenterbot 新迭代的基础。后来,该公司还推出了一款名为“卡拉狄加”(Galactica) 的模型,但因经常分享偏见和不准确的信息而遭到下架。

据媒体报道,扎克伯格已将人工智能作为公司内部的首要任务,其本人也经常在财报电话会议和采访中谈论它对改进 Meta 产品的重要性。媒体分析称,虽然现在 LLaMA 没有在 Meta 产品中使用,但未来不排除使用的可能。

本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。

华尔街见闻

媒体专栏

阅读更多

金色早8点

金色财经

Odaily星球日报

欧科云链

Arcane Labs

深潮TechFlow

MarsBit

澎湃新闻

BTCStudy

链得得

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

区块博客

[0:46ms0-7:486ms