作者:Gary Marcus,编译:元宇宙之心(MetaverseHub)
除了被称为室温超导体的LK-99可能只是昙花一现外,我从未见过有什么事情比生成式人工智能更受追捧。许多公司的估值达到数十亿美元,新闻报道不绝于耳;从硅谷到华盛顿,再到日内瓦,所有人都在谈论它。
但实际上,目前的收入还未达到预期,甚至可能永远无法实现。
这些估值预计会有万亿美元的市场,但目前生成式人工智能的实际收入据传仅为数亿美元。尽管这些收入可能会增长1000倍,但这纯属猜测。我们不应该简单地假设它会实现。
到目前为止,大部分收入似乎来自两个方面, 一是编写半自动代码(程序员喜欢使用生成工具作为助手),二是撰写文本 。
美SEC委员:如果没有加密货币监管规则,美国可能会落后于欧洲:金色财经报道,美国证券交易委员会(SEC)委员Hester Peirce警告称,如果没有监管加密资产市场的规则,美国可能会落后于欧盟和英国。她表示,布鲁塞尔和伦敦制定的框架可能成为华盛顿立法者的蓝图。目前,美国没有制定监管加密资产的制度,而是选择针对加密活动发起一波执法案件,主要由美国证交会主席根斯勒领导。 Peirce是SEC的五名成员之一,她经常在加密货币监管问题上与根斯勒产生分歧。根斯勒拒绝为加密市场制定新的规则,认为现有的法律已经足够明确。美国对数字资产的打击引发了人们的疑问,即该行业是否会离开美国,在被认为对加密业务友好的海外司法管辖区设立公司。 Peirce说,我们被这个问题所困扰,如果人们把公司搬到其他司法管辖区会怎么样。关键是,如果我们建立一个良好的监管制度,人们就会来。[2023/5/11 14:58:04]
我认为,程序员将乐于使用生成式人工智能的辅助工具;其自动补全特性对他们的工作非常有帮助,而且他们受过培训,能够发现和修复并不常见的错误。本科生们将继续使用生成式人工智能,但他们的口袋并不宽裕(他们很可能会转向开源的竞争对手)。
Jeff Booth:如果美联储继续加息,将出现债务通缩:1月16日消息,《The Price of Tomorrow》的作者Jeff Booth表示,“如果美联储继续加息,将出现债务通缩。这种紧缩政策在去年9月份才真正开始,美联储去年只将其资产负债表减少了2.7%。”
Jeff Booth作为比特币支持者。他在去年5月表示:“比特币将为数十亿人提供个人权利和自由。”[2023/1/16 11:13:57]
其他潜在付费客户可能很快失去兴趣。今天上午,颇具影响力的风险投资家Benedict Evans在“X”(原Twitter)上发表了一系列文章,提到了这一问题:
我那些试图使用ChatGPT来回答搜索,以帮助学术研究的朋友们也面临着类似的失望。一位律师在法律研究中使用ChatGPT后受到了法官的谴责,并书面承诺以后不在无监督的情况下使用ChatGPT。几周前,一则新闻报道称,GPT的使用可能正在减少。
“新债王”冈拉克:如果比特币跌至1万美元,我不会感到惊讶:金色财经消息,“新债王”冈拉克表示,加密货币走势显然不乐观,如果比特币跌至1万美元,我不会感到惊讶。[2022/6/16 4:30:32]
如果Evans的经历是一个警示信号,那么整个生成式人工智能领域,在目前的估值下,可能会迅速走向终结。程序员会继续使用它,那些需要撰写大量文案来推广产品,以提高搜索引擎排名的营销人员也会继续使用它。但无论是编码还是速度、质量平平的文案写作,都远远不足以维持当前的估值梦想。
即使是OpenAI,也很难实现其290亿美元的估值;如果年复一年只能实现数千万或数亿美元的营收,那么估值低至数十亿美元的竞争初创公司很可能最终倒闭。微软今年的股价上涨了近一半,或许主要是由于人工智能的期望,但其股价可能会下跌;NVIDIA的股价飙升得更厉害,但也可能会回落。
AC:如果gwei降到个位数,将发行新协议:yearn.finance创建者AC发布推文表示,“如果gwei再次达到个位数,我可能就会发布四个新协议中的一个(到今天报道为止,以太坊GAS价格爆降,较一周前下降70%。当前太坊的一般模式下的GAS价格是40Gwei,极速模式下是46Gwei。[2021/4/25 20:57:32]
最近,我和软件投资领域的早期先锋Roger McNamee讨论了这个问题。也许唯一真正吸引我们的经济应用场景是搜索。例如,使用由ChatGPT支持的必应代替谷歌搜索,但是相关的技术问题非常巨大;我们没有理由认为“幻觉”问题会很快得到解决。如果不能解决,泡沫很容易破灭。
但现在让我担心的不仅仅是整个生成式人工智能经济,更多地是基于期望而非实际商业用途,将来可能会出现大规模、令人痛心的修正,还有我们正在把整个世界和国家政策建立在人工智能生成将改变世界的前提之上,而事后看来,这种前提可能是不现实的。
在国家层面上,可能会延缓保护消费者的监管措施(例如围绕隐私、减少偏见、要求数据透明性、打击虚假信息等),因为反对意见认为应尽快推进生成式人工智能的发展。我们可能无法获得所需的消费者保护,因为我们正试图培育一种可能不会如预期增长的东西。
在我看来,几乎所有人都犯了一个根本性的错误,那就是认为生成式人工智能等同于AGI(通用人工智能,智能和机敏程度与人类相当或更高)。
也许每个行业的人都希望你相信AGI即将来临。这激发了他们对必然性的叙述,并推动了他们的股价和初创公司的估值。Anthropic公司的首席执行官Dario Amodei最近预测,我们将在2-3年内实现AGI。谷歌DeepMind首席执行官Demis Hassabis也对近期的AGI做出了预测。
我对此深表怀疑。 在生成式人工智能的核心问题上,我们面临的不是一个,而是许多严重的、尚未解决的问题 ,从它们容易制造幻觉与虚假信息,到它们无法可靠地与Wolfram Alpha等外部工具可靠对接,再到从一个月到另一个月的不稳定(这使得它们无法在大型系统中进行工程应用)。
现实情况是,除了纯粹的技术乐观主义之外,我们没有任何具体理由认为这些问题的解决迫在眉睫。通过扩大系统规模来扩展系统在某些方面有所帮助,但在其他方面则不然;我们仍然无法保证任何特定系统都是诚实、无害或有益的,而不是谄媚、不诚实、有害或有偏见的。
人工智能研究人员多年来一直在研究这些问题。幻想这些具有挑战性的问题会突然全部迎刃而解是不现实的。22年来,我一直在抱怨幻觉错误;人们一直在承诺解决方案即将到来,但却从未实现。因为我们现在的技术是基于自动补全,而不是建立在事实基础上的。
过去一段时间,人们对这种担忧充耳不闻;但最近一些科技领导者似乎终于明白了这个道理。就在几天前,《财富》杂志刊登了这样一则报道:
如果幻觉问题无法解决,生成式人工智能可能也无法每年创造万亿美元的产值。如果它可能无法创造万亿美元的产值,那么它可能也不会产生人们期望的影响。如果它不会产生这种影响,也许我们不应该基于这种前提来构建我们的世界。
元宇宙之心
企业专栏
阅读更多
金色财经 善欧巴
元宇宙Lab
比推 Bitpush News
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。