HAT:马斯克资助的ChatGPT与AIGC 对内容生态的挑战_Ifoods Chain

创作者:DAOctor

Elon Musk创立的OpenAI基金会的最新聊天机器人ChatGPT以其强大写作、对话能力席卷了网络世界。ChatGPT 是一种由人工智能驱动的聊天机器人,它以一种令人信服的对话方式与用户互动。ChatGPT对问题深思熟虑和全面的回答(即使不准确)令用户震惊,包括学术界和科技行业。

该工具迅速走红。周一,Open AI 的联合创始人、著名的硅谷投资者Sam Altman在 Twitter 上表示,ChatGPT 的用户已突破 100 万。 

知名的科技投资人Box 首席执行官 Aaron Levie也表示:“当一项新技术调整了你对计算的想法时,会有一种特定的感觉。谷歌、 火狐、 AWS 、iPhone 都做到了。OpenAI 正在通过 ChatGPT 做到这一点”。

马斯克:Twitter上周新增160万日活用户创历史新高:金色财经报道,已收购Twitter的特斯拉首席执行官伊隆·马斯克表示,Twitter上周新增160万日活用户,创下历史新高。[2022/11/22 7:55:17]

与其他人工智能工具一样,ChatGPT 也可能扰乱创意产业、延续偏见和传播错误信息。如Stack Overflow暂时禁止用户分享ChatGPT生成的回复。因为ChatGPT很容易与用户互动,且可以快速生成大量回答,这让网站充斥着许多第一眼看起来是正确的答案,但在仔细检查后就能发现其中的错误。

因此,本文,我们将讨论最近流行的AIGC工具ChatGPT及此类工具对内容生态审核制度的挑战。

Generative Pre-trained Transformer (GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话 AI。

推特高管:与马斯克的交易正如预期进行:5月20日消息,推特高管们在全员会议上告知推特员工,特斯拉CEO马斯克并购推特的潜在交易按预期的速度推进。“并不存在”所谓的交易“被按暂停键”说法。推特不会让马斯克在重新谈判并购金额上如愿以偿。(财联社)[2022/5/20 3:29:35]

2018 年,NLP(自然语言处理)的预训练模型元年,GPT-1 诞生,此时的GPT-1 仅是一个语言理解工具而非对话式 AI。2019年GPT-2采用更多的网络参数与更大的数据集进行训练,此时的GPT-2展现出普世且较强的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。随后,GPT-3 出现,作为一个无监督模型(自监督模型),几乎可以完成自然语言处理的绝大部分任务,例如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。GPT-3的出现使人们看到了通用人工智能的希望。

今天,ChatGPT 的到来,也被视为文本生成器 GPT-3 的下一个迭代,为GPT-4到来拉开序幕。

特斯拉CEO埃隆·马斯克当选时代杂志年度风云人物:12月13日消息,特斯拉CEO埃隆·马斯克当选时代杂志年度风云人物。注:时代杂志年度风云人物是美国《时代》于每年年底评选出的当年度对世界最具有影响力的事物。(金十)[2021/12/13 7:36:38]

ChatGPT 是一种大型语言模型,通过大量在线信息进行训练并创建其响应。注册 ChatGPT 后,用户可以要求人工智能系统回答一系列问题,这些问题包括开放性问题:例“生命的意义是什么?” 加密货币值得投资“?” “什么是Hacker Movement”等。

Moskovski Capital CIO:马斯克造成的价格波动正是自由市场的样子:Moskovski Capital的CIO Lex Moskovski刚刚发推表示:“尽管我们不喜欢埃隆(马斯克)造成的价格波动,但这正是自由市场的样子。”[2021/6/5 23:14:51]

02.ChatGPT 如何工作的?

谈到ChatGPT的算法模型, 其前身InstructGPT仍值得关注。

2022 年初,OpenAI 发布了 InstructGPT。开发人员通过结合监督学习+人类反馈强化学习,提高 GPT-3 的输出质量。在这种学习中,人类对模型的潜在输出进行排序,强化学习算法则对产生类似于高级输出材料的模型进行奖励。

训练数据集以创建提示开始,其中一些提示是基于 GPT-3 用户的输入,比如“解释什么是Hacker Movement”或“给一个小学生解释Hacker”。

声音 | 埃隆·马斯克:比特币白皮书非常聪明:金色财经报道,特斯拉首席执行官埃隆·马斯克(Elon Musk)表示,他既不是比特币及区块链技术的拥护者,也不是批评家。马斯克称,我认为(比特币白皮书)非常聪明。但是加密支持者应该承认数字资产既被用于非法目的又被用于合法目的。[2020/1/24]

开发人员将提示分为三个部分,并以不同的方式为每个部分创建响应:

人类作家会对第一组提示做出响应。开发人员微调了一个经过训练的 GPT-3 ,将它变成 InstructGPT 以生成每个提示的现有响应。

下一步是训练一个模型,使其对更好的响应做出更高的奖励。对于第二组提示,经过优化的模型会生成多个响应。人工评分者会对每个回复进行排名。在给出一个提示和两个响应后,一个奖励模型(另一个预先训练的 GPT-3)学会了为评分高的响应计算更高的奖励,为评分低的回答计算更低的奖励。

开发人员使用第三组提示和强化学习方法近端策略优化(Proximal Policy Optimization, PPO)进一步微调了语言模型。给出提示后,语言模型会生成响应,而奖励模型会给予相应奖励。PPO 使用奖励来更新语言模型。

ChatGPT 和 InstructGPT 算法模型基本一样。不同之处在于数据如何被收集和训练。

 InstructGPT :给一个输入就给一个输出,再跟训练数据对比,对了有奖励,不对有惩罚;

 ChatGPT: 给一个输入,模型给出多个输出,然后人(AI训练师)对输出结果排序,让模型使得这些结果从“更像人话”到“没有逻辑”排序。

与其他 AI 聊天机器人不同,本着构建更加负责任的强人工智能原则, ChatGPT可以回答后续问题、承认错误、挑战不正确的问题并拒绝不适当的请求。

写在这里记起,科幻小说家艾萨克·阿西莫夫(Isaac Asimov)为机器人设定的行为准则—机器人三定律:

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:机器人必须服从人类命令,除非命令与第一法则发生冲突;

第三法则:在不违背第一或第二法则之下,机器人可以保护自己。

不可置疑的是AIGC对很多领域产生了积极的影响。如,文本创作、音乐创作、游戏文本生成等。随着AIGC工具的成熟,其甚至可自主编程、拼接生成新的协议。

但,此类工具向内容生态提出一个全新的问题即:如何应对AIGC的真实性。以ChatGPT为例:

a) 在训练的强化学习 (RL) 阶段,对于问题,并没有真相和问题标准答案的具体来源;

b) 训练模型更加谨慎,可能会拒绝回答(以避免提示的误报);

c) 监督训练可能会误导/偏向模型倾向于知道理想的答案,而不是模型生成一组随机的响应并且只有人类评论者选择好的/排名靠前的响应。

人工智能生成的答案有数千个,而这些答案通常需要具有专业知识的人详细阅读,才能确定答案实际上是错误的,这些错误信息很容易破坏以志愿者为基础的高质量问答社区。

纸质新闻时代,每个事实都必须包含权威的一手或二手资料来源,但现在已经很少有出版物有事实核查员,这就把责任推给了记者和编辑。信息爆炸时代,以人为媒介传播的虚假信息尚且让审核机制“头疼”,很难想象当人工智能开始传播虚假信息,所带来的挑战。尤其是在这个舆论时常反转的时代,只要一个消息听起来合理,许多人就会认为这是正确的。

金色早8点

金色财经

去中心化金融社区

CertiK中文社区

虎嗅科技

区块律动BlockBeats

念青

深潮TechFlow

Odaily星球日报

腾讯研究院

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

区块博客

火必交易所比特币:一文详解四种NFT商业化模式_USD

来源:老雅痞 在大家一股脑儿地冲向NFT爆发的时候,我们看到大量无用的通证最后都走向了项目方跑路的结局,倒也不是都割了一大把韭菜,很多只是因为没有目标或与实际价值挂钩导致实在推进不下去了.

[0:0ms0-7:943ms