人工智能:关于OpenAI、DeepMind等向英国政府开放模型的几点看法_Open Campus

OpenAI、DeepMind将向英国政府开放模型?

英国首相Rishi Sunak周一在伦敦科技周上宣布,谷歌的DeepMind、OpenAI和Anthropic已经同意向英国政府开放其人工智能模型,用于研究和安全目的。

英国首相苏纳克说,这样可以便于英国政府 "帮助建立更好的评估,从而更好地了解这些系统的机会和风险"。苏纳克本次的演讲,主要是倡导人工智能有望重塑教育和医疗等领域,预示着英国可以作为 "创新之岛 "的潜力。

"苏纳克说:"人工智能肯定是我们面前最大的机会之一。通过将人工智能模型与量子的力量相结合,"可能性是非凡的。"

重庆两江新区发布关于“区块链”“虚拟货币”投资风险的预警提示:11月17日,重庆两江新区打击非法金融活动领导小组办公室关于防范非法金融活动的风险预警提示。提示指出,随着区块链技术发展受到广泛运用,一些不法分子借机炒作区块链概念,以所谓“虚拟货币”“区块链商城”“区块链博弈”等名义非法吸收公众资金,侵害公众权益。这些所谓高收益投资项目实际上与区块链技术毫无关系。其主要特征和风险表现在:一是网络化特征明显,网上交易,资金交付快捷,风险波及范围广、扩散速度快,资金监管和追赃挽损难度大。二是性、诱惑性、隐蔽性强,不法分子利用热点概念炒作,编造各种虚假项目,以高额回报为诱饵搞“零和博弈”,不法分子幕后操纵虚拟货币价格走势,投资者稳赔不赚。三是存在多种违法风险,不法分子通过举办线下活动或在各论坛、微信群、亲朋好友之间大肆宣传,引诱投资人发展下线,具有非法集资、、等违法行为特征。[2020/11/17 21:03:38]

2023年3月,英国政府发布了一份人工智能白皮书,提出了 "Pro-innovation "的方法,但最近苏纳克强调了 "Guardrails "的必要性。

动态 | 金融稳定委员将在G20之前提交一份关于加密货币发展报告:据financemagnates消息,金融稳定委员会(FSB)将在G20之前提交一份关于加密发展报告。随着加密货币经济的蓬勃发展,主要的国际监管机构现在正专注于简化许多加密相关领域的政策,包括投资者保护、市场诚信和反。金融稳定委员会在最近的一份报告中概述了监管机构的前景。FSB将在即将到来的G20峰会上向各国财长和央行行长提交报告。报告详细指出,巴塞尔银行监管委员会(BCBS)正致力于引入与加密资产相关的政策和监管举措,并致力于加强全球银行的监管和实践。[2019/5/31]

苏纳克周一表示,英国不但想要成为科学知识的核心地区,而且要成为全球人工智能安全监管的地理家园",但英国目前还没有列出具体的监管建议和条例。

动态 | Bitwise再次向SEC提交关于交易所虚假交易量的报告:5月25日,加密资管公司Bitwise于官推宣布,已向SEC提交了一份新的研究报告。新的报告共104页,在其2019年3月的报告基础上进行了扩充。报告调查了83家交易所的虚假交易量、芝加哥商品交易所期货与现货的紧密关系以及快速套利。 注:Bitwise在此前的3月报告中曾提到,95%的现货比特币交易量是由不受监管的交易所伪造的,这一结论一度引发了关于加密货币交易所真实交易量的激烈讨论。[2019/5/25]

这些条例和计划的关键在于今年秋季在英国举行的全球人工智能安全峰会,苏纳克将这次峰会比喻为"联合国缔约方大会气候变化会议的人工智能版本”。

除此之外,还成立了一个基金会模式的工作组,目前投入有1亿英镑左右的资金支持,进行人工智能安全领域技术的研究,英国首先表示,英国灵活平衡的监管方式将继续使其成为有吸引力的投资地。

政法大学赵鹞:关于加密货币,正常的政府都会谨慎 :中国政法大学金融创新与互联网金融法治研究中心副秘书长赵鹞在接受《财经》采访时表示,国际上所有关于加密货币的事物都处于讨论和研究的阶段,这是一种相较于之前狂热拥抱新潮流的“转向”。正常的政府都会谨慎,除了委内瑞拉、津巴布韦等货币体系已经崩溃的国家。[2018/3/30]

Anthropic和OpenAI最近在英国设立了欧洲总部,Palantir上周宣布在英国设立一个人工智能研究中心。

值得注意的是,OpenAI CEO 山姆·奥特曼在2023年5月一直欧洲各国访问,与各国监管机构会面,见了包括西班牙、波兰、法国和英国的政府首脑。

奥特曼首先与西班牙总理Pedro Sanchez会面,因为西班牙今年夏天担任欧洲理事会为期六个月的轮值主席国,也就是说,在人工智能规则手册的谈判的关键时刻,西班牙可以发挥很大的余地来影响讨论。而在法国、波兰和西班牙,地区政府首脑,很可能会通过欧洲理事会对欧盟人工智能规范制定的最终形式施加影响。

奥特曼也参加了伦敦大学学院的讨论活动,并在台上接受采访,提到了他对 "介于传统欧洲方法和传统美国方法之间 "的监管偏好。

2023年5月,欧洲议会两个关键委员会的成员,对委员会最初(2021年4月)提出的基于风险的人工智能监管框架的系列修正案,旨在确保通用人工智能、基础模型和生成性人工智能不属于规则范围。

欧洲议会支持基础模型的提供方,在将模型投入市场之前,应用安全检查、数据治理措施和风险缓解措施的义务,其中包括要求考虑 "对健康、安全、基本权利、环境以及民主和法治的可预见的风险"。

修正案还将要求基础模型制造商减少其系统的能源消耗和资源使用,并需要在欧盟数据库中注册,而生成性人工智能技术(如OpenAI的ChatGPT)的提供者将获得透明度义务,这意味着AI技术提供方必须确保用户被告知内容是机器生成的,并且要对其系统生成的内容采取 "充分的保障措施";并提供用于训练其人工智能的任何有版权的材料的摘要。

不过,OpenAI的CEO在此次欧洲之旅中,专门抽时间与英国首相苏纳克会面,并且与友商DeepMind的Demis Hassabis、Anthropic的Dario Amodei一起和苏纳克开了个会。当然,英国仍是欧洲的一个主要经济体。另外,有一些传言说OpenAI一直在考虑在该国设立一个本地总部。而Anthropic刚刚宣布了自己的伦敦办事处。对于OpenAI来说,至少在监管方面,英国不再是欧盟的成员,这意味着不能参与欧盟人工智能法案的立法。

除此之外,苏纳克政府的态度是,不打算制定任何新的国内立法来监管人工智能。其中近期英国政府的一份白皮书提出,仅仅依靠现有的监管机构,如竞争管理机构和隐私监督机构,为人工智能的安全发展提供指导,而不是立法规范技术的使用。

一些想法

英国很有可能受益于本身的地缘优势和占据人工智能安全这块重要领域,发挥自己的影响力。比如说,人工智能巨头支持由英国主导围绕人工智能安全研究对话,就可以很好地塑造适用自家业务的英国人工智能规则,而英国也会在这样的情况下受益。

但是,如果英国的人工智能安全峰会想要产生真正且可信的成功,就一定要团结全球的研究人员,并且积极邀请独立研究员、民间社会团体和技术组织的参与,而不仅仅是局限于“杰出的人工智能公司”与自己本土学者之间合作的计划。

而面向全球的人工智能安全峰会,一定是摒弃偏见、差异,而为整个人类在AGI世界的安全,共谋福祉。

金色早8点

Odaily星球日报

金色财经

Block unicorn

DAOrayaki

曼昆区块链法律

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

区块博客

[0:15ms0-6:328ms