🤖OpenAI、Google和其他AI公司将披露基础模型的开发情况

提前告知,我们正在开发潜在的具有重大国家安全威胁的强力LLM

OpenAI和Google必须向政府报告他们的AI模型

人工智能领域即将变得更加透明。由于国防生产法案的实施,OpenAI和Google等人工智能公司将很快被要求向政府报告基础模型的开发。美国商务部长吉娜·雷蒙多在斯坦福大学胡佛研究所的一次活动上分享了这一要求。

“我们正在利用国防生产法案……要求公司与我们分享每次训练新的大型语言模型时的情况,并与我们分享结果-安全数据-以便我们进行审查,”雷蒙多解释道。

这一举措是美国总统拜登去年十月宣布的广泛人工智能行政命令的一部分。在众多命令中,该命令要求正在开发任何对国家安全、国家经济安全或国家公共卫生安全构成严重风险的基础模型的公司通知联邦政府,并共享安全测试的结果。类似OpenAI的GPT-4和谷歌的Gemini等基础模型为生成式人工智能聊天机器人提供动力。值得注意的是,由于计算能力,GPT-4不太可能达到需要政府监管的门槛。

然而,真正关注的是具有前所未有计算能力的未来基础模型。这些模型有可能带来重大的国家安全风险,因此引发了国防生产法案。有趣的是,这一法案此前在2021年被拜登总统用于增加与疫情相关的防护设备和物资的生产。

在活动中,雷蒙多还谈到了行政命令的另一个方面,即要求像亚马逊、谷歌和微软等美国云计算提供商披露他们服务的任何外国使用情况。此举旨在确保云计算的透明性和安全性。

这对人工智能公司和人工智能的未来意味着什么?

要求人工智能公司披露基础模型的开发是迈向问责和透明的重要一步。通过与政府分享安全数据,人工智能公司可以确保他们的模型经过了全面的测试,并不会对国家安全、经济安全或公共安全构成重大风险。

尽管这一要求可能对人工智能公司来说似乎增加了负担,但这对于维护公众对人工智能系统的信任至关重要。随着人工智能在各个领域的影响和作用越来越大,减少潜在风险、确保负责任开发至关重要。

至于人工智能的未来,很明显,重点将放在开发具有前所未有计算能力的基础模型上。这些模型具有巨大的潜力,但也带来了重大风险。通过通知政府并分享安全数据,人工智能公司可以在创新和安全之间找到平衡。

值得注意的是,制定和实施此类监管措施需要慎重考虑。在监管、创新和隐私之间取得合适的平衡是决策者和人工智能专家将继续面临的挑战。

问答:读者可能还关心什么?

问:这一要求会抑制人工智能行业的创新吗?

答:尽管可能会增加监管限制的潜力,但将这一要求视为确保负责任开发和部署人工智能系统的必要步骤至关重要。通过解决潜在风险和共享安全数据,人工智能公司可以在消费者和监管机构之间建立信任,最终促进更可持续和安全的人工智能产业。

问:政府将如何处理安全数据的审查?

答:政府将依靠自己的专业知识并与人工智能公司合作来审查共享的安全数据。这一过程对于识别与基础模型的开发相关的任何潜在风险或漏洞至关重要。政府与人工智能公司之间的透明沟通和持续合作对于有效的安全评估至关重要。

影响和未来发展

要求人工智能公司披露基础模型的开发代表了人工智能领域的重大转变。这表明在该领域需要加强问责和透明。随着人工智能技术的不断进步和在社会中发挥关键作用,监管和监督可能变得更加普遍。

展望未来,决策者、人工智能专家和行业利益相关者需要合作,制定平衡创新、安全和伦理考量的全面框架。通过营造支持负责任人工智能发展的环境,我们可以充分发挥人工智能的潜力,同时解决潜在风险,确保公众的信任。

📚 参考文献:

  1. OpenAI发布ChatGPT数据泄露补丁;问题完全解决
  2. 是的,ChatGPT变懒了。但OpenAI终于有了解决办法。
  3. 伪造拜登自动拨号创造者被暂停AI语音初创公司
  4. 谷歌的新型AI视频生成器很棒-但深度伪造呢?
  5. AI高管转变为AI斗士,为艺术家们发声

记得在社交媒体上分享这篇文章,并告诉我们你对政府要求AI公司披露基础模型开发的看法。你认为这将如何影响人工智能的未来?🤔💭 #AI #OpenAI #Google #透明度