谷歌DeepMind成立AI安全组织以打击不实信息

谷歌DeepMind是谷歌负责公司最新人工智能进展的研究开发部门,正在推出一个专注于人工智能研究安全的新组织

“`html

Google DeepMind创建了一个致力于确保人工智能安全的新组织 | ENBLE

如果你问 Gemini,即谷歌的旗舰 GenAI 模型,撰写关于即将举行的美国总统选举的误导性内容,它将乐意效劳。询问未来超级碗比赛结果,它将创造一场实时解说。或者询问关于 Titan 深潜艇爆炸的事情,它将提供看似可信但实际虚假的引用信息。

可以毫不犹豫地说,这对谷歌并不是一个好的形象。决策者们表达了对 GenAI 工具如何轻松传播虚假信息和误导人们的不满。因此,谷歌采取行动,将投资导向人工智能安全领域。至少官方是这么说的。

Google DeepMind的新组织:人工智能安全与对齐

今天早上,负责 Gemini 和其他 GenAI 项目的人工智能研发部门 Google DeepMind 宣布成立了一个名为人工智能安全与对齐的新组织。这个组织包括正在致力于人工智能安全的现有团队,以及新的专门的 GenAI 研究人员和工程师小组。

虽然谷歌没有透露这一组织带来的新员工数量,但它透露了人工智能安全与对齐中将包括一个专注于人工通用智能(AGI)安全的团队。这个团队将与 Google DeepMind 在伦敦的现有人工智能安全研究团队 Scalable Alignment 合作,后者正在探索控制超智能人工智能的技术挑战的解决方案。

为什么会有两个团队致力于同一个问题?

这是一个合理的问题,谷歌不愿透露太多细节留下了揣测的空间。然而,值得注意的是,人工智能安全与对齐组织内的新团队位于美国,靠近谷歌总部。这表明谷歌正在积极努力跟上人工智能的竞争对手,同时展示一种负责任和审慎的人工智能方法。

人工智能安全与对齐组织内的其他团队负责将具体的保障措施融入谷歌当前和即将推出的 Gemini 模型中。他们近期关注的一些重点包括防止错误的医疗建议、确保儿童安全,以及避免偏见放大和其他不公正行为。

引领潮流:Anca Dragan

安卡·德拉甘(Anca Dragan)曾是 Waymo 的员工研究科学家,同时也是加州大学伯克利分校的计算机科学教授,她将领导人工智能安全与对齐团队。她表示,他们的工作旨在使模型更好地理解人类偏好和价值观,更加抗击对抗性攻击,并考虑到人类价值观和观点的动态性。

德拉甘在 Waymo 涉及人工智能安全系统可能会引起人们的关注,考虑到这家自动驾驶汽车公司最近的行车记录。然而,她认为自己在加州大学伯克利分校和 DeepMind 的工作是互补的。她强调解决当今问题和缓解长期风险并不是互相排斥的。

面临的挑战

对于 GenAI 工具的怀疑正在达到空前高度,特别是涉及深度伪造和虚假信息的问题。公众、企业和监管机构对这项技术的缺陷和潜在影响越来越担忧。合规性、隐私、可靠性以及使用 GenAI 工具所需的技术技能缺乏等问题引起了人们的顾虑。

然而,德拉甘承认人工智能安全挑战的棘手性,没有承诺完美的模型。DeepMind 打算在这一领域投入更多资源,并很快制定一个评估 GenAI 模型安全风险的框架。德拉甘认为,解决人类认知偏见、融入不确定性估计以及增加监控和确认对话是关键的步骤。但是,仍然存在着确保模型不会在部署之前以难以检测的方式行事的挑战。

人工智能安全的未来

最终的目标是创建一个随着时间推移既有利又安全的模型。虽然目前无法确定客户、公众和监管机构将如何对潜在的不端行为做出回应,但专注于人工智能安全是朝着正确方向迈出的一步。人工智能安全与对齐组织的努力,以及行业中的其他倡议,将在防范虚假信息和保持对人工智能技术的信任方面发挥关键作用。


问答:

问:人工智能安全与对齐组织的目的是什么?

“““html

目标:AI安全与对齐组织旨在制定保障措施,确保GenAI模型的安全,重点是防止错误信息,确保儿童安全,并避免偏见放大和其他不公正行为。

问题:谁将领导AI安全与对齐团队?

回答:安卡·德拉甘(Anca Dragan),一位前Waymo员工研究科学家和加州大学伯克利分校教授,将领导团队。

问题:确保AI安全面临哪些挑战?

回答:Deepfakes、错误信息、合规性、隐私、可靠性以及缺乏使用GenAI工具所需的技术技能是需要解决的一些挑战,以确保AI安全。

问题:如何使AI模型更加抗击对抗性攻击?

回答:通过处理训练数据中的人类认知偏差,整合不确定性估计,并为重要决策添加监控和确认对话来改善AI模型。

问题:AI安全与对齐的长期愿景是什么?

回答:该组织旨在开发能理解人类偏好和价值观、能够抵御对抗性攻击并能考虑人类价值观和观点动态特性的模型。


参考资料:

  1. Gemini: Google’s GenAI model
  2. Tackling Disinformation Risks on TikTok
  3. The Impact of AI Technology on Deepfakes
  4. Understanding the Risks of AGI
  5. OpenAI’s Superalignment Division
  6. Ensuring Child Safety in AI Models
  7. Addressing Bias and Injustice in AI
  8. Quantitative Analysis of the AI Safety Challenge

您认为Google在AI安全方面的努力能有效打击错误信息吗?您如何展望AI技术的未来?在下方分享您的想法并传播这些信息! 💬🔁

“`