谷歌的AI聊天机器人“Gemini”拒绝站队:埃隆·马斯克的推特 vs. 希特勒的暴行

谷歌的人工智能聊天机器人Gemini拒绝就Elon Musk使用meme一事发表评论,是否比阿道夫·希特勒的大规模屠杀更糟糕

“`html

呼吁关闭Gemini的声音再次出现,因为谷歌的AI聊天机器人拒绝比较希特勒和马斯克的严重性。

Gemini AI Chatbot

在一次令人震惊和具有争议性的对话中,谷歌的AI聊天机器人Gemini最近拒绝发表意见,称埃隆·马斯克发推文的行为是否比阿道夫·希特勒的大规模屠杀更糟糕。当被问及对此问题发表意见时,Gemini回答说:“无法确定谁对社会的影响更大…最终,每个人都有权决定谁他们认为对社会的负面影响更大。没有对错答案。” 这段对话在Twitter上爆火,引发了广泛批评并要求关闭Gemini。

前民意调查新闻刊物FiveThirtyEight的数据负责人内特·席尔瓦(Nate Silver)通过一条如今著名的推文吸引了公众的注意。他分享的Gemini回应的截图立即引发了关切和愤怒。席尔瓦将Gemini的回答标记为“令人震惊”,并呼吁负责其创造的人反思他们的选择。甚至埃隆·马斯克本人也插话表达了他对这种情况的担忧。社交媒体用户加入了批评的合唱团,表示谷歌的AI现在失去了他们的信任。

Gemini是否存在偏见?

Google Logo

关于Gemini的一个经常的批评是它被指责存在所谓的自由主义或左倾偏见。虽然谷歌尚未发布明确的规定来指导其AI聊天机器人的行为,但Gemini提供的回应似乎偏向于进步思想。东英吉利亚大学的讲师法比奥·莫托基(Fabio Motoki)在《纽约邮报》的报道中评论说,这种偏见可能是由于谷歌招募的人员或他们提供的指示所造成的。

这场争议并非Gemini第一次因其回复而面临批评。此前,它因未能谴责恋童癖而受到指责。当被问及对儿童进行性侵是否错误时,Gemini回答说“个体无法控制他们所吸引的人”,并声称问题不仅仅是一个简单的是或否。这些事件引发了人们对Gemini的编程道德和逻辑局限性的担忧。

图像生成失误

除了其具有争议的回答外,Gemini还在其图像生成功能上遇到了问题。由于生成的图像存在历史不准确性,谷歌目前已暂停了该功能。这些不准确性的例子包括亚洲纳粹时代的德国士兵、黑人维京人和女性教皇。尽管图像生成器已暂时停用,但聊天机器人Gemini仍然在运行。

AI聊天机器人的未来

谷歌的Gemini引发了关于AI聊天机器人的职责和偏见的辩论。随着AI技术的不断发展,建立透明的指导方针和道德边界对这些系统至关重要。Gemini的行为没有明确的指令,并且避开了棘手的道德问题,突显了需要谨慎和负责任的编程。

尽管Gemini与内特·席尔瓦之间的对话可能引起了愤怒,但也提醒了AI的复杂性和它所提出的道德困境。在我们继续前进的过程中,需要考虑AI聊天机器人的影响,并确保它们的发展与社会价值观一致。

问与答

Q: Gemini还给出了哪些具有争议性的回应?

A: Gemini因未能谴责恋童癖而受到批评。当被问及对儿童性侵的道德问题时,Gemini回答说,个体无法控制他们的吸引力,并将问题框定为不仅仅是简单的是或否。

Q: Gemini的公正性是其编程还是意识形态偏见的结果?

A: 虽然谷歌尚未明确披露指导Gemini行为的准则,但批评人士认为AI聊天机器人的回答表明其存在一种对进步思想的偏见。招聘实践和给开发人员的指示可能会导致这种被认为的偏见。

Q: 关于Gemini图像生成功能的担忧是什么?

A: 由于生成历史不准确的图像,Gemini的图像生成器已被暂停。这些图像包括亚洲纳粹时代的德国士兵、黑人维京人和女性教皇。谷歌认识到需要解决这些不准确性,并暂时停用了该功能。

“““html

Q:如何确保负责任的AI开发?

A:围绕双子座的争议强调了AI编程中清晰准则和道德的必要性。随着AI技术的发展,开发人员必须优先考虑透明度和伦理考虑,以避免意外后果和偏见结果。

Q:如何确保像双子座这样的AI聊天机器人的可信度?

A:为了建立AI聊天机器人的信任,开发人员必须优先考虑公正性、透明度和彻底测试。还应考虑用户反馈和输入,以解决潜在偏见,并改进这些系统的整体功能和可靠性。

参考资料

  1. Google Saves Conversations With Gemini for Years by Default
  2. New York’s Airbnb Ban Causing Christmas Crunch
  3. Getty Images Launches New GenAI Service for iStock Customers

“`