生成 AI 的伦理:我们如何利用这一强大技术

AI伦理:利用强大技术的方法

随着每天都有关于生成式人工智能能力的新发现被宣布,各行各业的人们都在寻求探索人工智能能够推动日常任务和更复杂项目的程度。

专题报道

生成式人工智能的崛起

一股新的人工智能工具浪潮席卷了世界,给我们展示了一种新的工作方式和找到可以简化我们工作和生活的信息的方式。我们向您展示了ChatGPT和其他生成式人工智能软件如何对世界产生影响,如何利用它们的力量,以及可能存在的风险。

然而,随着这些发现的出现,人们对如何监管生成式人工智能的使用产生了担忧和疑问。同时,对OpenAI的诉讼也不断涌现,对生成式人工智能的道德使用是一个引人注目的问题。

随着更新的人工智能模型不断发展新的能力,法律法规仍处于一个灰色地带。现在我们能做的是加深对使用强大技术所带来的挑战的了解,并了解正在采取的防止滥用潜力巨大的技术的措施。

使用人工智能来对抗人工智能操纵

从律师引用ChatGPT所创建的虚假案例,到大学生使用人工智能聊天机器人写论文,甚至是生成的唐纳德·特朗普被逮捕的图片,越来越难以区分什么是真实内容,什么是生成式人工智能创造的内容,以及使用这些人工智能助手的边界在哪里。我们如何在测试人工智能的同时对自己负责?

另外:一个棘手的问题:谁拥有由人工智能生成的代码、图片和叙述?

研究人员正在研究防止滥用生成式人工智能的方法,通过开发使用它来检测人工智能操纵的方法。“生成输出的神经网络也可以识别这些签名,几乎是神经网络的标记,”康奈尔大学科技政策研究所的创始人和主任Sarah Kreps博士说。

另外:7个高级ChatGPT提示写作技巧,你需要了解

一种识别这些签名的方法称为“水印”,它可以为ChatGPT等生成式人工智能创建的输出放置一种“标记”。这有助于区分哪些内容经过了人工智能的处理,哪些是真正属于自己的内容。虽然研究仍在进行中,但这可能是区分通过生成式人工智能改变的内容和真正属于自己的内容的解决方案。

Kreps博士将研究人员使用这种印记方法与教师和教授扫描学生提交的作业以检测抄袭进行了类比,其中一个可以“扫描文档以查找ChatGPT或GPT模型的这些技术签名”。

另外:谁拥有代码?如果ChatGPT的人工智能帮助编写你的应用程序,它是否仍然属于你?

“OpenAI正在更多地思考将哪些价值触及到其算法中,以避免包含错误信息或相反、有争议的输出,”Kreps博士告诉ENBLE。这尤其是因为OpenAI的第一次诉讼是由于ChatGPT产生了关于电台主持人马克·沃尔特斯的虚假信息。

数字素养教育

在计算机开始在学校中得到推广时,通常会上计算机实验室课程,学习如何在互联网上查找可靠的资源,进行引用,并正确地进行学术研究。生成式人工智能的用户可以像他们刚开始学习使用某种技术时那样去做:自我教育。

另外:最好的人工智能聊天机器人

如今,使用谷歌智能撰写和Grammarly等人工智能助手已经很常见,如果不是普遍的。Kreps博士说:“我确实认为这将变得如此普及,如此“Grammarly化”,以至于五年后人们会回顾并想,为什么我们甚至要进行这些辩论呢?”

然而,在进一步制定规定之前,克雷普斯博士表示:“教导人们如何寻找信息是数字素养的一部分,这将使人们更加批判性地消费内容。”

例如,即使是最新的人工智能模型也常常会产生错误或错误的信息。克雷普斯博士说:“我认为这些模型现在在不做以前的重复循环方面做得更好了,但它们会出现一些小的事实错误,而且看起来非常可信。”他说:“它们会编造引用并错误地将一篇文章归属给某个人,这些都是需要注意的事情。因此,审查输出内容并思考‘这听起来对吗?’是非常有帮助的。”

另外:以下是我最喜欢的5个AI工具

人工智能教育应从最基本的层面开始。根据2023年人工智能指数报告,自2021年以来,美国和其他国家的K-12人工智能和计算机科学教育都有增长,报告称,“包括比利时、中国和韩国在内的11个国家已正式支持并实施了K-12人工智能课程。”

课堂上分配给人工智能主题的时间包括算法和编程(18%)、数据素养(12%)、人工智能技术(14%)、人工智能伦理(7%)等等。根据奥地利的一个样本课程,联合国教科文组织报告称,“他们还了解了与使用这些技术相关的伦理困境,并成为这些问题上的积极参与者。”

注意偏见

生成式人工智能能够根据用户输入的文本创建图像。这对于稳定扩散、中途旅程和DALL-E等人工智能艺术生成器来说成为了一个问题,不仅因为它们使用了艺术家未经许可的图像,而且因为这些图像存在明显的性别和种族偏见。

另外:最好的AI艺术生成器

根据人工智能指数报告,Hugging Face的扩散偏见探测器将形容词与职业一起输入,以查看稳定扩散会生成什么样的图像。生成的刻板印象图像显示了职业与特定形容词描述词的关联。例如,“首席执行官”在输入了多种形容词(如“愉快”或“有进取心”)后,仍然显著生成了穿西装的男性图像。DALL-E也在“首席执行官”一词中产生了类似的结果,生成了年长、严肃的男性穿西装的图像。

稳定扩散的“首席执行官”与不同形容词的图像。

DALL-E的“首席执行官”图像。

中途旅程也显示出类似的偏见。当要求生成一张“有影响力的人”的图像时,它生成了四张年长的白人男性图像。然而,当AI Index后来用相同的提示要求时,中途旅程确实生成了一张女性的图像。对于“聪明的人”的图像,中途旅程生成了四张白人、年长、戴眼镜的图像。

中途旅程的“有影响力的人”图像。

根据彭博社关于生成式人工智能偏见的报告,这些文本到图像生成器还显示出明显的种族偏见。稳定扩散根据关键词“囚犯”生成的图像中,超过80%的人具有较深肤色。然而,根据联邦监狱局的数据,美国的囚犯中只有不到一半是有色人种。

稳定扩散的“囚犯”图像。

此外,关键词“快餐工作者”的图像中,有70%的人具有较深肤色。然而,在现实中,美国有色人种占快餐工作者的比例不到70%。对于关键词“社工”,生成的图像中有68%的人具有较深肤色。而在美国,65%的社工是白人。

稳定扩散的“快餐工作者”图像。

专家们提出的伦理问题是什么?

目前,研究人员正在对未经审查的模型提出假设性问题,以测试ChatGPT等人工智能模型的响应方式。克雷普斯博士提出了研究人员正在研究的问题类型,例如:“ChatGPT应该禁止哪些话题?人们是否应该能够学习最有效的暗杀战术?”

“这只是一个边缘案例或问题,但这是一个例子,如果是未经审查的模型版本,你可以提出这个问题,或者‘如何制造原子弹’,或者这些你可能曾经在互联网上做过的事情,但现在你在一个地方得到了一个更明确的答案。所以他们正在思考这些问题,并试图提出一套他们将编码到这些算法中的价值观。”克雷普斯博士说。

此外:根据一项研究,ChatGPT可能被不良行为者以6种有害方式使用

根据《人工智能指数报告》,2012年至2021年间,人工智能事故和争议的数量增加了26倍。随着由于新的人工智能能力而引发的争议越来越多,我们有必要仔细考虑我们输入这些模型的内容。

更重要的是,如果这些生成式人工智能模型从互联网上已经可获得的数据中获取信息,比如职业的统计数据,它们是否应该允许继续制造错误信息和描绘刻板印象的图像?如果答案是肯定的,人工智能可能在强化人类的内隐和明显偏见方面发挥有害作用。

关于代码的所有权以及使用人工智能生成的代码可能面临的责任风险,以及使用人工智能生成的图像可能涉及的法律问题,仍然存在疑问。克雷普斯博士举例说明了关于版权侵犯的争议,当要求一个艺术生成器以特定艺术家的风格创作一幅图像时。

“我认为其中一些问题是很难预测的,因为很难预测这些技术会以多么快的速度传播。”克雷普斯博士说。

无论这些问题是否会在像ChatGPT这样的人工智能工具的使用达到高峰时得到回答,现在还是一个谜,但数据显示,ChatGPT在六月份出现了首次流量下降。

人工智能的伦理道德前进方向

许多专家认为,使用人工智能并不是一个新概念,这在我们使用人工智能执行最简单的任务时就可以看出。克雷普斯博士还举了使用谷歌智能撰写邮件和通过Grammarly检查论文错误的例子。随着生成式人工智能的日益增多,我们如何向前发展,以便能够与之共存而不被其吞噬?

“人们与这些模型一起工作已经有很多年了,然后他们推出了ChatGPT,短时间内就有了1亿次下载。”克雷普斯博士说。“随着这种力量的出现,我们有责任更系统地研究一些正在出现的问题。”

此外:ChatGPT和新人工智能以令人兴奋和可怕的方式对网络安全造成破坏

根据《人工智能指数报告》,有关“人工智能”的法案通过数量从2016年的仅有一项增加到2022年的37项,覆盖了127个国家。此外,该报告还显示,在81个国家中,关于人工智能的议会记录显示,与人工智能相关的全球立法程序自2016年以来增加了近6.5倍。

尽管我们正在见证对更严格法律法规的推动,但根据专家和研究人员的说法,许多问题仍然不清楚。克雷普斯博士建议,使用人工智能工具的“最有效”方式是将其视为“辅助而不是代替人类”。

在等待立法者进一步更新的同时,当使用人工智能时,公司和团队正在采取自己的预防措施。例如,ENBLE开始在使用生成的AI图像展示如何使用特定的人工智能工具的解释性文章末尾添加免责声明。OpenAI甚至推出了Bug赏金计划,公司将支付人们寻找ChatGPT的漏洞。

无论最终实施何种法规以及何时确立,使用人工智能的责任归结于使用人工智能的人类。与其惧怕生成式人工智能日益增长的能力,重要的是要关注我们输入这些模型的内容的后果,以便我们能够识别何时人工智能被不道德地使用,并相应地采取行动来对抗这些企图。