克服你最大的关于生成式人工智能的忧虑的4种方法

解除你所擔心的最大關於生成式人工智能的疑慮的四種方法

worry-tech-gettyimages-1427840767

生成式人工智能 (AI) 在未受过训练的人眼中就像魔法。

从总结文本到创建图片和编写代码,像OpenAI的ChatGPT和微软的Copilot这样的工具似乎可以在几秒钟内提供对挑战性问题的杰出解决方案。然而,生成式人工智能的魔法能力可能伴随着一些无用的花招。

另外:你的企业是否需要首席人工智能官?

无论是伦理关注、安全问题还是幻觉,用户必须了解可能削弱新兴技术好处的问题。在这里,四位企业领导人解释了如何解决一些与生成式人工智能相关的重大问题。

1. 以符合道德标准的方式利用新机遇

奥斯陆的孟克博物馆创新与研究主管Birgitte Aga表示,许多与AI有关的担忧与人们不理解其潜在影响有关,这是有充分理由的。

尽管像ChatGPT这样备受瞩目的生成式AI工具已经面向公众开放了12个多月,但很少有企业将该工具用于实际生产环境,很多人仅仅对该技术进行了尝试。

Aga表示,组织应该让员工有机会以安全可靠的方式了解新兴技术的实际应用。“我认为降低所有人参与和参与的门槛至关重要。”她说。“但这并不意味着盲目进行。”

Aga表示,在员工讨论AI的用途时,他们也应考虑一些涉及到偏见、刻板印象和技术限制等重大伦理问题

另外:AI的安全性和偏见:解开AI训练的复杂链条

她在与ENBLE的视频聊天中解释了博物馆如何与技术专家TCS合作,找到能够帮助更广泛受众理解艺术的AI应用方式。

“与TCS合作时,我们在伦理和道德层面上真正保持一致。”她说。“寻找那些在这个层面上真正与你保持一致的合作伙伴,然后从那里开始,而不仅仅是找到做酷东西的人。”

2. 建立一个专门小组来减少风险

Gartner杰出副总裁分析师Avivah Litan表示,要注意的一个关键问题是来自IT部门外部人员对变革的压力。

“业务部门渴望全力前进,”她说,指的是专业人士跨组织采用生成式AI工具的趋势,而不管是否得到相关人员的批准。“安全风险人员在部署这种技术时难以应对,难以追踪人们的行为,管理风险。”

另外:64%的工人将生成式AI工作视为自己的工作

结果是,两个群体之间存在很多紧张关系:一方面是想要使用AI的人,另一方面是需要管理其使用的人。

她在与ENBLE的视频聊天中表示:“没人想要扼杀创新,但是安全和风险人员以前从未面对过这样的问题。尽管AI存在多年,但直到生成式AI的崛起,他们才真正需要担心任何这种技术。”

Litan表示,缓解担忧的最佳方式是创建一个AI任务组,汇集来自企业各个领域的专家,并考虑隐私、安全和风险。

她说:“这样每个人都能明白风险是什么,模型应该达到什么样的目标,最终能够获得更好的性能。”

另外:2023年AI:一年的突破使人类生活无数改变

Litan表示,根据Gartner的研究,三分之二的组织尚未建立针对AI的任务组。她鼓励所有公司创建这种跨业务的专业团队。

她说:“这些任务组支持着共同的理解,人们知道该期望什么,企业能够创造更多价值。”

3. 限制模型以减少幻觉

Toyota Motors Europe的数据与分析战略高级经理Thierry Martin表示,他对生成式AI的最大担忧是幻觉。

他在对用于编码目的的生成式AI进行测试时亲眼见到了这些问题。

Martin表示,除了个人探索之外,企业还必须关注他们所使用的大型语言模型(LLMs),所需的输入和推出的输出。

他说:“我们需要非常稳定的大型语言模型。现在很多最受欢迎的模型是基于诗歌、哲学和技术内容进行训练的。当你提出问题时,就会出现幻觉的可能性。”

另外:8种减少ChatGPT幻觉的方法

Martin在与ENBLE的一对一视频采访中强调,企业必须找到方法创建更受限制的语言模型。

他说:“我希望模型保持在我提供的知识库之内。然后,如果我询问模型某个具体的问题,它将给我正确的回答。因此,我希望看到与我所提供的数据更相关的模型。”

Martin对一些开创性的发展非常感兴趣,比如Snowflake与Nvidia的合作,两家公司正在创建一个AI工厂,帮助企业将其数据转化为自定义的生成式AI模型。

他说:“例如,一个在生成SQL查询或Python代码方面表现完美的LLM是很有趣的。ChatGPT和其他公共工具适合偶尔使用者。但是,如果将这种工具与企业数据连接起来,必须谨慎对待。”

4. 逐步进展以缓和期望

招聘专家Nash Squared的CEO Bev White说,她最担心的是使用生成式AI的实际情况可能与设想大相径庭。

她在与ENBLE的视频对话中说:“有很多炒作。也有很多危言耸听者说工作岗位将会消失,AI将导致大规模失业。还有所有关于数据安全和隐私的担忧。”

White表示,重要的是要认识到生成式AI的头12个月以大型科技公司争相完善和更新模型为特点。

“这些工具已经经历了很多次迭代 – 这并不是偶然的,”她说。“使用这项技术的人们正发现好处,但他们也需要注意每个迭代发布时的变化。”

另外: 来自生成AI的3个最大风险 – 以及如何处理

White建议CIO和其他高级管理人员谨慎行事。不要害怕退后一步,即使感觉其他人都在快速前进。

“我认为我们需要一些具体的东西作为护栏。组织中的CISO必须开始思考生成AI – 我们的证据表明他们正在这样做。此外,监管需要跟上变化的步伐,”她说。

“也许在我们弄清楚如何使用这项技术之前,我们需要慢一些。就像发明了一枚了不起的火箭,但在发射之前没有稳定器和安全系统一样。”