医药公司首席执行官:不要停止人工智能研究,我们的工作太重要了

CEO of pharmaceutical company Don't stop AI research, our work is too important.

社会应该如何应对人工智能的风险?有人认为可想象的好处超过了即时的危险,因此,应该轻描淡写地追求限制。

Recursion Pharmaceuticals的联合创始人兼首席执行官克里斯·吉布森(Chris Gibson)在最近接受ENBLE采访时表示:“我认为那些要求我们停止(人工智能)研究的广泛、笼统的建议有点误导。”

吉布森表示:“我认为人们继续拥抱机器学习的机会非常重要。”

此外:根据专家的说法,生成式人工智能的5个最大风险

吉布森的公司正在与大型制药公司合作,利用人工智能进行药物研发。

吉布森是在回应马斯克(Elon Musk)、人工智能学者Yoshua Bengio和其他许多人在三月份发表的一封公开信中,呼吁暂停人工智能研究以调查其中的危险。

该请愿书呼吁暂停所谓的“失控竞赛”,因为它们生产出来的系统创造者无法“理解、预测或可靠控制”。

吉布森关注的是他所在公司和其他公司继续从事药物研发等工作的能力。Recursion是与拜耳和基因泰克等公司合作的合作伙伴,目前有五个候选药物处于临床阶段的药物开发流程中。该公司在“现象图”中积累了超过13个皮字节的信息,这是它对分子之间“推断关系”的数据库的称呼。

此外:Meta首席人工智能科学家LeCun表示:“OpenAI是产品开发,而不是人工智能研究”

吉布森表示:“将模型独立地用于回答非常具体的问题我认为对推动人类进步非常重要。”吉布森告诉ENBLE:“像我们这样的模型,以及像我们这样的其他公司,我们不想因为前方有多少机会而暂停六个月,或者暂停一年。”

吉布森的公司于七月宣布,从Nvidia获得了5000万美元的投资,后者的GPU芯片在人工智能处理方面占据主导地位。

吉布森对那些担心人工智能或呼吁暂停研究的人发表了谨慎的言论。他说:“这个问题两方面都有非常聪明的人,”他指出,几年前,Recursion的一位联合创始人因为对人工智能的道德挑战感到担忧而退出了公司的日常经营。

Recursion的顾问之一Yoshua Bengio是该公开信的签署者之一。

吉布森说:“Yoshua很聪明,所以这让我有点为难。”他说:“但是,我认为这场辩论两方都有非常重要的观点。”

此外:根据Recursion首席执行官的说法,人体和疾病的伟大谜团正在开始向人工智能屈服

支持和反对暂停的各方的不同观点“表明应该谨慎,”他说,“但我不认为我们应该暂停任何一段时间的机器学习和人工智能算法的所有训练和推理。”

吉布森的团队随后向ENBLE指出,Bengio在他对人工智能风险的博客文章中,区分了威胁与对社会有用的人工智能应用(如医疗保健)。

Gibson支持像Bengio等同行的人,例如Meta Properties首席人工智能科学家Yann LeCun,他反对他的朋友和有时合作伙伴的倡议。

Gibson允许认真考虑一些风险概念,尽管不太可能。其中一个是由Future of Humanity Institute等组织概述的人类终结场景。

“在人工智能领域有人认为,如果你要求机器学习或人工智能算法最大化某种效用函数,比如让世界变得尽可能美丽和和平,那么一个人工智能算法可能会(或多或少)正确地解释人类是美丽和和平缺失的主要原因,”Gibson说。

此外:ChatGPT:《纽约时报》和其他媒体对此的严重错误

因此,一个程序可能会”引入一些真正可怕的东西”。他说,这样的前景”可能是牵强的”。 “但是,影响如此之大,所以有必要考虑一下。尽管我们上天时的任何一架飞机都不太可能坠毁,但我们肯定会关注警告,因为代价太大了。”

Gibson还表示,还有一些”一些显而易见的事情,我们今天都可以达成共识”,比如不允许程序控制大规模杀伤性武器。

“我会主张让人工智能或机器学习算法访问我们的核发射系统吗?绝对不会,”他说。

在更实际的层面上,Gibson认为算法中的偏见问题需要解决。 “我们需要确保我们对数据集非常谨慎,并确保我们优化算法的效用函数中没有某种偏见。”

此外:哲学家大卫·查尔默斯表示,人工智能在10年内有20%的机会具有感知能力

“您会发现越来越多偏见渗入到这些算法的结果中,而这些算法越来越成为我们生活的一部分,”Gibson观察到。

Gibson认为,最基本的问题应该对所有人都是显而易见的。 “一个很好的例子是,我认为给予算法对互联网的不受控制的访问更加危险,”他说。 “因此,可能会有一些短期的规定与此相关。”

他表示,他对监管的立场是,”作为一个高效运转的社会的一部分,就是将所有这些选项放在桌面上,就这些问题进行重要的讨论。我们只需要小心,不要过度进行面向所有机器学习或人工智能的广泛监管。”

对于AI伦理的一个紧迫问题是OpenAI和Google等公司越来越不披露其程序的内部工作方式的趋势。 Gibson表示,他反对要求程序开源的任何规定。 “但是,”他补充说,”我认为大多数公司与社会分享他们的一些工作方式对于推动每个人的发展非常重要。”

此外:根据Stability.ai创始人的说法,开源对缓解人工智能恐惧至关重要

他指出,Recursion开源了许多数据集,并表示,”我不排除我们将来开源一些模型的可能性。”

显然,监管和控制的重大问题归结为特定国家公民的意愿。一个关键问题是如何教育选民有关人工智能方面的知识。在这方面,Gibson并不乐观。

他说,虽然教育很重要,但”我普遍认为,公众似乎对接受教育不感兴趣了。”

“对这些事情感兴趣的人往往会参与其中,而世界上大多数人则不会,这是非常不幸的。”