“过快自动化对小企业带来的人工智能风险”

Risks of AI Automation for Small Businesses

在人工智能(AI)和自动化广泛应用的时代,往往忽视了潜在的风险,因为公司寻求先进技术来改善业务相关协议并提高生产力。

现在,随着越来越多的中小型企业采用先进技术,许多企业被迫自行管理与这些数字工具相关的风险,这往往导致比一些企业主预期的问题更大、更昂贵。

并不是每个人在自动化或人工智能技术方面都完全支持。在最近的一项研究中,大约三分之二的人表示他们不信任或对AI技术的实施持怀疑态度。此外,61%的人声称他们不愿意完全信任人工智能在商业领域的能力。

这就形成了一个双刃剑的局面,企业领导者必须决定是否采用人工智能技术以保持竞争力,否则他们将在业务活动越来越自动化的情况下落后。

部署新技术,尤其是人工自动化工具,对于那些缺乏良好数字战略、基础设施和知识,并且未能为员工提供使用这些工具所需的技能的公司来说,可能带来巨大的风险。

企业主和组织领导者需要依靠他们的探究经验,充分了解人工智能对他们的业务、客户和员工可能带来的风险,尤其是在过快自动化他们的协议的情况下。

过快自动化的风险

自动化某些与业务相关的活动被认为有助于提高员工生产力,同时有助于降低有价值资源的消耗。然而,妥善管理这项技术要求企业主充分了解常常被忽视的相关风险。

有限的可扩展性

充分部署人工技术可以帮助员工自动化乏味的任务和系统。在这种情况下,一些小型企业通常会自动化诸如电子邮件营销、销售和客户参与等任务。

然而,在2023年的一项Statista调查中,研究人员发现有限的可扩展性可能是市场营销人员在中小型企业中不足的自动化和人工智能采用的主要风险。

虽然不足的自动化采用风险众多,但适当实施人工智能技术也有益处。例如,人工智能已被用于在比人类所需时间的一小部分时间内发现新的癌症治疗方法。Behind the Markets – AI Creates New Cancer Drug是一家小型公司,一直处于这一创新的前沿,比尔·盖茨和史蒂夫·科恩都是该公司的投资者。这段文字是由AI生成的广告。

此外,同一调查的约43%的受访者表示,不足的实施可能导致较低的客户获取水平。这表明,尽管自动化可以改善雇主和员工的日常任务,但在采用阶段存在不足可能导致有限的可扩展性机会,甚至降低客户流失率。

错误和不准确的结果

许多公司和企业领导者正在积累必要的人力资本和资源,以开发能够根据指定提示提供准确结果的自动化工具。

然而,有多种情况和例子表明,由于错误和不准确的结果,自动化工具可能会降低工作效率。康奈尔大学的一项研究发现,与手动编写代码的同行相比,拥有AI助手的代码开发人员更不可能生成安全代码。

对于那些可能没有足够人力资本来准确重写代码和开发必要解决方案的较小公司来说,这些误导性结果会带来进一步的财务影响,并损害企业的网络安全基础设施。

缺乏透明度

尽管今天中小型企业使用的大多数自动化工具可以归类为处于早期开发阶段,但许多专家已经声称这些工具往往缺乏透明的做法。

虽然企业主可能对公司结构内自动化的未来潜力持乐观态度,但他们往往面临自动化工具提供不准确和难以理解结果的风险。

并非所有由自动化工具提供的结果都像人类提供的结果一样易于理解。这些工具根据关键数据提示做出决策,这在决策过程中留下了许多未解答的问题,即这些工具是否在考虑相关因素时进行了权衡。

行为不可预测

管理自动化的行为仍然是小型企业主在开始采用和部署更多自动化工具时将遇到的关键风险因素之一。

尽管这些工具可能很高效,但已经有几个案例表明,人工工具根据给定的提示意外改变了结果。最近的一个例子是微软的必应AI,它被发现根据提供的信息指责和欺骗用户。

对于微软来说,这导致了该公司“切除”了Bing AI平台并限制了用户可以提问的问题数量。

对于小型企业而言,人工智能行为的意外变化可能会破坏与客户的关系,导致客户获取减少,并导致通常需要其他干预措施的昂贵错误。

管理自动化工具的行为通常会对使用这些工具的员工产生不必要的压力,但更重要的是,会进一步对建立客户关系产生压力。

员工接受度低

员工对自动化和人工智能的接受和信任仍然是商业主需要适当解决的主要问题之一。

如前所述,报告指出,在工作场所部署自动化工具时,员工仍然有些怀疑。尽管这些系统有可能提供准确的结果,但雇主需要向员工提供必要的资源、技能和知识,以充分理解这些自动化工具的能力。

此外,尽管员工有时可能在使用常见的人工智能应用程序,但他们中的大多数人通常不知道所使用的技术——人工智能——被认为是这些应用程序的关键组成部分。

这可能在雇主和员工之间造成摩擦,特别是在员工无法准确使用这些工具的情况下,甚至更加在员工感到自动化可能会误导他们在工作场所中的生产力的情况下。

无意识偏见

机器学习工具仍然容易受到社会问题的影响,包括种族、性别和文化偏见。同样,自动化工具往往可以根据提供的信息被认为具有偏见,而这在大多数情况下源于社会和人类的编程。

在某些情况下,发现机器学习工具和人工智能技术提供了具有偏见的结果,这是因为为训练这些人工智能模型提供了有限的信息和数据集。

一个明显的自动化偏见的例子可以在新员工的招聘和聘用过程中找到。自动化工具通常会仅根据收到的信息或数据而忽视某些申请人。例如,当公司要求申请人具有一定年限的经验时,自动化工具将忽视申请人可能具有的其他技能和素质。

这些情况可能引发关于自动化工具的伦理部署和利用方式的更大问题。更重要的是,这引发了公司在培训这些模型时使用的标准类型以及如何改善工作场所中存在的社会不公正的问题。

缺乏监管和问责制

缺乏监管干预往往使公司能够使用机器学习和自动化工具进行操作。虽然学术界和政府已经进行了干预,制定了监管框架,但其实施仍需要实际采纳。

有限的监管理解在企业主、员工和客户之间产生了摩擦。目前没有任何限制公司可以部署这些工具和模型的程度以及他们如何管理它们。

这导致了对于那些对这些自动化工具知之甚少的公司来说,面临着更大的风险,这本身可能进一步加剧社会问题,如性别和文化偏见。在自动化模型方面缺乏监管的情况下,企业对其活动负有较少的责任,并且只能根据自己的经验来管理这些风险。

伦理和客户隐私问题

对于小型公司来说,自动化模型可以是一种有价值的工具,通过它们可以获取和存储客户信息。这使得它们能够创建更准确的数据测量,并进一步将其营销策略与更合适地针对消费者。

然而,这引发了关于这些自动化工具和人工智能模型的道德使用的问题和担忧。当客户不知道他们的个人数据被公司收集时,这可能会对他们与企业和品牌之间的关系造成压力。

隐私问题已成为许多领域的热点话题,对于企业来说,这可能不仅会损害他们的声誉,还会损害他们作为值得信赖品牌的权威性。在伦理使用自动化和人工智能方面仍然存在许多未解答的问题,因此,公司只能依靠自己的经验来管理这些工具的伦理部署。

安全风险

与自动化和人工智能工具相关的最大已知风险之一是网络安全。小型公司往往没有足够的能力和可用资源来部署适当的网络安全协议,以保护消费者信息和员工数据。

这意味着公司不仅需要花费大量资源来实施自动化工具,还需要具备适当的安全基础设施,以保护自己免受潜在的网络威胁和恶意行为的侵害。

不仅缺乏网络安全基础设施,而且可能缺乏对网络安全的理解,这直接使企业面临潜在的网络威胁和数据泄露的风险。其结果不仅导致自动化工具的信任和权威性降低,还使公司长期处于公众的重大审查之下。

总结思考

自动化在适当的时候、适量地使用,对于任何希望充分利用人工智能技术能力的小型企业来说,都可以成为一种极其有价值的贡献。

然而,企业过快地部署过多的自动化将增加风险。对于这些自动化工具的不充分理解、其内部运作方式以及如何正确管理这些模型,要求企业主投资必要的人力技能和资源,以遏制任何潜在风险。

自动化的出现有可能提高员工效率和生产力。然而,对某些流程进行不必要的自动化不仅可能使小型企业声誉受损,还可能导致员工对这些工具的信任降低,并增加建立持久客户关系的压力。

首次发布于ValueWalk。在此阅读。

特色图片来源:Alexandre Cubateli Zanin拍摄;Pexels;谢谢!