道德、信任和技能障碍阻碍了欧洲、中东和非洲地区生成式人工智能的进步

道德、信任和技能障碍阻碍了欧洲、中东和非洲地区生成式人工智能的进步

欧洲、中东和非洲地区 76% 的消费者认为人工智能将在未来五年产生重大影响,但 47% 的消费者质疑人工智能将带来的价值,41% 的消费者对其应用感到担忧。

这是根据企业分析 AI 公司Alteryx的研究得出的结论。

自 2022 年 11 月 OpenAI 发布ChatGPT以来,生成式人工智能的变革潜力引起了广泛关注,许多人认为它是我们这个时代最具革命性的技术之一。 

79% 的组织表示生成式人工智能对业务做出了积极贡献,显然需要解决差距,以向消费者展示人工智能在个人和职业生活中的价值。根据《市场研究:生成式人工智能的态度和采用》报告,该报告对欧洲、中东和非洲地区 690 名 IT 业务领导者和 1,100 名公众进行了调查,信任、道德和技能等关键问题普遍存在,可能会阻碍生成式人工智能的成功部署和更广泛的应用。对生成式人工智能的接受。

错误信息、不准确和人工智能幻觉的影响

这些幻觉——人工智能产生不正确或不合逻辑的输出——是一个值得关注的问题。对于企业领导者和消费者来说,信任生成式人工智能的成果都是一个重大问题。超过三分之一的公众对人工智能产生虚假新闻的潜力(36%)及其被黑客滥用(42%)感到焦虑,而一半的企业领导人表示正在努力应对生成人工智能产生的错误信息。与此同时,一半的企业领导者观察到他们的组织正在努力应对生成式人工智能产生的错误信息。

此外,生成式人工智能提供的信息的可靠性也受到质疑。公众的反馈表明,从人工智能获得的数据中有一半是不准确的,38% 的人认为这些数据已经过时。在商业方面,人们的担忧包括生成式人工智能侵犯版权或知识产权(40%),以及产生意想不到或非预期的输出(36%)。

企业 (62%) 和公众 (74%) 面临的一个关键信任问题与人工智能幻觉有关。对于企业而言,挑战在于将生成式人工智能应用于适当的用例,并辅以正确的技术和安全措施,以缓解这些担忧。近一半的消费者 (45%) 主张对人工智能的使用采取监管措施。

使用生成人工智能仍然存在伦理问题和风险

除了这些挑战之外,企业领导者和消费者对道德问题以及与生成人工智能相关的风险也存在强烈且相似的情绪。超过一半的公众(53%)反对使用生成式人工智能来做出道德决策。与此同时,41% 的企业受访者担心其在关键决策领域的应用。不鼓励使用的具体领域存在差异;消费者尤其反对其在政治中的使用(46%),企业对其在医疗保健领域的部署持谨慎态度(40%)。

这些担忧在研究结果中得到了验证,凸显了组织实践中令人担忧的差距。只有三分之一的领导者确认他们的企业确保用于训练生成人工智能的数据是多样化且公正的。此外,只有 36% 的企业制定了道德准则,52% 的企业为生成型 AI 应用制定了数据隐私和安全政策。

缺乏对数据完整性和道德考量,使企业面临风险。63% 的企业领导者表示,道德是他们对生成式人工智能的主要担忧,其次是数据相关问题 (62%)。这种情况强调了更好的治理的重要性,以建立信心并降低与员工在工作场所使用生成式人工智能相关的风险。 

生成式人工智能技能的兴起和增强数据素养的需求

随着生成式人工智能的发展,建立相关技能集和提高数据素养将是充分发挥其潜力的关键。消费者越来越多地在各种场景中使用生成式人工智能技术,包括信息检索、电子邮件通信和技能获取。企业领导者声称他们使用生成式人工智能进行数据分析、网络安全和客户支持,尽管试点项目取得了成功,但挑战仍然存在。尽管实验项目取得了成功,但仍然存在一些挑战,包括安全问题、数据隐私问题以及输出质量和可靠性。

Alteryx 首席信息官 Trevor Schulze 强调,企业和公众在采用生成式 AI 的早期阶段时,有必要充分了解 AI 的价值并解决常见问题。

他指出,解决信任问题、道德问题、技能短缺、对隐私侵犯的担忧和算法偏见是关键任务。舒尔茨强调,企业有必要加快数据之旅,采用稳健的治理,并允许非技术人员安全可靠地访问和分析数据,解决隐私和偏见问题,以便真正从这种“改变游戏规则”的技术中获利。