AI NEWS近日采访了 Ikigai Labs 总裁 Kamal Ahluwalia,讨论了人工智能的所有问题,包括如何采用和利用该技术的重要技巧,以及将道德规范融入人工智能设计的重要性。
您能否向我们介绍一下 Ikigai Labs 以及它如何为企业提供帮助?
Ikigai 正在利用专为结构化表格数据设计的生成式 AI 平台,帮助组织将稀疏、孤立的企业数据转化为预测性和可操作的见解。
企业数据的很大一部分是结构化的表格数据,驻留在 SAP 和 Salesforce 等系统中。这些数据驱动整个业务的规划和预测。虽然大型语言模型 (LLM) 非常适合文本等非结构化数据,但令人兴奋不已,Ikigai 的专利大型图形模型 (LGM) 由 MIT 开发,专注于使用结构化数据解决问题。
Ikigai 的解决方案特别关注时间序列数据集,因为企业运行在四个关键时间序列上:销售、产品、员工和资本/现金。了解这些时间序列如何在关键时刻(例如推出新产品或进入新地区)结合在一起,对于做出更好的决策以推动最佳结果至关重要。
您如何描述当前的生成式人工智能格局,以及您对它未来的发展有何展望?
那些激发想象力的技术,例如来自 OpenAI、Anthropic 等的法学硕士,都来自消费者背景。他们接受了互联网规模数据的训练,并且训练数据集只会变得越来越大,这需要大量的计算能力和存储空间。 GPT4 的训练花费了 1 亿美元,GP5 预计花费 25 亿美元。
这种现实适用于消费者环境,其中成本可以在非常大的用户群中分摊,并且一些错误只是培训过程的一部分。但在企业里,错误是不能容忍的,幻觉是不能选择的,准确性才是最重要的。此外,在互联网规模的数据上训练模型的成本是无法承受的,利用基础模型的公司面临着其知识产权和其他敏感数据暴露的风险。
虽然一些公司已经走上了构建自己的技术堆栈的道路,以便法学硕士可以在安全的环境中使用,但大多数组织缺乏自行构建技术堆栈的人才和资源。
尽管面临挑战,企业仍希望获得法学硕士提供的经验。但结果必须准确——即使数据稀疏——并且必须有一种方法将机密数据排除在基础模型之外。找到降低总拥有成本的方法也很重要,包括训练和升级模型的成本、对 GPU 的依赖以及与治理和数据保留相关的其他问题。所有这些都导致了一套与我们目前拥有的非常不同的解决方案。
公司如何制定战略以最大限度地发挥生成式人工智能的优势?
虽然关于大型语言模型 (LLM) 及其潜在应用的文章很多,但许多客户都在问“我如何建立差异化?”
通过法学硕士,几乎每个人都可以访问相同的功能,例如聊天机器人体验或生成营销电子邮件和内容 – 如果每个人都有相同的用例,那就不是一个差异化因素。
关键是将重点从通用用例转移到寻找优化领域并理解特定于您的业务和环境的领域。例如,如果您从事制造业,需要将业务迁出中国,您如何应对物流、劳动力和其他因素的不确定性?或者,如果你想制造更环保的产品,材料、供应商和成本结构都会发生变化。你如何建模?
这些用例是公司尝试使用人工智能在不确定的世界中运营业务和规划的一些方式。找到特异性并根据您的独特需求定制技术可能是使用人工智能找到真正竞争优势的最佳方式。
公司在部署生成式人工智能时面临哪些主要挑战以及如何克服这些挑战?
在听取客户的意见后,我们了解到,虽然许多人已经尝试过生成式人工智能,但由于成本过高和安全问题,只有一小部分人将其投入生产。但是,如果您的模型可以仅根据您自己的数据进行训练,在 CPU 上运行而不需要 GPU,并且能够获得准确的结果并且透明地了解如何获得这些结果,结果会怎样呢?如果所有监管和合规问题都得到解决,并且不留任何关于数据来自何处或有多少数据正在被重新训练的问题,结果会怎样?这就是 Ikigai 通过大型图形模型带来的东西。
我们帮助企业解决的挑战之一是数据问题。近 100% 的组织所使用的数据有限或不完善,在许多情况下,这成为使用人工智能开展任何工作的障碍。公司经常谈论数据清理,但实际上,等待完美的数据可能会阻碍进展。能够处理有限、稀疏数据的人工智能解决方案至关重要,因为它们允许公司从现有数据中学习并负责变革管理。
另一个挑战是内部团队如何与技术合作以获得更好的结果。特别是在受监管的行业中,人类监督、验证和强化学习是必要的。在循环中添加专家可以确保人工智能不会在真空中做出决策,因此找到融合人类专业知识的解决方案是关键。
您认为成功采用生成式人工智能在多大程度上需要公司文化和思维方式的转变?
成功采用生成式人工智能需要公司文化和思维方式的重大转变,以及高管和继续教育的坚定承诺。当我们将我们的人工智能平台带给 140 多个国家的公司时,我亲眼目睹了这一点。我总是建议团队首先让高管了解什么是可能的、如何做以及如何实现这一目标。他们需要有决心将其完成,这涉及一些实验和一些坚定的行动方案。他们还必须了解对同事的期望,以便为人工智能成为日常生活的一部分做好准备。
自上而下的承诺和高管的沟通大有帮助,因为有很多散布恐惧的言论表明人工智能将抢走工作岗位,高管们需要定下基调:虽然人工智能不会彻底消除工作岗位,但每个人的工作都会被取代。未来几年将会发生改变,不仅是对底层或中层的人,而是对每个人。整个部署过程中的持续教育对于团队学习如何从工具中获取价值并调整工作方式以融入新技能组合至关重要。
采用符合企业实际的技术也很重要。例如,您必须放弃需要获取所有数据才能采取行动的想法。在时间序列预测中,当你花了四个季度来清理数据时,可用的数据更多了,而且可能已经一团糟了。如果你一直等待完美的数据,你将根本无法使用你的数据。因此,能够处理有限、稀疏数据的人工智能解决方案至关重要,因为你必须能够从现有数据中学习。
另一个重要方面是在循环中添加专家。认为人工智能具有魔法是错误的。有很多决策,特别是在受监管的行业,你不能让人工智能直接做出决策。你需要监督、验证和强化学习——这正是消费者解决方案变得如此出色的原因。
您是否可以与我们分享有关成功利用生成式人工智能的公司的案例研究?
一个有趣的例子是 Marketplace 客户正在利用我们来合理化他们的产品目录。他们希望了解要携带的 SKU 的最佳数量,以便在满足客户需求的同时降低库存携带成本。另一个合作伙伴负责劳动力规划、预测和调度,利用我们来实现医院、零售和酒店公司的劳动力平衡。就他们而言,所有数据都位于不同的系统中,他们必须将其纳入一个视图,以便能够平衡员工健康与卓越运营。但由于我们可以支持各种各样的用例,因此我们与客户合作,从预测产品使用情况(作为转向基于消费的模型的一部分)到欺诈检测。
你们最近成立了人工智能道德委员会。这个委员会的成员都是些什么人,其目的是什么?
我们的人工智能道德委员会致力于确保我们正在构建的人工智能技术以道德和负责任的设计为基础。这是我们公司的核心部分,我很荣幸也很荣幸能与如此令人印象深刻的团队一起成为其中的一部分。我们的委员会包括 Munther Dahleh 博士等杰出人物,他是数据系统与社会研究所 (IDSS) 的创始主任、麻省理工学院的教授; Aram A. Gavoor,乔治华盛顿大学副院长,行政法和国家安全领域公认的学者; Michael Kearns 博士,宾夕法尼亚大学国家计算机与信息科学中心主席;迈克尔·I·乔丹 (Michael I. Jordan) 博士是加州大学伯克利分校电气工程与计算机科学系以及统计学系的杰出教授。我也很荣幸能够与这些受人尊敬的人士一起在这个委员会任职。
我们的人工智能道德委员会的目的是解决影响人工智能开发和使用的紧迫道德和安全问题。随着人工智能迅速成为几乎所有行业的消费者和企业的核心,我们认为优先考虑负责任的发展至关重要,并且不能忽视道德考虑的需要。该委员会将每季度召开一次会议,讨论人工智能治理、数据最小化、保密性、合法性、准确性等重要议题。每次会议结束后,理事会将发布组织应考虑向前推进的行动和后续步骤的建议。作为 Ikigai Labs 对道德人工智能部署和创新承诺的一部分,我们将实施理事会建议的行动项目。
Ikigai Labs 去年 8 月筹集了 2500 万美元资金。这将如何帮助公司、其产品以及最终您的客户的发展?
我们与麻省理工学院的核心团队拥有强大的研究和创新基础,因此这次的资金主要用于使解决方案更加强大,以及组建与客户和合作伙伴合作的团队。
我们可以解决很多问题,但仍专注于通过时间序列超级应用程序解决一些有意义的问题。我们知道每家公司都运行四个时间序列,因此目标是深入、快速地涵盖这些内容:销售预测、消费预测、折扣预测、如何淘汰产品、目录优化等。我们很兴奋,正在寻找致力于将表格数据的 GenAI 交到尽可能多的客户手中。
发表评论