Meta 公司近日推出了其最新一代的开源大型语言模型 Llama 3,这一技术巨头声称 Llama 3 设定了新的性能基准,超越了之前业界领先的模型,如 GPT-3.5 在真实世界场景中的表现。
Meta 在公布此消息的博客中表示:“我们旨在构建与当前最佳专有模型相媲美的最佳开源模型。”
目前开放的 Llama 3 模型包括 80 亿和 700 亿参数版本。Meta 表示,其团队仍在训练超过 4000 亿参数的更大模型,并计划在未来几个月内发布这些模型及相关的研究论文。
Llama 3 的开发历时两年多,投入了大量资源用于搜集高质量的训练数据、扩展分布式训练、优化模型架构,以及在指令微调方面的创新方法。
Meta 的 700 亿参数经过指令微调的模型在人类评估中胜过了 GPT-3.5、Claude 以及其他同等规模的大型语言模型,在编程、推理和创意写作等 12 个关键使用场景中表现出色。该公司的 80 亿参数的预训练模型也在流行的大型语言模型评估任务上设立了新的基准:
Meta 声称:“我们相信这些是同类中最优秀的开源模型。”
为了进一步推动围绕人工智能开发的开放生态系统,这家技术巨头采取了“默认开放”的策略发布这些模型。Llama 3 将在所有主要的云服务提供商、模型托管平台、硬件制造商和人工智能平台上提供。
Iris.ai 的首席技术官兼联合创始人 Victor Botev 评论道:“在全球人工智能法规日益趋严的背景下,Meta 推出的 Llama 3 模型具有重要意义。通过开源,Meta 与负责任的人工智能实践和道德开发的日益重视保持一致。
此外,这也为更广泛的社区教育提供了机会,因为开源模型促进了对开发过程的了解和对不同方法的审查,这种透明性将反馈到法规的制定和执行中。”
Meta 的最新模型还配备了更新的人工智能安全工具套件,包括用于风险分类的 Llama Guard 和用于评估潜在滥用的 CyberSec Eval 的第二代版本。此外,还引入了一个名为 Code Shield 的新组件,用于在推断时过滤不安全的代码建议。
Botev 继续指出:“然而,重要的是要保持透视 —— 仅仅因为一个模型是开源的,并不自动等同于它是伦理的人工智能。”他补充说,解决人工智能的挑战需要全面的方法,包括处理数据隐私、算法偏见和社会影响等问题——这些都是全球新兴人工智能法规的关键焦点。
“尽管像 Llama 3 这样的开放性倡议促进了审查和合作,但它们的真正影响取决于对人工智
能治理的全面方法和将伦理原则融入人工智能系统生命周期的实践。Meta 持续在 Llama 模型上的努力是朝着正确方向迈出的一步,但伦理人工智能需要所有利益相关者的持续承诺。”
Meta 表示,已采取“系统级方法”来负责任地开发和部署 Llama 3 模型。尽管这些模型已经经过了广泛的安全测试,公司强调开发者应根据他们的应用需求实施自己的输入/输出过滤。
公司的终端用户产品集成了 Llama 3,称为 Meta AI,Meta 声称它现在是全球领先的人工智能助手,得益于新的模型。用户可以通过 Facebook、Instagram、WhatsApp、Messenger 和网页访问 Meta AI,用于提高生产力、学习、创造力和一般查询。
Meta AI 的多模态版本将整合视觉能力,早期预览将通过 Meta 的 Ray-Ban 智能眼镜提供。
尽管 Llama 3 取得了显著成就,但一些人工智能领域的人士对 Meta 采取开放方式“为了社会的利益”表示怀疑。
然而,就在 Mistral AI 以 Mixtral 8x22B 设置新的开源模型基准一天后,Meta 的发布再次提高了公开可用的大型语言模型的标准。
发表评论