谷歌、OpenAI 和 Meta 已同意,如果无法控制风险,将停止开发任何人工智能模型。 周二,两家公司在英国和韩国主办的人工智能首尔峰会上签署了“人工智能安全承诺”。
16家人工智能公司同意人工智能安全承诺
根据该报告,共有 16 家人工智能公司同意这一安全承诺,涵盖美国、中国和中东。
微软、亚马逊、Anthropic、tron电子和中国开发商智普人工智能也在同意该安全标准的公司之列。
人工智能安全承诺要求所有公司在 2025 年初于法国举行的另一届人工智能行动峰会之前发布各自的安全框架。该框架将解释公司如何确定其模型的风险以及哪些风险“被认为是无法容忍的”。
人工智能公司将终止有风险的人工智能模型
报告称,在最极端的情况下,如果风险无法得到控制,公司将“根本不会开发或部署模型或系统”。
只有我们能够控制风险,人工智能的真正潜力才会被释放。 确保人工智能安全开发是我们所有人的责任。 — 米歇尔·多尼兰,英国技术大臣
2023 年 7 月,美国政府做出了类似的努力来解决人工智能的风险和收益。 dent乔·拜登会见了谷歌、微软、Meta、OpenAI、亚马逊、Anthropic 和 Inflection,讨论人工智能保障措施,以确保他们的人工智能产品在发布前是安全的。
OpenAI 引发人工智能安全争论
过去几个月,关于人工智能安全的讨论一直在升温,特别是围绕旨在模仿类人通用智能的通用人工智能。
上周,在联合创始人 Ilya Sutskever 和高层管理人员 Jan Leike 从公司辞职后,OpenAI 成为了这场谈话的中心。 两人负责 OpenAI Superalignment 团队,该团队的成立是为了防止他们的模型失控。
雷克在帖子中表示,“过去几年,公司的安全文化和流程已经让位于闪亮的产品”。
Leike 补充道,“OpenAI 必须成为一家安全第一的 AGI 公司”,我们必须优先考虑尽最大努力做好准备,以确保 AGI 造福全人类。
发表评论