Meta 表示人工智能生成的选举内容并未在“系统层面”发生

Meta 表示人工智能生成的选举内容并未在“系统层面”发生

Meta 的全球事务主管 Nick Clegg 在《麻省理工学院技术评论》的 EmTech Digital 会议上发表讲话,讨论了该公司在打击错误信息、标记人工智能生成内容等方面所做的努力。

该公司全球事务总裁尼克·克莱格 (Nick Clegg) 周三表示,尽管印度尼西亚、台湾和孟加拉国等国家在 2024 年大选的选举中取得了重大胜利,但 Meta 发现人工智能生成的有关 2024 年大选的错误信息却少得惊人。 

克莱格在马萨诸塞州剑桥  举行的《麻省理工学院技术评论》 EmTech Digital 会议接受采访时表示:“到目前为止,有趣的事情——我要强调,到目前为止——不是人工智能生成的内容有多少,而是有多少。”

“它就在那儿;这是显而易见的。这实际上并没有在……数量或系统层面上发生,”他说。克莱格表示,梅塔曾目睹过干预台湾选举等行为的尝试,但干预的规模处于“可控范围内”。 

今年,50 多个国家的选民将前往投票站,专家们对人工智能生成的政治虚假信息以及恶意行为者利用生成式人工智能和社交媒体干扰选举的前景发出了警报。 Meta 此前曾因其围绕过去选举的内容审核政策而受到批评,例如,当时它未能阻止1 月 6 日的骚乱者在其平台上组织起来。 

克莱格为公司阻止暴力团体组织起来的努力进行了辩护,但他也强调坚持下去的难度。“这是一个高度对抗的空间。坦率地说,你玩打地鼠游戏。你消灭一个团体,他们就会给自己改名,重塑自己的品牌,等等,”他说。 

克莱格认为,与 2016 年相比,该公司现在在审核选举内容方面“完全不同”。他说,自那时以来,该公司已经删除了 200 多个“协同不真实行为网络”。该公司现在依靠事实核查人员和人工智能技术来识别其平台上不受欢迎的群体。 

今年早些时候,Meta 宣布将在 Facebook、Instagram 和 Threads 上标记 AI 生成的图像。Meta 已开始在这些图像上添加可见标记,以及图像文件中的不可见水印和元数据。水印将添加到使用 Meta 的生成 AI 系统创建的图像或带有不可见行业标准标记的图像中。该公司表示,其措施符合AI 研究非营利组织Partnership on AI 制定的最佳实践。

但与此同时,克莱格也承认,检测人工智能生成内容的工具仍然不完善、不成熟。人工智能系统中的水印尚未被整个行业采用,而且很容易被篡改。它们也很难在人工智能生成的文本、音频和视频中得到稳健的实现。 

克莱格说,归根结底这并不重要,因为 Meta 的系统应该能够捕获和检测错误和虚假信息,无论其来源如何。 

“人工智能在这方面是一把剑和盾,”他说。

克莱格还为该公司允许发布声称 2020 年美国大选被窃取的广告的决定进行了辩护,他指出,这种说法在世界各地都很常见,并表示 Meta 重新审理过去的选举“不可行”。就在本月,八位州务卿致信 Meta 首席执行官马克·扎克伯格,  这些广告仍然可能很危险,有可能进一步威胁公众对选举的信任和个别选举工作人员的安全。

您可以在下面观看对尼克·克莱格和《麻省理工技术评论》执行编辑艾米·诺德鲁姆的完整采访。