欧洲数据保护倡导组织noyb已对OpenAI提出投诉,称该公司无法纠正 ChatGPT 生成的不准确信息。该组织声称,OpenAI 未能确保该服务处理的个人数据的准确性,违反了欧盟的《通用数据保护条例》(GDPR)。
“编造虚假信息本身就很成问题。但当涉及到有关个人的虚假信息时,可能会产生严重后果,”noyb 数据保护律师 Maartje de Graaf 说道。
“很明显,公司目前无法使 ChatGPT 等聊天机器人在处理个人数据时遵守欧盟法律。如果一个系统不能产生准确和透明的结果,它就不能用于生成有关个人的数据。技术必须遵循法律要求,而不是相反。”
GDPR 要求个人数据准确,如果数据不准确,个人有权纠正,并有权访问有关所处理数据及其来源的信息。然而,OpenAI 公开承认,它无法纠正 ChatGPT 生成的错误信息,也无法披露用于训练模型的数据来源。
“大型语言模型的事实准确性仍然是一个活跃的研究领域,”OpenAI 认为。
该倡导组织强调了《纽约时报》的一份报告,该报告发现像 ChatGPT 这样的聊天机器人“至少有 3% 的时间发明信息,最高可达 27%”。在针对 OpenAI 的投诉中,noyb 举了一个例子,尽管投诉人要求更正,但 ChatGPT 多次为投诉人(一位公众人物)提供了错误的出生日期。
“尽管 ChatGPT 提供的投诉人的出生日期不正确,但 OpenAI 拒绝了他纠正或删除数据的请求,认为无法纠正数据,”noyb 表示。
OpenAI 声称它可以过滤或阻止某些提示上的数据,例如投诉人的姓名,但不会阻止 ChatGPT 过滤有关个人的所有信息。该公司也未能充分回应投诉人的访问请求,而 GDPR 要求公司满足该请求。
“遵守访问请求的义务适用于所有公司。显然可以保留用于至少了解信息来源的训练数据记录,”德格拉夫说。 “似乎每一次‘创新’,都有另一批公司认为其产品不必遵守法律。”
欧洲隐私监管机构已经审查了 ChatGPT 的不准确性,意大利数据保护局于 2023 年 3 月对 OpenAI 的数据处理实施了临时限制,欧洲数据保护委员会成立了 ChatGPT 工作组。
noyb 在投诉中要求奥地利数据保护局调查 OpenAI 的数据处理和措施,以确保其大型语言模型处理的个人数据的准确性。该倡导组织还请求当局命令 OpenAI 遵守投诉人的访问请求,使其处理符合 GDPR,并处以罚款以确保未来合规。
完整PDF:https://noyb.eu/sites/default/files/2024-04/OpenAI%20Complaint_EN_redacted.pdf
发表评论