您当前位置:资讯中心 >安全 >浏览文章

OpenAI 公布2024选举虚假信息打击计划

来源:小薯条 日期:2024/1/18 18:24:15 阅读量:(0)

据统计,2024 年预计将有 50 多个国家举行大选,虚假信息的威胁成为人们关注的焦点。

人工智能聊天机器人 ChatGPT 和图像生成器 DALL-E 的开发商 OpenAI 近日宣布了一项新的措施,以防止在今年大选之前再次出现虚假信息滥用和误导事件。

本周一(1月15日),该公司宣布正在与美国历史最悠久的无党派公职人员专业组织——全美国务卿协会(NASS)合作,防止 ChatGPT 在 11 月美国总统大选前向用户输出一些错误信息。

例如,当被问及有关选举的问题时,如在哪里投票,OpenAI 的聊天机器人将引导用户访问美国投票信息的权威网站 CanIVote.org。该公司认为,这项工作的经验教训将为我们在其他国家和地区的工作提供借鉴。

利用加密水印打击深度伪造

为了防止深度伪造,OpenAI 还表示将对其最新版人工智能图像生成器 DALL-E 3 生成的图像实施内容出处和真实性联盟(Coalition for Content Provenance and Authenticity,C2PA)的数字证书。

C2PA 是联合发展基金会(Joint Development Foundation)的一个项目,该基金会是一家总部位于华盛顿的非营利组织,其主要举措是内容真实性倡议(CAI)和起源项目,通过实施加密内容出处标准来应对数字时代的虚假信息和操纵行为。

包括 Adobe、X 和《纽约时报》在内的几家大公司都是该联盟的成员,并积极支持该标准的制定。

OpenAI 表示,它正在试验一种出处分类器,这是一种用于检测由 DALL-E 生成的图像的新工具。据其内部测试显示,即使图像经过常见类型的修改,早期结果也很有希望。他们计划将其提供给第一批测试者--包括记者、平台和研究人员--以征求反馈意见。

谷歌 DeepMind 也开发了类似的工具,利用 SynthID 对人工智能生成的图像和音频进行数字水印处理。Meta 也在尝试为其图像生成器开发类似的水印工具,不过马克-扎克伯格的公司很少分享相关信息。

OpenAI 称在发布新系统之前会对其进行红队测试,让用户和外部合作伙伴参与反馈,并建立安全缓解措施,以降低潜在的危害。

打击虚假信息具有挑战性

基于人工智能的文本分析平台 Copyleaks 的联合创始人兼首席执行官阿隆-亚明(Alon Yamin)在接受 Infosecurity 采访时表示十分鼓励 OpenAI 致力于打击虚假信息的行为,但实施起来可能具有挑战性。

他表示,今年的大选被认为是近代史上最大的选举年之一,不仅是在美国,在全世界范围内,人们都非常担心人工智能会被滥用于政治活动等,这种担心是完全有道理的。但正如我们多年来在社交媒体上看到的那样,由于用户群规模庞大,这些行动可能难以实施。

在英国,下一次大选应在 2024 年年中至 2025 年 1 月之间举行,信息专员办公室(ICO)于 1 月 15 日启动了关于生成式人工智能的系列咨询。

关键字:
声明:我公司网站部分信息和资讯来自于网络,若涉及版权相关问题请致电(63937922)或在线提交留言告知,我们会第一时间屏蔽删除。
有价值
0% (0)
无价值
0% (10)

分享转发:

发表评论请先登录后发表评论。愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。