人工智能加大了选举年的风险

President Biden Speaks On Lowering Costs

(SeaPRwire) –   参加佐治亚州总统初选支持总统乔·拜登的写在候选人运动。一名AI生成的电话声音匹配了拜登的典型节奏和标志性口号(“胡说八道!”)。从那通电话开始,想象一系列灾难在拜登任内发生,到AI深度伪造拜登考虑操纵选举和提高啤酒价格,AI正在影响全球各地的选举。在这个背景下,政府和几家科技公司正在采取一些措施缓解风险——欧洲议会刚刚通过了一项里程碑性法律,去年月科技公司在慕尼黑安全会议上签署了一项承诺。但还需要采取更多行动来保护美国民主。

在慕尼黑,包括OpenAI、苹果、Meta、微软、TikTok、谷歌、X和其他公司在内的公司宣布了一项协议,将采取措施保护2024年美国和其他国家举行选举时的选举。这些公司将帮助观众跟踪AI生成内容和真实内容的来源,试图检测选举期间的欺骗性AI媒体,并采取“合理预防措施”来遏制AI造成的选举诡计风险。虽然这不是不受欢迎,但该协议的成功将取决于其承诺如何执行。它们用了模糊的语言——“相称的反应”、“在适当和技术可行的情况下”、“试图”等,给公司很大的自由度几乎不采取行动。虽然有些公司正在采取进一步行动,当然,当前情况下需要更强大和更普遍的行动。

今年是美国首次全国性选举,自AI发展允许欺诈分子以极低成本、极短时间和大规模产生几乎完美的照片、视频或音频来伪造候选人和官员说或做任何事情。同时,生成AI聊天机器人背后的技术允许欺诈分子在几秒钟内大规模地创建假网站或假新闻网站。它也给国内外的恶意分子提供了进行难以跟踪的强化互动影响运动的能力。

随着生成AI被集成入常见搜索引擎和选民与聊天机器人交流,寻求基本选举信息的人可能会遇到错误信息、完全无稽之谈或链接到边缘网站。AI民主项目和Proof News最近的一项研究表明,流行的AI工具——包括谷歌的Gemini、OpenAI的GPT-4和Meta的Llama 2——在回答某些选举问题时会“错误”。传统非生成AI也面临着成千上万选民合法性质疑的挑战,从而冒着错误剥夺选民投票权的风险,给选举办公室带来负担。随着选举官员考虑使用新的AI工具进行日常工作,缺乏有意义的监管可能会在提高效率的同时也危及部分选民的投票权。

在慕尼黑会议前,世界领先的生成AI运营商OpenAI最近宣布了一项旨在遏制2024年美国大选期间选举伤害的政策。这包括禁止用户构建假冒候选人的自定义AI聊天机器人,禁止用户利用OpenAI工具传播投票时间和方式的错误信息,并用数字代码对图像进行加密,以帮助观察者判断OpenAI的Dall-E是否生成了在网络上传播的图像。

但是,这些行动 – 虽然比一些其他主要AI公司到目前为止采取的行动更全面 – 但在重要方面存在不足,并突出了OpenAI和其他科技巨头在未来几个月为了维护慕尼黑承诺而可能采取的姿态的限制。首先,公司公开政策没有明确提出几个在过去的选举周期中困扰人的核心假设和描述,并很可能以新的形式在今年重新出现。例如,它们没有明确禁止假设选举官员干预计票过程、不可靠或受损的投票机器的虚构,或没有事实根据地声称广泛存在选举舞弊的说法。(根据布伦南中心,这些被视为2022年中期选举期间选举否定论者最常见的错误叙述。)虽然OpenAI政策可能隐含地涵盖某些或所有这样的内容,但明确禁止这些类别的内容的创建和传播会给用户和选民提供更清晰的指导。由于选举程序在县与县之间有差异,公司应该与地方选举官员建立渠道,在选举前几个月交换信息。

也许最重要的是,这家科技奇才需要做更多工作来限制与第三方开发商合作的风险——即许可OpenAI模型的公司。例如,如果用户将基本的选举问题输入第三方搜索引擎,该搜索引擎使用OpenAI模型,答案可能会包含错误、过时的事实和其他错误。(《连线》去年12月对微软Copilot的报道揭示了一些问题,尽管其中一些问题可能已得到解决。)为更好地保护今年选举季节的选民,公司必须为将OpenAI模型集成到搜索引擎或任何可能寻求投票ABC和选举信息的数字平台的开发商合作关系制定和执行更严格的要求。虽然慕尼黑签署的协议旨在解决有意欺骗内容,但系统算法产生的“幻觉”或其他错误也可能伤害选民。

但是,OpenAI单狧行动是不够的。其他科技巨头必须发布自己针对生成AI工具的选举政策,揭示任何内部调整,并将内部做法开放给公众了解。首先,包括苹果、字节跳动、三星和X在内的主要科技公司应该签署OpenAI的开放标准,将数字标记嵌入内容中,以帮助证明内容是否由AI生成或真实,并随着内容在网络中传播。(虽然苹果和X在慕尼黑承诺考虑将类似信号附加到其内容上,但一个一致标准将改进检测能力和各方协调。)同时,这些标记应该更难移除。社交媒体公司还必须迅速处理深度伪造和模拟人类活动的机器人账户,以及为选举官员和真实新闻组织实施有意义的账户验证流程,帮助选民在充满错误信息、冒名顶替和伪装成真实新闻的账户的信息流中找到准确信息。

一个公司或少数公司的步骤虽然重要,但在充满开源AI模型的环境中,这些系统的底层代码和训练数据公开可下载和可操纵,单靠它们还不够。公司如Meta和Stability AI已经发布了不安全的AI系统,其他参与者也快速推出了更多。今天,任何希望干预选举的人都可以选择AI技术加强自己的行动,并以多种方式部署它。这意味着政府在各级必须采取紧急行动保护选民。

国会、机构和州政府有许多选择来在2024年选举前缓解AI的风险。国会和各州应监管深度伪造 – 尤其是竞选活动、政治行动委员会和受薪影响者传播的深度伪造 – 要求对可能抑制投票或误导候选人和选举官员言行的数字处理和伪造图像、视频和音频剪辑进行声明。立法者还应要求竞选活动和政治行动委员会清晰标记生成AI聊天机器人技术产生部分内容,特别是政治人物利用这种技术进行持续互动的情况。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。