美国监管机构警告:Meta规则“不连贯”,无法识别伪造拜登视频

Facebook - Meta Headquarters in Menlo Park

(SeaPRwire) –   Meta Platforms Inc. 的独立监督委员会同意公司最近决定保留一段关于美国总统乔·拜登的误导性视频,但批评其对人工智能生成的内容所制定的政策“不连贯”,过于狭隘。

该委员会由管理层于 2020 年成立,独立审查公司的一些最重要的内容审核决策,周一致要求 Meta 在 2024 年美国大选之前迅速更新其政策。

该组织在一份声明中表示:“委员会对经过编辑的媒体政策现行形式表示担忧,认为该政策不连贯、缺乏令人信服的理由,且不恰当地着眼于内容的创建方式,而不是其旨在防止的具体危害,例如扰乱选举活动。”

委员会的批评源于对 Meta 决定保留一段经过编辑的拜登视频的审查,该视频经过编辑后,看上去他是不恰当地触摸他成年孙女的胸部。该视频包含将拜登称为“恋童癖”的字幕。

监督委员会同意该视频没有违反 Meta 的经过编辑的媒体政策,但表示这些政策过于狭隘且不足。董事会还建议 Meta 停止删除任何不违反任何其他有害内容政策的经过编辑的媒体,而应该开始对其进行标记并保留。

Meta 发言人表示:“我们正在审查监督委员会的指导意见,并将在 60 天内按照章程公开回应他们的建议。”该公司没有义务采纳委员会的建议,有时也会忽视其建议。

一月份,大量知名人士的深度伪造内容向公众和立法者展示了在新型人工智能工具的帮助下,经过编辑的内容可以在网上出现的速度之快。大量露骨图片充斥着社交平台 X(前身为 Twitter),而在新罕布什尔州初选前,拜登声音的虚假自动呼叫被发送给选民,敦促他们不要投票给他。

Meta  唯一禁止的是关于人们说了一些他们没有说过的话的虚假视频。它不涵盖人们做了一些他们没有做过的事情的肖像描写,比如拜登的帖子,并且明确仅适用于使用人工智能工具创建的视频。使用非人工智能工具进行编辑的内容,比如循环或倒放视频剪辑,可能会误导一般用户,但不会被禁止。

委员会建议 Meta 扩大其政策,以涵盖描绘一个人实际上并未采取的行动的经过编辑的媒体并解决虚假音频。它还敦促该公司明确其旨在防止的危害,比如干预投票过程,并且更多地关注这些危害,而不是关注内容是否使用人工智能工具创建。

委员会联席主席迈克尔·麦康奈尔在一份声明中表示:“从实际情况来看,这项政策简直毫无意义。”“它禁止编辑过的视频,该视频显示人们说了他们没有说的话,但不禁止显示个人做了一些他/她没有做过的行为的帖子。它只适用于通过人工智能创建的视频,但却让其他虚假信息不受约束。”

随着人工智能技术的改进和大选的临近,Meta 以及 X 和 ByteDance Ltd. 的 TikTok 等同行将发现自己要处理越来越多的经过编辑的媒体。Meta 首次在 2020 年大选之前推出其政策,这是该公司为打击选举相关错误信息所做的更广泛努力的一部分,因为 2016 年美国竞选活动暴露出社交网络如何被操控。

在很多方面,此类情况正是监督委员会成立的原因。这个独立机构由具有公共政策背景的学者和其他人士组成,由 Meta 资助,但旨在对公司对内容的权力进行制衡。过去,董事会审查了 Facebook 和 Instagram 关于选举错误信息和与药物相关的帖子的问题。在 2021 年 1 月 6 日国会骚乱后,它维持 Meta 对唐纳德·特朗普的暂停决定,同时批评了公司对暂停的执行。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。