员工表示 OpenAI 和 Google DeepMind 在向公众隐瞒 AI 的危害
(SeaPRwire) – 一群 OpenAI 和 Google DeepMind 现任和前任员工周二发布了一封信,警告高级人工智能的危险,因为他们声称,这些公司在优先考虑财务收益的同时避开监管。
十三名员工,其中十一人是 OpenAI 的现任或前任员工,签署了这封信,信的标题为:“高级人工智能警告权”。其他两名签署人是 Google DeepMind 的现任和前任员工。其中六人匿名。
该联盟提醒说,在缺乏适当的监管的情况下,人工智能系统强大到足以造成严重的危害。“这些风险包括:进一步固化现有的不平等、操纵和虚假信息,以及失去对自主人工智能系统的控制,从而可能导致人类灭绝。”该信中写道。
OpenAI 的发言人琳赛·海尔德表示:“我们为自己提供最强大和最安全的 AI 系统的记录感到自豪,我们相信科学的风险应对方法。我们同意,鉴于该技术的重大意义,严格的争论至关重要,我们将继续与世界各地的政府、民间社会和其他社区接触。”
Google DeepMind 尚未公开评论这封信,也没有回应 TIME 的置评请求。
所有三家领先的人工智能公司——OpenAI、Google DeepMind 和 Anthropic 的领导者过去都谈到过风险。Anthropic 是一家人工智能安全与研究公司,它在 2023 年 3 月的一份声明中写道:“如果我们构建一个比人类专家更胜任的人工智能系统,但它追求与我们最佳利益相冲突的目标,其后果可能是灾难性的……人工智能的快速发展将具有很大的破坏性,改变就业、宏观经济和权力结构……我们已经遇到了毒害、偏见、不可靠和不诚实。”(该信的签署人之一目前在 Google DeepMind 工作,以前曾在 Anthropic 工作。)
写这封信的小组声称,人工智能公司了解其正在开发的人工智能技术的风险,但由于它们不必向政府透露太多信息,其系统的实际能力仍然是个秘密。他们表示,这意味着现任和前任员工是唯一能够让公司对公众负责的人,然而许多人发现他们的手被保密协议捆住了,这种协议使员工无法公开表达他们的担忧。该组织写道:“一般的举报人保护是不够的,因为这些保护着重于非法活动,而我们所担心的许多风险尚未受到监管。”
该组织的无偿律师劳伦斯·莱西格告诉纽约时报:“员工是安全防御的重要防线,如果他们在没有报复的情况下无法自由地讲话,那么渠道将被关闭。”
写信的人对高级人工智能公司提出了四点要求:停止强迫员工达成协议,禁止他们因“与风险相关的担忧”而批评其雇主;为员工创造一个匿名程序,以便向董事会成员和其他相关监管机构或组织提出他们的担忧;支持“公开批评文化”,不要对分享“在其他流程失败后与风险相关的机密信息”的现任和前任员工进行报复。
世界各地的政府已开始监管人工智能,尽管进展落后于技术。年初,欧盟通过了世界上首部全面的人工智能立法。国际合作努力已通过在英国和韩国以及中美合作中心进行。2023 年 10 月,拜登总统签署了除其他事项外,要求人工智能公司向商务部披露其开发和安全测试计划的行政命令。但是,没有要求公开这些披露——这可能会阻止写信的签署人希望的更广泛的监督。
– Will Henshall/华盛顿报道
更多 TIME 报道
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。