哪些AI公司最安全——哪些最不安全? “`
(SeaPRwire) – 随着各公司竞相构建更强大的AI,安全措施却被抛在了后面。周三发布的一份报告更仔细地审视了包括OpenAI和Google DeepMind在内的公司如何应对其技术潜在的危害。报告描绘了一幅令人担忧的图景:报告中所有开发商的旗舰模型都被发现存在漏洞,一些公司已采取措施增强安全性,而其他公司则严重落后。
这份报告由未来生命研究所(Future of Life Institute)发布,这是一个旨在降低全球灾难性风险的非营利组织。该组织2023年的呼吁暂停大规模AI模型训练获得了前所未有的支持,共有3万名签署者,其中包括一些科技界最杰出的人物。为了撰写这份报告,未来生命研究所召集了一个由七位独立专家组成的专家小组——包括图灵奖获得者Yoshua Bengio和来自Encode Justice的Tegan Maharaj——他们从六个关键领域评估了科技公司:风险评估、当前危害、安全框架、生存安全战略、治理与问责制以及透明度与沟通。他们的审查考虑了一系列潜在危害,从碳排放到AI系统失控的风险。
加州大学伯克利分校计算机科学教授、也是专家组成员之一的Stuart Russell在一份声明中表示:“AI安全指数项目的调查结果表明,尽管AI公司开展了大量冠以‘安全’之名的活动,但其效果还不够理想。”
尽管Facebook的母公司Meta采取了“负责任的”AI开发方法,并开发了流行的Llama系列AI模型,但其整体评分最低,获得F级。Elon Musk的AI公司x.AI的整体表现也不佳,获得了D-级。Meta和x.AI均未回应置评请求。
ChatGPT背后的公司OpenAI——年初曾被其一个安全团队的前负责人指责将“闪亮的产品”优先于安全——获得了D+级,Google DeepMind也是如此。两家公司均未回应置评请求。在5月份首尔AI峰会上签署AI安全承诺的唯一一家中国AI开发者Zhipu AI获得了D级。未能联系到Zhipu置评。
Anthropic公司开发了Claude,该公司将安全作为其核心信条,排名最高。即便如此,该公司也只获得了C级,这凸显出即使是业内最安全的参与者也有改进的空间。Anthropic未回应置评请求。
特别是,报告发现,所有经过评估的旗舰模型都容易受到“越狱”(jailbreaks)的影响,即绕过系统防护措施的技术。此外,审查小组认为,所有公司的当前策略都不足以确保假设中未来与人类智能相当的AI系统保持安全并处于人类控制之下。
HEC蒙特利尔大学决策科学系助理教授Tegan Maharaj是专家组成员之一,她说:“我认为,如果没有人追究责任,仅仅抱有良好的意图很容易被误导。”Maharaj补充说,她认为需要“独立监督”,而不是仅仅依靠公司进行内部评估。
Maharaj表示,有一些“唾手可得的成果”,即一些开发者可以采取相对简单的行动来略微提高其技术的安全性。“有些公司甚至没有做到最基本的事情,”她补充道。例如,她在论证中指出,在风险评估方面评分较低的Zhipu AI、x.AI和Meta可以采用现有的指导方针。
然而,其他风险则与AI模型当前的生产方式更为根本,克服这些风险需要技术突破。“目前的任何活动都不能提供任何形式的定量安全保证;鉴于当前通过在难以想象的海量数据上训练的巨型黑盒来实现AI的方法,似乎也不可能提供此类保证,”Russell说。“而且,随着这些AI系统变得越来越大,情况只会变得更难。”研究人员正在探索技术来窥探机器学习模型黑盒的内部。
蒙特利尔学习算法研究所的创始人兼科学主任Bengio在一份声明中强调了AI安全指数等举措的重要性。“它们是让公司对其安全承诺负责的重要一步,可以帮助突出新兴的最佳实践,并鼓励竞争对手采取更负责任的方法,”他说。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。