前 OpenAI 首席科学家宣布成立新公司,专注安全
(SeaPRwire) – Ilya Sutskever,OpenAI 的联合创始人兼前首席科学家,周三宣布他将创办一家名为 Safe Superintelligence Inc. 的新公司。Sutskever 在 X 上表示,新实验室将专注于构建安全的“超级智能”——行业中对一个比人类更聪明的假设系统的称呼。
Sutskever 在 Safe Superintelligence Inc. 的联合创始人还有 Daniel Gross,一位投资者和工程师,曾在 2017 年之前在 Apple 从事人工智能工作,以及 Daniel Levy,另一位前 OpenAI 员工。根据 Sutskever 分享的信息,这家美国公司将在加利福尼亚州帕洛阿尔托和特拉维夫设有办事处。
Sutskever 是 OpenAI 的创始成员之一,在 ChatGPT 发布后,该公司飞速发展期间,他担任首席科学家。11 月,Sutskever 参与了罢免 OpenAI 首席执行官 Sam Altman 的行动,但后来改变了主意,支持 Altman 的回归。Sutskever 在 5 月宣布辞职时,他表示,他“相信 OpenAI 在 Altman 的领导下会打造出既安全又对人类有益的 AGI”。
Safe Superintelligence Inc. 表示,他们只打算发布一项产品:即其名字中提到的系统。其创始人写道,这种模式将使公司免受商业压力的影响。然而,目前尚不清楚谁将为新公司的发展提供资金,以及其最终的商业模式究竟是什么。
“我们唯一的关注点意味着没有管理开销或产品周期带来的干扰,”公告中写道,或许是在暗讽 OpenAI。5 月,另一位 OpenAI 的高级成员 Jan Leike,曾与 Sutskever 共同领导安全团队,指责该公司优先考虑“光鲜的产品”而不是安全。Leike 的指责是在其他关注安全的员工离开公司的时候提出的。Altman 和 OpenAI 的总裁 Greg Brockman 对 Leike 的指控做出了回应,承认还有更多工作要做,并表示“我们非常重视我们在其中的作用,并认真权衡对我们行为的反馈。”
在接受采访时,Sutskever 详细阐述了 Safe Superintelligence Inc. 的方法,他说,“安全是指像核安全一样安全,而不是像‘信任和安全’一样安全”;OpenAI 的核心安全原则之一是“成为信任和安全的先驱”。
虽然关于新公司的许多细节尚未公布,但其创始团队对那些对该行业感兴趣的人只有一个信息:他们正在招聘。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。