“OpenAI不再关心安全”!核心安全团队解散→

“央视财经”微信公众号
2024-05-22 01:17
摘要

美国开放人工智能研究中心“OpenAI”近来内部动荡持续。

据美国消费者新闻与商业频道近日报道,美国开放人工智能研究中心“OpenAI”近来内部动荡持续。

本月15日,OpenAI原核心安全团队“超级对齐”负责人杨·莱克在社交网络上宣布他本人已辞职,此外,这一团队的其他多名核心成员也纷纷离开,这一团队就此解散。杨·莱克17日在推文中怒斥OpenAI在追求华而不实的产品,质疑OpenAI不再关心安全。

5月17日,杨·莱克在社交网站发布多条推文,公开自己离开OpenAI的真正原因,他表示,过去几年,安全文化和流程已经让位于“闪耀的产品”。这是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。

报道称,杨·莱克被认为是追随伊尔亚·苏茨克维选择离职。本月14日,在重磅发布ChatGPT-4的超级升级版——GPT-4o后不到36小时,OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维宣布离职。报道援引消息人士的话称,注重人工智能系统安全的员工已经对公司首席执行官萨姆·阿尔特曼的领导失去信心。

据美国《华尔街日报》报道,伊尔亚·苏茨克维将注意力集中在确保人工智能不会伤害人类上,而包括阿尔特曼在内的其他人则更渴望推动新技术的发展。

人工智能引领数字安全变革的同时,其安全性也备受关注。加拿大全球新闻网近日报道称,一份来自加拿大魁北克人工智能研究所的最新报告指出,在不久的将来,人工智能可能呈现各种各样的发展轨迹,包括非常积极和非常消极的结果,包括人工智能可能通过虚假信息、欺诈以及网络攻击造成伤害,甚至人类可能失去对人工智能的控制。

编辑 许家宜 审读 伊诺 二审 郑蔚珩 三审 詹婉容

免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读

读特热榜

IN视频

鹏友圈

首页