据环球网援引美国消费者新闻与商业频道(CNBC)当地时间13日报道,26岁的美国OpenAI公司前研究员苏奇尔·巴拉吉近期被发现在他位于旧金山的公寓内自杀身亡。
报道称OpenAI发言人也确认了Balaji的死讯,其在一份电子邮件中表示,得知这一令人震惊的消息后,公司上下非常悲痛。
“已确定(巴拉吉的)死亡方式为自杀,”旧金山首席法医办公室执行主任大卫·塞拉诺·休厄尔在一封电子邮件中表示。旧金山警察局也表示,初步调查显示,“没有发现谋杀的证据”。
有关巴拉吉的死讯,美国企业家马斯克在社交平台发出一个“唔”(Hmm)做出评论。
曾质疑GPT对社会弊大于利
巴拉吉是一名印度裔美国人,曾在加州大学伯克利分校学习计算机科学,大学期间在OpenAI和Scale AI实习,毕业后加入了OpenAI,参与过WebGPT的研发,后来又加入GPT-4的预训练团队,o1的推理团队以及ChatGPT的后训练团队。
据快科技报道,巴拉吉在接受采访时,他表示自己离职是因为意识到这项技术对社会带来的弊大于利。
他曾表达了对OpenAI在版权法律方面的担忧,并认为OpenAI的技术可能对社会造成更多的伤害,而其处理版权数据的方式可能对互联网产生负面影响。
值得注意的是,就在巴拉吉被发现死亡的前一天,即11月25日,他刚刚被列入了一起针对OpenAI的版权诉讼中。
OpenAI多名前员工批评公司缺乏法律监管
今年6月,数十位OpenAI前员工通过一封公开信再次警告,像OpenAI这样的人工智能公司缺乏法律监管和内部批评机制,尤其是对“吹哨人”的保护远远不够。该公开信由十三名 OpenAI 前员工签名,并得到了包括“人工智能教父”Geoffrey Hinton 在内的三名外部人员署名支持。
与此前音乐行业、电影演员行业的公开警告类似,公开信强调了AI双刃剑的属性:他们相信人工智能技术可以造福人类,但也看到了风险,比如加剧社会不平等,操纵和捏造信息。在生成式AI风靡的这两年,人们已经见到了侵犯版权、深度造假影响政治选举、AI生成色情图片等冲突势不可挡地蔓延至现实生活。
去年7月,OpenAI、谷歌、微软、meta、亚马逊、Anthropic、Inflection曾向拜登政府承诺,愿意接受外部第三方的安全测试,并向外界公开测试结果。但这一承诺主要是自愿性质,硬性约束仍为空白。
公开信由此指出一个关键问题:在缺乏硬性监管的情况下,不能指望公司自愿披露AI系统的真实性能、局限和风险。员工有责任要求公司对AI安全风险负责,但员工正受制于公司的保密协议。
“整个行业发生过类似事件,我们中的一些人有理由担心各种形式的报复。我们并不是第一个遇到或谈论这些问题的人。”公开信暗指的是Ilya Sutskever离职引发的种种风波。半个月前,OpenAI解散了负责安全问题的“超级对齐”团队,团队负责人和成员——联合创始人兼首席科学家Ilya Sutskever、Jan Leike、Gretchen Krueger 纷纷离职。
据媒体报道,离职的原因是OpenAI在优先保证安全还是优先推出产品上有分歧。Jan Leike在社交平台上的发言直接证明了一点,他披露OpenAI曾直接砍掉“超级对齐”部门的算力资源,部门被边缘化。随后外媒曝光了OpenAI的离职协议,指出公司禁止离职员工公开批评公司,甚至禁止承认保密协议的存在。
根据美国的《吹哨人保护法》(Whistleblower Protection Act),举报工资违规、歧视、安全和欺诈等问题的员工受到保护,这意味着公司不能用解雇、降职等方式报复举报人。但签署公开信的前员工们称,AI安全风险问题往往不是非法活动,普通的法律保护措施是不够的。他们因此呼吁人工智能公司取消禁止批评的保密协议、建立匿名举报流程,并建设支持公开批评的公司文化。
公开资料显示,谷歌、Meta、亚马逊、微软等公司均有成立专门的内部安全团队,确保公司负责地开发AI系统。目前,OpenAI也已新建了由Sam Altman领导的安全团队,其首要任务是评估OpenAI的安全流程和政策,由董事会拍板最终方案。不过,安全团队的三位负责人均在董事会任职,因此外界也质疑其能否真正解决安全隐患。OpenAI员工的举报信无疑加深了这一担忧和反思,在没有硬性监管的约束下,仅靠公司的自我约束能不能给予安全问题足够重视?需要打上一个问号。
来源:21世纪经济报道(肖潇)、环球网、快科技