公告:为给大家更好的使用体验,同城网今日将系统升级,页面可能会出现不稳定状态,由此给您带来的不便,敬请谅解!
升级时间:2016-7-24 11:00 -- 2016-7-24 15:00

澳洲同城网

查看: 22938|回复: 0
打印 上一主题 下一主题

OpenAI陷史上最大公关危机,掌门人捐一半身家渡难关(图)

[复制链接]

32万

主题

19

金豆

25万

积分

网站编辑

Rank: 8Rank: 8

性别
保密
积分
256690
金豆
19
鲜花
0
主题
321250
帖子
321251
注册时间
2019-12-26
跳转到指定楼层
楼主
发表于 2024-5-30 09:02:08 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式 来自: INNA

马上注册,结交更多同城好友,享用更多功能!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
OpenAI可能遇到了成立以来最大的公关危机!而Sam Altman的应对速度之快,效果之好,绝对值得所有公司老板和公关人逐帧学习。 我们先看OpenAI最新的动作——官推5月28日突然宣布:


图源:X OpenAI董事会成立安全与安保委员会(Safety and Security Committee),将就OpenAI项目和运营的关键安全决策,向全体董事会提出建议。 同时还高调放出消息:已经开始训练其下一个前沿模型,预计”将在通向AGI的道路上再上一层楼”。 但如果只是看到OpenAI只是在进行日常的AI安全工作推进,顺便秀了一下肌肉,很多吃瓜群众可能会产生疑问——为什么成立安全委员会和新模型开始训练,两个原本完全没有联系的事情,要放在一起来说? 公告的潜台词,到底是什么?


图源:X 安全团队骨干叛逃,前董事会成员发文攻击 事情要从去年OpenAI的宫斗抓马说起,虽然“OpenAI遵义会议”最终确立了以Altman为核心的领导架构,但是公司高层对于AI安全问题的分歧却依旧没有解决。 “AI安全”这条暗线,从2015年马斯克拉人成立OpenAI时起,就已埋下。 最近,负责AI安全的“超级对齐团队”主管Ilya和Leike双双出走,又把OpenAI管理层架在火上烤了。


图源:X 而Leike转头就加入了“OpenAI复仇者联盟”——和OpenAI团队价值观不同,后来出走的两位前员工联创的Anthropic。 临走时的他,不忘对OpenAI的员工们高呼: 我想对所有OpenAI员工说: 学会感受AGI。 以与你们正在建设的事业相称的威严行事。 我相信你们能够 “推动 “所需的文化变革。 我指望着你们。 全世界都指望着你们。


图源:X 这番言论,就差指着OpenAI管理层的鼻子说——你们不重视AI安全。 据TechCrunch,Leike能向Anthropic首席科学官Jared Kaplan直接汇报,而Anthropic目前正研究可扩展监督的研究人员(以可预测和理想的方式控制大规模人工智能行为的技术)将会向 Leike 汇报。


图源:TechCrunch Leike和Ilya的出走网友也引得网友纷纷质疑,OpenAI开发AGI到底为了抢走大家饭碗,还是为了全人类的福祉?


图源:X 5月26号,OpenAI宫斗剧的始作俑者、前 OpenAI 董事会成员 Hellen Toner 和 Tasha McCauley 都站出来撰文指认Sam Altman以及他治下的OpenAI,完全不把AI安全当会事。 在这两位OpenAI的前董事会成员看来,AI公司内部完全不可能进行有效监管,外部监管势在必行。


图源:X 5月28日,播客The Ted AI Show的最新一期里 Hellen Toner 又透露:堂堂OpenAI董事会成员,居然要通过推特才能知晓ChatGPT发布! Toner强调,由于OpenAI董事会的非盈利性质,其设立是为了确保OpenAI要将公益而非利润置于首位。但鉴于Altman多次向董事会撒谎,董事会的工作也很难开展了。主持人补刀:OpenAI忘本了。 在这八方讨伐、前后受敌的背景下,我们看看Sam Altman和OpenAI教科书级别的公关组合拳。 一套组合拳,能否让OpenAI转危为机? 第一招,设立全新AI安全机构,补上“叛逃人员”出走带来的组织真空。 28日,OpenAI官宣了这两件事,我们来给大家翻译下。 OpenAI董事会成立安全与安保委员会(Safety and Security Committee),将就 OpenAI 项目和运营的关键安全决策,向全体董事会提出建议。 安全与安保委员会将由董事Bret Taylor(董事会主席)、Adam D’Angelo、Nicole Seligman和 Sam Altman领导。 ——我们有一个完整的最高层级的架构,保证OpenAI在追求AGI的过程中会充分考虑AI带来的安全问题。 同时高调放出消息: 我们已经开始训练其下一个前沿模型,预计”将在通向 AGI 的道路上再上一层楼”。 ——我们将对公众进一步增加最前沿(危险)模型的透明度,希望大家能相信我们。OpenAI不会背着全世界手搓一个核武器出来的。 公告其余内容: 安全与安保委员会的首要任务是,未来90天内,评估并进一步开发OpenAI的流程和保障措施。90天结束后,安全与安保委员会将与全体董事会分享他们的建议。经过董事会的全面审查后,OpenAI将以符合安全和安保的方式公开分享已采纳建议的最新情况。 ——委员会不是摆设,第一步就是要全面评估,OpenAI的开发流程有没有安全问题,90天为限! OpenAI 技术和政策专家 Aleksander Madry(准备负责人)、Lilian Weng(安全系统负责人)、John Schulman(对齐科学负责人)、Matt Knight(安全负责人)和 Jakub Pachocki(首席科学家)也将出席委员会。 ——委员会不都是务虚的领导,核心成员都是技术背景出身,详见下文介绍。虽然Ilya和Leike走了,但是我们OpenAI依然人才济济。 此外,OpenAI将通过保留并咨询其他安全、安保和技术专家以支持安全工作,其中包括前网络安全官员、为OpenAI提供安全建议的Rob Joyce和John Carlin。 ——我们也会充分利用外部力量,帮助好AI安全治理。AI安全不仅只有OpenAI的内部监督。 但是网友好像也没那么买账,现在完全不关注GPT是5还是6,但转而嫌弃起新的安全团队:你Altman一手遮天,又能发挥什么作用?


图源:X “你这么搞就是垂帘听政,大家不会相信你,也不会信任你组的安全团队!”


图源:X 要不说Altman是金牌公关呢,他一定能料想到网友对官方举措不一定买账,两个消息刚刚官宣,创始人IP也要继续立起来! 第二招,捐出一半身家,只为博个好名声。 同样是28日,Altman与其丈夫作为亿万富翁,已宣布加入“捐赠誓言(Giving Pledge)”,将捐赠一半以上个人财产用于改善社会。


图源:官网 在这份落款日期为18日的联合公开信中,二人表示: 如果没有许多人的辛勤工作、才华、慷慨和奉献精神来改善世界,我们就不会做出这样的捐赠承诺。因为正是这些人搭建了社会的脚手架,让我们走到了今天。我们的感激之情无以言表,只能将这份恩情记在心中,尽己所能回报社会,将这一脚手架搭得更高。 我们打算将捐赠重点,放在支持技术上,这些技术有助于为人们创造富裕,以便他们能够将脚手架搭建得更高。 Giving Pledge的发起人巴菲特、盖茨夫妇,名字都是响当当。签署了捐赠誓言,富人就相当于生前或遗嘱中,要将至少一半的财富捐给慈善机构或用于慈善事业。 据彭博社,Altman的身价至少有20亿美元。 第三招,将一切负面消息扼杀在摇篮中。 在5月中旬,有媒体爆出OpenAI在和员工签署的劳资合同中,明确要求离职员工不能在离职后发表不利于公司形象的言论,否则就会失去兑现自己所持OpenAI“期权”的机会。


图源:Vox 这个“霸王条款”刚被曝出来时,网上一片哗然。可舆论刚要发酵,Altman就公开表态——公司高层完全不知道有这么一条“PR条款”,现在已经将条款删除。


图源:X 高层是否知道合同中这条“PR条款”,已经无从考证。但如果“PR条款”就是公关危机的源头,那最简单的办法就是直接删除它。 这一套组合拳,有事前预防,事中应对,到事后弥补。Sam Altman和OpenAI这教科书一般的危机公关手段,让人不由得拍手叫绝。 但事情发展至此,除了看OpenAI的热闹之外,大家也一定会关心,什么样的配置,才能弥补Ilya和Leike出走带来的安全团队缺口? 技术背景雄厚,看看安委会大佬的实力 安全和安保委员会中的OpenAI 技术和政策专家,都是公司各部门的一把手(Head)。 Aleksander Madry(准备负责人)


公开照片 公告中介绍的OpenAI 技术和政策专家,Aleksander Madry被列在第一个。 个人主页介绍,Madry 是 MIT EECS 系(电气工程与计算机科学系,MIT最大的系)教授,也是CSAIL(MIT的计算科学与人工智能实验室)成员。 在X的主页上,他将自己的工作描述为“让人工智能更加可靠和安全,对社会产生积极影响”。与之呼应的,Madry 也在 MIT 担任可部署机器学习中心(致力于为真实世界部署打造稳定、可靠、安全的AI系统)的主任和人工智能政策论坛联合负责人。


图源:领英 他于 2011 年获 MIT 博士学位。但在加入 MIT 前,他还有过微软新英格兰研究院、洛桑联邦理工学院的研究、工作经历,兼具业内及学界的资深经验。


图源:领英 Lilian Weng(中文名翁荔,安全系统负责人)


公开照片 2018 年进入 OpenAI 时,翁荔并非直接负责安全相关的工作,而是担任机器人团队的技术主管,专注于训练机器人任务的算法。但OpenAI后来放弃了机器人的研究。


图源:领英 也是在 2021 年,翁荔得工作职责内开始明显涉及安全相关的内容。她在这一年建立、领导应用人工智能研究团队,开始关注安全和对齐问题。


图源:领英 2023 年,她正式开始领导致力于人工智能安全的工程师和研究人员团队。


图源:领英 翁荔本科就读于北京大学信息管理系,后于去了美国印第安纳大学伯明顿分校读计算机,之后有 affirm(金融科技)、Dropbox(云存储服务)等公司的工作经历,也在 Facebook 实习过。


图源:领英 John Schulman(对齐科学负责人)


公开照片 Schulman 是OpenAI 的联合创始人。作为后训练(post-training)团队的领导者之一,负责微调 ChatGPT 和 OpenAI API 中部署的模型。 除此之外,语言模型对齐是他的研究兴趣。他也关注模型的表现行为(behave),致力于提高模型在公众前的透明度。 此前,Schulman 在加州大学伯克利分校获得了计算机科学博士学位,从事机器人技术和强化学习工作。他在伯克利大学短暂学习过神经科学,我在加州理工学院学习物理。


图源:个人主页 Matt Knight(安全负责人)


公开照片 Knight 负责领导 OpenAI 中安全、IT 和隐私相关的工程及研究。


图源:领英 Knight 有达特茅斯学院的工程科学学士学位。


图源:领英 此前,Knight 专门从事安全嵌入式系统的开发工作,兼具软件和硬件方面的专业知识。由于Knight 对射频网络和物理层的特别兴趣,他专门基于盲信号分析(blind signal analysis),对 LoRa PHY 搭建了逆向工程。 Jakub Pachocki(首席科学家)


公开照片 突然提到 Pachocki 可能略显陌生,但他就是 Ilya 走后的接班。 我们不妨再来看看这位技术大佬的履历。


图源:领英 Pachocki 拥有卡内基梅隆大学理论计算机科学博士学位,曾担任OpenAI研究总监领导研发 GPT-4,参与过大规模 RL 和深度学习优化的基础研究。此前公告曾介绍,Pachocki 在将 OpenAI 愿景重新聚焦于扩展深度学习系统方面,发挥过重要作用。


图源:领英
免责声明
澳洲同城网是一个免费的公共信息平台,网站内容由网友自由发布,发布者拥有所发布信息的版权同时承担相应责任; 若所发布信息侵犯了您的权利,请反馈给澳洲同城网,我们核实后将进行相应处理!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




外汇平台
金牌家政
汽车网



















wuliu
你想了解我们吗?
联系我们
关注我们
官方微博 官方Facebook 官方Twitter
微信关注
官方微信公众号 官方微信服务号
官方公众号 客服微信
快速回复 返回顶部 返回列表