谷歌工程师因称“人工智能有情感”而被解雇:违反了公司保护产品信息的政策

来源:环球时报

【环球时报综合报道】此前称“AI有情感”遭停职的谷歌工程师近日已被解雇。据英国广播公司23日报道,谷歌于22日宣布解雇一位名叫布莱克·莱莫因的工程师,理由是该工程师违反保护产品信息、确保数据安全的公司政策。莱莫因在谷歌的工作是测试人工智能对话程序是否涉及歧视或仇恨言论。上月他通过博客文章公开表示,他认为谷歌的人工智能自然语言对话程序具有自觉意识,能就宗教、情感和恐惧等问题展开对话、表达看法。莱莫因的博文引发广泛关注,许多人将他所反映的情况与科幻片《黑客帝国》《终结者》的剧情相提并论。

但也有专家表示,莱莫因提到的所谓程序自觉意识其实只是复杂算法模拟人类语言的结果。在被解雇前,莱莫因已被谷歌公司安排带薪休假。在发出解雇通知时,谷歌祝莱莫因今后好运,而莱莫因则表示正就被解雇一事进行法律咨询。莱莫因并非首个认为人工智能技术具有自觉意识的工程师,上月另一名谷歌员工曾与《经济学人》杂志分享了类似的看法。(李飞)

言语犯罪?一年半后,谷歌人工智能解雇了另一名持异议的研究人员

澎湃新闻记者 邵文

当地时间5月2日,谷歌表示最近解雇了一名高级工程经理Satrajit Chatterjee,称其此前一直试图诋毁他所参与的AI软件里程碑式研究,同时指控他有骚扰行为。这个骚扰指谷歌研究员Goldie说,Chatterjee多年来一直通过传播关于他们的错误信息来骚扰她和Mirhoseini。

这个消息在业界引起广泛讨论,纷传被解雇的Chatterjee是因为对研究有异议而获罪。谷歌在一份书面声明中也闪烁其词,称Chatterjee博士“因故被解雇”。

这里所指的研究是2021年6月谷歌在《自然》上发表的著名论文“A graph placement methodology for fast chip design”,这篇研究用基于深度强化学习的芯片布局规划方法生成芯片平面图,且所有关键指标(包括功耗、性能和芯片面积等参数)都优于或与人类专家的设计图效果相当,而且人类需要几个月的时间完成,AI只需要6小时。

据《泰晤士报》报道,在一封内部电子邮件中,Chatterjee对该研究的一些说法持保留意见,并对技术是否已经过全面测试表示质疑。后来Chatterjee团队被允许合作撰写一篇对《Nature》这篇论文提出异议的研究,但研究提交后被驳回。据《纽约时报》知情人士称,“谷歌告诉他的团队,它不会发表一篇论文来反驳《自然》杂志上的一些说法。”

谷歌研究院副总裁Zoubin Ghahramani在一份书面声明中对原论文做了辩护,“我们彻底审查了《自然》的原始论文,并支持同行评审的结果。我们还严格调查了随后提交的技术声明,它不符合我们的出版标准。”

路透社认为,这场源于芯片设计自动化努力的纠纷,有可能损害谷歌研究在学术界的声誉。它还可能扰乱用于人工智能和芯片研究的数百万美元政府拨款的流动。

据两名谷歌工作人员对路透社表示,在3月份(Chatterjee也是在3月被辞退)在线发布的一篇匿名论文(Stronger Baselines for Evaluating Deep Reinforcement Learning in Chip Placement,以下简称“Stronger Baselines”)中发现,其提出的基于基本软件的两种替代方法表现优于AI,一个在著名的测试中击败了它,另一个在专有的谷歌规则中击败了它。

谷歌拒绝对这篇泄漏的论文发表评论。谷歌表示,由于不符合其标准,它拒绝发布“Stronger Baselines”,并在不久之后解雇了这项工作的主要推动者Satrajit Chatterjee,也拒绝说明解雇原因。

谷歌研究员、原论文第一作者Goldie表示,Chatterjee曾在2019年要求管理他们的项目,但他们拒绝了,“当他后来批评这篇论文时,他无法证实他的批评,并忽略了他们提供的证据。”

对于Goldie指控Chatterjee通过传播关于他们的错误信息进行骚扰,Chatterjee的律师Laurie M. Burgess表示否认,并补充说Chatterjee没有泄漏“Stronger Baselines”。

Burgess说,“令人失望的是,《自然》论文的某些作者试图通过诽谤和攻击Chatterjee仅仅是寻求科学透明度的行为,以关闭科学讨论。”同时质疑谷歌AI的掌门人Jeff Dean,称其压制所有相关实验数据的发布,还包括支持他喜欢假设的数据,“这种行为应该会给科学界以及消费谷歌服务和产品的更广泛群体带来更大的麻烦。”

在网上出现“Stronger Baselines”论文后,谷歌研究部副总裁Zoubin Ghahramani在Twitter上写道,“谷歌支持在Nature on ML for Chip Design上发表的这项工作,该工作已被独立复制、开源和在Google的生产中使用。”《自然》还没有发表评论。

这不是谷歌第一次面对这样的质疑,2020年12月,谷歌就曾解雇人工智能研究团队的著名AI学者和人工智能伦理研究员Timnit Gebru。Gebru在Twitter中表示,她在不知情的情况下被负责谷歌AI部门的Jeff Dean发了封邮件就辞退了。而在被解雇前,她曾想要发表一篇有关谷歌在当时的语言系统可能会从网站上学习到包含偏见和仇恨言论的论文。

几个月后,该公司解雇了团队的另一位负责人玛格丽特·米切尔(Margaret Mitchell),后者公开谴责谷歌对Gebru的处理方式。该公司表示,Mitchell违反了其行为准则。

谷歌在2020年解雇了当时Ethical AI 团队的负责人Timnit Gebru

Gebru的被解雇使谷歌遭到美国国家劳工关系委员会(NLRB)诉讼,广被外界批评。在当时,Gebru的同事Alex Hanna代表谷歌AI伦理研究部门向谷歌的领导呈递了一封联名信,提出了五个诉求:

· 公司必须进行结构性改革,以保证谷歌AI伦理研究工作可以继续进行

· 不再向谷歌副总裁Megan Kacholia汇报工作,她和Jeff Dean需要道歉

· Gebru回归,并为其提供比此前更高的薪资

· 公开承诺学术诚信

· 管理层进行种族素养培训

信中写道,“谷歌解雇和报复道德人工智能团队核心成员的短视决定清楚地表明,如果这项工作要继续下去,并且如果整个领域的合法性要坚持下去,我们需要迅速和结构性的改变。”

责任编辑:李跃群

校对:刘威

谷歌人工智能芯片设计能力超过人类?内部研究人员进行了质询,并被解雇

杨净 明敏 发自 凹非寺

量子位 | 公众号 QbitAI

在质疑自家发表在Nature上的论文成果后,这位谷歌研究员被解雇了。

去年6月,谷歌在Nature上发表了一篇文章:A graph placement methodology for fast chip design,其中Jeff Dean是作者之一。

文章中表示,AI能在6个小时内生成芯片设计图,而且比人类设计得更好。

但这位研究员认为文章的一些论断站不住脚,以及实验尚未经过充分的测试。

不过他只是在内部表达了下想法,结果验证自己观点的论文,直接被谷歌拦截、没能对外发表。

(网友想看预印本都看不到)

随后谷歌的最新回应证实,这位研究员已于今年3月“因故”被解雇。

值得一提的是,这已经不是第一次谷歌员工“因言获罪”了。

也就一年半的时间,谷歌已经传出三位技术人员遭解雇。

AI芯片设计能力超过人类?

这次牵涉其中的论文,于去年4月13日被《Nature》接收,6月9日发表。

它主要讨论了一种用深度强化学习来快速设计芯片的方法。

论文中表示,通过此方法,AI只需不到6小时的时间,就能设计出一块芯片;而人工往往要花费数周或数月才能做到。

具体来看,这是一种具有泛化能力的芯片布局方法。

AI通过学习10万个芯片布局,这种方法就能自己设计出新的方案来,并且所有关键指标(包括功耗、性能和芯片面积)都和人工设计的不相上下。

为了提高AI的学习效率,研究人员还设计了一种奖励机制,基于线路长度和布线拥塞的近似代价函数进行计算。

具体来说,需要将宏和标准单元映射到一个平面画布上,形成具有数百万到数十亿节点的“芯片网表”。

然后,AI模型会对功率、性能和面积(PPA) 等进行优化,并且输出概率分布。

下图分别是零样本生成和基于预训练策略微调的效果,其中每个小矩形代表一个宏块。在预训练策略中,中间留出了用于放置标准单元的空间。

这篇论文的共同通讯作者Anna D Goldie表示,

这种方法适用于任何类型的芯片设计,并且已经被用在生产下一代Google TPU上。

质疑起始于2020年

但在“取得重大突破”的背后,谷歌内部关于这项技术的质疑,其实从2020年就开始了。

提出质疑的正是今年3月被解雇的谷歌大脑员工——Chatterjee博士。

他毕业于UC伯克利计算机系,曾在英特尔工作过,主要从事通信协议高层建模和验证方面的研究。

2020年,谷歌提出了一种利用机器学习设计芯片的方法,它可以被视作是登上Nature成果的前身。

当时,谷歌曾向Chatterjee博士询问这种方法可否出售或者授权给一些芯片设计公司。

在回复邮件中,Chatterjee博士表示,对论文中的一些说法持保留意见,并质疑这项技术是否经过了严格的测试。

不过这些质疑似乎并未影响到谷歌的脚步。

一年之后,他们便将这一尚存在质疑的成果,投稿到了Nature而且成功发表。

与最初研究不同的是,登上Nature的论文对此前方法做了一些调整,同时还删除了两位作者的名字。

因为他们曾与Chatterjee博士密切合作,并同样对这项成果存在疑虑。

而谷歌的骚操作到这还没完,他们还亲自示范了一遍,什么叫“规矩是死的人是活的”。

这一边,投稿到Nature的论文被质疑,没有严格遵循发表审批流程。

谷歌和该论文的共同通讯作者Anna D Goldie对此回应称,因为这篇论文对此前成果的改动不大,因此不需要走完整的审批流程。

但是另一边,Chatterjee博士开展的关于质疑这一成果的论文,最终却没通过审查。

他们将反驳此方法的论文提交给了一个决议委员会,以获批发表。

结果几个月后,这篇论文被拒了。

理由是:不符合标准

据《纽约时报》披露,Chatterjee博士团队被谷歌告知,他们是不会发表一篇质疑《Nature》成果的论文的。

而且一份书面报告证明,Chatterjee博士已经被谷歌解雇。

谷歌副总裁Zoubin Ghahramani对此事回应称:

我们彻底调查了那篇《Nature》论文的底稿,并坚持同行审议的结果。

同时我们也严格调查了随后提交的一份文件,它不符合我们的出版标准。

与此同时,有知情人士透露,这项成果的作者之一说“被解雇的人员骚扰她、质疑她的工作”。

而“被解雇人员”的律师对此回应:他是在维护科学的完整性

意见不合就解雇?

前面提到,这也不是第一次谷歌管理层与研究人员之间的冲突了。

此前最典型一次,就是谷歌AI伦理团队联合负责人Timnit Gebru解雇事件。

当时这件事直接引发1400名谷歌员工和1900名AI学术圈人士对谷歌的行为表示谴责,并让Jeff Dean成为众矢之的。

据本人推文以及之后姐夫哥回应显示,核心矛盾正是双方在内部论文评审上的分歧

在公开的邮件内容显示,她一直希望发表一篇“大语言模型存在偏见”论文,但是一直遭到上级反对。

此外她在邮件中透露,谷歌对黑人这一弱势群体的不公平对待,以及对AI伦理的不重视。

正是因为这封邮件,被爆出“不符合谷歌管理者的期望”,因而被解雇。

两个月后,AI伦理团队另一位负责人Margaret Mitchell,因用脚本在公司内网搜索支持Gebru的证据而被解雇。

又在去年4月,谷歌大脑创始成员之一Samy Bengio也离职加入苹果,不少人推测离职原因跟这件事情有关。

如今,又一位谷歌大脑成员遭解雇,一方面被认为是谷歌研究人员内部动荡的最新例证。

此前,谷歌的另一大研究团队DeepMind,也时不时爆出闹独立、与母公司闹掰等传闻。

另一方面是正如这位网友所说,整个科技行业所应对的难题:研究人员与企业之间的“适配”

即便连谷歌这样的大厂,也没办法完全解决这一难题。

从企业角度来看,当然是将科研成果快速商业化实现营收为主。

但从技术人员的角度来看,任何一项科研都是件长期投入的事情,怎能容许为了短期利益而降格。

一旦遇到不适配,留给他们的只有两条路:

一条是仍留在产业界,换公司或者自己创业;

比如百度首席科学家吴恩达,负责百度研究院的领导工作,尤其是Baidu Brain计划,但待了三年之后离职,有了自己的创业项目。

另一条则是回归学界。

斯坦福大学教授李飞飞,17年入职谷歌,成为谷歌云AI负责人,一年之后离职重新回到斯坦福。

而这个难题对企业而言,目前还没有最优解。

参考链接:[1]https://www.nature.com/articles/s41586-021-03544-w[2]https://www.cnbeta.com/articles/tech/1264813.htm[3]https://www.engadget.com/google-fires-ai-researcher-over-paper-challenge-132640478.html[4]https://www.nytimes.com/2022/05/02/technology/google-fires-ai-researchers.html[5]https://news.ycombinator.com/item?id=31235152[6]https://static.poder360.com.br/2020/12/About-Googles-approach-to-research-publication.pdf

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

谷歌解雇了另一名质疑该公司人工智能研发成果的研究人员

Google解雇了一名人工智能研究员,他对该公司在2020年发表的一篇知名论文提出质疑,这是该公司在不到两年的时间里第三次高调解雇相关人员。据《纽约时报》报道,Satrajit Chatterjee在3月份被解雇,因为他和他的团队对Google关于使用人工智能制造计算机芯片的研究论文提出质疑。这篇发表在著名科学杂志《自然》上的研究论文说,计算机可以比人类更快地设计芯片的部件。

据《纽约时报》报道,在一封内部邮件中,43岁的Chatterjee对该论文的一些论断提出质疑。他还质疑这项技术是否经过了充分的测试。

在给《泰晤士报》的一份声明中,Google为其研究论文和做法辩护。

Google研究院副院长Zoubin Ghahramani在给《泰晤士报》的声明中说:”我们彻底审查了《自然》杂志的原始论文,并支持经同行评审的结果。同时也严格调查了随后提交的技术主张,它不符合我们的出版标准。”

Google没有立即回复评论请求,Chatterjee也没有回复电子邮件。

对Chatterjee的解雇是在Google人工智能内部两次高调公布的解雇之后再次发生的。2020年12月,在蒂姆尼特-格布鲁(Timnit Gebru)发表了一篇确定人工智能语言模型中存在偏见的危险的论文后,随后Google解雇了这位道德人工智能团队的领导人之一。两个月后,共同领导道德人工智能团队的玛格丽特-米切尔(Margaret Mitchell)因违反公司行为准则而被解雇,据说她使用自动软件扫描信息,发现对格布鲁的歧视性待遇。

Google表示,格布鲁没有通过适当的渠道就发表了这篇论文。

这家搜索巨头已将其人工智能研究作为公司创新声誉的核心。Alphabet首席执行官桑达尔-皮查伊(Sundar Pichai)曾表示,人工智能将比电或火更重要。该公司已将人工智能模型整合到其核心搜索产品中,以此为用户提供更好的结果,同时降低垃圾邮件。

据《泰晤士报》报道,Google拒绝了Chatterjee和他的团队撰写的一篇反驳原始论文的论文。报导称,研究人员试图将这一问题上报给CEO皮查伊和Alphabet的董事会。