谷歌新版Gmail正式发布

IT之家4月26日消息 谷歌已经于昨日起向Gmail用户开放新版Gmail体验,部分用户在打开Gmail之后就可以体验新UI以及功能,这是自2013年以来谷歌首度对Gmail进行大改。

没有看到新界面的用户,可以在设定项下方点击体验新版Gmail,而对新版Gmail不习惯的用户Gmail也提供了“返回传统版 Gmail”的选项。

根据谷歌官方的说法,Gmail本次更新的内容如下:

  • 新版Gmail外观

  • Gmail中可以访问G suite应用,例如谷歌日历

  • 网页版提供智能回复功能

  • 可“延后”处理电子邮件,并可选择何时在收件箱重新显示

  • 离线支持

新版Gmail已经可用,未来几周当中谷歌将添加离线支持、保密模式、高优先级通知以及取消订阅建议等功能。

想看到更多这类内容?去APP商店搜IT之家,天天都有小欢喜。

在过去几年“砍柴”上台后,谷歌是如何成为另一个百度的?

现在的谷歌处于一个十分微妙的时刻。

虽然美国政府已经改朝换代,针对这家美国最大互联网信息和软件技术公司的政治警报仍未消除。仅在美国,谷歌就面临至少三宗反垄断调查,涉及联邦层面以及美国绝大部分州。

谷歌公司组织管理和运作的方式也在经历一次大考,而自从 Sundar Pichai 2015年接管公司以来,他的成绩并不理想。

现在正是谷歌需要强势整合它旗下五花八门的各类业务的时候。然而,从 Pichai 上任以来的财报来看,谷歌仍然是一家核心搜索/广告业务占绝对大头的公司,核心之外的业务仍然没有太大进展,公司管理面临多重难题:

  1. 谷歌强大的 AI 科研力量,产出的成果已经有一部分整合到业务。但是,尽管谷歌宣称世界已经转变为“AI优先”,整体来看其 AI 能力和业务的实际结合程度仍然较低,也无法撼动核心业务的营收地位。至于像 DeepMind 这样不断拓展 AI 技术边界的旗下公司,在商业化上仍然找不到北;
  2. 作为硅谷最早一批宣布的专门 AI 硬件之一,谷歌的 TPU 从一开始就在外部使用者的开放程度上落后,至今没能被更多 AI 研究者所获取,从声量和销量上落后于英伟达等主要竞争对手;
  3. 2015年从谷歌拆分出去的诸多 “Other Bets” 项目,截至目前只有少数得以幸存;做的最早、雷声最大的自动驾驶公司 Waymo,商业推进一直没什么进展,估值也大幅缩水;
  4. 依托自己掌控的操作系统生态,谷歌的 Pixel 手机业务已经持续多年,做出了一些有竞争力的产品,然而花了和一些同业创业公司相同甚至更多的时间和财力之后,却依然无法在行业站稳脚跟,叫好不叫座;
  5. 独立成为公司的谷歌云,近两年营收倒是增长不错,在内外部却也颇有怨言:其由上至下的管理模式被认为和谷歌脱节,想要转回总部的员工不在少数;外部的用户在谷歌云上找不到 AWS、Azure 那种客户服务优先的感觉;
  6. 现时的谷歌仍在继续扩张员工规模,截至2020财年结束,仅全职员工总数就已超过13.5万人(外加规模不小的外包员工)。拿着高工资,享受着在硅谷以及世界各地都相当优厚的待遇,这些员工当中不少人却又对公司在多元化、政府业务、公司政治等方面的作为和不作为,怨声载道……

这难免让今天的谷歌,看起来有点像曾经的百度:创立多年后仍然过度依赖核心业务,跟不上时代的潮流,诸多转型尝试无疾而终。

AI:起个大早,赶个晚集

谷歌是在它的时代最早将前沿技术研究作为公司发展要务的硅谷公司,可能没有之一。在 Jeff Dean 的开发和领导下,谷歌将分布式计算系统应用于公司的广告、网页抓取、索引等系统,并且很早就成立了专门进行机器学习/深度学习的科研部门。Dean 本人也是谷歌元老,1999年就加入了公司,目前仍在领导着该公司的科研部门 Google AI(原 Google Brain)。

2017年,Pichai 发文指出,世界正在经历一次重大的科技转型,从移动优先转向 AI 优先。

谷歌多年持续的科研投入在今天已经有相当不错的进展。在历史引用数量上,来自谷歌研究员的论文持续领先其它公司。而在应用层面,今天谷歌的许多核心业务产品已经得到了 AI 研究的加持。

谷歌搜索引擎的核心算法已经整合了深度学习技术,能够更高效地生成对用户更有用的搜索结果;谷歌广告和 Doubleclick 产品也都采用了基于机器学习技术的智能自动出价技术 Smart Bidding;除此之外,包括 Maps、Gmail、Translate、Chrome、Photos 等许多产品,也都受益于谷歌 AI 研究的成果。

比如,2016年谷歌搜索前负责人 Amit Singhal 离职时,他的接任者 John Giannandrea 曾是谷歌 AI 研究的主要负责人之一,推动了搜索业务整合 AI 研究成果的进度。

然而这只是事物的一面。从另一面看,谷歌在 AI 科研上毋庸置疑的领先地位,却也在面临与公司业务发展营收增长之间的脱节。Pichai 说的没错,这个世界确实已经变成了一个 AI 优先的世界。但是说归说,似乎谷歌自己并没有做出表率,成为一家从业务上真正的 AI 优先的公司。AI 用在了搜索里,但这样的谷歌仍然是一家搜索优先的公司。

在 Google AI 的年报中,科研-业务整合的篇幅很短,实质性的内容往往鲜有提及。谷歌的 AI 技术和一些面向消费者的产品整合的进展不错,但这些产品,除了基于谷歌一体化的用户账户系统,能够为核心业务提供更多数据,构建更全面的用户画像之外,大多无法直接带来收入。

况且,这些产品当中还有一部分,如多次转型后选择了办公软件方向的 Google Hangout,还面临着 Slack 等竞争对手的强势挤压。类似的情况,为谷歌 AI 研究应用于产品从而创造商业价值和持续维护公司行业影响力的前途,蒙上了又一层阴影。

谷歌在 AI 硬件方面的记录也值得提及。

谷歌开发的 TPU (Tensor Processing Unit) 是硅谷较早一批面向深度学习训练和推理的专门计算设备,推出时备受关注。当时,谷歌主导的 TensorFlow 深度学习框架,因其高性能、广泛的适配性和上手门槛低,深受研究人士和开发者的青睐,而 TPU 有希望将谷歌在深度学习方面的优势从算法进一步拓展到硬件层面,实现真正的软硬结合。在当时,一些看好者甚至将谷歌比作 AI 计算新时代的英特尔。

几年过去了,TPU 的推进并没有达到人们期待的样子。随着产品迭代,TPU、Cloud TPU 在纸面上的算力呈指数级增长。然而在发布后一段时间里,受制于 TPU 的计算环境要求,以及谷歌令人费解的策略,这款硬件一直仅供内部使用和接受非常有限的第三方使用申请,而没能尽快提供给广大开发者。

目前对于第三方开发者,他们需要成为谷歌云用户,或者购买2018年才发布的,算力更低、吸睛程度远低于“正版” TPU 的 Edge TPU,(再或者通过包含 Edge TPU 部分功能的 Pixel 4 手机)——才能够和 TPU 打上交道。但是,这些开发者也有 AWS、微软 Azure 等基于 GPU 的方案可选。

这一情况,在客观上限制了 TPU 在发布初期几年在行业里的落地应用。

以英伟达为代表的硅谷芯片型公司,已经追平甚至超过了谷歌的进度,在近几年持续发布专门面向深度学习的 GPU、CPU、FPGA 或 ASIC 产品。早年谷歌发布 TPU 时拿它去和英伟达隔代架GPU 架构对比的事情,也些许令人怀疑谷歌在技术上是否不够“诚实”。

非核心业务:寥寥草草,找不着北

2015年谷歌完成了自主的拆分重组,核心业务继续以谷歌公司的牌子运营;非核心的业务,如风险基金 GV、光纤宽带 Fiber、自动驾驶公司 Waymo、医疗健康 Verily,无人机 Wing,登月工厂(原 Google X 实验室)等,均实现了很大程度上的独立化,由新成立的母公司 Alphabet 以 “Other Bets”(其它赌注)的看管着。

(2019年,Pichai 也被任命为 Alphabet 的 CEO。)

重组过去了5年,Other Bets 的绝大部分项目都运营的寥寥草草,业绩惨淡,且很大程度上仍然依赖谷歌作为靠山,也有一部分项目遭到关停。而极少数得以存活的高调项目,甚至不乏能够拿下高额融资的”谷歌系“公司,目前的处境也并非绝对安全。

大部分项目停滞不前。光纤宽带业务目前在全美推广进展缓慢,只有数量有限的城市住户可以申请,而且覆盖不存在区域一说,只有点状存在。

再比如,Verily 公司的独立性不足,此前相当长一段时间借住谷歌办公室、共用班车食堂和内部招聘工具等(Verily 甚至曾经为了费用和谷歌本部发生过争执)。新冠疫情到来时,Verily 很快就开发出了一个就医初筛网站,但团队和业务都非常不成熟,功能基本和随便一个第三方写的调查问卷无甚差异,投入使用的效果并不理想;直到疫情爆发半年后,Verily 开发的复工审查工具才获得了第一个客户——姊妹公司 Waymo。

之前,因为有现金牛搜索广告业务的存在,这些项目还有的兜底。然而2015年的谷歌重组,其中重要原因就是相当一部分员工、高管以及股东认为这些烧钱看不到尽头的项目拖累了谷歌的整体财务表现。拆分重组的行为,本身也是对这些公司敲响一次警钟。谷歌兼 Alphabet 首席财务官 Ruth Porat 的重要职责之一,就是监督它们放弃幻想,尽快赚钱。

然而重组过去5年了,很大一部分 Other Bets 项目(主要是那些经营实体业务的项目)在商业化仍然寥寥草草,毫无头绪。财报显示,谷歌的 Other Bets 所有项目在2020财年的总计亏损高达45亿美元——较上年有所改善,但亏损问题仍然显著。自从重组以来,少数项目已经被迫关停(如 Project Loon)也有项目被 Google 重新收编(如 Jigsaw),目前 Alphabet 旗下仍有十家左右公司属于 Other Bets 范畴。

Waymo 是一个非常典型的例子。

该公司脱胎于谷歌自动驾驶技术团队,也是整个硅谷最早由大公司内部启动的自动驾驶项目。Waymo 引起社会广泛关注还是多年前它首次发布自动驾驶小车的时候。该款车型造型圆润可爱,也采用了无驾驶员界面的超前设计理念。

虽然 Waymo 一度积累了全美自动驾驶公司/项目中最多的自动驾驶测试里程,也在2017年上马了城市道路公测项目,在自动驾驶技术上一度超前主要竞争对手——风光背后,Waymo 在业务发展上一直非常迟钝。

有报道称,Waymo 曾经先后和 FCA、福特等主流车企合作,但在发展规划上无法达成共识,最终合作未能成型;在 Alphabet 内部,Waymo 的研发成本过高,母公司不得不敦促 Waymo 从外部融资。

前不久 Waymo CEO John Krafcik 宣布离职,前往竞争对手、原谷歌自动驾驶团队创始人 Chris Urmson 创办的 Aurora 公司任职业界广泛认为根本原因是 Waymo 和 Alphabet 之间一言难尽的关系。总的来说,由于业务进展缓慢,Alphabet 对 Waymo 的运营状况非常不满意。

另一个颇为极端的典型,可能是 DeepMind。

这家总部位于英国的公司所开发的 AlphaGo 围棋 AI,先后击败了世界棋手排名靠前的李世乭和柯洁,让那些对科技较为冷感的民众首次了解到到 AI 技术的强大之处。

喧嚣背后,这家公司已经连续多年严重亏损:2018年4.7亿美元,2019年4.77亿英镑。亏损主要来自于薪资:按照2018年数字计算,该公司员工薪资成本高达每人58万美元。

去年情况也差不多,亏损的大头还是人力资源,DeepMind 的员工总数增加到了1000人。为了减轻财务压力,DeepMind 对学术界的捐款支持从2018年的1350万英镑缩水到了2019年的630万英镑,甚至谷歌爱尔兰公司还不得不免除一笔高达11亿英镑的债务。

昂贵的人力成本,促成了 DeepMind 在 AI 科研上的领先地位。它在过去几年开发的 AlphaGo、基因蛋白质预测技术 AlphaFold 等非监督学习相关机器学习技术,在相关领域独步天下,无人能及。

然而,在被谷歌收购并整合到谷歌系里多年之后,这种技术的先进性依然难以被转化为健康的收入。2018年,DeepMind 的1.25亿美元收入全部来自于 YouTube、Waymo、谷歌云等 Alphabet 旗下“谷歌系”的关系户。

显而易见,今天的 DeepMind 深陷于商业化困境之中。而谷歌容许 DeepMind 烧钱(甚至自己为它烧钱)的行为,无异于强行为它续命。

谷歌云:增长可喜,文化脱节

当云计算公司 Bebop 被谷歌收购的时候,它的创始人 Diane Greene 早已对谷歌在云计算业务上的野心了如指掌。当了三年谷歌董事会成员之后,Greene 又被任命为谷歌云公司的 CEO。

从品牌和架构来看,谷歌云公司仍是谷歌的下设单位,但 CEO 的职位在谷歌是前所未有的。不过,上任了一段时间之后的 Greene 发现自己的自主权并没有那么高。

但谷歌云的发展,总体上还是比较顺利的。2019年初 Greene 离任时,谷歌云在2018财年的收入达到了58亿美元,任期内累计年化收入已经80亿美元,对于一家云计算领域的后来者来说,是非常优秀的成绩。

谷歌云新 CEO Thomas Kurian 享受到了比 Greene 还要高的自主权。为了维持业务增长,他在很大程度上改变了公司的组织管理方式和企业文化。和工程师文化盛行,很多创新得益于自下而上的谷歌本部相比,谷歌云的氛围没那么自由、包容,管理模式是自上而下的。

这套模式在商业上是成功的。2020财年谷歌云的收入计130亿美元,仍然远远落后于微软 Azure 的500亿美元和 AWS 的450亿美元,却也达到了市场预期目标。

与此同时,谷歌云在内外部的争议却越来越严重。

2020年初,媒体报道谷歌云计划在硅谷总部开启一系列裁员。没有人愿意丢掉工作,更别提谷歌系公司的工作,但是在那之前,已经有不少谷歌云员工私下表示对公司自上而下的管理模式的不满,甚至希望内部调岗,回到谷歌本部。

在这些员工看来,谷歌云的管理方式,让这家谷歌系的云计算公司失去了谷歌系应有的样子。这些员工,其中很多之前在谷歌消费级产品以及其它团队工作,只是随着组织架构调整和团队汇报变更,变成了谷歌云的员工——他们对谷歌云的这种更偏向老派企业级公司的管理风格感觉到不适应。

一位谷歌云员工在 Glassdoor 上这样评价东家:

很遗憾,所有你听说的关于谷歌那些很酷的东西,都不适用于谷歌云。这里有大批自我感觉良好的经理每天对你进行无意义的细节管理……

销售和销售工程师团队花了大量时间专注于组织内部的细节,却减少了和客户面对面的时间……很多企业客户确实找不到任何理由上谷歌云,甚至连谷歌自己的销售工程师都回答不了“为什么选择谷歌云?”的问题……

Kurian 的策略是招更多的销售来专注于能够赚钱的方向,可在那些方向上,谷歌已经落后AWS 和 Azure 好几年了。这样的策略缺乏创意和前瞻性……

在外部,谷歌云的用户普遍感觉,这家对谷歌”AI优先“战略百分百支持的公司,缺乏 AWS 和 Azure 所具有的那种客户服务优先的体验。

在这方面,谷歌云倒确实是有那种老派企业级公司的架子。而本部过去多年来面对普通消费者,培养出的那种快速、有亲和力的客服姿态,并没有被谷歌云继承。在网上搜索谷歌云客户支持的关键词,得到的多数是负面的评价。

一位用户如此评价谷歌云:技术很好,客服很渣:”它的技术是如此好,以至于我愿意忍受客服方面的痛苦而继续使用它“——只是长此以往下去,不知道谷歌云还能留下多少这样忠诚的客户。

企业文化:收紧严重,矛盾凸显

企业文化和公司管理模式的窘境,不仅存在于谷歌云,也伴随着谷歌业务规模和员工团队疯狂增长的客观情况,在整个公司扩散,引发更多的问题。

去年新冠疫情期间我们曾经独家报导过,围绕在谷歌不同的华语市场对新型冠状病毒的准确翻译,曾经有一批华人员工在内部积极活动,给公司高管写信、号召同事们行动。相关议题在谷歌内网投票数极高,却在公司的 TGIF 全体会上被故意忽视。所幸的是,最后这些华人员工基本达成了自己的目标。

这一事件,只是谷歌企业文化在员工看来向坏转变的其中一个注脚。总体上,现在的谷歌和崇尚自由、开放、扁平化管理的老谷歌也已经产生了不小的落差。

TGIF 的全称是”感谢上帝今天是星期五“,亦即每周五一次的全体会,现在也已经改成了一个月一次。提问限制和业务相关,参会回答问题的公司高管也不再能够畅所欲言;

出于对收入,对速度,对效率的追求,谷歌仍然要求员工”像在创业公司那样“工作(很多其它同等规模的硅谷大公司也是这样)。但真正到了团队里,员工发现许多机密资料被限制权限,经理/团队之间为了资源你争我夺,令他们得不到那种众人拧成一股绳的创业体验。

与此同时,员工和公司之间的矛盾开始凸显。最近几年,谷歌公司已经成为了硅谷社会运动的大本营。

前有 James Damore 攻击女员工技术不如男员工的白皮书,引发了内部强烈抗议;中间有上万名员工组织罢工,质问公司为何给涉嫌性骚扰的高管开出天价离职大礼包;后又有上千名员工签署公开信,要求公司停止和美国国防部的军事合同;最近谷歌又遭指控,因为一名公司 AI 道德委员会成员的理念和公司利益相悖而将其解聘,此事件又一次引发众多员工和外部 AI 专家联名抗议。

需要明确的是:这些员工自发的抗议活动,并非全部真的因为谷歌做错了什么。

而是:这些活动的存在,日益凸显出员工的种种不满日益激化,员工和公司之间的对话机制出了问题。他们的利益主张当中那些合理的部分,无法在公司现有的运作模式下得到对等合理的处置。

毋庸置疑,只要是大公司,就一定会遇到此类问题。但至少对于谷歌而言,Pichai 的上位并没有为这些问题带来妥善的解决方案。他更专注于持续改善公司的业绩,更专注于如何管理好这支十多万人的团队。Pichai 是一个令董事会放心的 CEO,在相当一部分员工当中却不是一个能够代表他们,为他们伸张正义的好“掌门人”。

不管怎样,Pichai 已经是谷歌,以及整个谷歌系的最高掌权者。谷歌创始人 Larry Page 和 Sergei Brin,以及曾经的监护人 Eric Schmidt,已经很大程度上远离了公司的是是非非。据《经济学人》援引知情人士报道,Page 本人对于谷歌全球员工罢工一事也感到很痛心,担心他们多年以来所做的努力都白费了。

但事到如今,他们只能继续相信并且依赖 Pichai,将谷歌带离这个泥潭。

今天的谷歌,仍然是硅谷创新精神的最佳代言人。它在机器学习、云计算等诸多方面的研发努力,继续服务着广大用户,在量子计算上的投入,也有望为未来科技进步铺设道路与桥梁。

最令谷歌员工感到骄傲的,就是他们可以每天开发和维护着各种各样的产品,服务数十亿规模的用户,在这个过程中用科技的力量改变世界——即使他们做的事情当中,很多都不赚钱。

在本文尚未提及的其他方面,谷歌还有许多这样那样的问题。比如该公司出了名的热衷于”养蛊“,开发大量内部竞争的同类项目,导致严重内耗,挫伤员工创新积极性,最后再毫无意外地杀死这些项目。

另外,谷歌曾经为人所熟知的”20%时间“,也即员工每周可以花一天时间捣鼓个人项目(不强制要求和公司发展有关)的政策,也早在2013年就被取消,取而代之的是近几年谷歌搞的一个名为 Area120 的内部孵化器——这两者,虽然都鼓励员工在主营业务外和工作时间内做新的尝试,但对于员工创新的激励效果是截然不同的。

更何况,现在谷歌的核心业务都受到不小的威胁。一方面,Alphabet 自己的营收(主要来自搜索广告)增幅在今年有所下降;另一方面,市调公司 Bernstein 副总裁 Mark Shmulik 估计,亚马逊现在控制着全球六成的产品相关搜索,而亚马逊近几年的广告业务增幅明显。

谷歌是一家上市公司,而前述的所有业务整合、前沿技术商业化、企业文化和劳资矛盾等问题,如果长期存在,势必会耽误它的健康发展。

在当前针对硅谷公司反垄断调查中,有一种声音在社会上支持者众:拆分 big tech.

大多数科技从业者,可能不希望看到谷歌被拆分的结果。这家硅谷最有代表性的公司,颇为有趣也很“浪漫”的一点,就在于它什么都做,什么都做的不错,拆分了,还有什么意思?

谷歌自己想必也不希望被迫拆分。然而,如果业务和新技术,以及业务和业务之间“整合难”的问题一直持续下去,一种更尴尬的情况就有可能出现:就算谷歌被拆分了,也没有多大的影响和意义了。

在谷歌的支持者看来,这家公司今天十分成功,盈利能力强,且拥有顶尖的员工团队和卓越的研发实力——有了这些要素,上面提到的这些问题理应不是问题。

但硅谷不乏占有相同要素的公司,比如惠普,已经逐渐落后于其它公司,被遗忘在历史的长河里。

在中国,作为谷歌商业模式在中国的落地者和最终赢家,百度享受了相当长一段时间的商业成功,曾经和阿里巴巴、腾讯合称为 BAT。但是今时今日,百度市值落后阿里巴巴、腾讯数千亿美元,已经脱离了中国互联网行业的第一梯队,”B”的位置被后来居上的字节跳动 (ByteDance) 所取代。

令人苦笑的是,在硅谷,谷歌也面临着自己的模仿者相似的境遇。而幸运的是,谷歌还有时间避免重走百度的老路,只是这条路并不长,短短五年而已。

微软狙击手,亚马逊“打压”,tiktok“偷塔”,谷歌2022年难吗?

撰文/ 陈邓新

编辑/ 黎文婕

尽管苹果、微软与特斯拉风头最盛,但华尔街更为青睐的却是谷歌。

据CNBN报道,谷歌母公司Alphabe创下2009年以来最佳表现,亦成为美国2021年股价涨幅最大的科技巨头,在这个指标上力压微软、苹果、Facebook(更名为Meta)与亚马逊,即使是当红炸子鸡特斯拉也稍逊一筹。

高光之下,暗潮涌动。

微软加码AI语音,试图与谷歌正面交锋;亚马逊在云计算赛道一马当先,谷歌云虽奋力直追却难以拉近身位;TikTok流量在美国登顶,切入谷歌的腹地……

2022年的谷歌,还会成为华尔街的“座上宾”吗?

微软加码AI语音,为谷歌竖起“专利墙”

AI,一直是谷歌的核心战略。

作为抢先按下AI快捷键的玩家,谷歌底蕴深厚、技术优势肉眼可见,几乎稳稳压了互联网巨头们一头。

对此,互联网巨头们从来不甘心,微软也不例外。

其实,早在微软研究院1991年创立之际就涉足AI了,却一直扮演行业的追随者的角色,没有成为行业的引领者。

2015年,AI也成为了微软的核心战略,微软与谷歌的矛盾不可调和。

尽管针尖对麦芒,微软却始终处于下风,如今微软砸下巨资加码AI,双方的竞争势态有了微妙的变化。

2021年12月22日,微软宣布160亿美元收购AI语音巨头Nuance 的方案获得欧盟委员会批准,之前已获得美国、澳大利亚等批准,这意味着微软史上第二大并购已成定局。

据公开资料显示,Nuance堪称智能语音的“鼻祖”,一度占领全球高达80%的市场份额,直接或间接服务的用户数超过20亿。

图源:Nuance公司官网、国泰君安证券研究

譬如,Nuance助力苹果的iOS系统于2011年推出Siri,领先安卓的Google now(2012年)、Windows的Cortana(2014年)一步。

换而言之,微软试图在AI领域挑战谷歌的江湖地位。

据华西证券的研报显示,当前全球智能语音市场规模占据AI行业总市场规模的22%,仅次于机器视觉的37%,而Nuance在全球智能语音市场占据的份额为31.6%,高于谷歌的28.4%。

Nuance有了微软加持之后,谷歌2022年在AI赛道上的压力陡增。

一方面,Nuance医疗领域深耕多年,先发优势明显,建立了谷歌无法回避的“专利墙”,如此一来谷歌在AI医疗这个细分领域的扩张步伐或放慢。

另外一方面,Nuance拆分的子公司Cerence为全球汽车软件AI语音领军者,据天风证券的研报显示,2020年市场份额为38.08%,那么谷歌在汽车智能化这个细分领域多了一个不可忽视的对手。

一名互联网观察人士告诉锌刻度:“语音是智能时代的流量入口,也是兵家必争之地,微软图谋弯道超车,这考验着谷歌的AI底蕴,能否持续筑高AI技术壁垒。”

谷歌云,为何难以再上一层楼?

AI之外,云计算被谷歌视为第二曲线。

谷歌是云计算最早一批玩家,仅比亚马逊晚下场两年,但一直重视不够,因而相当长一段时间之内谷歌云一直不温不火。

直到亚马逊AWS、微软Azure大放异彩,谷歌才回过神来,云计算为互联网巨头不可缺席的主流赛道,行业天花板遥不可及。

对此,前谷歌 CEO埃里克·施密特曾感叹:“我们没有把正确的踏脚石打入云层。”  

于是,谷歌2015年调整了组织架构,成立谷歌云事业部,并制定了一个雄心勃勃的目标:到2020年,谷歌云要与广告业务比肩。

理想很丰满,现实很骨感。

2021年谷歌第三季度营业收入为651.2亿美元,同比增长41%;其中,云计算业务的营业收入为49.9亿美元,同比增长45%,虽然增速高于整体,却在总营收中只占7.66%;营业亏损为6.44亿美元,去年同期为12.1亿美元。

非但营收结构不如预期,赶超亚马逊、微软的愿景也落空了。

谷歌云一直屈居亚马逊、微软之下

据Synergy Research Group数据显示,亚马逊AWS的市场份额为33%,微软Azure的市场份额为20%,谷歌云的市场份额只有10%。

究其原因,云计算为增量市场,而非存量市场,不是此消彼长的竞争势态。

更为重要的是,谷歌云缺少To B的基因。

云计算属于To B范畴,面向企业、机构、组织,提供场景化精准应用服务、海量业务数据高速处理、低成本可靠的IT基础设施,如若没有对B端商业模式的深刻认知,没有对成熟曲线的远景前瞻,那对云计算的理解自然也难以深刻。

简而言之,谷歌浓厚的极客文化在C端是优点,而在B端却是缺点。

资深安全工程师“血玫瑰”告诉锌刻度:“谷歌崇尚技术为王的极客文化,倘若碰到客户挑刺,亚马逊的态度是‘得嘞,马上重做,还有啥需要您招呼一声’,轮到谷歌则是‘呵呵,这是当前最牛的技术,您说的早就淘汰了,建议跟上时代的步伐’。”

此背景下,谷歌云的体验自然无法令所有人满意。

据Gartner报告显示:“我们调查的一些企业在使用谷歌云平台之后表示体验很差,这在很大程度上源于谷歌云的快速增长以及由此导致的组织方面的不成熟。”

这么来看,2022年谷歌的云计算业务,依然难以再上一层楼。

“广告之王”的桂冠,岌岌可危?

相比亚马逊、微软,TikTok对谷歌的威胁更大。

据Cloudflare数据显示,TikTok 2021年的访问量全球登顶,将谷歌赶下其把持多年的“一哥”宝座,而2020年不过位列第8名。

这意味着,谷歌的流量霸主的地位不保。

问题在于,谷歌贵为“广告之王”,对流量格外重视,毕竟流量越大意味着活跃用户越多,活跃用户越多越容易吸引广告主。

譬如,谷歌与Facebook双双依赖广告为生,但前者流量历来高于后者,从而更受广告主青睐:谷歌2021年第三季度广告收入为531.3亿美元,而同期Facebook广告收入为282.8亿美元,仅为谷歌的一半多点。

谷歌才是“广告之王”

换而言之,TikTok切入谷歌的腹地。

谷歌2022年面临基本盘的保卫战,事关未来的兴衰荣辱,容不得半点马虎与松懈,但在越来越多年轻人青睐TikTok的背景下,到底有多大的效果尚不得而知。

其实,谷歌有针对性地推出短视频Shorts,渴望与TikTok分庭抗礼,试图遏制后者流量不断攀升的势头。

可惜,由于缺乏特色,年轻人不吃“模仿”这一套,对TikTok未造成多大的冲击。

一名私募人士告诉锌刻度:“做短视频,谷歌想简单了,不是有资金、技术、人才就可以的,那是必要条件而不非充分条件,没有颠覆性打法、长远布局、战略思考,就摆脱不了边缘化的命运,玩票与对标那是有本质区别的。”

尽管如此,谷歌的2022也有值得期待的地方。

首先,推出智能手表Pixel Watch,重启可穿戴设备业务,或为当下炙手可热的元宇宙铺路,毕竟可穿戴设备是元宇宙的重要入口。

其次,风投业务进入收获期,谷歌2021年第三季度投资收益为1.88亿美元,而2020年同期为2600万美元,有逐年上升的势头。

再次,新能源汽车发展的如火如荼,对智能驾驶的需求也在不断攀升,谷歌旗下的Waymo深耕智能驾驶多年,当下正在全球多个城市不断落地,这也是一个很大的看点。

总而言之,尽管谷歌2021年在美股科技巨头中涨幅最大,但前有标兵亚马逊、微软,后有追兵TikTok,2022年能否顶住压力、成功接受挑战,让我们拭目以待。

真正的智能:从AI+RPA到IPA,数字化员工奠定了企业的未来

2021年,数字员工成为全球热词,RPA在各行各业的渗透率持续扩大,在部分人力密集型行业,已经比AI更早地实现生产力的解放。

IDC数据显示,2023年全球RPA市场规模将达到39亿美元,并保持每年64%的增速。中国市场范围内,iResearch数据显示,2020年我国RPA行业市场规模为近20亿元,同比增长96%,市场处于高速增长状态,增速超过全球平均值。未来三至五年内,全球将会有千万规模的低端工作被企业级RPA应用所替代。

01. 国产RPA历经淬炼,格局初显

整个软件领域内,RPA的行业温度有目共睹。而市场对于RPA行业持续迅速增长的看好,主要来自于两个方面:

其一,从行业来看,RPA目前在金融领域的应用程度最高,已经达到了5%-10%的市场渗透率,在打通银行数字化系统方面已经卓有成效。相比其他行业,金融业一贯以信息化水平高、业务场景复杂、数据协同性强、安全合规需求高等特点著称,而RPA的成功落地,已经为其他行业佐证了无创集成、敏捷部署、高扩展性等优势,以及对于企业降本增效的意义。在融合了AI技术后,“RPA+AI”的商业模式成为了整个软件市场中行业价值最广泛的赛道,以核验、信息查询等主流自动化场景为代表,在企服市场得到了充分认可。Gartner在报告中指出,企业的数字化升级需求是驱动RPA增长的最重要因素,这意味着RPA的发展将持续与数字化市场保持积极正相关。

其二,无论是海外还是国内市场,RPA行业已经格局初现。自2017年以来,RPA厂商如雨后春笋般平地而起,竞逐激烈。今年4月,全球RPA领域头部厂商UiPath成功上市,市值达到400亿美元。与此同时,国内RPA厂商也迎来了新的增长机遇。仅2021年上半年,国内RPA行业融资事件十余起,金额突破10亿元。虽然目前仍处于起步阶段,仅占全球市场的2%,但市场天花板更高的中国市场正在逐渐成为下一代RPA、IPA(AI+RPA)技术诞生的热土,同比投资增速已经超越美国。此外,由于国内市场缺乏如微软、SAP、Oracle等软件巨头,也为以实在智能为代表的头部RPA厂商提供了充足的成长空间。

目前,RPA的市场教育仍在继续。而在实在智能CEO孙林君看来,市场教育能够为整个行业抬升天花板,而厂商的差异化壁垒则会随着客户被教育慢慢体现出来。对于企服领域来说,不同企业客户关注的产品维度有所不同,但如果一套RPA产品服务可以实现更复杂的场景,支撑更深度的逻辑,被客户替换的概率就会更小,从而形成品牌效应,推动实现更多的复购。

“因此,很有可能是由第一批RPA厂商来教育了市场,但是第二批功底更扎实、技术创新能力更强的厂商才能在这个市场上收割。”孙林君补充道。

02. RPA+AI,技术融合下的数字员工

实在智能成立于2018年7月,致力于通过AI与RPA融合的IPA创新技术,打造高效智能的IPA数字员工,为运营商、金融、电商、政务等行业的数字化升级提供智能化、精细化的解决方案。通过AI技术进一步提高RPA的稳定性与兼容性,真正降低RPA的应用门槛,实现软件市场价值红利的释放。

目前,作为国内RPA行业的头部厂商,实在智能已经成功开发了包含“实在RPA设计器、实在RPA控制器、实在RPA机器人”等在内的RPA三件套软件,及全栈自研的实在AI云脑(包括算法平台、标注平台和决策平台等)。同时,深度支持国产信创,已经通过国产系统及芯片的全面适配认证。

人力正在被机器所替代,而在更加细分的技术结构中,纯粹的RPA技术也正在被AI+RPA的融合技术所替代。

当下,RPA正在经历从“辅助与解放人工”到“自主智能”的阶段,其主要创新点来自于通过融合AI突破了RPA自身的天花板,例如解决RPA仅基于底层拾取方法无法全面拾取软件元素的短板等,而这一目标的实现与AI技术关系匪浅。在RPA向IPA进化的过程中,实在智能等厂商在技术产品方面地不断探索,证明了AI不仅能够有效拓宽RPA的触达范围,同时可增强RPA的拾取能力、稳定性、性能、开发效率和体验等。除了NLP、OCR等感知层面的结合之外,AI还能够在智能决策等认知层面将不同场景下的业务规则和经验模型化,从而令数字员工具备分析判断并自动化处理的能力。

在行业融合的巨大价值下,实在智能近期发布了业界领先的全自研“智能融合拾取”技术,通过图神经网络技术学习软件中元素的拓扑关系,实现无锚点的元素拾取;通过异常检测和CV技术实现页面的无感知流程修复,以及通过目标检测和图像匹配技术处理软件操作视频,从而自动生成数字员工的业务流程等。

03. 行业合作下,RPA的未来生态

“在开源的时代环境中,技术本身难以形成很高的壁垒,围绕行业和业务所进行的持续创新能力才是根本的壁垒。另外,对于任何一家新兴企业来说,在擅长的行业内进行业务聚焦与拓展都是非常重要的。”孙林君认为,无论是从小众的技术市场拓展到具有普适性价值的企业级数字化领域,那些存在大量低效分散的流程的行业也同时在经历快速发展与变革,因此RPA得以快速发展。与行业展开对话,结合一线业务人员的痛点实现更多可落地的创新,会是未来RPA最主要的发展趋势。

除了运营商、金融、政务等行业,电商也是实在智能正在重点布局的行业之一。今年,实在智能与国内电商SaaS巨头光云科技开启全面战略合作,共同推进电商行业的数智化转型。

光云合作签约-左起:实在智能创始人兼CEO 孙林君、光云科技CEO 谭光华

”产品为王“的时代基调下,开放平台的建设是推进国内RPA生态发展的重要步骤。实在智能的开发者生态也在加速壮大,连续推出了针对实在RPA开发者的多项扶持激励计划,从第三方收益的视角激活潜在参与者,共同推进行业繁荣,将技术底座向更加广阔的产品线边界进行延展。

从十年前的“按键精灵”,到如今的数字员工套件,RPA正在随着AI技术的发展,不断接近无代码化的业务场景,并不断加强跨越介质提取信息的能力。如今,所谓的“弱人工智能”已经在技术融合中体现出了巨大的威力,虽然“强人工智能”的实现仍然道阻且长,却足以让人类对AI引力下机器人流程自动化的未来充满了想象力。

Google Capital合伙人曾经断言:“RPA将会是未来企业能受益于AI技术的主要途径。”目前,IPA这一细分领域仍是无限蓝海,而未来,在实在智能等国产厂商的领军下,企业的生产方式将被进一步解放与重塑,“RPA+AI”的模式也将有机会代表新一代商业化数字技术,代表中国软件打造出全球量级的产品与解决方案。

神秘的谷歌量子计算总部这么酷?

位于美国加州海边的圣塔芭芭拉市有着丰富的文化艺术氛围。同时,它也是美国最顶尖的研究型理科院校之一,加州大学圣塔芭芭拉分校 (UCSB) 的所在地。

而这里,也是谷歌量子 AI 实验室 (Quantum AI Campus) 的新家。

在这里,一群来自全世界最优秀的工程师、量子力学研究者、艺术家和自然科学家正在共同协作。他们的目标,是从量子力学的角度,实现继算盘、经典计算机、机器学习之后的又一次计算技术重大突破。

计算技术的进步,让人类的生活工作效率大大提升,但在基础科学研究领域,研究者已经不在满足于基于硅半导体的经典计算机了。一些超级重度依赖计算的任务,比如为全球级别的气候变化进行精准建模,或探究全新复合材料的结构,即使用最先进的超级计算机,也需要几年-几万年不等的时间,而如果采用量子计算,可能只需要小时甚至分钟级别的用时。研究量子计算,不仅能够解决目前经典计算无法解决的问题,还能够让人类距离探清宇宙最基础原理更进一步,对于大自然的运转获得更深的了解。

这便是谷歌在下一个十年时间里,全力投入量子计算基础研究的真实动机。

美国时间11月10日,硅星人有幸参与了一次谷歌圣塔芭芭拉量子计算总部的“虚拟”探访,和谷歌量子计算团队的主任工程师、研究科学家等进行了深入交流。

计算、自然科学、人文和艺术融合的“车库”

和经典计算不同,量子计算核心单元是处于纠缠态的粒子,极易受到电磁、热、宇宙射线的干扰,因而会天然存在错误的情况。了解这些,你或许会以为,一座专门研究量子计算的实验室,一定是像电影里那种存放机密的实验室一样,层层把守,密不透风,位于地下,到处是混凝土墙和法拉第笼,以求排除一切干扰。

然而谷歌的量子计算总部,却和我们想象的千差万别。这里反而更像是硅谷创业故事当中,那种车库创业的氛围。不仅如此,谷歌 Quantum AI Lab 到处都充斥着一种前卫艺术厂房的风格。

当然,毕竟这还是一座研究量子计算的机构,室内的各种艺术品当中,也不乏以量子处理器/计算机为原型的照片和绘画。

就连最核心、最神秘的量子计算机,到了谷歌这里,也反倒成了“艺术装置”。

这种对于室内装潢的选择,让谷歌量子 AI 实验室的视觉氛围更加轻松活泼。员工在这里,或许也会更有创造力吧?

实际上,“创造力”正是这支团队最重视的东西。

谷歌量子 AI 实验室主任工程师兼谷歌圣塔芭芭拉办公室负责人 Erik Lucero 表示:这支队伍的创造力,不仅限于科学层面,而是科学家和艺术家的两种创意方式的结合。只有这样融合的创造力,才能够帮助团队实现发明未来的目标。

团队里的研究科学家兼量子电路工程师Marissa Giustina表示:大家虽然都是来搞量子计算的,但量子计算这门学问,目前仍然非常早期,也没有一个固定的方向,所有人都是在做尝试。因而在此阶段,能够引入各行各业的顶尖人才,进行思维的碰撞,尤为重要。

这种团队组建的思路,代表着谷歌目前对于量子计算的认识,以及对于这支团队的要求——不仅限于短期的、数字层面的目标,比如增加计算机的量子位数,比竞争对手更早实现更高级别的量子霸权等等。

谷歌专注于长期的目标,因为量子计算终究还是要造福于人类,解决一些人类面临的更大规模、更长远的难题,比如找到气候变化的答案、探究新的材料科学以解决人类饥荒问题等。

想要解决这些难题,需要的不仅仅是计算科学和量子力学专家,而是需要更多人文、艺术的专家们在一起激情脑暴。

将谷歌量子 AI 实验室的选址定在风景优美的圣塔芭芭拉,背后也有一些更加深刻的原因。

据 Lucero 介绍,首先,圣塔芭芭拉拥有全美最优秀的研究型院校加州大学圣塔芭芭拉分校。而这所大学的超算研究和应用部门,在全美是绝对领先的。比如,著名数学家、菲尔兹奖得主 Michael Freedman,就是加州大学圣塔芭芭拉分校的教授,同时也是该校和微软合办的量子计算研究小组 Station Q 的负责人。

因此,从超级计算/量子计算的人才密集性来看,谷歌将量子 AI 实验室设在这里是非常明智的选择。Lucero 表示,圣塔芭芭拉“这里有很多优秀的人才。当地也非常欢迎我们。谷歌在这里能够很好地和当地的学术和研究社区进行融合。”

Lucero 还讲述了另一个选择圣塔芭芭拉的原因:

“这里的自然风光优美。在这里生活和工作,我们能够感受到一种与自然的连接。而量子计算也是这样,它和我们的大自然的基本原理,有着千丝万缕的联系。”换言之,在这里从事量子计算研究,团队成员们能够更加容易地从周围的自然环境中获得启发,提升创造力,有助于实现更多在今天看来“不可能”的突破。

揭秘谷歌量子计算机

来到谷歌量子 AI 实验室,硅星人有两个最想看的东西,一个是办公室里面的样子,另一个,当然就是谷歌的量子计算机本身了。

量子计算机,其实和我们一般理解的计算机有非常大的差别。一般的个人计算机,包括主板、中央处理器、显卡、硬盘、运行内存、输入输出设备等主要部件,大到桌面机箱,小到巴掌大小的手机都可以装下。而量子计算机,尺寸都是非常巨大的。

在讨论量子计算机的时候,很多图片都会显示下面这样一个看起来非常精密的仪器。

其实,上面这个东西主要是一个低温恒温器外加信号放大器。这个装置从上到下温度不断降低,到了最下面的量子处理器,温度接近于绝对零度。

恒温器上还安装了很多的模拟信号电路,用于控制量子处理器,并且将处理器里量子位传出的信号进行放大、编码,转换成常规的数字信号。

此外,在恒温器的旁边,你还能看到一架看起来像上古时代服务器一样的设备——其实这就是量子处理器的 “操作系统”。

这些硬件,也是谷歌量子 AI 实验室团队自行研发和组装起来的。通过这些设备,团队才能够对量子处理器进行操控,对其输入任务,读取其处理的结果等等。

能耗方面,Giustina 表示,按照团队在2019年进行的一次计算测试来看,如果同一任务采用经典的超级计算机,功率是在兆瓦级别的,而且需要多年才能完成,而采用当时谷歌的量子计算设备,功率只有25千瓦,并且只用了几十分钟就完成了。

在量子计算机上,制冷部分是耗能大户。因为谷歌的量子计算系统采用的是超导量子位,为了尽量减少热造成的干扰,整个系统的运行温度在10毫开尔文以内(零下273.15 到 .14℃之间)。

Giustina 表示,在量子计算机上工作最烦的就是这玩意的噪音真的很大。“噌、噌、噌一样的声音,一直不停的响,非常吵。可以把它想象成一个噪音巨大的大冰箱,你不会想要放在家里的。”

也正是因此,Giustina 表示,团队估计在未来,就算量子计算机可以正式商用,提供给普通人使用,也应该不会是本地部署的,而是通过类似于云服务的方式提供,安置在数据中心里。

Lucero 倒是不太介意噪音。他甚至把量子计算机比喻成一个音乐播放器。因为它的工作原理,就是控制器将信号通过模拟脉冲信号的方式,穿过一层又一层,绵延数英里长度的线路,发送给量子处理器,

“就像放音乐给量子位听一样。” Lucero 说道。

那么,负责神机妙算的量子处理器,又是怎样的一个神秘设备呢?谷歌开发的量子处理器 Sycamore,从封装后的外观上,和普通的CPU确实有那么点像。在下图中,我们看到的其实是封装好 Sycamore 量子处理器,你可以把它理解为“主板”。

真正的量子芯片,封装在中间印有“Google”字样的封盖下面。

旁边大量的金属管实际上是同轴电缆接头,和机架/恒温器里的模拟信号电路进行连接,从而对 Sycamore 进行控制和状态读取。

Sycamore 量子处理器的封盖设计也是非常独特的。封盖由多层组成,其中一层的材质是超导铝合金,涂成了黑色,用于遮盖住漏进来影响量子位工作的光,还有另一层的材质是镍铁合金,可以屏蔽电磁干扰。

这是封盖拆开的样子:

而真正的量子计算芯片,大约长这样:

芯片大小示意,面积150平方毫米,接近一张邮票的大小:

这块谷歌的量子计算芯片,采用的也是多层结构:布线层和量子位层。

下图显示的是布线层。其主要功能是在电子控制系统和量子位之间进行信号的传输和读取。这一层和实际的量子位层是分开的,中间有隔离装置,目的就是为了避免信号在布线层传输对量子位层造成干扰。

值得提及的是,虽然量子计算机和传统计算机架构完全不同,但芯片用的材料其实一样。比如布线层也是从硅晶圆上切下来的,线路则使用裸露的金属线。

然后就是计算真正发生的地方——量子位层。这一层上,谷歌用最先进的半导体封装技术在芯片上安装了数十个量子位。量子位层的基底是覆有超导铝合金涂层的硅晶圆,配合布线层专门的设计,使得谷歌团队可以单独控制每一个量子位。

量子位是量子计算的基本单元,采用超导材料制造。架构其实非常简单,由电感器和电容器组成。下图为一个量子位的显微镜扫描示意图,其尺寸大约为10平方微米,宽度和一根头发相近。

至于一块 Sycamore 芯片上具体的量子位数量,之前谷歌公开宣称的是53个(总数是54个,但剩下的那一个无法工作)。但据 Lucero 对硅星人透露,目前团队已经成功封装出了超过54个可操作量子位的新芯片。

谷歌也对外公开了其在量子计算上面的路线图:

1/ 证明“量子优越性”

在2019年,谷歌通过 Sycamore 处理器宣布实现了量子优越性,也即量子计算机在处理实际任务上性能优于经典计算机。尽管在当时,这一宣称备受质疑,但谷歌仍然坚信,他们的成绩已经代表人类量子计算进入了 NISQ(Noisy, Intermediate Scale Quantum 嘈杂中型量子)的时代。

在 NISQ 时代,即便在当时所有量子计算机所用的量子位有着极高的错误率和太短的稳定时间,无法进行长时间计算,人们仍然可以利用这样的系统,并且通过研发更好的纠错系统,来优化现有量子计算机的性能,提高其可用性。

而谷歌拥抱 NISQ 时代,面临最大的、必须要克服的挑战,就是提高量子纠错能力。

2/ 扩大系统的量子位规模,实际证明量子纠错的可行性。

今年7月,谷歌宣布在量子纠错上实现了重大突破。当时谷歌在《自然》上发表了论文,展示了其如何使用逻辑量子位和稳定回路,让计算错误随着量子位数量的提升而降低,最终的纠错能力达到了之前业界顶尖水平的100倍。

虽然这一次,谷歌在纠错上的进展仍然被业界评价为”不切实际“,但谷歌团队认为,这次的进展只是展示了一种纠错的方法,虽然在今天可能不切实际,但在未来或许有可能被用于开发能够稳定纠错的量子计算机。

3/ 实现纠错逻辑量子位

在证明量子纠错后,将其扩展到一个足够大规模的系统,从而证明大规模构建纠错逻辑量子位是可行的。

4/ 将两个逻辑量子位(由1000个物理量子位构成)平铺在一起组成量子晶体管。

5/ 用量子晶体管的方式,将整个系统的物理量子位数量扩展到十万个

6/ 形成一个完整的量子纠错计算机。

谷歌保守估计,十年内或许可能实现纠错逻辑量子位。至于开发出真正完整、可用的,带有纠错能力的量子计算机,没准要到本世纪末才有可能。

考虑到谷歌这几年的重金投入,以及已经实现的突破,或许在我们有生之年,真的能拿看到圣塔芭芭拉,看到谷歌量子 AI 实验室成为量子计算技术关键突破的 “Ground Zero”。也许未来的某一天,通过量子计算,我们将增进对于自然、宇宙法则的认识,实现人类智慧的范式转移。

你喜欢这次的谷歌的量子AI实验室总部探访吗?是否还想要看更多?欢迎通过留言和硅星人/品玩分享你的看法评论。

*注:封面图来自于Financial Times,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。

谷歌突然关闭了在非Android go设备上安装Gmail go mail客户端的大门

众所周知,谷歌为 Android Go 平台打造了一套“精简版”的应用程序。以 Gmail Go 为代表的诸多第一方 App,让资源受限的 Android Go 设备用户很是开心。遗憾的是,这样的喜悦似乎未能长久。据悉,2018 年推出的 Gmail Go 在保留核心功能的基础上,对存储空间的消耗却只有普通 Android App 的一半。

近段时间,许多人指责 Gmail 因带有不必要的 Meet 标签而导致软件膨胀,用脚投票的 Android 用户干脆大量转投更精简的 Gmail Go 邮件客户端。

左为 Gmail,右为 Gmail Go 。

然而在无预警的情况下,谷歌又在非 Android Go 设备上禁用了安装 Gmail Go 邮件客户端的选项 —— 至少是无法通过官方渠道来直接安装。

Android Police报道称,谷歌确实有意剔除 Gmail Go 更广泛的可用性 —— 因为之前能够在几乎所有 Android 设备上安装这件事,本身就是一个意外!

至于官方后续是否有改变这一点的打算,谷歌暂时没有表态。

谷歌面临着隐私危机。Gmail允许第三方开发者阅读电子邮件

DoNews 7月3日消息(记者 赵晋杰)继Facebook卷入剑桥分析数据泄露事件后,谷歌最近也被曝光了一项涉及用户隐私泄露的风险。

据《华尔街日报》周一报道,谷歌正在允许第三方软件开发商扫描数百万Gmail用户的收件箱内容,以服务其比价购物和旅程自动规划等新的服务或功能。更可怕的是,这些邮件不仅仅只是通过计算机软件进行电子扫描,还允许人类员工阅读。

谷歌对此回应称,它只会向已经审查过的外部开发商,以及那些用户已经明确同意访问邮件的开发商提供数据访问权。而且,谷歌自家员工也只能在“用户要求和同意时才能访问邮件,或者谷歌为了安全目的时。

尽管如此,依然有很多应用程序具有访问Gmail用户邮箱的权限。例如,邮件营销公司Return Path扫描了超过200万Gmail用户的收件箱,并让员工阅读8000封未经编辑的邮件。除了该公司,其他营销公司和应用开发商也可以访问Gmail邮件。

不过,就像《华尔街日报》所说,谷歌并非唯一一家这么做的公司,包括微软和Verizon的Oath Communications也都允许合作伙伴扫描用户邮件。

这样的情况,不禁让人想起引发8700万Facebook用户数据泄露的剑桥分析事件。大型社交平台多年来惯常的做法,就是允许第三方应用程序访问Facebook数据,结果引来了数据滥用的后果,最终遭到政府审查。

虽然没有证据表明Gmail的第三方开发人员已经滥用了数据,但能够查看和阅读私人邮件内容的做法,显然已经越过了个人隐私的边界。

而早在2017年6月,谷歌还曾宣布过一项决定,承诺不再为了个性化广告而扫描用户的Gmail邮件。目前来看,谷歌仍在允许第三方开发商这么做。(完)

杰夫·迪恩(Jeff Dean)亲自评论谷歌人工智能2019:每天在16个方向上发表2篇论文

乾明 边策 十三 郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI

又一年,Jeff Dean代表Google AI,总结过去一年AI大趋势。

这是姐夫作为Google AI大总管的例行年度汇报,也是全球AI——乃至前沿技术第一大厂的肌肉展示。

他说,过去的2019年,是非常激动人心的一年。

依旧是学术和应用两开花,开源和新技术同步推进。

从基础研究开始,到技术在新兴领域的应用,再到展望2020。

虽然汇报格式没有变化,但人工智能技术,又往前迈出了一大步。

Jeff Dean总结了16个大方面的AI成果,并透露全年AI论文发表数达754篇,平均每天都有2篇论文发表。

涵盖AutoML、机器学习算法、量子计算、感知技术、机器人、医疗AI、AI向善……

桩桩件件,不仅在当前推动了AI作用社会方方面面,而且也是对未来趋势的小小展示。

毫不夸张地说,欲知2019 AI技术进展,看Jeff这篇总结再合适不过;欲知2020 AI会走向何方,看Jeff这篇也能获益良多。

为了方便阅读,我们先整理了一个小目录给你:

机器学习算法:理解神经网络中动态训练性质

AutoML:持续关注,实现机器学习自动化

自然语言理解:结合多种方式、任务,提高技术水平

机器感知:对图像、视频、环境更深入理解和感知

机器人技术:自监督方式训练,发布机器人测试基准

量子计算:首次实现量子优越性

AI在其他学科的应用:从苍蝇的脑子到数学,还有化学分子研究和艺术创作

手机AI应用:本地部署的语音、图像识别模型,还有更强的翻译、导航和拍照

健康和医疗:已用于乳腺癌、皮肤病的临床诊断

AI辅助残障人士:用图像识别、语音转写技术造福弱势群体

AI促进社会公益:预告洪水、保护动植物、教小朋友识字学数学,还砸了1个多亿做了20个公益项目

开发者工具打造和造福研究者社区:TensorFlow迎来全面升级

开放11个数据集:从强化学习到自然语言处理,再到图像分割

顶会研究和Google研究的全球扩张:发表大量论文,投入大量资源资助教师、学生和各方面研究人员进行研究

人工智能伦理:推进人工智能在公平、隐私保护、可解释性方面研究进展

展望2020年及以后:深度学习革命将继续重塑我们对计算和计算机的看法。

机器学习算法

2019年,Google在机器学习算法和方法的许多不同领域进行了研究。

一个主要的焦点是理解神经网络中动态训练的性质。

在下面这项研究中,研究人员的实验结果表明,缩放数据并行量可以让模型收敛更快有效。

论文地址:

https://arxiv.org/pdf/1811.03600.pdf

与数据并行性相比,模型并行性可以是扩展模型的有效方法。

GPipe是一个可以让模型并行化更加有效的库:

当整个模型的一部分在处理某些数据时,其他部分可以做别的工作,计算不同的数据。

这种pipline方法可以组合在一起,来模拟更有效的batch大小。

GPipe库地址:

https://ai.googleblog.com/2019/03/introducing-gpipe-open-source-library.html

当机器学习模型能够获取原始输入数据,并学习“disentangled”高级表示形式时,它们是非常有效的。

这些表示形式通过用户希望模型能够区分的属性来区分不同种类的示例。

机器学习算法的进步,主要是为了鼓励学习更好的表示法,以此来推广到新的示例、问题及领域。

2019年,Google在不同的背景下研究了这方面的问题:

比如,他们检查了哪些属性影响了从无监督数据中学习的表示,以便更好地理解什么因素能够有助于良好的表示和有效的学习。

博客地址:https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html

Google表明可以使用margin分布的统计量来预测泛化差距,有助于了解哪种模型最有效地进行了泛化。

除此之外,还在强化学习的背景下研究了Off-Policy分类,以便更好地理解哪些模型可能泛化得最好。

博客地址:https://ai.googleblog.com/2019/07/predicting-generalization-gap-in-deep.html

研究了为强化学习指定奖励功能的方法,使学习系统可以更直接地从真实目标中进行学习。

博客地址:

https://ai.googleblog.com/2019/02/learning-to-generalize-from-sparse-and.html

AutoML

Google在2019年依然持续关注着AutoML。

这种方法可以实现机器学习许多方面的自动化,并且在某些类型的机器学习元决策方面,通常可以取得更好的结果,比如:

Google展示了如何使用神经结构搜索技术,在计算机视觉问题上获得更好的结果,其在ImageNet上的正确率为84.4%,而参数比以前的最佳模型少8倍。

博客地址:https://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html

Google展示了一种神经架构搜索方法,展示了如何找到适合特定硬件加速器的高效模型。从而为移动设备提供高精度、低计算量的运行模型。

博客地址:https://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html

Google展示了如何将AutoML工作扩展到视频模型领域,如何找到能够实现最先进结果的架构,以及能够匹配手工模型性能的轻量级架构。

结果使计算量减少了50倍。

博客地址:https://ai.googleblog.com/2019/10/video-architecture-search.html

Google开发了用于表格数据的AutoML技术,并合作发布了这项技术,作为Google Cloud AutoML Tables的新产品。

博客地址:https://ai.googleblog.com/2019/05/an-end-to-end-automl-solution-for.html

展示了如何在不使用任何训练步骤,来更新被评估模型的权重的情况下,找到有趣的神经网络架构,让结构搜索的计算效率更高。

博客地址:https://ai.googleblog.com/2019/08/exploring-weight-agnostic-neural.html

探索了发现NLP任务的体系结构。这些任务的性能明显优于普通的Transformer模型,并且大大降低了计算成本。

博客地址:

https://ai.googleblog.com/2019/06/applying-automl-to-transformer.html

研究证明了自动学习数据增强方法可以扩展到语音识别模型中。

与现有的人类ML-expert驱动的数据增强方法相比,可以在较少数据情况下获得了显著更高的准确性。

博客地址:https://ai.googleblog.com/2019/04/specaugment-new-data-augmentation.html

推出了第一款使用AutoML进行关键字识别和口语识别的语音应用程序。

在实验中,发现了比人类设计更好的模型:效率更高,性能也更好。

博客地址:https://www.isca-speech.org/archive/Interspeech_2019/abstracts/1916.html

自然语言理解

在过去几年里,自然语言理解、翻译、自然对话、语音识别和相关任务的模型取得了显著进展。

Google在2019年工作的一个主题是:

通过结合各种方式或任务来提高技术水平,以此来训练更强大的模型。

比如,只用1个模型,在100种语言之间进行翻译训练(而不是使用100个不同的模型),从而显著提高了翻译质量。

博客地址:https://ai.googleblog.com/2019/10/exploring-massively-multilingual.html

展示了如何将语音识别和语言模型结合起来,并在多种语言上训练系统,可以显著提高语音识别的准确性。

博客地址:https://ai.googleblog.com/2019/09/large-scale-multilingual-speech.html

研究证明,训练一个联合模型来完成语音识别、翻译和文本到语音的生成任务是有可能的。

并且还具有一定的优势,例如在生成的翻译音频中保留说话人的声音, 以及更简单的整体学习系统。

博客地址:https://ai.googleblog.com/2019/05/introducing-translatotron-end-to-end.html

研究展示了如何结合许多不同的目标,来生成在语义检索方面明显更好的模型。

例如,在GoogleTalk to Books中提问,“什么香味能唤起回忆?”

结果是,“对我来说,茉莉花的香味和烤盘的香味,让我想起了我无忧无虑的童年。”

博客地址:https://ai.googleblog.com/2019/07/multilingual-universal-sentence-encoder.html

展示了如何使用对抗性训练程序来显著提高语言翻译的质量和鲁棒性。

博客地址:https://ai.googleblog.com/2019/07/robust-neural-machine-translation.html

随着基于seq2seq、Transformer、BERT、Transformer-XL和ALBERT等模型的发展,Google的语言理解技术能力不断提高。并已经应用到了许多核心产品和功能中。

2019年,BERT在核心搜索和排名算法中的应用,带来了过去五年里搜索质量的最大提升(也是有史以来最大的提升之一)。

机器感知

在过去十年中,用于更好地了解静态图像的模型取得了显著进步。

接下来是Google在过去一年中,在这个领域中的主要研究。

包括图像和视频的更深入的理解,以及对生活和环境的感知,具体有:

研究了镜头中更细粒度的视觉理解,支持更强大的视觉搜索。

博客地址:https://www.blog.google/products/search/helpful-new-visual-features-search-lens-io/

展示了Nest Hub Max的智能相机功能,例如快速手势、面部匹配和智能视频通话取景。

博客地址:https://blog.google/products/google-nest/hub-max-io/

研究了更好的视频深度预测模型。

博客地址:https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html

研究使用时间周期一致性,学习对视频进行细粒度时间理解的更好表示。

博客地址:https://ai.googleblog.com/2019/08/video-understanding-using-temporal.html

学习文本、语音和视频中与未标记视频在时间上一致的表示形式。

博客地址:https://ai.googleblog.com/2019/09/learning-cross-modal-temporal.html

也能够通过对过去的观察,来预测未来的视觉输入。

博客地址:https://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html

并证明了模型可以更好地理解视频中的动作序列。

博客地址:https://ai.googleblog.com/2019/04/capturing-special-video-moments-with.html

机器人技术

机器学习在机器人控制中的应用是Google的重要研究领域。Google认为,这是使机器人能够在复杂的现实世界环境(比如日常家庭、企业)中有效运行的重要工具。

Google2019年在机器人技术中所做的工作包括:

1、在通过自动强化学习进行远程机器人导航中,Google展示了如何将强化学习与远程项目结合,使机器人能够更有效地在复杂的环境(例如Google办公大楼)中导航。

相关链接:

https://ai.googleblog.com/2019/02/long-range-robotic-navigation-via.html

2、在PlaNet中,Google展示了只从图像中有效地学习世界模型,以及如何利用这种模型以更少的学习次数完成任务。

相关链接:https://ai.googleblog.com/2019/02/introducing-planet-deep-planning.html

3、在TossingBot上,Google将物理定律和深度学习统一起来,让机器人通过实验来学习直观物理原理,然后将物体按照学习到的规律扔进盒子里。

相关链接:

https://ai.googleblog.com/2019/03/unifying-physics-and-deep-learning-with.html

4、在Soft Actor-Critic的研究中中,Google证明了,训练强化学习算法的方式,既可以通过最大化期望的奖励,也可以通过最大化策略的熵来实现。

这可以帮助机器人学习得更快,并且对环境的变化更加鲁棒。

相关链接:https://ai.googleblog.com/2019/01/soft-actor-critic-deep-reinforcement.html

5、Google还发展了机器人的自监督学习算法,让机器人以自监督的方式,通过分解物体的方式物来学习组装物体。这表明机器人可以和儿童一样,从拆解中学到知识。

相关链接:https://ai.googleblog.com/2019/10/learning-to-assemble-and-to-generalize.html

6、最后,Google还推出了低成本机器人的基准测试ROBEL,这是一个针对低成本机器人的开源平台,帮助其他开发者更快更方便地研发机器人硬件。

相关链接:https://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html

量子计算

在2019年,Google在量子计算上取得了重大图片,首次向世人展示了量力优越性:在一项计算任务中,量子计算机的速度远远超过经典计算机。

原本经典计算机需要计算10000年的任务,量子计算机仅需200秒即可完成。这项研究登上了今年10月24日Nature杂志的封面。

△ Google用于量子计算的Sycamore处理器

GoogleCEO皮查伊说:“它的意义就像第一枚火箭成功地脱离地球引力,飞向太空边缘。”量子计算机会在材料科学、量子化学和大规模优化等领域中发挥重要的作用。

Google还在努力使量子算法更易于表达、更易于控制硬件,并且Google已经找到了在量子计算中使用经典机器学习技术的方法。

AI在其他学科的应用

人工智能和机器学习在其他科学领域的应用方面,Google发了很多论文,主要是在多组织协作方面。

论文集:https://research.google/pubs/?area=general-science

今年的重点有:

苍蝇大脑交互性自动3D重建,用机器学习模型来精心绘制苍蝇大脑的每个神经元,Jeff Dean称这是映射苍蝇大脑结构的的里程碑。

相关博客:https://ai.googleblog.com/2019/08/an-interactive-automated-3d.html

在为偏微分方程学习更好的仿真方法中,Google用机器学习加速偏微分方程计算,这也是研究气候变化、流体动力学、电磁学、热传导和广义相对论等基础计算问题的核心。

△ Burgers方程的两种解法仿真

Google还用机器学习模型判断气味,用GNN判断分子结构,来预测它闻起来是什么味儿。

相关报道:Google造出AI调香师:看一眼分子结构,就知道它闻起来什么味儿

同样在化学方面,Google还做了一个强化学习框架来优化分子。

相关论文:https://www.nature.com/articles/s41598-019-47148-x

艺术创作方面,GoogleAI的努力就更多了,比如AI+AR的艺术表现

https://www.blog.google/outreach-initiatives/arts-culture/how-artists-use-ai-and-ar-collaborations-google-arts-culture/

用机器重新编排舞蹈:

https://www.blog.google/technology/ai/bill-t-jones-dance-art/

AI作曲的新探索:

https://www.blog.google/technology/ai/behind-magenta-tech-rocked-io/

还延伸出了一个好玩的AI作曲Doodle:

https://www.blog.google/technology/ai/honoring-js-bach-our-first-ai-powered-doodle/

手机AI应用

Google做的很多事情都是借机器学习赋予手机新的能力,这些模型都能在手机端运行,就算开了飞行模式,这些功能依然可以使用。

现在,手机端语音识别模型、视觉模型、手写识别模型都已经实现了。

相关博客:

语音识别https://ai.googleblog.com/2019/03/an-all-neural-on-device-speech.html视觉模型https://ai.googleblog.com/2019/11/introducing-next-generation-on-device.html手写识别模型https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html

Jeff Dean称,这为实现更强大的新功能铺平了道路。

此外,今年Google在手机上的亮点有:

Live Caption功能,手机上任何应用播放的视频,它都能给自动加上字幕。

相关博客:https://ai.googleblog.com/2019/10/on-device-captioning-with-live-caption.html

Recorder应用,让你能搜索手机录下的音频中的内容。

相关博客:https://ai.googleblog.com/2019/12/the-on-device-machine-learning-behind.html

Google翻译的拍照翻译功能也做了升级,新增支持阿拉伯语、印地语、马来语、泰语和越南语等多种语言的支持,而且不只是英语和其他语言翻译,英语之外的其他语言互译也可以了,还能自动找到相机画幅中的文字在哪里。

相关博客:https://www.blog.google/products/translate/google-translates-instant-camera-translation-gets-upgrade/

还在ARCore里发布了一个面部增强API,帮你实现实时的AR玩法。

面部增强API:https://developers.google.com/ar/develop/java/augmented-faces/

还有移动端手势识别,这个做好之后就能做手势交互了。

相关报道:Google开源手势识别器,手机能用,运行流畅,还有现成的App,但是被我们玩坏了

还用RNN改进了手机屏幕上的手写输入识别。

相关博客:https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html

在导航定位方面,GPS往往只是大致定位,但AI可以发挥关键作用。

结合Google街景的数据,举着手机转一圈,手机就会变成一个认路的朋友一样,照着街景和地图给你指出来:这是哪栋楼,这是哪条街,这是南这是北,你该朝这儿走。

相关博客:https://ai.googleblog.com/2019/02/using-global-localization-to-improve.html

另外,为了保证用户隐私,Google也一直在研究联合学习,下面这篇论文就是2019年Google团队转写的关于联合学习进展的文章:

https://arxiv.org/abs/1912.04977

还有老生常谈的手机拍照,Google2019年提升了手机自拍的能力。

相关博客:https://ai.googleblog.com/2019/04/take-your-best-selfie-automatically.html

背景虚化和人像模式也在2019年获得了提升。

相关博客:https://ai.googleblog.com/2019/12/improvements-to-portrait-mode-on-google.html

夜景挑战拍星星也有巨大的提升,还发了SIGGRAPH Asia的论文。

相关博客:https://ai.googleblog.com/2019/11/astrophotography-with-night-sight-on.html

相关论文:https://arxiv.org/abs/1905.03277https://arxiv.org/abs/1910.11336

健康和医疗

2019年是Google Health团队经历的第一个完整年。

在2018年末,Google将Google Research健康团队、Deepmind Health和与健康相关的硬件部门重组,新建了Google Health团队。

1、在疾病的诊断和及早发现上,Google做出了多项成果:

用深度学习模型发现乳腺癌,准确性高于人类专家,降低了诊断中的假阳性和假阴性案例。这项研究不久前刚登上Nature杂志。

相关链接:

谷歌AI乳腺癌检测超过人类,LeCun质疑引起讨论,但平胸妹子可能不适用

另外,Google还在皮肤疾病诊断、预测急性肾损伤、发现早期肺癌方面均做出一些新成果。

2、Google将机器学习与其他技术结合用在其他医疗技术中,比如在显微镜中加入增强显示技术,帮助医生快速定位病灶。

相关链接:

AI实时筛查癌细胞,普通显微镜简单改装就能用,谷歌新突破登上Nature子刊

Google还为病理学家构建了以人为中心的相似图像搜索工具,允许检查相似病例来帮助医生做出更有效的诊断。

AI辅助残障人士

AI与我们的生活越来越紧密。在过去的一年里,Google用AI为我们的日常生活提供帮助。

我们可以很容易看到美丽的图像,听到喜欢的歌曲,或与亲人交谈、然而,全球有超过十亿人无法用这些方式了解世界。

机器学习技术可以通过将这些视听信号转换成其他信号,为残障人士服务。Google提供的AI助手技术有:

Lookout帮助盲人或视力低下的人识别其周围环境信息。

实时转录技术Live Transcribe帮助聋哑或听障碍人士将语音快速转化为文字。

相关链接:

谷歌AI拜大年:为聋哑人带来科技福利,首页涂鸦有惊喜

Euphonia项目实现了个性化的语音到文本转换。对于患有渐冻症等疾病导致口齿不清的人,这项研究,提高了自动语音识别的准确率。

另外还有一个Parrotron项目,也是使用端到端神经网络来帮助改善交流,但是研究重点是语音到语音的转换。

对于盲人和弱视人群,Google利用AI技术来产生图像的描述。当屏幕阅读器遇到无描述的图像或图形时,Chrome现在可以自动创建描述内容。

音频形式读取文本的工具Lens for Google Go,极大地帮助了那些文盲用户在单词的世界中获取信息。

AI促进社会公益

Jeff Dean说,机器学习对解决许多重大社会问题有巨大的意义,Google一直在一些社会问题领域做出努力,致力于让其他人能用创造力和技能来解决这些问题。

比如洪水问题,每年都有数亿人遭受洪水影响。Google用机器学习、计算和更好的数据库,来做出洪水预测,并给受影响地区的数百万人发送警报。

甚至,他们还办了一个workshop,找了许多研究人员来专门解决这个问题。

相关博客:https://www.blog.google/technology/ai/tracking-our-progress-on-flood-forecasting/https://ai.googleblog.com/2019/09/an-inside-look-at-flood-forecasting.htmlhttps://ai.googleblog.com/2019/03/a-summary-of-google-flood-forecasting.html

另外,Google还做了一些机器学习和动植物研究相关的工作。

他们与七个野生动物保护组织合作,用机器学习帮助分析野生动物的照片数据,找到这些野生动物的群落都在哪里。

相关博客:https://www.blog.google/products/earth/ai-finds-where-the-wild-things-are/

Google还和美国海洋和大气管理局合作,借助水下的声音数据判断鲸的种群位置。

相关博客:https://www.blog.google/technology/ai/pattern-radio-whale-songs/

Google发布了一套工具,用机器学习研究生物多样性。

相关博客:A New Workflow for Collaborative Machine Learning Research in Biodiversityhttps://ai.googleblog.com/2019/10/a-new-workflow-for-collaborative.html

他们还举办了一个Kaggle比赛,用计算机视觉给木薯叶子上的各种疾病分类。木薯是非洲第二大碳水化合物来源,木薯的病害影响人们的视频安全问题。

https://www.kaggle.com/c/cassava-disease

Google Earth的Timelapse功能也得到了更新,甚至你还可以从这里看到人口流动和迁移的数据。

相关博客:https://ai.googleblog.com/2019/06/an-inside-look-at-google-earth-timelapse.htmlhttps://ai.googleblog.com/2019/11/new-insights-into-human-mobility-with.html

对于教育方面,Google做了带语音识别技术的Bolo应用,指导小朋友们学英语。这个应用部署在了本地,可以离线运行,它已经帮助80万印度儿童识字,小朋友们累计读了了10亿单词,在印度200个村子的试点中,64%的小朋友阅读能力有所提高。

仿佛是一个Google版的英语流利说。

相关博客:https://www.blog.google/technology/ai/bolo-literacy/

除了识字,还有数学、物理等更复杂的学习科目。Google做了Socratic应用来帮高中生学数学。

此外,为了让AI在公益方面发挥更大的作用,Google举办了AI Impact Challenge,收集到了来自119个国家超过2600个提案。

最终20个能解决重大社会问题和环境问题的提案脱颖而出,Google在这些提案项目上投入了2500万美元(超过1.7亿人民币)的资助,做出了一些成绩,包括:

无国界医生组织(MSF)创建了一个免费手机App,用图像识别工具帮助条件不好的地方的诊所医生分析抗菌图像,为给病人用什么药提供建议,这个项目已经在约旦试点。

无国界医生组织的项目报道:https://www.doctorswithoutborders.org/what-we-do/news-stories/news/msf-receives-google-grant-develop-new-free-smartphone-app-help

世界上有十亿人靠小型农场过活,但一旦发生病虫害,就会断了他们的活路。

因此,一家名叫Wadhwani AI的NPO,用图像分类模型来辨别农场中的害虫,并对于应该喷哪种农药、何时喷药给出建议,提高了农作物的产量。

热带雨林的非法砍伐是气候变化的主要影响因素,一个名叫“雨林连接(Rainforest Connection)”的组织用深度学习进行生物声学检测,拿一些旧手机就可以跟踪雨林的健康状况,检测其中的威胁。

△ Google资助的20个公益项目

开发者工具打造和造福研究者社区

作为全球第一AI大厂,Google也是开源先锋,不断为社区发光发热,一方面是集中在TensorFlow上。

Jeff Dean说,因为TensorFlow 2.0发布,对于开源社区来说,过去一年是激动人心的一年。

这是TensorFlow发布以来,第一次重大升级,使构建ML系统和应用程序比以往任何时候都要容易。

量子位相关报道如下:

GoogleTF2.0凌晨发布!“改变一切,力压PyTorch”

在TensorFlow Lite中,他们增加了对快速移动GPU推理的支持;并发布了Teachable Machine 2.0,不需要写代码,只需一个按钮就能训练一个机器学习模型。

量子位相关报道如下:

TensorFlow Lite发布重大更新!支持移动GPU、推断速度提升4-6倍

还有MLIR,一个开源的机器学习编译器基础工具,解决了日益增长的软件和硬件碎片的复杂性,使构建人工智能应用程序的更容易。

在NeurIPS 2019上,他们展示了如何使用开源的高性能机器学习研究系统JAX:

https://nips.cc/Conferences/2019

此外,他们也开源了用于构建感知和多模态应用ML pipelines的框架MediaPipe:

https://github.com/google/mediapipe

以及高效浮点神经网络推理操作符库XNNPACK:

https://github.com/google/XNNPACK

当然,Google还放出了一些羊毛给大家薅。

Jeff Dean介绍称,截止2019年底,他们让全球超过1500名研究人员通过 TensorFlow Research Cloud 免费访问了Cloud TPU,他们在 Coursera 上的入门课程已经有超过了10万名学生等等。

同时,他也介绍了一些“暖心”案例,比如在 TensorFlow 的帮助下,一名大学生发现了两颗新的行星,并建立了一种方法来帮助其他人发现更多的行星。

还有大学生们使用 TensorFlow 来识别洛杉矶的坑洞和危险的道路裂缝等等。

另一方面是在开放数据集上。

开放11个数据集

2018年发布了数据集搜索引擎后,Google今年依旧在这方面努力,并尽自己的努力,给这个搜索引擎添砖加瓦。

过去一年,Google在各个领域开放了11个数据集,下面开始资源大放送,请收好~

Open Images V5,在注释集中加入分割掩码(segmentation masks),样本规模达到280万,横跨350个类别,量子位报道:

280万样本!Google开放史上最大分割掩码数据集,开启新一轮挑战赛

“自然问题”数据集,第一个使用自然发生的查询,并通过阅读整个页面找到答案的数据集,而不是从一小段中提取答案,30万对问答,BERT都达不到70分,量子位报道:

Google发布超难问答数据集「自然问题」:30万对问答,BERT都达不到70分

用于检测deepfakes的数据集:

https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

足球模拟环境Google Research Football,智能体可以在这个宛若FIFA的世界里自由踢球,学到更多踢球技巧,量子位报道:

Google造了个虚拟足球场,让AI像打FIFA一样做强化学习训练丨开源有API

地标数据集Google-Landmarks-v2:包括500万张图片,地标数量达到20万,量子位报道:

500万张图片,20万处地标风景,Google又放出大型数据集

YouTube-8M Segments数据集,一个大规模的分类和时间定位数据集,包括YouTube-8M视频5秒片段级别的人工验证标签:

https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html

AVA Spoken Activity数据集,一个多模态音频+视觉视频的感知对话数据集:

https://research.google.com/ava/

PAWS和PAWS-X:用于机器翻译,两个数据集都由高度结构化的句子对组成,并且相互之间的词汇重叠度很高,其中约占一半的句子具有对应的多语言释译:

https://ai.googleblog.com/2019/10/releasing-paws-and-paws-x-two-new.html

让两个人进行对话,通过数字助手模拟人类的对话的自然语言对话数据集:

https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html

Visual Task Adaptation Benchmark:这是对标 GLUE、ImageNet,Google推出的视觉任务适应性基准。

有助于用户更好地理解哪些哪些视觉表征可以泛化到更多其他的新任务上,从而减少所有视觉任务上的数据需求:

https://ai.googleblog.com/2019/11/the-visual-task-adaptation-benchmark.html

最大的面向任务的对话的公开数据库——模式引导对话数据集,有跨越17个域的超过18000个对话:

https://ai.googleblog.com/2019/10/introducing-schema-guided-dialogue.html

顶会研究和Google研究的全球扩张

根据Google官方统计,Googler在过去一年发表了754篇论文。

Jeff Dean也列举了一些顶会战绩:

CVPR有40多篇论文,ICML有100多篇论文,ICLR有60多篇论文,ACL有40多篇论文,ICCV有40多篇论文,NeurIPS有超过120篇等等。

他们还在Google举办了15个独立的研讨会,主题从改善全球洪水预警,到如何使用机器学习来建立更好地为残疾人服务的系统,到加速开发用于量子处理器(NISQ)的算法、应用程序和工具等等。

并通过年度博士奖学金项目在全球资助了50多名博士生,也对创业公司提供了支持等等。

同样,2019年Google研究地点依旧在全球扩张,在班加罗尔开设了一个研究办公室。同时,Jeff Dean也发出了招聘需求:如果有兴趣,赶紧到碗里来~

人工智能伦理

和往年一样,这篇报道最开篇,其实Jeff首先谈到的就是Google在人工智能伦理上的工作。

这也是Google在AI实践和道德伦理、技术向善方面的明确宣示。

2018年,Google发布了AI 七原则并围绕这些原则展开应用实践。2019年6月,Google交出成绩单,展示了如何在研究和产品开发中,将这些原则付诸实施。

报告链接:https://www.blog.google/technology/ai/responsible-ai-principles/

Jeff Dean说,由于这些原则基本覆盖人工智能和机器学习研究中最活跃的领域,比如机器学习系统中的偏见、安全、公平、可靠性、透明度和隐私等等。

因此Google的目标是将这些领域的技术应用到工作中,并不断进行研究,以继续推进相关技术发展。

一方面,Google还在KDD’19、AIES 19等学术会议上发表了多篇论文,来探讨机器学习模型的公平性和可解释性。

比如,对Activation Atlases如何帮助探索神经网络行为,以及如何帮助机器学习模型的可解释性进行研究。

相关链接:Exploring Neural Networks with Activation Atlaseshttps://ai.googleblog.com/2019/03/exploring-neural-networks.html

另一方面,Google的努力也都落到了实处,切实的拿出了的产品。

比如,发布了TensorFlow Privacy,来帮助训练保证隐私的机器学习模型。

相关链接:Introducing TensorFlow Privacy: Learning with Differential Privacy for Training Datahttps://blog.tensorflow.org/2019/03/introducing-tensorflow-privacy-learning.html

此外,Google还发布了一个新的数据集,以帮助研究识别deepfakes。

相关链接:Contributing Data to Deepfake Detection Researchhttps://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

展望2020年及以后

最后,Jeff也站在过去10年的发展历程上,对2020年及以后的研究动向进行了展望。

他说,在过去的十年里,机器学习和计算机科学领域取得了显著的进步,我们现在让计算机比以往任何时候都更有能力去看、听和理解语言。

在我们的口袋里,有了复杂的计算设备,可以利用这些能力,更好地帮助我们完成日常生活中的许多任务。

我们围绕这些机器学习方法,通过开发专门的硬件,重新设计了我们的计算平台,使我们能够处理更大的问题。

这些这改变了我们对数据中心中的计算设备的看法,而深度学习革命,将继续重塑我们对计算和计算机的看法。

与此同时,他也指出,还有大量未解决的问题。这也是Google在2020年及以后的研究方向:

第一,如何构建能够处理数百万任务的机器学习系统,并能够自动成功地完成新任务?

第二,如何才能在人工智能研究的重要领域,如避免偏见、提高可解释性和可理解性、改善隐私和确保安全等方面,取得最先进的进展?

第三,如何应用计算和机器学习在重要的科学新领域取得进展?比如气候科学、医疗保健、生物信息学和许多其他领域等等。

第四,关于机器学习和计算机科学研究社区追求的思想和方向,如何确保有更多不同的研究人员提出和探索?我们如何才能最好地支持来自不同背景的新研究人员进入这一领域?

最后的最后,你怎么看Google AI在过去一年的突破与进展?

欢迎在留言区互动~

报告传送门:https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html

Google 2019论文传送门:https://research.google/pubs/?year=2019

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

可以使用谷歌的开源人工智能模型“搜索引擎”、NLP和CV

萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI

好消息,谷歌将AutoML算法库开源了!

这个名为“模型搜索”(Model Search)的平台,不仅可以用多个AutoML算法自动写出你想要的AI模型,还能帮你选出写得最好的那个。

最重要的是,各个领域都能用

也就是说,以往只支持NLP、图像分类等等单一领域模型搜索的AutoML算法,现在被整合到了一个平台上,可以帮你构建任何AI模型。

现在,无需再重新设计参数、或反复微调,“AI设计师”就能帮你写出想要的模型。

“模型搜索”是个什么平台

此前,AutoML算法已经被应用到了各个领域,用来减轻神经网络设计专家的负担。

这种算法,目的是让AI来设计神经网络,自动对网络深度、层类型、结构、优化算法等因素进行合理搭配,效果通常比人工直接设计更好。

然而,这种由AI来设计AI模型的方法,会面临两个问题。

其一,这些算法通常只能针对某一特定领域,无法被应用到其他领域中。

例如针对NLP的AutoML算法,就无法设计出图像分类的AI模型。

其二,计算量很大

之前的NAS和PNAS算法,往往需要训练数千个模型,才能找到效果最好的。

针对这两个问题,谷歌现在推出了“模型搜索”开源平台,致力于解决它们。

这个系统由多个训练器(trainer)、1个搜索算法、1个迁移学习算法和1个包含多种评估模型的数据库构成。

过程中,每个训练器都会独立地构建模型、进行试验,但这些训练器能共享数据,并采用横向搜索,决定下一步尝试什么样的模型。

“模型搜索”能根据一组预定义模块,来构建神经网络模型,每个模块包含一个经典微结构,包括LSTM、ResNet或是Transformer中的某些层等等。

这种微结构的模式,也减少了搜索规模,因为它探索的是这些模型的结构,而非更详细的基本部分。

而为了进一步提高效率和准确性,这一算法还能在训练器完成各种实验时,进行迁移学习。主要通过知识提取和参数分配两种方法。

通过知识提取,新模型可以从高性能模型中借鉴损失函数,提高自身准确性;而通过参数分配,新模型采用之前训练模型中的部分参数,并初始化剩余的参数,就能训练得更快。

在逐渐迭代的过程中,最好的模型就被“搜索”出来了。

谷歌表示,“模型搜索”是个具有自适应性、贪婪性、而且比强化学习算法收敛速度更快的算法。

这个算法,目前具有如下功能:

  • 可以在数据上运行多个AutoML算法,可以自动搜索合适的模型结构、模型融合方法,并选择最佳模型。
  • 可以比较在搜索时发现的不同模型;
  • 可以自行设计特殊的神经网络层并应用。

目前,“模型搜索”支持Tensorflow框架。

也就是说,各模块都能实现任何以张量为输入的函数。

比人类设计得好,比PNAS更高效

经过实验,“模型搜索”平台搞出来的AI模型,确实还不错。

作者们用“模型搜索”平台,试着写了个语音AI模型,主要功能是关键字检测和语言识别。

下图中,实线是AI写出来的模型迭代精度,虚线则是此前人工设计出的SOTA模型。

显然,无论是最小迭代次数、还是最后的迭代精度,“模型搜索”平台用AI写出的模型,都比人工设计的要好得多。

也就是说,设计所用的参数量更少了(相比于人工设计的31.5万,AI只需要18.4万),精度反而还上升了。

那么,这个“模型搜索”框架的搜索效果,相比于其他用AI写AI模型的搜索算法,哪个效果更好?

作者们用CIFAR-10数据集试了试图像分类模型。

测试发现,用AutoML尝试写了209个模型后,最好的模型就已经达到了91.83%的精确度。

而此前,NasNet需要尝试5807次、PNAS需要尝试1160次,才能达到相同的精度。

也就是说,用这个平台设计的AI模型,不仅能达到在某些领域达到比人类设计更好的效果,还比其他“AI设计师”速度更快。

不想辛苦调参的话,这绝对是个非常理想的模型设计平台了。

不包含全部AutoML算法

所以,谷歌当真就把自己之前的收费项目开源了?

不不不。

更高级的AutoML算法,目前还是要收费的。

这是个名为AutoML Tables的项目,无需写代码,它就能帮你自动构建和部署最先进的机器学习模型。

而性能最优的AutoML算法,目前都包含在这里面了。

目前,谷歌已经将AutoML、MLOps、AI Platform整合到一起,成为了一个更大的AI Platform平台。

当然,也是要付费的。

也就是说,目前开源的这个“模型搜索”平台,只包含一部分AutoML算法。

作者介绍

Hanna Mazzawi,谷歌研究工程师,研究方向是机器学习、算法设计和分析、数学软件。

Xavi Gonzalvo,硕博均毕业于西班牙拉蒙尤以大学(Ramon Llull University),目前在谷歌任研究科学家,从事机器智能相关的工作。

如果想快速写出需要的AI模型,可以上手这个项目了~

项目地址:https://github.com/google/model_search

参考链接:https://cloud.google.com/automl-tables https://ai.googleblog.com/2021/02/introducing-model-search-open-source.html

读了20遍《不忘财富和荣誉》后,谷歌翻译:没有钱的人永远会被遗忘|机器翻译古籍也颠覆了吗?

陈胜者,阳城人也,字涉。吴广者,阳夏人也,字叔。

相信不少人还记得中学的时候全文背诵《陈涉世家》的痛苦,当然还有考试的时候让你翻译某一句名言,像是“燕雀安知鸿鹄之志哉”,或者“天下苦秦久矣。吾闻二世少子也,不当立,当立者乃公子扶苏”。

如今,随着AI技术的成熟,机器也逐渐在学习如何以人类的方式行动和思考。

既然如此,我们为何不考考它,看看在AI眼中,《陈涉世家》到底是个什么故事。

最近,B站上一位叫做“鹰目大人”的阿婆主就用谷歌翻译对AI进行了一次随堂测验,只不过它的表现嘛,就见仁见智了。

比如,AI就把这句著名的“苟富贵,勿相忘”就翻译成了“没有钱的人,总是会被遗忘”。

“燕雀焉知鸿鹄之志”在AI看来竟然是,“蝎子给了我一个热烈的拥抱”???

整个过程,文摘菌一边黑人问号脸一边笑到拍桌子。

有网友就指出,这波反讽竟然“翻译出了本质”。

还有网友“太喜欢了所以拼了一首诗”,大家可以猜猜每句话对应到的原文是什么?

然后,再来对对答案,看看整本《陈涉世家》都被AI翻译成了什么样子?

1 机器翻译为何如此困难?

其实不管是语种互译,还是古文翻译,都是机器翻译的类别之一。

但是,如果机器翻译翻车的情况持续发生,我们还能相信它吗?

先别急,我们从NMT(neural machine translation,神经网络机器翻译)的诞生开始讲起,看看机器翻译到底是个什么东西。

2013年,Nal Kalchbrenner和Phil Blunsom提出了一种用于机器翻译的新型端到端编码器-解码器结构。该模型可以使用卷积神经网络(CNN)将给定的一段源文本编码成一个连续的向量,然后再使用循环神经网络(RNN)作为解码器将该状态向量转换成目标语言。

这一研究成果的发布可以说是标志着NMT的诞生,虽然在那之后也有不少研究者进行改进,但是仍然缺乏对模型的理解。比如,经常出现的问题包括但不限于训练和解码过程缓慢;对同一个词的翻译风格不一致;翻译结果存在超出词汇表(out-of-vocabulary)的问题;黑箱的神经网络机制的可解释性很差;训练所用的参数大多数是根据经验选择的。

NMT和SMT对比

总的来说:不确定性是翻译中的一个核心挑战。

知己知彼百战百胜,想要根除这种不确定性,我们还需要知道它的来源。

在一篇论文中作者指出,在构建翻译的模型的时候,基本上有两种不确定性,一种是任务本身固有的不确定性,另一种是数据收集过程中存在的不确定性。

所谓内在的不确定性,是指不确定性的一个来源是一句话会有几种等价的翻译。因为在翻译的过程中或多或少是可以直译的,即使字面上有很多表达相同意思的方法。句子的表达可以是主动的,也可以是被动的,对于某些语言来说,类似于“the”“of”或“their”是可选择的。

除了一句话可以多种翻译这种情况外,规范性不足同样是翻译不确定的来源。另外,如果没有背景输入,模型通常无法预测翻译语言的时态或数字,因此,简化或增加相关背景也是翻译不确定性的来源。

而外在的不确定性,则是因为系统,特别是模型,需要大量的训练数据才能表现良好。为了节省时间和精力,使用低质量的网络数据进行高质量的人工翻译是常见的。这一过程容易出错,并导致数据分配中出现其他的不确定性。目标句可能只是源句的部分翻译,或者目标句里面有源句中没有的信息。

在一些加了copy机制的翻译模型中,对目标语言进行翻译的时候可能会完全或部分复制源句子。论文作者经过研究发现,即使copy机制很小,也能对模型预测产生较大的影响。

https://arxiv.org/pdf/1803.00047.pdf

2 机器翻译频繁翻车,微信谷歌无一幸免

去年3月,微信翻译的频繁翻车事件得到了人们的关注,机器翻译的不确定性同时也被更多人所了解。

目前,机器翻译领域主要使用的NMT架构都差不多,一方面问题出在解码器语言模型,使用的语料让它学习到了这些最大概率出现的词。微信团队在处理的过程中似乎没有对“特殊情况”进行处理,于是我们就能看到这样的翻译发生:

如果添加了特殊词的copy机制,完全可以把无法翻译的单词不进行翻译,直接copy过去。也就是说,一个聪明的模型应该知道哪些应该翻译,哪些不应该翻译。

随后,微信也针对这一问题进行了修复,对于敏感词“caixukun”或者句式“you are so……”进行原句返回。

除了解码器语言模型外,问题可能更多出现在语料库上,现在业界所做的机器翻译很大程度上靠语料“怼”,只要平行语料数量足够多,质量足够好, 一般的系统也可以训练出很好的结果。

不过,如果训练语料多来自电影字幕、多语言会议等材料,那么模型最终呈现的翻译内容也会相对应比较“活泼”和“口语化”。面对库中不存在的词,比如caixunkun,算法会自动匹配最经常出现,或者在同语境下最容易匹配的内容,比如形容词“帅哥”或“傻蛋”。

当然除了微信,被业界视为先驱的谷歌也发生过类似的翻车案例。

此前就有Reddit网友指出,谷歌翻译在学习过程中可能受到了输入来源的影响,将一些意味不明的语句翻译成了如圣经一般的语言。比如这个:

英文大意为:世界末日时钟在12点3分钟,我们正在经历世界上的人物和戏剧性的发展,这表明我们越来越接近末日和耶稣的回归。

哈佛大学助理教授、研究自然语言处理和计算机翻译的Andrew Rush认为,这些神秘的翻译结果可能和谷歌几年前采用的“神经机器翻译”技术有关。他表示,在神经机器翻译中,系统训练用了一种语言的大量文本来和另一种语言进行相应翻译,以在两者之间创建模型。但当输入的是无意义内容时,系统就会出现“幻觉性”的输出结果。

在去年AI Time的一次辩论中,中科院自动化研究所研究员宗成庆就表示,机器翻译近几年的进步确实很大,但是其需要基于场景和任务。机器翻译在一些场景下确实能帮助人,比如旅游问路,但是在某些领域,比如高层次的翻译,要对机器翻译寄予太多的希望还为时过早。

东北大学计算机学院教授朱靖波根据自己的经验列举出好的机器翻译系统需要的三个东西:一是扩大训练数据规模,提高品质;二是不断创新技术;三是根据问题不断打磨,三者缺一不可。

看来,机器翻译未来还有很长一段路要走啊!

[赠书福利]

食物、能源、水的短缺是人类面对的终极挑战。人工智能技术是我们面对这些挑战强有力的武器。最前沿的发展如何?我们如何突破困境?腾讯首席探索官网大为最新力作《重构地球:AI FOR FEW》,马化腾力荐!

AI科技评论为大家带来5本《重构地球:AI FOR FEW》正版新书。

在1月13日末条文章(注意不是本文!)《赠书福利!腾讯x先生论AI如何解决全球吃饭难题,马化腾力荐》留言区畅所欲言,谈一谈你对本书的看法。

AI 科技评论将会在留言区选出 5 名读者,每人送出《重构地球:AI FOR FEW》一本。