更智能的搜索,意想不到的硬件桶,谷歌开发者大会的焦点就在这里

记者 | 彭新

编辑 |

“时隔三年,能再回到海岸线圆形剧场的感觉真好!”谷歌CEO皮查伊(Sundar PichAI)说。

北京时间12号凌晨1点,谷歌开发者大会Google I/O重回线下。和往常一样,AI仍是这家科技巨头的重点,在两小时的主题演讲上,AI无处不在,更智能的搜索、更准确的图像识别……即使是硬件和操作系统背后也有AI的身影。

重塑谷歌“搜索”

搜索定义了人们获取信息的方式,也是谷歌最核心的起家功能。

此前,谷歌推出可以用文字、图片搭配的搜寻功能“Multisearch”,这是一种多模态搜索方式,让用户在手机上通过拍照加文本的方式,进行定制化搜索。

这次在I/O上,谷歌又为搜索增加了新功能“Multisearch near Me”,通过谷歌地图来搜索真实世界中的地理位置相关信息。如果用户正在寻找某个家具部件,用手机拍下部件后进行搜索,就能帮使用者在附近的商店中找到相同的零件。又比如,当用户想要找某款菜式,只要对着这款菜拍照,谷歌不仅能告诉你这道菜叫什么名字,还能够搜到附近有这道菜的餐厅。

另外,谷歌还推出了“场景探索”功能,即Google Lens的功能更新,谷歌称,这类似于在搜索引擎中使用“Ctrl+F”快捷键来寻找自己想要的东西。它允许用户使用手机相机功能直接扫描超市的货物,可对移动的取景框内多个不同物体进行同时和连续搜索,并且通过AR叠加的方式来展现这些物体相关的信息。这一功能将于今年晚些时候推出。

而谷歌地图则变得更加详细,通过3D绘图和机器学习等,让沉浸式实景地图更逼真完整,甚至还能展示一栋建筑的内部。AI技术还有助于绘制偏远和农村地区的地图,谷歌称,2020年7月以来,谷歌上的非洲建筑物数量增加了5倍,从6000万幢增加到了近3亿幢。

此外,谷歌还为地图应用新增了环保路线,通过探索更优的路线,让出行更省油。比如当用户搜索两个城市之间的航班时,谷歌会向用户显示碳排放估值以及价格和时间表等其他信息,方便用户选择更加环保的航班。

可以直接唤醒的智能助理

作为智能助理领域第一梯队的选手,谷歌语音助理瞄准了自然交互。

在大会上,谷歌上发布了“Look and Talk”的功能,在搭载镜头的智能屏幕上,只要你“看向”他们,助理就能准备好接受你的指令,不用再说“OK Google”唤醒了。

当然,谷歌非常强调新功能的安全性与隐私,称这个功能是可选的,默认不会开启,而开启后助理将由AI来协助确认用户是否“直视”机器,而不只是看向大略的方向,然后才启动。启动后机器将保持脸部辨识与声音辨识的机能,确保它仅提供你的个人信息。

值得一提的是,借助AI芯片的算力,谷歌将更完善语音和自然语言理解模型放在设备本地,以此提高谷歌助理理解语音指令过程中的语气和停顿。

Android更新:增强适配平板,强化开放和连接

谷歌为Android 13带来了增强的Material You主题定制化、主题图标、新版媒体播放控制、独立应用语言设置、平板界面与交互优化等特性,还进一步深化隐私保护设定。

随着平板电脑的流行,谷歌Android 13终于针对平板装置的大屏幕空间做了改良。比如新系统能更轻松进入画面分割模式;有特别设计的全新工具栏、通知中心;在使用触控笔书写、绘图时,手掌防误触功能会更强。另外,谷歌自家的YouTube、地图等应用,还会针对大屏幕设备进行适配和优化。同时谷歌还表示,在积极与Zoom、TikTok、Facebook等合作,提供更好的大屏幕体验。

按照惯例,Android 13在发布会结束后就提供公开测试,除了谷歌自家的Pixel手机外,包括vivo 、小米、中兴等品牌指定手机也可下载体验。

要注意的是,针对平板的适配只是谷歌在一系列设备生态服务整合和跨设备功能中的一部分。比如在智能手表上,今年晚些时候发布的三星Galaxy Watch 4系列会搭载新的Wear OS和谷歌语音助手;针对Chromebook设备,则新增支持Android设备投屏;谷歌还和其他智能家居品牌合作,支持Matters物联网协议,提供更快速的物联网连接体验。

新手机、手表和智能眼镜来了

硬件不是谷歌的主要业务,但它承载着谷歌最核心的服务并直接面向消费者。谷歌上一季度广告收入为612.4亿美元,包括硬件销售、应用程序和非广告收入在内的“其他收入”为81.6亿美元,比去年同期的66.7亿美元有所增加。皮查伊说。尽管供应紧张,但谷歌的Pixel智能手机仍创下了历史销售记录。

虽然Google I/O主要针对开发者提供技术和软件更新,硬件的权重较低,谷歌过往也是会举办专门的硬件发布会来介绍新产品。不过这次,谷歌还是制造了“意外”,透露了更多新硬件的信息。

包括通常在秋季才发布的Pixel手机:Pixel 7与Pixel 7 Pro,两者将会搭载下一代Tensor芯片和Android 13操作系统。外型上两款手机基本保留先前Pixel 6的元素,背部仍有明显的相机模块。Pixel 7 Pro可看到3个明显的后镜头模块,Pixel 7则可能是2个镜头模块。

而Pixel 6的“廉价版”Pixel 6a也正式登场,依旧是谷歌自研芯片Tensor ,采用6.1英寸屏幕,还有Android 13系统,核心体验跟旗舰Pixel 6一致。背后是1200万像素的双摄像头系统,价格只要449美元起。该产品7月21日预售,7月28日上市。

此前传言许久的Pixel Watch智能手表官宣,将与Pixel 7同期发布,其使用新版Wear OS系统,支持一系列谷歌服务,如地图、支付等。而且Pixel Watch会深度整合Fitbit的健康系统,号称可以得到与Fitbit智能手表相同的运动监测体验。

除了手机,谷歌还推出首款降噪耳机Pixel Buds Pro,售价199美元,支持主动降噪,搭载谷歌自研算法,通过机器学习捕捉声音,确保通话时的麦克风能清楚捕捉到用户的声音,还有类似于苹果的空间音频技术。

主题演讲的最后,皮查伊播放了一段视频,展示了谷歌正在开发的一款智能眼镜原型产品。

谷歌2012年发布的Google Glass一直因为硬件限制和隐私问题备受争议,但这次谷歌发布的智能眼镜功能非常明确——它能够实时翻译面前的人所说的话,并且把翻译结果显示在镜片上,有点类似字幕的效果。和拿手机当翻译工具相比,用眼镜的最大优势当然就是穿戴者能看着对方自然地说话,而不用一直低头看手机了。

尽管功能更简单,但借助机器学习,这次的智能眼镜看起来更靠谱,甚至能翻译手语。不过,这款眼镜是否会上市、何时上市仍是一个未知数。

致远大会宣布世界上最大的人工智能模型!1.75万亿个参数,超过谷歌和openai

智东西(公众号:zhidxcom)

作者 | 心缘

编辑 | 漠影

智东西6月1日报道,上午,在聚集了200余位国内外顶尖AI专家的2021北京智源大会开幕式上,北京智源人工智能研究院发布全球最大预训练模型——“悟道2.0”巨模型,参数量高达1.75万亿

北京智源大会是由智源研究院主办的年度国际性AI高端学术交流会议,定位于“内行的AI顶级会议”,旨在成为北京乃至中国AI发展的学术名片。

而此次重磅发布的“悟道2.0”巨模型,是中国首个全球最大万亿模型,比有1.6万亿个参数的谷歌最大模型Switch Transformer,足足多了1500亿个参数;是OpenAI GPT-3模型参数量的10倍。

此外,“悟道2.0”还取得多项世界级创新突破,在预训练模型架构、微调算法、⾼效预训练框架等⽅面实现了原始理论创新,并在世界公认的AI能⼒排名榜单上,取得9项能⼒的领先地位

智源“悟道”智能模型:大模型+大平台+大生态

尤其值得⼀提的是,这个由智源副院⻓、清华⼤学教授唐杰率领中国科学家团队联合攻关的万亿模型,首次100%基于国产超算平台打造、运⽤中国技术,打破原来只能用GPU训练模型的问题。

智源研究院还与新华社战略合作,将悟道模型应用于新闻数字化转型;并合作智谱AI、微软小冰公司,联合培养准备进入清华唐杰实验室的中国首位原创虚拟学生“华智冰”。

中国首位原创虚拟学生“华智冰”:基于“悟道2.0”大模型和小冰框架的AI内容生成技术生成

这一技术现已开源,任何个人或企业即日起可免费申请使用公开API:

https://wudaoai.cn/home

一、万亿模型新里程碑,9项顶尖AI能力

这个全球最大、中国首个万亿参数的双语多模态模型,究竟能做什么?

悟道同时支持NLP理解、生成任务与文生图、图生文任务。简单来说,从作诗写文、对联问答到配图猜图、绘画设计,它都能与人类一较高下。

在世界公认的9项Benchmark上,悟道2.0均取得了顶尖能力水平,达到了精准智能。

悟道2.0在9项Benchmark上取得的新成就

以悟道模型包含的全球最大中文多模态生成模型CogView为例,这个模型有40亿个参数,代表了世界顶尖的⽂图绘画能⼒。

CogView克服了做文图模型在半精度下因为上下溢无法正常收敛的关键问题,也是继DALL·E之后少有的通⽤领域⽂图模型。

CogView:精度最高的通用领域文图模型

在MS COCO文本生成图像任务权威指标FID上,CogView打败OpenAI拥有130亿参数的DALL·E模型,获得世界第一。

给一段符合现实场景或者天马行空的话,比如“金发女郎打电话”、“素描房子”,或者“老虎踢足球”、“一个人在月球上骑自行车”,CogView都能创作出相应的图像。

生成符合句子含义的图像

CogView也能直接实现类似于OpenAI CLIP模型的⾃评分功能,且画风多元,中国画、卡通画、轮廓画、油画等等都能生成。

生成各种风格的“东方明珠”

CogView还能充当设计师。比如,通过与阿⾥巴巴达摩院智能计算组合作,CogView经过GAN的增强后,应⽤到阿⾥的服饰设计业务。

将CogView经过GAN增强后应用到阿里的服饰设计业务

或许,你的购物⻋里,就躺着“悟道”的设计。

如果说CogView展现了AI的最佳实际作画能⼒,神经元可视化技术,则突破想象地描绘出AI的梦境——对于⼀个给定的文本概念,得到与其特征表示最为接近的图像可视化。

从如下图示,多模态预训练后的神经⽹络已经能“看到”抽象的人类概念。

生成“圣诞”、“梦境”等抽象概念

AI的想象世界,也许有人类手笔所无法触碰的美轮美奂。

除了按字生图外,悟道也能实现根据图片来生成描述图片内容的流畅语句,并能预测每个动画图像的准确标签,大大提高图像标记任务的效率,这给自动生成字幕、将图片与对应“金句”、歌词相匹配等应用带来便利。

理解图像信息并提炼关键标签

目前,悟道多项应用正在逼近突破图灵测试。

二、为什么“全球最大”模型,会出现在智源?

“悟道”攻关团队由智源副院⻓、清华⼤学教授唐杰领衔,清华、北大、⼈大、中科院等100余位科学家联合攻关,形成了AI的特战团队。

今年3月20日,智源研究院发布我国首个超大规模智能模型“悟道1.0”,包含中文、多模态、认知、蛋白质预测在内的系列模型,取得了多项国际领先的AI技术突破。

“悟道2.0”超大规模预训练模型阵容及最新成果

这一项目的启动,要追溯到2020年6月。当时OpenAI拥有1750亿个参数的超大规模语言模型GPT-3横空出世,火速红遍全球AI圈。

在接受智东西专访时,智源研究院理事长张宏江评价说:“GPT-3的诞生,标志着AI已经从过去15年发展中的算法突破,进入大系统的突破。”

预见到大模型的里程碑意义后,智源的核心成员迅速做了一番研究,判断这对中国AI产业至关重要。经过与产学政多方交流,智源随即做出决策并组建团队,专攻大模型。

研发大模型绝非易事,超大规模算力、足质足量的数据、算法根基深厚的学者缺一不可。

而介乎于产学政之间的智源研究院,恰恰具备高效整合这些资源的能力。这也是为什么,智源团队在短短几个月内,即创下“悟道”巨模型的新纪录。

“悟道2.0”巨模型

“悟道”万亿模型一统文本与视觉两大阵地,支持中英双语,在共4.9T的高质量清洗数据上训练。

从技术突破来看,悟道·文汇基于GLM+CogView+FastMoE技术,CogView已经在前文聊过,GLM2.0、FastMoE技术也都值得一提。

最大的英文通用预训练模型GLM2.0曾首次打破BERT和GPT壁垒,开创性地以单⼀模型兼容所有主流架构。

新⼀代版本更是模型创新、以少胜多的高性能AI典范:以100亿参数量,足以匹敌微软170亿参数的Turing-NLG模型,取得多项任务的更优成绩。

开创性的FastMoE技术,是打破国外技术瓶颈,实现“万亿模型”基石的关键。

此前因谷歌万亿模型的核心参数MoE(Mixture of Experts)和其昂贵的硬件强绑定,绝⼤多数⼈无法得到使用与研究机会。

MoE是⼀个在神经网络中引入若⼲专家⽹络(Expert Network)的技术,能直接推动预训练模型经从亿级参数到万亿级参数的跨越,但它离不开对谷歌分布式训练框架mesh-tensorflow和谷歌定制硬件TPU的依赖。

而FastMoE打破了这⼀限制:作为首个支持PyTorch框架的MoE系统,它简单易用、灵活、⾼性能,且⽀持大规模并行训练。

FastMoE由“悟道文汇”和“悟道文溯”两个研究小组联合攻关,可在不同规模的计算机或集群上支持探索不同的MoE模型在不同领域的应用,相比直接使用PyTorch实现的版本,提速47倍

单GPU多experts情况下,FastMoE相比普通PyTorch实现的加速比

新一代FastMoE支持Switch、GShard等复杂均衡策略,⽀持不同专家不同模型,最大测试了几万个专家的MoE训练。

FastMoE已基于阿里PAI平台,探索在支付宝智能化服务体系中的应用;亦在国产神威众核超算平台成功部署。

目前该技术已经开源,这为万亿模型实现⽅案补上了最后⼀块短板。

此外,智源提出FewNLU小样本学习系统,在小样本学习自然语言理解任务上实现新SOTA,极大缩小了与全监督学习条件下微调性能的差距。

其中包含的P-tuning 2.0算法,历史上首次实现自回归模型在理解任务上超越自编码模型,极大拉近少样本学习和全监督学习的差距,少样本学习能力遥遥领先。

“悟道”攻关团队成员

三、高效易用,全部开源

⾼效易用”是“悟道2.0”巨模型的另⼀张标签。

⼤规模预训练模型的参数规模,通常远超传统的专⽤AI模型,在算⼒资源、训练时间等⽅面消耗巨⼤。

为了提升⼤规模预训练模型的产业普适性和易用性,悟道团队搭建高效预训练框架,实现了全链路的原创突破或迭代优化,预训练效率⼤幅提升,并且全部开源

面向预训练模型的全链路高效训练框架CPM-2

(1)⾼效编码:研发了最高效、最抗噪的中⽂预训练语⾔模型编码,解决⽣僻字等问题;

(2)⾼效模型:构建了世界首个纯非欧空间模型,只需一半的参数量,即可达到近似欧式模型的效果;

(3)⾼效训练:世界首创⼤规模预训练模型融合框架,形成⾼效训练新模式,训练时间缩短27.3%,速度提升37.5%;

(4)⾼效微调:世界首创多类别Prompt微调,只需训练0.001%参数,即可实现下游任务适配;

(5)高效推理:世界首创低资源⼤模型推理系统,单机单卡GPU可进⾏千亿规模的模型推理。

悟道·文源还包含世界最大中文自然语言能力评测数据集,这是目前最全面系统的中文自然语言能力评测基准,能综合反映模型的语言能力。

智源指数

此外,智源研究院打造了全球最⼤的中⽂语料库WuDaoCorpora,扩展了多模态和对话两⼤全新元素,再次升级创造3项全球最⼤:最⼤中⽂文本数据集、多模态数据集、中⽂对话数据集

除了规模⼤,该语料库仍延续了标签全、隐私保护好的优势特征。WuDaoCorpora2.0也将进行部分开放,为产业与研究进⾏数据⽀持。

目前,智源研究院计划免费开放200G悟道文本数据,研究人员可登录如下链接申请下载:

https://data.baai.ac.cn/data-set

四、已合作21家企业,“悟道”生态圈扩张中

智源研究院理事长张宏江认为,⼤模型将成为⼀个AI未来平台的起点,成为类似“电⽹”的基础建设,为社会源源不断供应智⼒源。

智源研究院理事长张宏江演讲

张宏江说,“悟道2.0”智能模型系统将构建“大模型、大平台、大生态”。

一是以“大规模”“高精度”“高效率”为发展目标,持续研发大模型;二是围绕大模型研发,构建大规模算力平台,支撑信息、生命、物理领域的大模型研发;三是通过示范应用搭建、API开放、开源社区等,构建大模型生态。

悟道大模型已在产业智能应⽤⽅面全⾯开花。

例如,智源研究院与新华社战略合作,将悟道大模型应⽤于新闻智能化转型,实现了新闻领域0到1的突破。

“悟道”能处理新闻下游任务,如新闻内容处理、图⽂生成、传播优化等,它还具备接近人类的图⽂创意能力,可以作诗、问答或进行创意写作。

此外,中国首位原创虚拟学生“华智冰”也现身智源大会开幕式。这个AI学生拜智源副院长、清华⼤学教授唐杰为师,今日进入清华实验室学习。

“她”具备持续学习新知识和回答复杂推理问题的能力,将逐渐学会写诗、作画、唱歌、编程等各种内容创作技能。

AI学生“华智冰”演示视频:背景音乐、面容、诗词、绘画作品,均基于“悟道2.0”大模型和小冰框架的AI内容生成技术

“华智冰”由智源研究院、智谱AI与小冰公司联合培养,基于智源悟道2.0超大模型、小冰AI完备框架、智谱AI数据与知识双轮驱动的AI框架而实现。研究人员们期望,“华智冰”在知识水平、情商等方面都会不断成长。

“悟道”⼤模型现已与美团、⼩米、快⼿、搜狗、360、寒武纪、好未来、新华社等21家产业生态合作企业进行战略合作签约,涵盖⾏业应⽤企业、IT⻰头企业、中⼩创新企业等。

悟道生态战略合作伙伴

同时,智源发起组建“悟道”⼤模型技术创新⽣态联盟的倡议,吸引更多企业加入,将以联盟为枢纽,以企业需求为导向,推动模型研发,共同开发基于“悟道”⼤模型的智能应用,从而促进产业集聚。

围绕“悟道”⼤模型产业生态建设,后续,智源研究院将⾯向个⼈开发者、中小创新企业、行业应⽤企业、IT领军企业等不同主体,分别提供模型开源、API调⽤、“专业版”⼤模型开发、大模型开发许可授权等多种形态的模型能⼒服务,赋能AI技术开发。

同时,智源研究院拟通过成⽴创业投资基⾦、举办“悟道之巅”模型应⽤创新大赛等⽅式,不断发掘和培育基于超⼤规模智能模型的创新企业,推动AI产业可持续发展。

五、智源最新进展:已遴选94位智源学者,建设8个智源创新中心

除了发布悟道2.0外,在智源大会开幕式上,智源研究院院长、北京大学教授黄铁军还分享了智源研究院的最新进展。

1、持续实施智源学者计划,引进培养优秀科学家

截至目前,智源学者计划已遴选智源学者94人,分别来自北大、清华、中科院等高校院所与旷视、京东等优势企业。

他们的研究覆盖人工智能的数理基础、人工智能的认知神经基础、机器学习、自然语言处理、智能信息检索与挖掘、智能系统架构与芯片等重大研究方向。

2、建设“超大规模人工智能模型训练平台”

智源研究院加紧部署通用智能发展,推动建设“超大规模人工智能模型训练平台”,研制“信息、生命、物质”领域超大规模智能模型,以及搭建模型训练及运行所需的大规模算力资源及软件环境。

智源创新的中心任务:三个智能模型+一套智算体系

其中,算力资源部分将建成体系架构先进、高速互联互通、可扩展高效并行的AI超级计算平台,同时,通过搭建AI软硬件测试验证平台,遴选百度昆仑、华为昇腾、寒武纪思元等高性能国产AI芯片及软件参与平台建设,为AI前沿技术提供试验验证环境。

3、建立智源创新中心,推动原创成果转化落地

迄今智源研究院已经建设8个智源创新中心,覆盖疾病脑电、智能信息处理、认知知识图谱、安全人工智能等方向,通过开放智源的生态资源,支持关键核心技术攻关,推动AI原始重大创新和关键技术落地和深度应用。

在本届智源大会上,智源研究院将于6月3日发布源创计划,提供两类服务:一类是技术驱动,即扶持科学家创业;另一类是需求拉动,给缺乏AI技术、想转向智能化的企业做技术对接。

智源源创计划

4、开放高质量数据集,建设联合实验室

智源数据开放研究中心重点建设智能医疗等行业的高质量AI数据集,面向业界提供数据共享服务,推出智能平台,并组织相关数据竞赛。

悟道数据团队还构建了全球最大中文语料数据库WuDaoCorpora,这次WuDaoCorpora2.0扩展了多模态和对话两大全新元素,再次升级创造3项全球最大:最大中⽂文本数据集(3TB)、多模态数据集(90TB)与中⽂对话数据集(181G)。

另外,智源研究院与旷视、京东分别建设并开放了全球最大的物体检测数据集Objects365、全球最大多轮对话文本数据集。智源研究院还分别联合旷视、京东、予果生物等企业共建实验室,推动场景开放,实施协同创新。

5、建设智源社区,举办北京智源大会

社区方面,智源研究院推动智源社区建设,着力构建AI学者社交网络,建立活跃的AI学术和技术创新生态,培养下一代问题的发现者、解决者。

目前,智源社区已汇聚6万名AI学者和技术人员,未来,智源社区将紧密联系3000名以上的顶尖AI学者,辐射10万以上AI科研和技术人员。

6、参与并引领国际AI治理,促进AI可持续发展

2019年5月,智源研究院成立人工智能伦理与可持续发展研究中心,并同北大、清华、中科院计算所等单位联合发布了我国第一个人工智能发展与治理准则——《人工智能北京共识》。

为推动北京共识落地,智源研究院将在2021年9月发布我国首个针对儿童的人工智能发展原则《面向儿童的人工智能北京共识》,并在建设我国首个“人工智能治理公共服务平台”,针对AI技术在研发及应用过程中潜在的伦理问题提供检测服务。

它还发起了成立国际组织“面向可持续发展的人工智能协作网络”,剑桥大学、新加坡管理大学、联合国机器人与人工智能中心等机构已加入。

结语:开启国内超大规模模型时代

在智源研究团队眼中,未来,⼤模型将成为类似“电⽹”的新平台,将AI的“智力”如同电力般,源源不断、⼜高效普惠地输送进各⾏各业。

智源“悟道”巨模型,正是这⼀趋势的先⾏者。

这一万亿参数模型的里程碑式突破,与智源攻关团队深厚的算法根基、数据积累和算力汇聚能力都密不可分。

自2018年底成立以来,智源研究院持续汇集国内顶尖AI人才,推进AI领域最基础问题和最关键难题的研究,并陆续取得许多国际领先的新成果。

接下来,“悟道”不止是要做“中国第⼀”,而且要持续瞄向世界顶尖水平,让机器全方面接近⼈的思考,迈向通⽤⼈工智能。

也就是说,以后你在知乎看到的“谢邀”答主,你在展览上看到的设计大师,说不定就是AI了。

今日推出的“悟道”,仅是智源研究院的重大研究进展之一。在开幕式后,2021北京智源大会将于6月1日至3日期间,围绕各种国际AI前沿和产业热点召开29场专题论坛,分享最新研究成果。

除了在今天上午发表演讲的图灵奖得主、加拿大蒙特利尔大学教授Yoshua Bengio之外,图灵奖得主、计算机体系结构宗师David Patterson,2017年欧洲大脑奖得主、世界著名神经科学家Peter Dayan,加州大学伯克利分校人工智能统计中心创始人Stuart Russell,自动驾驶之父Sebastian Thrun,计算可持续性领域开创者Carla Gomes,国内AI经典西瓜书《机器学习》作者、南京大学教授周志华等国内外200余位尖端AI专家,均将在接下来的三天内分享前沿思想。

后续,智东西将发来更多北京智源大会的报道,包括与学术领袖的采访交流,敬请期待。

人工智能辅助人工智能芯片设计,谷歌展示了新开发框架的有效性

集微网消息,日前,谷歌公司在一篇预印版论文中,展示了其名为PRIME的人工智能、机器学习硬件加速器开发架构。

据谷歌与UCLA研究人员介绍,AI芯片设计中往往需要有大量时间用于模拟仿真,以在布局布线约束内找到最优加速器设计,谷歌推出的 PRIME 开发框架,则基于大量加速器设计及其相应性能指标(例如,延迟、功率等)的数据库,结合AI加速新硬件模拟,可减少90%以上的总仿真时间。

有趣的是,谷歌还将其 EdgeTPU 与 PRIME 提供的设计进行了比较,发现AI生成的芯片设计运行速度更快,面积更小,功耗也更低。(校对/乐川)

大数据有多大?谷歌的搜索规模为62 Pb,排名最后

作者 | 西西

编辑 | 陈彩娴

众所周知,算法、算力与数据是人工智能(AI)发展的“三驾马车”,吴恩达等学者也常说:以数据为中心的AI,或数据驱动的AI。

由此可见,近年来激增的数据量是 AI 腾飞的源动力之一,数据在 AI 中扮演重要角色。那么,人们口中常说的“大数据”,规模究竟有多大呢?

出于好奇心,一位意大利物理研究者 Luca Clissa 调查了 2021 年几个知名大数据源(谷歌搜索、Facebook、Netflix、亚马逊等等)的规模大小,并将它们与大型强子对撞机(LHC)的电子设备所检测到的数据做了对比。

地址:https://arxiv.org/pdf/2202.07659.pdf

毫无疑问,LHC 的数据量是惊人的,高达 40k EB。但商业公司的数据量也不容小觑,比如,亚马逊S3存储的数据量也达到了大约 500 EB,大致相当于谷歌搜索(62 PB)的 7530 倍。

此外,流数据在大数据市场中也占有一席之地。Netflix 和电子通信等服务产生的流量比单纯的数据生产者要多一到两个数量级。

1 LHC 的数据量

根据 Luca Clissa 的调查,2021年各大知名数据源的体量大约如下:

图注:2021年的大数据规模

右上角(灰色部分)是欧洲核子研究组织(CERN)大型强子对撞机(LHC)实验的电子设备所检测到的数据,规模最大。

在上一次运行(2018 年)中,LHC 在四个主要实验(ATLAS、ALICE、CMS 和 LHCb)中的每一个实验里,每秒产生大约 24 亿次粒子碰撞,每次碰撞可以提供约 100 MB 数据,因此预计年产原始数据量约为 40k EB(=10亿千兆字节)。

但根据目前的技术和预算,存储 40k EB 数据是不可能的。而且,实际上只有一小部分数据有意义,因此没有必要记录所有数据。记录的数据量也降低到了每天大约 1 PB,2018 年的最后一次真实数据只采集了 160 PB,模拟数据 240 PB。

此外,收集的数据通过 WLCG (全球LHC计算网络)不断传输,2018 年产生了 1.9k PB 的年流量。

不过,欧洲核子研究组织(CERN)正在努力加强 LHC 的能力,进行 HL-LHC 升级。这个过程预计生成的数据量将增加 5 倍以上,到 2026 年,每年估计产生 800 PB的新数据。

2 大厂数据量对比

大公司的数据量很难追踪,且数据通常不会公开。对此,Luca Clissa 采用了费米估算法(Fermi estimation),将数据生产过程分解为其原子组成部分,并做出合理的猜测。

比如,针对特定数据源,检索在给定时间窗口内产生的内容量。然后通过对这些内容的单位大小的合理猜测来推断数据总量,例如平均邮件或图片大小,1 小时视频的平均数据流量等等。

他对谷歌搜索、YouTube、Facebook等等数据源进行了估算,结论如下:

谷歌搜索:最近的一项分析估计,Google 搜索引擎包含 30 到 500 亿个网页。根据 Web Almanac 所提供的信息,假设谷歌的年度平均页面大小约为 2.15 MB,截至 2021 年,Google 搜索引擎的数据总规模应约为 62 PB

YouTube:根据 Backlinko 的数据,2021 年用户每天在 YouTube 上上传的视频时长为 72 万小时。假设平均大小为 1 GB(标准清晰度),2021年 YouTube 的数据大小约为 263 PB

Facebook 与 Instagram:Domo 的 Data Never Sleeps 9.0 报告估计,2021 年 Facebook 与 Instagram 每分钟上传的图片数量分别为 240k 和 65k。假设平均大小为 2 MB,则总共大约为 252 PB 和 68 PB

DropBox:虽然 Dropbox 本身不产生数据,但它提供了云存储解决方案来托管用户的内容。2020年,公司宣布新增用户 1 亿,其中付费订阅用户达到 117 万。通过推测免费和付费订阅的占用率分别为 75%(2 GB)和 25%(2 TB),Dropbox 用户在 2020 年所需的存储量约为733 PB

电子邮件:根据 Statista 的数据,从 2020 年 10 月到 2021 年 9 月,用户大约传送了近 131,000 亿次电子通信(包含 71,000 亿封电子邮件和 60,000 亿封垃圾邮件)。假设标准邮件和垃圾邮件的平均大小分别为 75 KB 和 5 KB ,我们可以估计电子邮件的总流量约为 5.7k PB

Netflix:Domo 估计,2021 年 Netflix 用户每天消耗 1.4 亿小时的流媒体播放,假设每小时 1 GB(标准定义),总计大约 51.1k PB

亚马逊:亚马逊网络服务 (AWS) 的首席布道师 Jeff Barr称,截至 2021 年,亚马逊 S3 (Simple Storage Service)中存储了超过 100 万亿个对象。假设平均每桶的对象大小为 5 MB ,那么存储在 S3 中的文件的总大小则约等于 500 EB

总的来说,科学数据可以在数量上与商业数据源相媲美。

参考链接:

1.https://towardsdatascience.com/how-big-are-big-data-in-2021-6dc09aff5ced

2.https://firstsiteguide.com/google-search-stats/

3.https://backlinko.com/

4.https://mms.businesswire.com/media/20210929005835/en/911394/5/data-never-sleeps-9.0-1200px.jpg?download=1

5.https://backlinko.com/dropbox-users

6.https://www.statista.com/

7.https://aws.amazon.com/cn/blogs/aws/amazon-s3s-15th-birthday-it-is-still-day-1-after-5475-days-100-trillion-objects/

8.https://atlas.cern/

大数据有多大?谷歌的搜索规模为62 Pb,排名最后

作者 | 西西

编辑 | 陈彩娴

众所周知,算法、算力与数据是人工智能(AI)发展的“三驾马车”,吴恩达等学者也常说:以数据为中心的AI,或数据驱动的AI。

由此可见,近年来激增的数据量是 AI 腾飞的源动力之一,数据在 AI 中扮演重要角色。那么,人们口中常说的“大数据”,规模究竟有多大呢?

出于好奇心,一位意大利物理研究者 Luca Clissa 调查了 2021 年几个知名大数据源(谷歌搜索、Facebook、Netflix、亚马逊等等)的规模大小,并将它们与大型强子对撞机(LHC)的电子设备所检测到的数据做了对比。

地址:https://arxiv.org/pdf/2202.07659.pdf

毫无疑问,LHC 的数据量是惊人的,高达 40k EB。但商业公司的数据量也不容小觑,比如,亚马逊S3存储的数据量也达到了大约 500 EB,大致相当于谷歌搜索(62 PB)的 7530 倍。

此外,流数据在大数据市场中也占有一席之地。Netflix 和电子通信等服务产生的流量比单纯的数据生产者要多一到两个数量级。

1

LHC 的数据量

根据 Luca Clissa 的调查,2021年各大知名数据源的体量大约如下:

图注:2021年的大数据规模

右上角(灰色部分)是欧洲核子研究组织(CERN)大型强子对撞机(LHC)实验的电子设备所检测到的数据,规模最大。

在上一次运行(2018 年)中,LHC 在四个主要实验(ATLAS、ALICE、CMS 和 LHCb)中的每一个实验里,每秒产生大约 24 亿次粒子碰撞,每次碰撞可以提供约 100 MB 数据,因此预计年产原始数据量约为 40k EB(=10亿千兆字节)。

但根据目前的技术和预算,存储 40k EB 数据是不可能的。而且,实际上只有一小部分数据有意义,因此没有必要记录所有数据。记录的数据量也降低到了每天大约 1 PB,2018 年的最后一次真实数据只采集了 160 PB,模拟数据 240 PB。

此外,收集的数据通过 WLCG (全球LHC计算网络)不断传输,2018 年产生了 1.9k PB 的年流量。

不过,欧洲核子研究组织(CERN)正在努力加强 LHC 的能力,进行 HL-LHC 升级。这个过程预计生成的数据量将增加 5 倍以上,到 2026 年,每年估计产生 800 PB的新数据。

2

大厂数据量对比

大公司的数据量很难追踪,且数据通常不会公开。对此,Luca Clissa 采用了费米估算法(Fermi estimation),将数据生产过程分解为其原子组成部分,并做出合理的猜测。

比如,针对特定数据源,检索在给定时间窗口内产生的内容量。然后通过对这些内容的单位大小的合理猜测来推断数据总量,例如平均邮件或图片大小,1 小时视频的平均数据流量等等。

他对谷歌搜索、YouTube、Facebook等等数据源进行了估算,结论如下:

谷歌搜索:最近的一项分析估计,Google 搜索引擎包含 30 到 500 亿个网页。根据 Web Almanac 所提供的信息,假设谷歌的年度平均页面大小约为 2.15 MB,截至 2021 年,Google 搜索引擎的数据总规模应约为 62 PB。

YouTube:根据 Backlinko 的数据,2021 年用户每天在 YouTube 上上传的视频时长为 72 万小时。假设平均大小为 1 GB(标准清晰度),2021年 YouTube 的数据大小约为 263 PB。

Facebook 与 Instagram:Domo 的 Data Never Sleeps 9.0 报告估计,2021 年 Facebook 与 Instagram 每分钟上传的图片数量分别为 240k 和 65k。假设平均大小为 2 MB,则总共大约为 252 PB 和 68 PB。

DropBox:虽然 Dropbox 本身不产生数据,但它提供了云存储解决方案来托管用户的内容。2020年,公司宣布新增用户 1 亿,其中付费订阅用户达到 117 万。通过推测免费和付费订阅的占用率分别为 75%(2 GB)和 25%(2 TB),Dropbox 用户在 2020 年所需的存储量约为733 PB。

电子邮件:根据 Statista 的数据,从 2020 年 10 月到 2021 年 9 月,用户大约传送了近 131,000 亿次电子通信(包含 71,000 亿封电子邮件和 60,000 亿封垃圾邮件)。假设标准邮件和垃圾邮件的平均大小分别为 75 KB 和 5 KB ,我们可以估计电子邮件的总流量约为 5.7k PB。

Netflix:Domo 估计,2021 年 Netflix 用户每天消耗 1.4 亿小时的流媒体播放,假设每小时 1 GB(标准定义),总计大约 51.1k PB。

亚马逊:亚马逊网络服务 (AWS) 的首席布道师 Jeff Barr称,截至 2021 年,亚马逊 S3 (Simple Storage Service)中存储了超过 100 万亿个对象。假设平均每桶的对象大小为 5 MB ,那么存储在 S3 中的文件的总大小则约等于 500 EB。

总的来说,科学数据可以在数量上与商业数据源相媲美。

参考链接:

1.https://towardsdatascience.com/how-big-are-big-data-in-2021-6dc09aff5ced

2.https://firstsiteguide.com/google-search-stats/

3.https://backlinko.com/

4.https://mms.businesswire.com/media/20210929005835/en/911394/5/data-never-sleeps-9.0-1200px.jpg?download=1

5.https://backlinko.com/dropbox-users

6.https://www.statista.com/

7.https://aws.amazon.com/cn/blogs/aws/amazon-s3s-15th-birthday-it-is-still-day-1-after-5475-days-100-trillion-objects/

8.https://atlas.cern/

雷峰网雷峰网

谷歌2020学术指数发布:CVPR排名超越cell和nature

来源:新智元

本文约3136字,建议阅读7分钟。

本文介绍最新谷歌学术期刊和会议影响力榜单出炉,本次榜单相比去年变化不可谓不大。AI顶会几乎全员上榜黑马迭出,CVPR排名超Cell,从第十位变成第五,h中位数超柳叶刀直逼第三名Science;ICLR从42一跃到17,ACL、AAAI首次上榜。

一年一度的谷歌学术期刊和会议影响力TOP 100榜单出炉了!

虽然谷歌学术每年都会出这样一期榜单,但今年的榜单,对AI学界和业界尤为重要!为什么这么说呢?

2020年,可以说是AI顶会的丰收年。虽然受疫情影响无法开展线下会议,专家学者们缺失了面对面进行交流探讨的机会,但今年的AI顶会的规模基本上都达到了历史上最好水平。无论是参与的人数、投稿的论文数、评审团成员数、影响力等等,都大有提升。

这样的结果,也带动了AI顶会在顶级学术会议地位的提升。这一点,从谷歌学术发布的2020最新学术期刊、会议影响力榜单上,得到了非常显著的体现,无疑为AI学界和业界都起到了非常好的激励作用。

人工智能顶会黑马迭出,Cell和Nature子刊也被甩在身后

我们先来看一下总榜单。

总榜单上,万年四兄弟Nature、NEJM、Science和柳叶刀依旧把持着顶级期刊的冠军、亚军和季军和第四的位置,并且这4家的h5-指数和h5-中位数相比去年均有提升。

虽然前四名没有变化,但接下来,黑马出现了

CVPR从去年的第10位,一跃升到TOP 5,将Nature Communication和Cell都踩在脚下。h5-指数差一点儿就超越了柳叶刀,而h5-中位数更是直接超越柳叶刀、直逼第三名Science。如果按照现在的势头发展下去,不仅柳叶刀第四名的位置不保,甚至连季军宝座恐怕也要易主。

本届榜单还有一匹黑马,那就是ICLR。虽然在总榜单上的位置不算很高,并没有进入TOP 10,却是进步最大的AI顶会!总榜从42直接进入TOP 20,连跳15级;在工程和计算机科学类子榜单TOP 20里,也是从13名直接进入第三!

从榜单上可以看到,CVPR、ICLR、NeurIPS、ICCV等几大AI顶会均表现不俗,排名相比去年均出现了大幅的提升,只有ECCV排名略微下降。

此外,今年的榜单还有一个振奋人心的好消息:AI顶会ACL以及AAAI首次上榜,分别位列72以及96。

总结来看:

另外在工程和计算机科学类子榜单TOP 20里,AI顶会也是大放异彩!

总结来看:

同为影响力指数,谷歌的h5和JCR的IF有什么区别?

其实,在影响力指数方面,谷歌只是个后起之秀。相比而言,在国内更为知名的,是历史更为悠久、汤森路透(Thomson Routers)的期刊引用报告(Journal Citation Report, JCR)每年发布的影响因子指数IF。

国内的很多科研评价体系对IF有着非常严重的依赖。科研论文有没有发表在IF指数高的期刊上、发表了多少篇,直接关乎到论文作者的前程

但IF榜单发布至今,已经逐渐偏离了初衷,不断遭受到越来越多的质疑、争议甚至诟病。尤其是当汤森路透公司宣布将知识产权业务和科学信息业务(IP&Science)以35.5亿美元(人民币将近250亿)的价格出售给Onex Corp和霸菱亚洲投资(Baring Private Equity Asia)后,会员人数超过43000名、全球历史最悠久、规模最大的微生物科学协会组织美国微生物学会ASM直接对IF说不

而谷歌在2012年推出的谷歌学术计量(Google Scholar Metrics),成为IF之外,衡量学术期刊、顶会影响力的重要指标。

该评价体系由H指数(h-index或Hirsch index),H核心(h-core),H中值(h-median),H5指数(h5-index),H5核心(h5-core)和H5中值(h5-median)构成。H指数由美国加利福尼亚大学圣地亚哥分校物理学家Jorge Hirsch在2005年首先提出。

  1. h指数:指该出版物中至少有h篇文章分别被引用了至少h次的最大数字h。例如,一份出版物有5篇文章被引用,分别是17、9、6、3和2,其h-index为3。
  2. h核心:是指该出版物中被引用次数最多的h篇文章的集合。这些文章就是h-index的基础。例如,上面的出版物的h-核心有三篇文章,分别是被引用的17、9和6。
  3. h-中位数:是指其h-核心中被引用次数的中位数。例如,上述刊物的h中位数为9,h中位数是衡量h核心中文章被引次数分布的指标。

最后,出版物的h5-index、h5-core和h5-median分别是指在过去5个完整日历年内发表的文章的h-index、h-core和h-median。

由于评价体系不同,榜单的差异可谓天差地别。

比如Nature在h指数下蝉联第一,但是在IF下,今年只排在了15,连TOP 10都没进。而IF的第一名CA-A Cancer Journal for Clinicians,在h指数下连面都没露,直接被排在100名往后了。

在排名方面,显然谷歌学术更倾向于AI,而JCR则更偏重医学,尤其对Nature相关期刊爱的深沉。TOP 100中,谷歌学术基本将AI顶会都收录了进来;而JCR的IF中,Nature是出现最多的字。

如何利用好谷歌学术

直接用谷歌不好吗,为什么我们要切换到谷歌学术呢?

Google Scholar(GS)是一个免费的学术搜索引擎,可以被认为是学术版的谷歌。它的搜索范围包括出版商、大学或学术网站的知识库,而不是所有网络公开信息。

使用谷歌学术搜索降低了寻找学术信息的难度,与普通的 Google 搜索有很多区别,比如

  • 你可以选择复制不同风格的格式化引文
  • 给出与你搜索内容相关度最高的可靠研究
  • 尽管谷歌学术搜索是免费的,但大部分内容并不是免费的,谷歌会尽可能找到可全文阅读的副本

搜索结果简洁明了,前两行是文献关键信息,中间是摘要,底部包含了引用计数等信息,右侧的链接相当于「阅读原文」了。

不知你有没有注意到下方有个版本信息,这个链接将显示文章的其他版本或文章的其他存储库,其中一些可能有免费下载版本。

点击图中的引号,就能弹出各种格式的引用链接,直接复制即可。

尽管谷歌学术搜索每次只返回1000个结果,但是仍然有太多的内容需要过滤,所以你需要一个更有效的方法来定位相关的文章。我们整理了一些建议,可以帮助你节省一部分时间:

谷歌学术搜索不区分大小写。所以你不用费时间把「machine」切换为「Machine」。

使用关键词而不是完整的句子。假设你的研究课题是关于自动驾驶汽车的。对于常规的谷歌搜索,我们可能会输入类似于「自动驾驶技术现状如何」的内容。而在GS中,这样的搜索结果跟预期会差很多。

使用引号搜索精确匹配。如果你把你的搜索短语放入引号中,GS会在文档标题和正文中搜索该短语的精确匹配。如果没有引号,GS 会将每个单词分开处理。

在搜索词组中添加年份,可以获得在特定年份发表的文章。

使用侧边栏控件调整搜索结果。使用左侧面板的选项,可以进一步调整搜索结果,限制年份,包含或排除专利等,还可以根据相关性或日期对结果进行排序。

使用布尔运算符。搜索不区分大小写,但是有一些布尔操作符可以用来控制搜索,这些操作符必须是大写的。NOT 可以放在单词或短语前面,以排除包含它们的结果。除了 NOT,可用的还有AND、 OR。

说这么多可能有点云山雾绕,所以为大家总结了下面这个表格,可以清晰地理解各种方式的搜索结果。

如果上面这些方法还不能满足你的需求,可以尝试谷歌的高级搜索,但是可能会过滤掉一些原本重要的内容。

除了谷歌学术,还有哪些好用的搜索引擎呢?

国产的学术搜索引擎Aminer在计算机和人工智能领域是相当有优势的。比如搜索知识图谱,这个领域的顶级会议、学术大牛、高被引学者的详细信息一键可得。

还可以按学者搜索,比如我们搜索知识图谱领域的知名学者「唐杰」,立马可以看到唐杰教授的最新研究,过往几年的论文发表情况,登录之后还能看到更多详细信息。

很多Nature、Science的论文只能看到个摘要可是愁煞人,这时你就需要sci-hub了,只要输入你想下载的文献题目、DOI等信息就可以获取到该文献的下载链接,给我url,还你一个pdf!

除了上面这些,还有一些政府机构或大学图书馆也提供很好的学术资源,比如DOAJ(瑞典的隆德大学图书馆设立),PMC(美国国立卫生研究院提供,存档生物医学,生命科学科研文献)等,这些垂直领域的搜索引擎也是很好用的。

参考链接:

https://scholar.google.com/citations?view_op=top_venues&hl=en

—完—

想要获得更多数据科学领域相关动态,诚邀关注清华-青岛数据科学研究院官方微信公众平台“ 数据派THU ”。

在观看了谷歌AI体验展之后,谷歌空间将教你如何在中国玩谷歌家族游戏

近日,Google AI体验展在上海龙美术馆(西岸馆)低调开展。由于Google罕见在国内让公众零距离体验,而且此次又是极为难得地展现Google在人工智能应用上的超强能力,因此受到大家的热捧。小编已先行探路,为大家挑选几个有意思的项目做介绍。

1、 Google VR & AR

这是一款“足不出户,漫游世界”的黑科技产品。当你戴上VR眼镜,世界之景尽在眼中。你可以抬头见天空,俯身见山脚,360度欣赏世界美景。

Google VR & AR,被形容为“虚实同框,趣玩时空”。当小编低头看景的时候,真有站在高处的身临其境的之感,感觉稍不小心就会坠下,害得小编都不敢轻易挪脚,建议有恐高的参观者慎玩哦!

2、 用 Tilt Brush 进行 3D 绘画

想象一下,你恣意徜徉在浩瀚宇宙中是什么感觉?一定超酷吧!那么就来体验这个项目。戴上眼镜,你的眼前立刻呈现一片灿烂星空,你再用Tilt Brush 现场作画,将作画的范围拓展至3D空间,犹如你漫步于宇宙之中,尽情发挥不凡的创意。据说,玩一次都要排上1-2个小时的队。

3、 以AI来玩手影游戏

这个项目所设置的小黑屋可不简单,它就像一个魔法空间!当你进入其中后,只要按指示做一个手势进行投影,AI就会幻影出十二生肖,非常有趣。

4、 用AI猜你所画

当你简单几笔完成一幅画后,AI就会在几秒钟内很聪明地猜出你到底画的是什么。看小编的画作。

当然就算你是随手涂鸦,AI也能给你匹配上世界名作,真是绝了!

5、 Art Camera

目前,我们所使用的拍照功能只能拍下艺术绘画大作的全貌,但笔触的细节却只能在现场仔细研究,受制于像素的原因,这是无法拍下后回去再次欣赏的,而Art Camera这款专门拍摄艺术作品的机器人相机,能够为画作拍摄超过10亿像素超高分辨率图片,使肉眼不可见的细节全部被放大。

据说,Art Camera已经在全球50多个博物馆拍摄制作完成了4000件艺术品,此次展览环绕展示了徐悲鸿、梵高等5位大师的作品。看看小编拍的梵高名画“星空”的细节之处。

6、 用Move Mirror和AI共舞

在Move Mirror这个装置前,你随心所欲摆出任何动作,AI通过视觉识别肢体动作,从超过8万张照片中给你匹配出和你做过类似动作的“路人甲”。来,让我们一起动起来!

7、 猜图小歌

前段时间一个叫做“猜画小歌”的小程序在朋友圈刷了屏,这是 Google 推出的首款小程序,以一种有趣好玩的方式展示了 Google 的计算机视觉技术。体验者在规定时间内,根据文字提示在画板上绘画,让AI猜出你到底画的是什么。当然画得像才能猜出。此次AI 体验展上,Google 为猜画小歌造了一个专门的展厅,你可以通过闯关来获取周边礼品,有雨伞、笔记本、T 恤等。

8、 Google翻译

此次展览,谷歌公司还特地为“Google翻译”搭建了体验馆,可以现场体验相机实景翻译的乐趣。即将相机镜头对准看不懂的东西拍下来,就能即时翻译图片内的文字内容,有别于国内的翻译软件,谷歌翻译能把翻译结果直接显示在图片上。无需联网,不耗流量。

此次展览免费入场,需在网上提前预约,展览将在10月7日结束,国庆小长假正好可以抽时间逛一逛。

小编觉得,Google AI 体验展再次秉持谷歌一贯的风格“布道技术的本质”,让我们亲身领略了前沿科技的魅力。但其实谷歌的技术远不止这些,像Google地球、Google地图、Google图书等等,也是值得了解并使用的。

Google地球:免费浏览全球各地的高清晰度卫星图片,被《PC 世界杂志》评为2005年全球100种最佳新产品之一。

Google地图:提供含有全球城市政区和交通以及商业信息的地图、街景等。

Google play图书:谷歌推出的手机阅读工具,海量书籍资源,精品书籍下载阅读,帮助用户更好地阅读。

如果你想第一时间体验上述所提到的Google翻译、Google地球、Google地图、Google 图书等谷歌全家桶,或者想宅在家里尽情体验,国内用户可以通过Google空间进行下载。官网www.gplayspace.com 另外,Google Play上的海外精品游戏也可以一网打尽哦!

欢迎搜索关注互联网工具之家,获取更多海外游戏、应用、ACG宅资讯!

Gmail互动邮件新功能无需切换页面,Android和IOS手机也可使用

▲Android和iOS版本的Gmail也可使用互动式邮件的新功能,浏览和回覆讯息都能在同一个介面上搞定。(图/达志影像/美联社)

科技中心/综合外电报导

Google今年7月推出「Dynamic Email(互动式邮件)」的新功能,用户可直接在电子邮件中,执行更多的动作,不需要额外打开其他网页,也就是浏览和回覆讯息都能在同一个介面上搞定,如今Android和iOS版本的Gmail也可以使用这项功能。

这次Google推出支援Accelerated Mobile Pages(AMP)技术的「互动式邮件」新功能,在不打开其他网页的情况下,在Gmail的介面上,用户可以直接回覆留言、填写问券、回覆活动邀请等,期许电子邮件未来不再是一成不变,而是更有互动性的。

另据《9to5google》报导,7月正式推出Gmail「互动式邮件」的新功能,Google如今也为Android和iOS版本的Gmail提出该项服务,而其他主要电子邮件如Yahoo Mail、Outlook.com及Mail.Ru也会支援这项新功能。

此外,目前也有其他公司支援这种新格式,包括Booking.com、Despegar、Doodle、Ecwid、Freshworks、Nexxt、OYO Rooms、Pinterest、redBus等,未来不管是用电脑或是手机浏览信件,不用切换页面即可在同一介面上搞定,对用户来说,既快速又省时。

Gmail有一个新的标志,看起来更像谷歌

谷歌正在用一个更符合谷歌整体风格的设计取代其标志性的Gmail信封标志。新的Gmail标志现在是一个由谷歌四色的蓝色、红色、黄色和绿色品牌颜色组成的M字样,在色块堆叠的部分还有色彩叠加效果,这使得GMail与谷歌搜索、谷歌地图、谷歌照片、Chrome浏览器以及更多谷歌产品的类似标识更加匹配。

之前有报道称,谷歌曾考虑完全放弃M主体,或者完全取消Gmail的红色,但参与用户研究的人对这些变化并不满意。不过,这些研究确实帮助谷歌意识到,Gmail标志的信封部分并不是关键的设计元素,使得团队可以尝试保留M形状,并加入谷歌的传统色系。

新的Gmail标志给人的感觉仍然是以红色为主,加上少量的黄色,以及蓝色和绿色撑起了M的拱形,不过如果把它和谷歌的其他标志放在一起,就很难区分了。谷歌还改造了其日历、文档、Meet和Sheets的标识,以配合新的Gmail设计。

新的标识是谷歌G套件软件更广泛改版的一部分,该软件现在已经被重新命名为Google Workspace。谷歌正试图将Gmail、Chat和Docs合并到一个中心位置,以更好地与微软Office,特别是Outlook电子邮件的整合方式竞争。

注册Gmail邮箱时“此电话号码不能用于身份验证”的解决方案

大家好,我,赛博潮流,复活了。

今天这篇文章,是在我用自己发现的一套工具+方法成功解决了注册Gmail邮箱过程中遇到的问题后写下的,单说过程还是比较骚的。无论你是否拥有Gmail邮箱,这篇简单的记叙文都可能给你带来新的灵感,强烈推荐大家阅读。

什么是Gmail邮箱?

谷歌的Gmail邮箱凭借广大的用户群体、完善的功能和相对而言更为正式的自身调性,一直以来备受社会各界人士的推崇。

协作利器:Gmail邮箱

然而,近年来由于大陆屏蔽的缘由,不少朋友在注册Gmail邮箱的手机号码验证环节收到了“此电话号码无法用于进行验证”的提示。实不相瞒,本人今天也是第一次注册Gmail邮箱,并直接挂在了这一步。

注册邮箱各显神通

接着,我开始在网上寻找办法,很快,各种五花八门的解决方案就映入了我的眼帘,大致浏览一遍过后,我发现主流的解决办法无非这几种:

  • 改用香港/台湾或者外国共享手机号接验证码
  • 换用Chrome/换用其他网址
  • 用Gmail客户端注册
  • 用QQ邮箱客户端注册
  • 更换梯子的节点(线路),选择自己手机号所在地区

除了这些老生常谈的办法,还有一些比较奇葩的,比如这样的:

这样的:

还有……这样的:

上述截图中提到某些方法,我第一眼看到时只有一个想法:太麻烦!

俺仅仅是抱着玩玩儿的心态,注册个不一定能用上的邮箱,怎么能这样为难我呢?

由贫穷引发的灵感

虽然我们都听过“免费即最贵”的说法,但是说句心里话,很多时候遇到这样的问题,还是不甘心浪费一分钱。经过一番胡乱分析,我忽然想到,如果是因为梯子节点与自己所在的地区偏差过大,那么如果不变更梯子节点,而是更换自己的位置,这样会不会更简单高效呢?

感觉可行之后,我打开了一个名为“Location Faker”(位置模拟器)的APP。Location Faker是我之前从Google商店下载的,刚开始只是用来更改QQ定位唬人用的,知道它有很多用途,只是没想到它能在这样的场景下派上用场!

接下来的操作非常简单,只有两步——

1.

打开Location Faker(首次安装的用户需要在开发者选项内完成类似将其设为默认软件的操作),开启定位权限,在地图上找到和梯子节点对应的地区,放大后选择一个合适的地区位置,长按1秒,再点击右下角的圆形运行键就完成了模拟定位。例如这样:

我将位置定在了香港,尽量与梯子节点保持一致

2.

此时,回到Gmail手机号验证界面,重新选择中国+86,填写手机号,可以看到发送验证码成功的提示,并顺利跳转到了填写验证码的页面,接下来的操作就十分顺滑了,甚至直到打开Gmail主页给人发送邮件,都不会出现任何异常。

值得注意的是,成功注册Gmail过后即使将位置变更回实际位置,也丝毫不会影响Gmail的正常使用~

如果你也遇到了同样的问题,不要急着用$解决,尝试用我这个办法,省时,省力,还省钱。需要上述虚拟定位软件Location Faker的朋友,可以私信我获取下载链接。如果对文章内容或者其他问题有疑问,也欢迎随时私信。

那,我走了。