《精灵宝可梦GO》是世界上最赚钱的手机游戏之一,全球收入超过60亿美元

IT之家 6 月 11 日消息,Sensor Tower 数据显示,自 2016 年 7 月上市以来,《精灵宝可梦 GO》在 App Store 和 Google Play 的全球总收入已突破 60 亿美元(约 402.6 亿元人民币),平均每年产生约 10 亿美元(约 67.1 亿元人民币)的收入。

Sensor Tower 表示,自 2016 年推出以来,这款游戏一直是世界上最赚钱的手机游戏之一。2021 年,《精灵宝可梦 GO》是全球第七大营收手游,累计 13 亿美元(约 87.23 亿元人民币);2022 年第一季度,《精灵宝可梦 GO》在玩家支出方面排在第 11 位,增加了 1.982 亿美元(约 13.3 亿元人民币)。

IT之家了解到,《精灵宝可梦 GO》是一款 AR 宠物对战 RPG 手游,玩家可在现实世界中四处寻找宝可梦,进行捕捉、战斗等。2020 年疫情到来后,游戏改变了玩法机制,使得人们在家也能进行探索。

《精灵宝可梦 GO》用时不足六年便达到了 60 亿美元的里程碑。其他超过这一数字的移动游戏包括腾讯的《绝地求生》和《王者荣耀》、 King 的《糖果粉碎传奇》,以及 Supercell 的《部落冲突》。

Google Play推出“购买请求”功能,家长可以轻松限制孩子购买付费应用

Google Play正在获得一项名为”购买请求”的新功能,意在简化没有设置家庭支付方式的账户的购买流程。有了新的购买请求功能,即使没有设置家庭支付方式,家庭中的孩子仍然能够直接向父母发送购买请求,由其批准。这样一来孩子玩游戏刷掉几万几十万天价账单的问题很大程度上可以得到解决。

此前,家庭成员必须使用家庭支付方式来购买Google Play上的应用程序和应用内购买(IAP)。

家庭管理员将实时收到这些购买请求的通知。收到请求后,他们可以评估这些请求,并决定是否应该批准购买。儿童可以请求批准购买付费应用程序或应用程序内出售的物品。这不包括Play Books、Google TV或订阅购买。

如果他们批准,当事人可以选择已经存储的支付方式,包括Google游戏礼品卡并完成购买。如果没有办法马上下决定,父母可以把它添加到批准请求队列中,以后再决定。

Google表示,就像家庭支付方式一样,通过购买请求完成的交易都会在订单历史中显示出来。另外,孩子会收到一封购买确认邮件,发送到他们在提出购买审批请求时使用的Google账户。

Google Play以新徽标和Play Points奖励计划庆祝其10岁生日

谷歌在2012年决定将Android Market重新命名为Google Play,距今已有10年了。为了纪念这一里程碑,谷歌为Google Play启用了新的标志,另外也将有Play Points奖励计划,用户可获得10倍的积分回馈。

谷歌表示,统计数据显示全球190多个国家/地区、超过25亿人每个月都在使用Google Play去寻找应用程序、游戏和数字内容。有200万个应用程序的开发人员与谷歌合作,开展自己的业务,并与全球的用户建立联系。目前Google Play已覆盖多个平台和不同的终端设备,包括了Android手机、平板电脑、Wear OS手表、Android/Google电视机、Chromebook以及Android Automotive汽车等。

为了庆祝Google Play的10周年,谷歌为Google Play设计了新的标志,称可以更好地反映谷歌的魔力,并与谷歌的许多产品(比如搜索、助手、照片、Gmail等)共享的品牌相匹配。在谷歌新标志的申请中,对其描述是“由一个带圆角的三角形组成,分为四个彩色部分;蓝色出现在左侧;绿色出现在顶部;黄色出现在右侧;红色出现在底部”。与现有的标志相比,新的Google Play标志显得更为粗壮和圆滑,且颜色更深。

此外,谷歌为了感谢用户的支持,为Play Points会员提供了一项奖励计划,购买的所有商品都将获得10倍积分,同时用户还可以使用积分获得折扣。

下载《仙女宝藏梦去》教程,一起在街上捉皮卡丘

经过了长期的曝光、内测后,任天堂旗下的手机游戏《精灵宝可梦GO》(Pokemon Go)终于正式上线了。此次上架的平台是 Google Play 以及澳大利亚和新西兰区的苹果 App Store。尽管游戏没有中文版且进入游戏需要登录Google账号,但可喜的是,进入游戏后使用正常网络便能运行。

想要上街抓皮卡丘吗?接下来小编手把手教你下载《精灵宝可梦GO》!

下载前的科普,什么是《精灵宝可梦GO》?

《精灵宝可梦GO》是任天堂推出的第一款AR(增强现实)手机游戏,玩家拿着手机,走到街上,就可以捕捉精灵宝可梦,升级精灵,进入道馆进行对战。具体玩儿法是怎样的,看下面这个视频与游戏截图就明白了。

(下载游戏,登入账号)

(设置自己的玩家形象,进入教程,先抓只妙蛙种子练练手)

(之后就可以进行游戏了)

Android平台下载方式

Android 端的《精灵宝可梦GO》是在Google Play商店上线的,如果你的手机是国行手机,需要下载 Google 框架,之后来进行搜索下载。

当然,小编也为你准备了现成的APK安装包:https://game.pcgames.com.cn/sy/5910.html

iOS平台下载方法

目前iOS端的《精灵宝可梦GO》只有澳大利亚和新西兰区的App Store上线,所以如果你想要在iPhone或者iPad上面体验,就需要一个澳大利亚区或者新西兰区的Apple ID。

如何切换App Store的Apple ID?

1、在切换Apple ID时候,不需要碰【设置】中的【iCloud】;

2、点击手机中【设置】里的【iTunes Store 和 App Store】,点击原有的Apple ID进行注销,然后登录新的Apple ID即可;

3、下载成功后,再用同样的方法,把Apple ID切换到原来自己常用的账号即可。

一起去抓精灵宝可梦吧!

下载好后,就可以点击图标进入了。在进入游戏后,游戏会提示你登录Google账号,此时需要科学上网来进行登录。

但登录后,网络就不受限制了,上街去抓你的第一只精灵宝可梦吧!

答疑环节

Q:这个游戏花钱吗?

A:游戏下载是免费的,但部分道具的内购是收费的。

Q:我不想运动,不想出门,是不是就什么都抓不到了?

A:不是这样的,小编刚刚在办公室里,就抓住了一只,所以不用担心在屋子里就什么都抓不到。不过,既然是一款现实增强游戏,还是多上街运动吧。

Q:是必须要科学上网吗?

A:登录Google账号的时候是需要的,但是游戏过程无需科学上网。

Q:登陆Google账号后就卡在加载页面了怎么办?

A:登陆了Google账户后,及时撤掉VPN,就能解决这个问题,如果不行,多试几次一般就能登陆成功。

【更多电竞赛事新闻及游戏动态,微信关注太平洋游戏网(pcgames_com_cn),每天推荐重磅游戏新闻哦~】

中档手机Google pixel 6a的运行点数据超过了pixel 6

随着谷歌Pixel 6a 发布的临近,关于这款手机的爆料信息也多了起来。近日,Pixel 6a 的跑分数据已经在 GeekBench 上公布。

从跑分页面显示,谷歌Pixel 6a 单核和多核成绩都优于自家的旗舰 Pixel 6。不过两者跑分差异不大,理论上两款手机的性能处在同一水平线上。但对于定位中端的 Pixel 6a 来说,其真实的体验应该和自家旗舰差别不会很大。

与此同时,设备信息显示,谷歌Pixel 6a 代号为“bluejay”,配备 6GB 内存,预计将搭载和 Pixel 6 相同的 Google Tensor 芯片。另外,谷歌Pixel 6a 将运行 Android 12 操作系统,预计会在下月 Google I/O 2022 大会上推出。

根据此前爆料,Pixel 6a 预计将配备一块 90Hz 6.2 英寸 FHD 显示屏,内置 4800mAh 电池,摄像头模组的设计将和谷歌Pixel 6 系列保持一致。

危险:go输入法是指收集用户个人信息

如果你没听说过GO输入法可能没关系,但要是你手机上装着它,那你就要小心了!由广州久邦数码科技有限公司开发的GO输入法,被指会收集用户个人信息,并且下载危险的可执行代码。

根据Google Play的统计,GO输入法在全世界拥有2亿用户。安全研究者发现,GO输入法会收集用户的邮箱账号、使用语言、位置、网络类型、屏幕大小、Android版本、设备型号等信息,而且它还会从远程服务器上下载危险的可执行代码,这些下载下来的非法程序插件都属于广告程序。

Grpc:Google基于HTTP/2和protobuf的开源通用RPC框架

gRPC是一个高性能、通用的开源RPC框架,其由Google主要面向移动应用开发并基于HTTP/2协议标准而设计,基于ProtoBuf(Protocol Buffers)序列化协议开发,且支持众多开发语言。gRPC提供了一种简单的方法来精确地定义服务和为iOS、Android和后台支持服务自动生成可靠性很强的客户端功能库。客户端充分利用高级流和链接功能,从而有助于节省带宽、降低的TCP链接次数、节省CPU使用、和电池寿命。

gRPC具有以下重要特征:

强大的IDL特性

gRPC使用ProtoBuf来定义服务,ProtoBuf是由Google开发的一种数据序列化协议(类似于XML、JSON、hessian)。ProtoBuf能够将数据进行序列化,并广泛应用在数据存储、通信协议等方面。不过,当前gRPC仅支持 Protobuf ,且不支持在浏览器中使用。由于gRPC的设计能够支持支持多种数据格式,所以读者能够很容易实现对其他数据格式(如XML、JSON等)的支持。

定义服务的示例代码如下:

支持多种语言

gRPC支持多种语言,并能够基于语言自动生成客户端和服务端功能库。目前,在GitHub上已提供了C版本grpc、Java版本grpc-java 和 Go版本grpc-go,其它语言的版本正在积极开发中,其中 grpc支持C、C++、Node.js、Python、Ruby、Objective-C、PHP和C#等语言,grpc-java已经支持Android开发。

基于HTTP/2标准设计

由于gRPC基于HTTP/2标准设计,所以相对于其他RPC框架,gRPC带来了更多强大功能,如双向流、头部压缩、多复用请求等。这些功能给移动设备带来重大益处,如节省带宽、降低TCP链接次数、节省CPU使用和延长电池寿命等。同时,gRPC还能够提高了云端服务和Web应用的性能。gRPC既能够在客户端应用,也能够在服务器端应用,从而以透明的方式实现客户端和服务器端的通信和简化通信系统的构建。

gRPC已经应用在Google的云服务和对外提供的API中,其主要应用场景如下:

低延迟、高扩展性、分布式的系统;

同云服务器进行通信的移动应用客户端;

设计语言独立、高效、精确的新协议;

便于各方面扩展的分层设计,如认证、负载均衡、日志记录、监控等。

近日,gRPC开发团队宣布gRPC基于三条款BSD许可协议(BSD 3-Clause License)开源,相关代码已托管在GitHub上,您可以点击“阅读原文”查看。当前已有Google和移动支付公司Square以及其他组织或个人为该项目贡献代码。有兴趣的读者可以在GitHub选择需要的语言版本,并根据提供的README文档尝试gRPC的功能,或者参考FAQ,以获得对gRPC更多信息。此外,在gRPC-common仓库中,还提供了例子、快速入门指南等相关文档。

Google的fluent开发框架现在支持在windows平台上开发应用程序

为了给 iOS 和 Android 移动平台轻松开发应用程序,谷歌推出了名为 Flutter 的应用开发框架。不过随着时间的推移,它正在成为“一次编译,随处运行”的大规模跨平台项目的一个缩影。最新消息是,新版 Flutter 应用开发框架已支持轻松开发可在 Windows 平台上运行的应用程序。

在推出后的几年时间里,Flutter SDK 已提供了对 Web、嵌入式、macOS、以及 Linux 应用创建的支持,极大地拓展了这款应用开发框架的覆盖范围。

此前谷歌还调侃过,Flutter 只剩下 Windows这个主要平台没有提供支持了。

现在,Flutter 团队正在启动适用于 Windows Alpha 的 Flutter SDK,以帮助开发者构建标准的 .exe 可执行文件和支持库。

这些程序不仅可在 Windows 7 到 Windows 10 PC 上运行,还能够与其它平台(比如 Android / iOS)使用完全相同的 Dart 代码。

如需体验 Flutter for Windows,请移步至 Flutter 的开发通道(Dev Channel),启用 Windows 构建、并为项目设置必要的文件内容,所有这些操作都可在命令提示符下轻松完成。

为将 Windows 应用程序发送到其它计算机,谷歌还提供了打包压缩的支持。

当然,将 Flutter 应用程序放到 Windows 之类的桌面平台上运行、而不是仅仅是依赖于 Web Apps,最大好处就是能够利用系统内置的功能、以及调用现有的第三方桌面功能库。

Tim Sneath 表示,Flutter 团队一直在这方面努力,以使 Flutter Dart 代码能被轻松用于 Windows 应用程序中的一些最常见任务。

为展示 Flutter 在 Windows 上的潜力,谷歌还提供了一些开源的示例应用,比如主打通讯录管理功能的 Flokk、以及改进后的 Flutter Gallery 图库(为桌面使用场景而优化)。

目前使用 Flutter 构建的 Windows 应用程序都基于经典的 Win32 API,因而大家无需顾虑它们与大多数 Windows 计算机的兼容性。

展望未来,开发团队还计划为 Windows 10 / XboxOne 等 UWP 平台提供支持,甚至当前 Windows Store 上就已经提供了一个实验性质的版本。

实施各种NLP操作是否困难?Google开源序列建模框架lingvo

自然语言处理在过去一年取得了很大进步,但直接关注 NLP 或序列建模的框架还很少。本文介绍了谷歌开源的 Lingvo,它是一种建立在 Tensorflow 上的序列建模框架。该框架重点关注协作实现与共享代码库,能极大提升代码复用与研究迭代速度,NLP 的今年就靠你了~

Lingvo 是世界语(Esperanto)中的一个单词,它表示「语言」的意思。这一命名展示了 Lingvo 框架的根源:它是由 TensorFlow 开发的通用深度学习框架,它重点关注自然语言处理相关的序列建模方法,包括机器翻译、语音识别和语音合成等。

项目地址:https://github.com/tensorflow/lingvo

在谷歌内部,Lingvo 框架非常有吸引力,使用它的研究人员越来越多。目前,有数十篇获得 SOTA 结果的论文都通过 Lingvo 框架得到了最优的复现,当然开源后将会有越来越多的新实现。从传统的 RNN 序列模型到目前流行的 Transformer,再到包含变分自编码器模块的前沿模型,Lingvo 支持的序列建模架构非常多。

为了支持研究社区并鼓励复现研究论文,谷歌开源了这项框架。他们表示以后谷歌发布的一些序列建模新研究也会尝试采用 Lingvo 框架,它的便捷性将提升 NLP 研究的速度。

Lingvo 主要支持大量研究团体在一个共享代码库中从事语音和自然语言处理相关问题的研究。它的设计原则如下:

  • 单个代码块应该精细且模块化,它们会使用相同的接口,同时也容易扩展;
  • 实验应该是共享的、可比较的、可复现的、可理解的和正确的;
  • 性能应该可以高效地扩展到生产规模的数据集,或拥有数百个加速器的分布式训练系统;
  • 当模型从研究转向产品时应该尽可能共享代码。

图 1:Lingvo 框架整体结构,它展示了模型如何进行实例化、训练、评估和部署。

Lingvo 是在考虑协作研究的基础上构建的,它主要通过在不同任务之间共享公共层的实现,从而提升代码的复用程度。此外,所有层都实现了相同的公共接口,并以相同的方式布局代码结构。这不仅会产生更简洁和易读的代码,同时其它任务上的改良也可以便捷地应用到我们的任务上。实现这种一致性代码确实会有更多的成本,例如更加规范和模板化的代码。但是 Lingvo 也在尝试减少这种成本,以确保更快地迭代研究成果。

协作的另一个方面是共享可复现的结果。Lingvo 为检查模型超参数配置提供了集中的地址,这不仅可以记录重要的实验,同时通过训练相同的模型,其它研究者可以更轻松地复现我们的研究成果。

def Task(cls):
p = model.AsrModel.Params()
p.name = ‘librispeech’
# Initialize encoder params.
ep = p.encoder
# Data consists 240 dimensional frames (80 x 3 frames), which we
# re-interpret as individual 80 dimensional frames. See also,
# LibrispeechCommonAsrInputParams.
ep.input_shape = [None, None, 80, 1]
ep.lstm_cell_size = 1024
ep.num_lstm_layers = 4
ep.conv_filter_shapes = [(3, 3, 1, 32), (3, 3, 32, 32)]
ep.conv_filter_strides = [(2, 2), (2, 2)]
ep.cnn_tpl.params_init = py_utils.WeightInit.Gaussian(0.001)
# Disable conv LSTM layers.
ep.num_conv_lstm_layers = 0
# Initialize decoder params.
dp = p.decoder
dp.rnn_cell_dim = 1024
dp.rnn_layers = 2
dp.source_dim = 2048
# Use functional while based unrolling.
dp.use_while_loop_based_unrolling = False
tp = p.train
tp.learning_rate = 2.5e-4
tp.lr_schedule = lr_schedule.ContinuousLearningRateSchedule.Params().Set(
start_step=50000, half_life_steps=100000, min=0.01)
# Setting p.eval.samples_per_summary to a large value ensures that dev,
# devother, test, testother are evaluated completely (since num_samples for
# each of these sets is less than 5000), while train summaries will be
# computed on 5000 examples.
p.eval.samples_per_summary = 5000
p.eval.decoder_samples_per_summary = 0
# Use variational weight noise to prevent overfitting.
p.vn.global_vn = True
p.train.vn_std = 0.075
p.train.vn_start_step = 20000
return p

代码1:Lingvo 中的任务配置示例。每个实验的超参数都是在其所属的类中配置的,与构建网络和检查版本控制的代码不同。

虽然 Lingvo 一开始重点关注 NLP,但它本质上非常灵活。用于图像分割和点云分类任务的模型已经使用该框架成功实现。它还支持知识蒸馏、GAN 和多任务模型。同时,该框架没有因为便捷而牺牲速度,它具有优化的输入流程和快速的分布式训练。最后,Lingvo 还着眼于生产化,甚至有一条明确的路径来将模型移植到移动端。

论文:Lingvo: a Modular and Scalable Framework for Sequence-to-Sequence Modeling

论文地址:https://arxiv.org/abs/1902.08295

摘要:Lingvo 是一个能够为协作式深度学习研究提供完整解决方案的 Tensorflow 框架,尤其关注序列到序列模型。Lingvo 模型由模块化构件组成,这些构件灵活且易于扩展,实验配置集中且可定制。分布式训练和量化推理直接在框架内得到支持,框架内包含大量 utilities、辅助函数和最新研究思想的现有实现。过去两年里,Lingvo 已被数十个研究人员在 20 篇论文中协作使用。本文作为对框架各个部分的介绍,概述了 Lingvo 的基本设计,同时还提供了展示框架能力的高级功能示例。

谷歌行为克隆算法(Google Behavior cloning algorithm)横扫6个索塔,登上了curl的榜首,机器人的工作速度提高了10倍

编辑:小咸鱼 David

【新智元导读】谷歌团队在CoRL 2021上提出了一种隐式行为克隆 (Implicit BC) 算法,该方法在7项测试任务中的6项上优于此前最佳的离线强化学习方法(Conservative Q Learning)。Implicit BC在现实世界中表现也得特别好,比基线的显式行为克隆(explicit BC)模型好10倍

尽管过去几年中,机器人学习取得了相当大的进步,但在模仿精确或复杂的行为时,机器人代理的一些策略仍难以果断地选择动作。

要让机器人把桌子上的小滑块精确地滑进一个插槽里。解决这个任务有很多方法,每种方法都需要精确的移动和修正。机器人只能采取这些策略选项中的一个,还必须在每次滑块滑得比预期的更远时及时改变策略。

人类可能认为这样的任务很容易,但对于机器人来说,情况往往并非如此,它们经常会学习一些人类专家看来「优柔寡断」或「不精确」的行为。

机器人需要在桌子上滑动滑块,然后将其精确插入固定装置,显式行为克隆模型表现得很犹豫

为了让机器人更加果断,研究人员经常利用离散化的动作空间,迫使机器人进行明确的「二选一」,而不是在选项之间摇摆不定。

比如,离散化是近年来很多游戏agent著名模型的固有特征,比如AlphaGo、AlphaStar 和 OpenAI 打Dota的AI agent。

但离散化有其自身的局限性——对于在空间连续的现实世界中运行的机器人来说,离散化至少有两个缺点:

  1. 精度有限。
  2. 因计算维度导致成本过高,许多离散化不同的维度会显著增加内存和计算需求。在 3D 计算机视觉任务中,近期的许多重要模型都是由连续,而非离散表示来驱动的。

为了学习没有离散化特征缺陷的决定性策略,谷歌团队提出了一种隐式行为克隆 (Implicit BC) 的开源算法,这是一种新的、简单的模仿学习方法,已经在 CoRL 2021 上展示。

该方法在模拟基准任务和需要精确和果断行为的现实世界机器人任务上都取得了很好的结果。在7项测试任务中,隐式 BC 的性能在其中6项上优于此前最佳的离线强化学习方法(Conservative Q Learning)。

有趣的是,隐式 BC 在不需要任何奖励信息的情况下实现了这些结果,即可以使用相对简单的监督学习,而不是更复杂的强化学习。

隐式行为克隆(Implicit BC)

这种方法是一种行为克隆,可以说是机器人从演示中学习新技能的最简单的方法。在行为克隆中,agent会学习如何通过标准监督学习模仿专家的行为。传统的行为克隆一般是训练一个显式神经网络(如下图左所示),接受观察并输出专家动作。

而隐式行为克隆背后的关键思想是,训练一个神经网络来接受观察和动作,并输出一个数字,该数字对专家动作来说很低,对非专家动作来说很高,将行为克隆变成一个基于能量的建模问题。

显式(左)和隐式(右)策略之间差异的描述。在隐式策略中,「argmin」表示与特定观察配对时最小化能量函数值的动作。

训练后,隐式行为克隆策略会查找对给定观察具有最低能量函数值的动作输入,以此生成动作。

为了训练隐式 BC 模型,研究人员使用InfoNCE损失,让网络为数据集中的专家动作输出低能量,为所有其他动作输出高能量。有趣的是,这种使用同时接受观察和行动的模型的思想在强化学习中很常见,但在有监督的策略学习中则不然。

上图所示为隐式模型如何适应不连续性的动画——在这种情况下,训练隐式模型来适应一个步长(Heaviside)函数。左:拟合黑色训练点的2D图,颜色代表能量值(蓝色低,棕色高)。中间:训练期间能量模型的3D图。右图:训练损失曲线。

一旦经过训练,Google AI发现隐式模型(implicit model)特别擅长精确地建模先前显式模型(explicit model)难以解决的不连续性问题,从而产生新的策略,能够在不同行为之间果断切换。

为什么传统的显式模型(explicit model)在这个问题上表现不佳呢?

现代神经网络几乎总是使用连续激活函数——例如,Tensorflow、Jax和PyTorch都只提供连续激活函数。

在试图拟合不连续数据时,用这些激活函数构建的显式网络无法准确表示,因此必须在数据点之间绘制连续曲线。隐式模型(implicit model)的一个关键优势是,即使网络本身仅由连续层组成,也能够表示出尖锐的不连续性。

与显式模型(底部)相比,隐式模型(顶部)拟合不连续函数的示例。红色突出显示的插图显示,隐式模型表示不连续性(a)和(b),而显式模型必须在不连续性之间画出连续的线(c)和(d)

Google AI在这个方面建立了理论基础,提出了一个普遍近似的概念,证明了隐式神经网络可以表示的函数类别,这将有助于证明和指导未来的研究。

Google AI最初尝试这种方法时面临的一个挑战是「高动作维度」,这意味着机器人必须决定如何同时协调多个电机。为了扩展到高作用维度,Google AI使用自回归模型或朗之万动力学。

全新SOTA

在实验中,Google AI发现Implicit BC在现实世界中表现得特别好,在毫米精度的滑块滑动及插槽任务上比基线的显式行为克隆(explicit BC)模型好10倍。

在此任务中,隐式模型(implicit model)在将滑块滑动到位之前会进行几次连续的精确调整。

将滑块精确地插入插槽的示例任务。这些是隐式策略的自主行为,仅使用图像(来自所示的摄像机)作为输入

这项任务有多种决定性因素:由于块的对称性和推动动作的任意顺序,有许多不同的可能解决方案。

机器人需要决定滑块何时已经被推动足够远,然后需要切换到向不同方向滑动。这一过程是不连续的,所以,连续控制型机器人在这一任务上会表现得十分优柔寡断。

完成这项任务的不同策略。这些是来自隐式策略的自主行为,仅使用图像作为输入

在另一个具有挑战性的任务中,机器人需要按颜色对滑块进行筛选,由于挑选顺序是很随意的,这就产生了大量可能的解决方案。

颇具挑战性的连续筛选任务中显式BC模型的表现(4倍速度)

在这项任务中,显式模型(explicit model)还是表现得很拿不准,而隐式模型(implicit model)表现得更好。

颇具挑战性的连续筛选任务中隐式BC模型表现(4倍速度)

而且在Google AI的测试中,Implicit BC在面临干扰时,尽管模型从未见过人类的手,也依然可以表现出强大的适应能力。

机器人受到干扰时,隐式BC模型的稳健行为

总的来说,Google AI发现,与跨多个不同任务领域的最先进的离线强化学习方法相比,Implicit BC策略可以获得更好的结果。

Implicit BC可以完成很多具有挑战性的任务,比如演示次数少(少至19次),基于图像的观察具有高观察维度,还有高达30维的高动作维度,这就需要机器人充分利用自身具有的大量致动器。

隐式策略学习结果与跨多个域的基线进行了比较

尽管Implicit BC目前还有其局限性,但使用监督学习的行为克隆仍然是机器人从人类行为例子中学习的最简单方法之一。

该工作表明,在进行行为克隆时,用隐式策略替换显式策略可以让机器人克服「犹犹豫豫」,使它们能够模仿更加复杂和精确的行为。

虽然Implicit BC取得的实验结果来自机器人学习问题上,但是隐式函数对尖锐不连续性和多模态标签建模的能力可能在机器学习的其他领域也有更广泛的应用。

参考资料:

https://ai.googleblog.com/2021/11/decisiveness-in-imitation-learning-for.html