谷歌Pixel 7系列手机正式发布:图像升级,Tensor G2处理器首次发布

10 月 7 日消息,今日谷歌正式发布了 Google Pixel 7 系列手机,有着定位中端的 Pixel 7 和定位旗舰的 Pixel 7 Pro。

其中,Google Pixel 7 搭载了一块 6.3 英寸 2400×1080 OLED 屏幕,90Hz 刷新率。性能方面,搭载了全新的 Google 自研 Tensor G2 处理器,Google Titan M2 安全芯片,还有 LPDDR5 的 RAM 和 UFS3.1 的 ROM。

影像系统方面,后置 5000 万像素主摄,1/1.31 英寸的传感器尺寸,f/1.85 光圈;1200 万像素的超广角镜头,f/2.2 光圈。前置 1000 万像素单摄,f/2.2 光圈。

内置了 4355mAh 容量电池,支持 20W 有线充电,充到 50% 需要 30 分钟,支持 20W 无线充电,还支持无线反向充电。

Pixel 7 厚度为 8.7mm,重量为 197g,有香茅绿、雪花白、耀石黑 3 种配色,支持 IP68,内置 NFC。

Pixel 7 的 8+128GB 版本售价 599 美元(折合人民币 4260 元),8+256GB 售价 699 美元(折合人民币 4972 元)。

Google Pixel 7 Pro 搭载了一块 6.7 英寸的 3120×1440 分辨率三星 OLED 屏幕,支持 120Hz 刷新率,支持 10-120Hz 动态刷新率调节。

内置 Google 自研 Tensor G2 芯片,Google Tian M2 安全芯片,LPDDR5 RAM 和 UFS3.1 ROM。

影像系统方面,Pixel 7 Pro 主摄与 Pixel 7 保持一致,同样是 5000 万像素,1/1.31 英寸的传感器尺寸,f/1.85 光圈;1200 万像素的超广角镜头,f/2.2 光圈;4800 万像素的潜望式长焦镜头,f/3.5 光圈,支持 5 倍光学变焦,30 倍数码变焦。前置 1000 万像素单摄,f/2.2 光圈。

Google Pixel 7 Pro 内置了 5000mAh 容量电池,支持 23W 有线充电,30 分钟充电 50%,还有 20W 无线充电和无线反向供电。

Pixel 7 Pro 厚度为 8.9mm,重量为 212g,还有雾灰色、雪花白和曜石黑 3 种配色,支持 IP68 防尘防水,还有内置 NFC。

Google Pixel 7 Pro 的 12+128GB 版本售价为 899 美元(折合人民币 6395 元);12+256GB 版本售价 999 美元(折合人民币 7106 元),12+512GB 版本售价 1099 美元(折合人民币 7817 元)。

有价格合理、旗舰级、豪华、标准的tensor芯片,谷歌连续发送三个像素的手机

在 Google I/O 2022 上,Google 出乎意料的一口气发布了 3 款新手机。

其中一款为去年旗舰机型 Pixel 6 的平价版 Pixel 6a,设计上与 Pixel 6 保持一致,同时也沿用了与 Pixel 6 一样的自研 Tensor 芯片。

机身配备有一块 6.1 英寸的 OLED 屏幕,支持 60Hz 刷新率。后置摄像头由一枚 1200 万像素主摄和同等像素的广角镜头构成,前置为一枚 800 万像素摄像头。

可能出于成本考虑,Pixel 6a 电池仅有 4400mAh,甚至比 5a 的电池容量还要小。不过 Google 表示,Pixel 6a 能够支持一整天的续航使用,在低功耗模式下还能使用 3 天。

另外,Google 还发布了今年的旗舰机型 Pixel 7/7 Pro,同样也搭载 Tensor 芯片,运行 Android 13。

Pixel 7/7 Pro 机身背部经过全新设计,摄像头模组镶嵌在一块铝制横板之中,而不是前代那种黑色塑料条。从渲染图上看,Pixel 7 Pro 有 3 枚摄像头,在主摄、广角镜头外,或将加入长焦镜头。

其它有关 Pixel 7/7 Pro 的细节信息并未公布,三款手机将在今年秋季上市。

编辑:达达 / 深圳湾

Google使用令牌学习器改进视觉转换器图像识别模型

Google型始终在计算机视觉任务中获得最先进的结果,包括对象检测和视频分类。与逐像素处理图像的标准卷积方法相比,视觉变换器(ViT) 将图像视为一系列补丁标记(即,由多个像素组成的图像的较小部分或“补丁” )。这意味着在每一层,ViT 模型使用多头自注意力,根据每对令牌之间的关系重新组合和处理补丁令牌。这样做时,ViT 模型有能力构建整个图像的全局表示。

在输入级别,通过将图像均匀地分割成多个片段来形成标记,例如,将 512 x 512 像素的图像分割成 16 x 16 像素地块。在中间层,上一层的输出成为下一层的标记。在视频的情况下,视频“小管”,例如 16x16x2 视频片段(2 帧上的 16×16 图像)成为标记。视觉标记的质量和数量决定了 Vision Transformer 的整体质量。

许多 Vision Transformer 架构的主要挑战是它们通常需要太多的令牌才能获得合理的结果。例如,即使使用 16×16 补丁标记化,单个 512×512 图像也对应于 1024 个标记。对于具有多帧的视频,这会导致每一层都需要处理数以万计的令牌。考虑到 Transformer 的计算量随标记数量呈二次方增加,这通常会使 Transformer 难以处理更大的图像和更长的视频。这就引出了一个问题:真的有必要在每一层处理那么多令牌吗?

在“ TokenLearner:8个学习的令牌可以为图像和视频做什么?”,其早期版本已在NeurIPS 2021 上展示,我们自适应地展示了生成较少数量的令牌,而不是总是依赖于通过统一分裂形成的令牌,使 Vision Transformers 运行得更快,性能也更好。TokenLearner 是一个可学习的模块,它采用类似图像的张量(即输入)并生成一个小组标记。该模块可以放置在感兴趣的模型内的各个不同位置,从而显着减少在所有后续层中要处理的令牌数量。实验表明,使用 TokenLearner 可以在不损害分类性能的情况下节省一半或更多的内存和计算量,并且由于其适应输入的能力,它甚至提高了准确性。

Token Learner

我们使用简单的空间注意力方法来实现 TokenLearner。为了生成每个学习的标记,我们计算了一个空间注意力图,突出显示重要区域(使用卷积层或MLP)。然后将这种空间注意力图应用于输入以对每个区域进行不同的加权(并丢弃不必要的区域),并将结果空间池化以生成最终的学习标记。这并行重复多次,从原始输入中产生几个(~10)个标记。这也可以看作是根据权重值执行像素的软选择,然后是全局平均池化。请注意,计算注意力图的函数由不同的可学习参数集控制,并以端到端的方式进行训练。这允许优化注意力函数以捕获输入中的不同空间信息。下图说明了该过程。

TokenLearner 模块学习为每个输出标记生成空间注意力图,并使用它来抽象输入以进行标记化。在实践中,学习了多个空间注意力函数,应用于输入,并并行生成不同的标记向量。

因此,TokenLearner 不是处理固定的、统一标记化的输入,而是使模型能够处理与特定识别任务相关的较少数量的标记。也就是说,(1)我们启用了自适应标记化,以便可以根据输入动态选择标记,并且(2)这有效地减少了标记的总数,大大减少了网络执行的计算。这些动态且自适应地生成的令牌可以在标准变压器架构,诸如被用于VIT图像和VIVIT视频。

TokenLearner 的放置位置

构建 TokenLearner 模块后,我们必须确定放置它的位置。我们首先尝试使用 224×224 图像将其放置在标准 ViT 架构内的不同位置。TokenLearner 生成的令牌数量为 8 和 16,远低于标准 ViT 使用的 196 或 576 个令牌。下图为ImageNet几次分类精确度和FLOPS在VIT B / 16,这是基本模型用12注意力层上16×16的补丁令牌操作中的各种相对位置插入有TokenLearner的模型。

上图:使用JFT 300M预训练的ImageNet 5-shot 传输精度,相对于 ViT B/16 中的相关 TokenLearner 位置。位置 0 表示 TokenLearner 放置在任何 Transformer 层之前。基础是原始的 ViT B/16。底部:计算,以数十亿次浮点运算 (GFLOPS) 来衡量,每个相对 TokenLearner 位置。

我们发现在网络的初始时间四分之一(1/4)之后插入 TokenLearner 可以获得与基线几乎相同的准确度,同时将计算量减少到基线的三分之一以下。此外,与不使用 TokenLearner 相比,将 TokenLearner 放置在后一层(网络的 3/4 之后)可以获得更好的性能,同时由于其自适应性,性能更快。由于TokenLearner前后的token数量相差很大(例如196个之前和8个之后),TokenLearner模块之后的transformers的相对计算变得几乎可以忽略不计。

与 ViT 的比较

我们将带有 TokenLearner 的标准 ViT 模型与没有它的模型进行了比较,同时在 ImageNet 小样本传输上遵循相同的设置。TokenLearner 被放置在每个 ViT 模型中间的不同位置,例如 1/2 和 3/4。下图显示了有和没有 TokenLearner 的模型的性能/计算权衡。

使用和不使用 TokenLearner 的各种版本 ViT 模型在 ImageNet 分类上的性能。这些模型使用 JFT 300M 进行了预训练。模型越靠近每个图的左上角越好,这意味着它运行得更快并且性能更好。观察 TokenLearner 模型在准确性和计算方面的表现如何优于 ViT。

我们还在更大的 ViT 模型中插入了 TokenLearner,并将它们与巨大的ViT G/14 模型进行了比较。在这里,我们将 TokenLearner 应用于 ViT L/10 和 L/8,它们是具有 24 个注意力层的 ViT 模型,以 10×10(或 8×8)块作为初始标记。下图显示,尽管使用更少的参数和更少的计算,TokenLearner 的性能与具有 48 层的巨型 G/14 模型相当。

左:大规模 TokenLearner 模型的分类准确率与 ImageNet 数据集上的 ViT G/14 相比。右:参数数量和 FLOPS 的比较。

高性能视频模型

视频理解是计算机视觉中的关键挑战之一,因此我们在多个视频分类数据集上评估了 TokenLearner。这是通过将 TokenLearner 添加到Video Vision Transformers (ViViT) 中来完成的,它可以被认为是 ViT 的时空版本。TokenLearner 每个时间步学习 8(或 16)个令牌。

当与 ViViT 结合时,TokenLearner 在包括 Kinetics-400、Kinetics-600、Charades 和 AViD 在内的多个流行视频基准测试中获得了最先进的 (SOTA) 性能,在 Kinetics-400 和 Kinetics- 上的性能优于之前的 Transformer 模型600 以及之前在 Charades 和 AViD 上的 CNN 模型。

使用 TokenLearner 的模型在流行的视频基准测试(2021 年 11 月捕获)上的表现优于最先进的模型。左:流行的视频分类任务。右:与 ViViT 模型的比较。

随着时间的推移,TokenLearner 中空间注意力图的可视化。当人在场景中移动时,TokenLearner 会关注不同的空间位置进行标记。

虽然 Vision Transformers 是计算机视觉的强大模型,但大量令牌及其相关的计算量一直是将其应用于更大图像和更长视频的瓶颈。在这个项目中,我们说明保留如此大量的令牌并在整个层集上完全处理它们是没有必要的。此外,我们证明了通过学习一个基于输入图像自适应地提取标记的模块,可以在节省计算量的同时获得更好的性能。提议的 TokenLearner 在视频表示学习任务中特别有效,我们用多个公共数据集证实了这一点。我们工作的预印本和代码是公开的。

像素英雄评价:像素和RPG更匹配

近些年来,突然刮起了一股像素风潮,这在日益追求高清画质以及重度玩法的市场上无疑显得另类,但是在这些看似怀旧的像素游戏却凭借着丰富的游戏性获得了一大堆玩家的喜爱。在玩过那么多3A大作的游戏以后,不妨就让我们来玩玩这些像素游戏,体验不一样的乐趣,现在就为大家带来《像素英雄》的评测。

麻雀虽小五脏俱全

在市场上众多的像素游戏中,地牢类一直都是一项重大的分支,本作中的玩家穿梭在阴深的地牢中,与各种怪物展开殊死搏斗,不断的从怪物身上获得战利品,以确保探险之路能走的更远。

在第一次进入到游戏时,便会进入到一个创建角色的环节,玩家可以自由的选择角色的发型、肤色和性别,可选择的发型种类还是比较多的,可供玩家捏出一个自己想要的人物。

游戏的操作模式很简单,在玩家进入到一个地下城以后,点击想要移动到的位置,便可以让角色移动到对应的地点,如果太靠近怪物,玩家与怪物头上便会出现一个感叹号,之后就会强制进入与怪物进行战斗的模式。

游戏中采用的是回合制的游戏方式,角色的进度条积累满以后,便可以点击屏幕下方的技能进行攻击,随着角色等级的提高,便会解锁更多的强力技能,并且如果使用不同的武器的话,所对应的技能也会进行相应的切换,比如切换到远程武器的话便可以直接攻击到敌方后排,而使用斧头的话则可以对前排敌人给予大量伤害等等,游戏中的武器种类很多,玩家选择自己喜欢的武器进行游戏,获得不同的体验。如果消灭地牢中的所有怪物便可以通关。

在地下城中,玩家战胜怪物以后便可以获得各种各样的装备,点击以后便可以查看该装备的属性,并且同时也会将玩家身上的装备进行一个对比,让玩家决定是否进行更换。游戏中玩家只有3个属性分别是攻击、血量,速度,可以根据自身的属性来选择不同的装备。游戏中使用了纸娃娃系统,穿戴不同过的装备,所表现出来的外观也会发生相应的变化,玩家可以通过其他玩家的装备外貌来估计他的属性。

非洲人只能爆肝了

在地下城探险中获得的大量用不上的装备可以进行分解,获得的材料可以对身上所佩戴的装备进行强化,提高装备的属性。但是游戏中通过装备所分解到的材料十分的少,前期强化不了几次,所以大家在强化之前还是要思考一下,不要进入到一对装备进行强化而又获得了更高属性的装备尴尬局面。

玩家在地下城战斗的时候有一定几率可以进行怪物的抓捕,不过几率很低只有20%,当然如果你使用钻石的话便一定可以抓到,抓捕过来的怪物可以作为玩家的伙伴进行战斗,并且拥有着属于自己的技能,比如说蝙蝠拥有着吸血技能,幽灵则可以为同伴回血,游戏中的宠物系统非常丰富,基本上所有的怪物都可以抓捕。

游戏中的装备种类众多,而升级所需要的材料却非常的多,很容易就卡关,而一旦进入到卡关的状态就只能一直去刷前面的关卡,以获得更加强力的装备,但是高属性值的装备爆率非常的低,所以导致游戏进度非常的缓慢,好在游戏有5倍速的自动模式,会在地下城中自动进行战斗并将战利品收入囊中,还是相当便利的。

优点:

1、丰富的装备系统,能给予非常高的自由度

2、将传统RPG的伙伴全部变成了怪物,进行随机的捕捉,很有趣

缺点:

1、装备的低爆率和强化需要的材料过多,一旦卡关便只能刷前面的关卡,让人很困

2、无汉化,需要谷歌三件套以及VPN

总结:

《像素英雄》作为一款像素地牢类游戏,虽然风格复古,但是包含了众多RPG元素,没有那些复杂的烧脑的升级系统,使得游戏具有很好的游戏性,喜欢地牢闯关类游戏的的朋友不妨一试。

———————————————————

游戏下载地址:https://www.72g.com/game/xsyx/

欢迎加入72g新游交流群:213915883

每天推荐一款好新游。

“品牌”三星手机将取消广告|谷歌像素宣布不再提供充电器

截至目前,手机厂商宣布取消附送充电器的有苹果、小米、三星、华为、魅族等,现在又有一家宣布将不再附送手机充电器,它就是——谷歌。

就在三天前,谷歌发布了中低端新机谷歌Pixel 5a,其尚且在包装盒里附赠充电器,但是据外媒the verge报道称谷歌向其表示Pixel 5a是谷歌最后一款附送充电器的手机,并解释原因称是因为现在大多数人家里都有USB-C口的充电头,虽然本质还是节省成本但大家也看破不说透吧。作为补充谷歌Pixel 5a兼容PD~

与此同时,据the verge报道,三星近日明确表示,“三星已经决定停止在包括三星天气、三星支付和三星主题在内的专有应用程序上的广告。更新将在今年晚些时候完成。”估计不久后就会通过系统OTA的形式推送~

你的手机自带广告多吗

近期热点

据说谷歌还将生产可折叠屏幕手机,而像素折叠将在年底出现?

折叠屏手机也算是如今高度成熟化的手机市场中,天花板的存在了,所以Android阵营这边各家都有推出这种“未来感”的手机,比较早的像是三星、华为就很早商用化折叠屏手机,到今年连小米都推出了一款MIX Fold,现在有传Google也会在今年推出折叠屏版的Pixel手机。

这个来自韩国本土行业消息网站TheElec的报道,三星将在8月份为Google、Vivo和小米供应手机用的OLED折叠屏面板,后两者还是不出意料的,而Google虽然早在2019年就传他们要搞折叠屏,但后续就没有消息了,直到现在才再被提起,这很可能就是Google在今年下半年发布的新款Pixel手机。

这只是三星的展示折叠屏,非Pixel Fold

在更早一些时候,9toGoogle网站就发现了Google有一款代号为Passport的新手机,这是在常规有的Pixel 6和Pixel 5a之外的新机,据TheElec表示,Google选择的是一块在摊开后,能达到7.6英寸大小的单屏,这可能是类似华为Mate X的设计,而不是三星和小米折叠屏手机那种内外双屏的形式。

作为传闻Google的折叠屏供应商,三星方才在今年五月中旬公布一系列的柔性屏幕方案,这款暂时可以称为Pixel Fold的手机应该是用到其中一种了,但目前还没有大致新机的发布和上市时间,但Google惯常是在十月份左右有个秋季新品发布会,而除了硬件,就不知道Google自己的原生Andorid 12会不会针对折叠屏的使用体验做得更好了。