谷歌镜头将率先集成新的人工智能技术:混合文本搜索即将推出

今年早些时候召开的 I/O 开发者大会上,Google 引入了名为 Multitask Unified Model(MUM)的新人工智能里程碑。这项技术可以同时理解各种格式的信息,包括文本、图像和视频,并得出主题、概念和想法之间的洞察力和联系。今天,Google 宣布计划在自己的产品中整合 MUM,率先对 Google Lens 视觉搜索进行更新。

Google Lens 是该公司的图像识别技术,可以让你使用手机的摄像头来执行各种任务,如实时翻译、识别植物和动物、从照片中复制和粘贴、寻找与相机取景器中的物品相似的物品、获得数学问题的帮助等等。

Google 今天表示即将利用 MUM 的能力来升级 Google Lens,使其能够在视觉搜索中添加文字,以便让用户对他们看到的东西提出问题。

在实践中,这种功能可以这样运作。你可以在 Google Search 中调出一张你喜欢的衬衫的照片,然后点击 Lens 图标,要求 Google 为你找到同样的图案但要在一双袜子上。通过输入“socks with this pattern”(有这种图案的袜子),你可以引导 Google 找到相关的查询,如果你只使用文本输入,可能会更难做到。

在另一个例子中,你的自行车的一个部件坏了,你需要在 Google 上搜索维修技巧。但是,你不知道这个零件叫什么。你可以把 Google Lens 对准自行车的破损部分,然后输入“如何修复”,而不是钻研维修手册。这可以让你直接与视频中的确切时刻联系起来,从而提供帮助。

Google 将这些人工智能驱动的举措视为通过启用新的搜索方式使其产品对终端用户“更有帮助”的方法。通过利用手机摄像头作为搜索的一部分,Google 的目标是在其许多核心用例开始转移到其他属性的市场中保持相关性。

在今天的 Search On 现场活动中,Google 宣布还将以其他方式在Google搜索和视频搜索中使用 MUM。Google Lens 的更新将在未来几个月内推出,并指出它仍然需要经过“严格的测试和评估”,这是其部署的每个新人工智能模型的一部分。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据