在此基础上的一个变种"multisearch near me",即针对本地企业的搜索也将在未来几个月内在全球范围内推出,同时还将推出针对网络的multisearch和针对Android用户的新Lens功能。
正如Google之前所解释的那样,多重搜索由名为"多任务统一模型"的人工智能技术提供支持,该技术能够理解各种格式的信息,包括文本、照片和
视频,然后在主题、概念和想法之间得出洞察力和联系。Google将其
应用于其Google Lens视觉搜索功能中,它将允许用户在视觉搜索查询中添加文本。
"我们通过引入Lens重新定义了我们对搜索的意义。此后,我们把Lens直接带到了搜索栏,并继续带来新的功能,如购物和逐步的家庭作业帮助,"Google负责搜索、助理、地理、广告、商务和支付产品的高级副总裁Prabhakar Raghavan在巴黎的一次新闻发布会上说。
例如,用户可以在Google搜索中调出一张他们喜欢的衬衫的照片,然后问Lens在哪里可以找到相同的图案,但要在不同类型的服装上,如裙子或袜子。或者他们可以把手机对准自行车上的一个破损部件,然后在Google搜索中输入"如何修复"这样的查询。这种文字和图像的结合可以帮助Google处理和理解它以前无法处理的搜索查询,或者单用文字输入会更困难。
这项技术对购物搜索最有帮助,用户可以通过这种方法找到喜欢的服装,但颜色或款式不同。或者可以拍一张家具的照片,比如一套餐桌,来寻找相匹配的物品,比如一张咖啡桌。
Google说,在多重搜索中,用户还可以通过品牌、颜色和视觉属性来缩小和细化他们的搜索结果。这项功能于去年10月向美国用户提供,然后于12月扩展到印度。Google表示,从今天起,全球所有用户都可以在移动平台上使用多重搜索功能,而且是在有Lens的所有语言和国家。
Google今天表示,"multisearch near me"的变化也将很快扩大。
Google去年5月宣布,它可以将多搜索查询引向当地企业(又称"multisearch near me"),这将返回用户正在寻找的、与当地零售商或其他企业的库存相匹配的物品的搜索结果。例如,在自行车零件损坏的情况下,你可以在带有照片的搜索查询中添加"我附近"的文字,以找到拥有替换零件的当地自行车店或五金店。
Google表示,这一功能将在未来几个月内应用于所有提供Lens的语言和国家。在未来几个月里,它还将扩展到移动设备之外,支持网络上的多重搜索。
在新的搜索产品方面,这家搜索巨头预告了即将推出的Google Lens功能,指出Android用户很快就能在手机上跨应用和网站搜索他们在照片和
视频中看到的内容,同时还能留在应用或网站上。Google称这是"搜索你的屏幕",并表示只要提供Lens的地方就可以使用这一功能。
Google还分享了Google Lens的一个新的里程碑,指出人们现在每月使用该技术超过100亿次。