搜索|谷歌AR眼镜+视觉搜索新开端,微美全息AI视觉SDK无感支付服务

自互联网搜索引擎出现以来,已经过去了20年的时间 。 在这段时间里,搜索方式和模式都发生了巨大的变化 。 除去普通的文字搜索,智能语音搜索也开始发展起来,尽管语音搜索被认为是一种很鸡肋的功能 。 接着是最近几年兴起的视觉搜索,它未来很有可能占据搜索方式的半壁江山 。
在谈视觉搜索之前,我们应该先了解一下它的概念 。 尽管它和我们较常使用的图像搜索有技术上的重叠,但是两者并不相同 。 图像搜索是一种以反馈图像有效信息结果的搜索模式,比如使用TinEye(第一个使用图像识别技术的搜索引擎)或Google图像等搜索引擎进行搜索,只要输入文本、关键字或者图片就行 。
搜索|谷歌AR眼镜+视觉搜索新开端,微美全息AI视觉SDK无感支付服务
图片

在输入方面,视觉搜索则完全不同,通常它的输入是指使用智能手机或其他类型的摄影头来识别物理世界所有对象信息的模式 。 然后,搜索引擎再使用图像识别技术来识别它所代表的有效信息,并在特定视觉显示应用程序中以智能化显示的方式呈现在受众面前 。
语音搜索往往具有已知的目标性(比如对已知品牌产品或功能有重复购买和使用的需求),而在视觉搜索中,搜索者或多或少地知道他们想要什么,他们不一定期望找到完全相同的对象 。
目前,视觉搜索引擎往往需要先专注于单个对象的识别,不过后续会发展对视线可见范围内更多的物体环境识别并以此组成整体视觉搜索模式,这是视觉搜索模式发展的一个关键 。 这意味着我们可以随时检索我们周围的世界 。
2009年谷歌推出的Google Goggles可以说是最早的视觉搜索应用,它最初是为Android智能手机开发的,之后于2010年推出iOS版 。 Goggles目的在于搜索识别现实世界中拍摄对象的图片信息,并且能够使用物品的条形码进行产品搜索 。
但是Goggles的技术非常基础,Pinterest公司于2016年在技术有重大突破,开始研发如何更有效将图像识别和视觉搜索功能结合起来,包括能够在更广的可视范围内中逐个建立单个识别对象,并在视觉应用上显示搜索信息 。 之后,谷歌在2017年又推出了最新产品:Google Lens 。 它比Google Goggles具有更多令人印象深刻的功能(尽管该技术不够完美),并且在当年8月份正式取代Goggles 。
我们几乎不了解Google Lens的实际工作原理,似乎是使用类固醇的Google护目镜 。 Google的图像识别功能已经非常强大,但是由于Google不断增强的AI能力,Google Lens不仅能够识别所有不同种类的物体,而且还能够提供上下文结果 。 Lens将能够与其他Google服务交互以提供更多个性化的反馈 。
从理论上说 。 除了在Google I / O上进行的快速演示,展示了WiFi网络连接之外,还有很多我们不知道的有关Google Lens的细节 。 但至少,我们可以看一下其界面在Google App中的外观 。
当您选择一个类别时,我们怀疑Visual Search会缩小其数据库的范围以更快地完成查询 。 无论如何,选择类别(或坚持使用“全部”)后,只要轻按相机取景器中的任意位置即可开始搜索 。 如果周围太暗,则可以通过点击左上角的闪光灯图标来启用相机闪光灯 。
执行搜索将显示卡片视图结果列表 。 您可以左右滑动以查看所有结果 。 轻触结果将打开与该对象或产品相关的Google搜索页面,尽管您可以通过滚动搜索页面顶部的迷你卡片视图来轻松选择浏览另一结果的搜索页面 。 在任何视觉搜索结果上打开三点菜单也可以直接访问图像源,就像Google的桌面图像搜索一样 。
为什么说AR眼镜可以帮助视觉搜索呢,实际上因为人本身就是视觉生物 。 我们每天浏览网页,玩游戏,看手机,看电影,都是在面对一些高度视觉化的体验,如果没有视觉,人们很难对这些东西产生依赖 。
语音搜索诞生之初的目的,为了让人们不再做“低头一族”,但后来人们发现它并不止这个功能 。 研究人员发现,语音搜索还可以和家用电器、汽车等结合起来使用,效果很好 。 不过要注意的是,这类语音搜索仍然没有离开那块屏幕 。 如果它们换成AR眼镜的视觉搜索,效果会更加明显 。 所以现在很多的AR眼镜其实都带有语音搜索功能,比如语音助手,AI助手等 。 这也说明两种搜索方式是可以完美融合的 。


推荐阅读