AR|谷歌重磅AR功能来袭,融合街景海量数据,目标打造世界级AR体验( 三 )


谷歌表示:沉浸视图模式将于今年下旬在安卓和iOS系统推出 , 首发仅面向部分城市 , 包括洛杉矶、伦敦、纽约、旧金山和东京 , 未来还将陆续支持其他城市 。
可以想象 , 将2D地图升级为3D模型需要时间和成本 , 想要规模化并不容易 。 为此 , 谷歌早前就在探索基于NeRF-W的合成算法 , 根据2D图片合成逼真、连贯的3D视角 , 这项技术对于谷歌开发3D地图将起到关键作用 。 此前青亭网也曾报道过这项技术 , 包括其背后的原理和细节 。
Google Lens功能优化
除了AR外 , 谷歌也看好视觉搜索的前景 , 认为它将成为未来搜索技术的关键部分 , 甚至可能比语音搜索、移动搜索等技术更加重要 。 谷歌表示:Google Lens用户平均每个月搜索的次数达80亿 , 是一年前的三倍 。 人们对于视觉搜索的需求是存在的 , 接下来要做的是深入研发 , 以寻找最有价值的应用场景 。



为此 , 谷歌宣布扩展Google Lens智能镜头的“多重搜索”(multisearch)功能 , 为其加入“附近搜索”功能 , 意味着你可以将视觉搜索结果连接到附近的地点 。 这种更加智能的视觉搜索功能 , 未来可能与AR眼镜有很好的结合 。
据悉 , 多重搜索是一种同时用文本和图像来进行搜索的功能 , 简单来讲就是在视觉搜索基础上 , 可以进一步设定颜色、附近等关键词 , 来优化搜索结果 。 比如 , 当你看中一条连衣裙的款式 , 但是想要寻找另一种颜色 , 便可以利用多重搜索功能扫描这条裙子 , 然后再输入目标颜色来细化搜索结果 。
而新增的“附近搜索”功能指的是 , 当你用Google Lens搜索某家连锁餐馆时 , 可以进一步搜索“我附近” , 这家餐馆离你最近的店 。 甚至 , 还可以拍摄零件来关联附近五金店 , 搜连衣裙匹配周围服装店 , 或是扫描食物照片搜索附近的餐馆菜单/外卖 。



除了购物等日常生活场景外 , 谷歌认为视觉搜索还可以解决社会上的一些问题 , 比如帮助人们学习环保 , 帮助救灾人员快速整理捐款等等 。 而相比于单纯的视觉搜索 , 多重搜索的好处是支持更复杂的搜索结果 , 搜索体验更智能 。 目前 , 谷歌还在研发在一张图像/场景中同时搜索多个对象的模式 , 比如扫描书架上的书后 , 便可查看关于各种书的信息等 。 随着视觉搜索越来越复杂、智能 , 其与AR眼镜结合的价值也越来越明显 。
实际上 , 在去年7月接受外媒GQ采访时 , Google Lens产品经理Lou Wang就表示在AR眼镜中集成Lens功能是可行的 , 未来视觉搜索功能可以像语音搜索那样普及 。 尽管智能手机生命周期还很长 , 但如果用AR眼镜就能进行一些简单的视觉搜索 , 也许可以补充手机的功能 , 为用户带来更多便利 。

在本届I/O大会上 , 尽管谷歌并未展示Google Lens在AR眼镜上运行的效果 , 但还是展示了AR眼镜的另一种场景:实时翻译 , 可以将自然语言转化为文字 , 帮助你和周围的人更流畅沟通 。 当然 , 目前这似乎只是一个应用概念 , 从前不久的报道来看 , 传闻中谷歌的Project Iris原型的体积类似于滑雪护目镜 , 因此未来谷歌能否在普通眼镜形态的AR硬件中实现强大的功能 , 令人非常期待 。

相关经验推荐