您现在的位置:主页 > www.351337.com >
谷歌IO 2019:增强现实正融合进谷歌业务的方方面面
发布日期:2019-06-15 07:45   来源:未知   阅读:

  首场面对德国,墨西哥将自己所擅长的快速反击打法发挥得淋漓尽致,只可惜最后传射环节处理不精,否则日耳曼人将不止输一个。握有3分的他们试图乘胜追击再下3分。

  几天后,李先生分四次收到了从成都、北京、江苏、湖南等地寄过来的快递,里面正是自己拍下的气枪套件。经过自己动手组装,一把“仿国产秃鹰”气枪诞生了,黑色枪体,长约1米,口径5.5毫米。

  “随着军事发烧友越来越多,很多人存在认识盲区,不认为他们做的是违法犯罪的行为,以为只要不伤人就没事。”检察官表示,消除认识盲区,需要加强管理法制宣传。“军事类网站必须在头版显著位置链接国家管理规定及相关刑事法律条文,引导公民在法律允许范围内发展个人兴趣爱好。” 记者 张鹏

  065期:【六合救世】【六合救世】→精品一波◆最牛的一波◆带所有彩民致富!!

  “我当时看了一眼手表,是21时30分。”一名目击者说,他亲眼看到,10楼窗口处闪现了一名男子的身影,那名女子的情绪变得更加躁动不安,发出激烈的吵骂声!“没想到,那女子一头就栽下来了!”目击者说,女子坠楼一瞬间,嘴里发出“啊”地一声惨叫,“声音老大老惨了,老远都能听见!”

  “我们的使命是整理全球的信息,让全世界的人都能接触和使用它们”,这是谷歌21年来不变的公司使命,也是谷歌CEO皮查伊在今年谷歌I/O大会上的开场白。

  作为一家一直走在技术领域最前沿的公司,谷歌对于VR/AR这两项一直很上心,从早先的Cardboard纸盒VR眼镜到Daydream VR平台再到最近的ARCore工具,谷歌一直在尝试着将VR/AR技术融入到自身的技术体系中。而今年的I/O大会中,AR成为了一个闪亮的主角。

  作为全球最大的搜索服务提供商,谷歌今年将通过AR技术为搜索服务带来全新的体验。当用户在Google Search中搜索某样东西时,将能够搜索到该样东西的3D可交互格式glTF的“图片”,还可以通过AR功能将该物品的三维模型放到现实环境中进行查看。

  现场工作人员演示了对“大白鲨”的搜索,Google Search中除了出现了和该词组相关的基本信息外,还有一个选项:“View in 3D”,此时用户点击该选项将能够在手机屏幕上查看对应的3D模型。在查看3D模型时一个新的选项“View in Your Space”将会出现,点击它将会通过手机的ARCore功能将大白鲨的三维模型放置到现实环境中,并以线D模型更加生动真实。

  谷歌为了实现Google Search的AR功能与包括NASA、新百伦、三星、塔吉特、Visible Body、沃尔沃以及Wayfair等多个品牌进行合作,共同搭建了支撑AR功能的内容数据库,所以你无论是选购新的运动鞋还是了解航天器的相关信息,都可以在Google Search中直接查看3D模型并进行交互。

  “任何拥有3D模型数据库的企业,事实上我们的零售合作伙伴例如Wayfair或Lowe都愿意加入我们的服务,他们所要做的就是写三行代码”, 谷歌相机与AR产品副总裁兼总经理Aparna Chennapragada说道。“3D模型数据提供商不必做太多其他事情。”

  此外,谷歌还为Google Search的AR功能开发了新的框架,名为Scene Viewer。该框架可以从移动平台的浏览器中唤起AR体验而不再需要通过App来启动,也是Google Search的AR新功能所使用的框架。

  Google Lens这款应用主要用于各种图片和文字的识别,可以用于物体识别、翻译、购物等多种应用场景,体验已经十分接近AR智能眼镜,唯一的区别就是Google Lens没有眼镜的外形。今年谷歌又为这款应用添加了几项新特性。

  首先是智能推荐服务。如果你进入一家餐厅,拿起菜单点菜时却不知道该吃些什么,这时候只需要打开Google Lens并将镜头对准菜单,Google Lens就能够根据Google Maps应用的信息向你推荐该餐厅最受欢迎的菜肴,点击菜单项还会动态的显示照片和评论。

  谷歌也在将类似的想法引入到博物馆中。谷歌正在旧金山的笛洋美术馆进行试点,当你使用Google Lens去识别美术馆中的艺术作品时,应用中会弹出与该作品相关的信息。

  在新的购物、餐饮、翻译和文本过滤器的帮助下,Google Lens现在还拥有了上下文联想的能力。例如购物过滤器可以帮助你识别桌面上的植物并找到可以购买该植物的地方,不再只进行简单的识别。

  其次Google Lens还加入了新的AR功能。如果你用Google Lens去扫描一些食谱,Google Lens会根据食谱的内容显示出对应的动画,清晰的表现出食物的制作过程。这一功能正处于测试阶段,除了食谱,未来还可以应用在海报、书籍等多个不同领域。目前显示的动画内容是2D的,但不排除日后谷歌为该功能加入3D动画显示的新特性。

  最后则是Google Lens的即时翻译功能将通过Google Go应用程序在运行Android Go操作系统的低端安卓手机上运行。目前市场上能够使用ARCore功能的手机主要是各种品牌的高端旗舰机型,Google Go将通过云服务让低端安卓手机也能享受到同样便利的翻译服务。

  在I/O大会上,谷歌表示将会为ARCore带来新的更新,在渲染、设计和交互方面进行改进。

  首先是图像增强API的更新。该API将允许用户将手机摄像头对准2D图像,例如海报和包装,然后在上面叠加数字内容。本次更新发布后,该API将能够同时追踪多个运动图片。“这将解锁开发者们创作动态交互体验的能力,例如动态的卡牌游戏,这通常会需要追踪多张会移动的图片”,谷歌工程师主管Anuj Gosalia在博客中写道。

  接下来是Light Estimation API的更新。该API可以估算摄像头拍摄到的环境中的环境光强度,从而在数字场景中模拟真实世界的光照条件。本次更新为该API添加了一种新模式——Environmental HDR,可以通过机器学习算法处理单个相机的画面,全方位的 “理解高动态范围照明”,从而引入有用的光照数据,为数字场景带来精确的阴影、高光、反射等画面效果。“当Environmental HDR激活时,www.564855.com。数字场景中的物体看起来将和现实世界中的物体十分相近,两者会无缝的结合在一起,即使场景中的光源一直在移动”,Gosalia说。

  最后则是上文提到的Scene Viewer框架,用于在移动平台的浏览器中提供启动AR体验,不再依赖于安卓手机原生应用程序。

  本次I/O大会上Daydream没有任何新的更新发布,唯一和Daydream相关的消息是最新款的Pixel 3A手机将不再支持Daydream VR平台,这是否意味着谷歌将战略性的放弃Daydream平台,将注意力更多的专注于AR领域呢?

  • Power by DedeCms