|
在5月21日的谷歌I/O大会上,一项名为"动态搜索"(Live Search)的黑科技正式亮相。这项基于Project Astra视觉识别技术的创新,将允许用户通过手机摄像头与搜索引擎实时对话——无论是冰箱里的食材,还是街头偶遇的植物,都能即刻获得AI解读。
操作流程简单得令人惊讶:在谷歌搜索界面点击"动态"图标,摄像头即刻开启。用户只需将镜头对准目标物体,说出"这个蘑菇能吃吗?"或"这件外套怎么搭配?"等问题,系统会通过实时视频流分析场景。现场演示中,工程师用手机扫描办公桌杂物,AI不仅识别出咖啡杯品牌,还推荐了同款打折信息,整个过程响应时间低于1.2秒。
技术架构方面,动态搜索整合了Gemini多模态模型与Google Lens图像库。当摄像头开启时,视频流会分两路处理:主线程进行实时物体识别,副线程在云端生成深度语义分析。为确保隐私,系统默认对背景人物进行实时马赛克处理,该功能不可关闭。
同步更新的还有iOS版Gemini应用。继上月安卓系统更新后,苹果用户现在也能体验屏幕内容分析功能。长按Home键唤醒Gemini,选择"分析屏幕"选项,AI即可解读当前显示的网页、文档甚至视频内容。在测试场景中,该功能成功解析了PDF论文中的复杂公式,并生成通俗易懂的摘要。
值得注意的是,谷歌最初计划将这项服务纳入付费的Gemini Advanced套餐,但最终决定向所有用户免费开放。目前安卓端已全面推送更新,iOS版本预计在6月底完成适配。初期测试仅限于英语环境,但官方确认年底前将支持中文、西班牙语等12种语言。
与去年实验阶段的Project Astra相比,此次商用版本在延迟控制上取得突破。通过部署边缘计算节点,图像处理时间从3.2秒缩短至0.8秒以内。不过谷歌也提醒,在弱网环境下,系统会降级为静态图片分析模式,实时视频流功能暂时禁用。
隐私专家指出,尽管谷歌承诺所有视觉数据仅在设备端处理,但持续摄像头访问仍存在安全隐患。为此,动态搜索增设了物理提示功能——当摄像头激活时,手机呼吸灯会持续闪烁,这项设计已通过欧盟数据保护委员会审核。
随着这项技术的普及,零售行业或将迎来变革。沃尔玛技术总监透露,正与谷歌合作开发"智能购物车"系统,顾客扫描商品即可获取营养成分、过敏原提示及比价信息。这场视觉搜索的技术大赛,正在重塑人机交互的边界。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|