|
苹果又整新活了!美国专利局刚公布的这份文件(编号20250199623)让人眼前一亮——未来你对着空气挥挥手,就能精准操控Vision Pro眼镜、Mac电脑里的3D光标!这可不是纯实验室概念,专治当前AR/VR界三大头疼病:
痛点1:想修个图?光标都戳不准虚拟物体,急得想砸头盔
痛点2:少数能用的方案,操作复杂得像考驾照,还疯狂报错
痛点3:折腾五分钟,头显电量掉一半,出门还得背充电宝
苹果的解法简单粗暴:
所有设备通吃:电脑(配显示器用)、智能眼镜(含Vision Pro)、大型触控板全拿下
十八般武艺齐上:手指划屏幕、触控笔、眼睛转方向、空中比划、张嘴说话…全都能触发光标
天生自带杀手锏:手靠近虚拟物体时,系统自动微调手势精度(专利图5B/6A);手离远了省电模式启动
看看专利图就懂了:
▸ 图7A展示电脑模式——摄像头盯着你手势(或大触控板#708),光标在屏幕#706上指哪打哪
▸ 图7F2演示眼镜模式——眼镜#X700给左右眼投不同画面造出景深,光标#726直接穿透两扇悬浮窗#710和#712操作3D模型
更狠的是配套专利:当手离虚拟对象够近,系统立刻开启“防抖模式”;手离远了切省电路线。做设计剪视频时,这套操作堪称神器!
为什么说它实用?
① 覆盖苹果全家桶:Mac、Vision Pro眼镜、未发布的智能眼镜
② 解决耗电老大难:简化操作链,头显续航直接拉长
③ 支持20+种场景:从PPT、视频会议到3D建模全拿下
幕后操盘手是苹果交互大神尤金·克里沃鲁奇科(Eugene Krivoruchko),团队正在加速商用化。业内预测下一代Vision Pro可能抢先搭载——想想看,以后在地铁里挥挥手改文档,路人还以为你在跳街舞呢!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|