用眼球来控制iPhone是个不错的想法,但解放双(图)
2018-06-10
编者按:在iOS 12里,苹果进一步增强了Animoji的识别范围,这次连“吐舌头”的动作都可以完美还原到定制头像上了。



众所周知,由于采用了能够采集 3D 深度信息的结构光设计,苹果为 iPhone X 添加了不少新的玩法,各种围绕面部的识别方案也成为很多人关注的话题。除了最常见的人脸解锁外,动态 Animoji 表情也衍生出很多鬼畜的表情和短视频,就连苹果自己也尝试用这些头像制作过几期宣传广告。

在iOS 12里,苹果进一步增强了Animoji的识别范围,这次连“吐舌头”的动作都可以完美还原到定制头像上了。

但3D结构光的潜力显然远不止这些,基于新的ARkit 2.0,脑洞大开的开发者们又想出了一个新玩法——用双眼来代替手指,直接“操作”iPhone。

名为 Matt Moss 的学生开发者最近在自己的 Twitter 上展示了一个测试视频,从视频中我们可以看到,iPhone X 屏幕中出现了一个光标,而这个光标的“移动”操作则是完全由眼球控制的,此外只要开发者眨一下眼睛,光标也会判定为是“点击”,随即便会进入到新的菜单页面。

根据报道称,这个所谓的“眼球追踪”功能是苹果在 ARkit 2.0 中新加入的功能:“最初我只是想做个 Demo 来试试看这个功能的可操作性。”

但很显然,配合 3D 结构光更为精准的识别方案,如今眼球追踪的识别率远比前几年要出色得多,这也意味着现在手机摄像头不仅能用来自拍,同时也能准确知道你的注意力在屏幕上的哪个位置。

但如果论起实用性,我想大部分人还是更愿意用手指来戳屏幕。

之所以会这么说,或许和三星 Galaxy 系列曾经“翻过的车”有关。早在 Galaxy S4 时代,三星就在手机中加入了一系列眼部和头部控制的功能:如果手机检测到你的视线离开屏幕,正在播放的视频就会自动暂停,此外还可以根据你的头部倾斜角度来滚动屏幕等。

所以,如果你真的打算靠“动动眼珠子”来取代双手,我觉得还是尽早打消这个念头吧。反而是对于行动不便的残障人士来说,眼球追踪技术更能展现出它应有的价值和意义。

具体的案例微软已经给出来了,如今的 Windows 10 系统中自带了用眼球“操作”电脑的“Eye Control”特性,可以让身体不便的人实现用眼睛来“打字”。

另外值得注意的是,苹果在去年也收购了一家专注于 VR 头盔和 AR 眼镜视觉追踪技术的德国企业 SensoMotoric Istruments,此举被业内认为是苹果正在为神秘的 AR 设备做技术积累。加上一系列手势和眼球追踪专利来看,说不定苹果还真的打算将在未来的虚拟现实产品中,带来一些新的玩法呢。
隐私权政策(Privacy) | 免责条款(Disclaimers)