人机交互出现重大突破!被全世界吐槽了几十年的“被动操作”,居然被一副中国眼镜率先打破了。 用过智能设备的人都知道,所有操作都得你来发起——“嘿Siri”“小爱同学”“你好小布”,你得先喊、再问、等它答。你想打车,解锁手机、找到App、输地址;你想点外卖,同样的流程再来一遍。几十年了,人机交互的本质没变过:你不动,它就不动。 这种“被动响应”的逻辑,放在手机时代还能忍,但到了AI时代,越来越让人觉得别扭。明明AI已经那么聪明了,为什么还得我一遍遍地催? 而这次,千问给出了一个完全不同的答案。 5月8日,千问AI眼镜S1完成了一次升级,正式上线“主动服务”能力,同时拿出了全球首个空间3D显示。这不是简单的固件更新,而是对人机交互底层逻辑的一次彻底重写。 什么叫主动服务?就是这副眼镜不再等你开口了。 早上你准备出门,它能结合天气、时间、位置,主动提醒你“今天有雨,带把伞”;你在工位上低头忙了两个小时,它能通过传感器感知你的姿态,轻声提醒“该抬头活动一下了”;你要打车、点外卖、买东西,直接跟它说一声就能办,全程不用掏手机。从“你叫它做”到“它替你想”,交互方式翻篇了。 更让人眼前一亮的是3D显示。过去眼镜里的信息就像一张二维贴纸粘在眼前,现在导航箭头可以像真的飘在路口上方,信息卡片有了纵深和层次,仿佛长在了现实环境里。你不再需要低头看手机屏幕,信息直接出现在它该出现的地方。 过去几十年,全世界都在琢磨怎么让设备更“懂人”。但这条路一直没走通,因为懂人的前提是能感知人的状态和场景。而千问S1用主动服务+3D显示,直接开出了一条新赛道。不需要复杂的操作,不需要反复唤醒,它就像一个坐在你肩膀上的老朋友,该出现的时候自然出现。 数据已经说明了一切。开售一个多月,千问AI眼镜线上份额占到了国内53%,每两副AI眼镜就有一副是它。 科技段位的分水岭,不是堆了多少传感器,而是用起来有多顺手。在人机交互这件事上,中国不是在追赶,而是在重新定义规则。当一副眼镜能主动替你操心、能把信息立体地嵌入真实世界,手机那块小屏幕,还剩下什么不可替代的理由?


