人机交互是人与机器互动的方式,也是技术发挥作用的载体平台。机器多维度接收人输入的操作信号,识别用户意图与情感,越来越淡化人机的融合边界,提高机器为人服务的深度,并不断追求人与机器的人机合一,让机器成为人体功能延伸的终局。 “人机共生”是终局

1960年,约瑟夫·利克莱德提出“人机共生”的思想,通过美国国家科技计划大力支持了“人机共生理念下的图形与可视化、虚拟对象操控、互联网络等”研究项目,个人电脑、互联网络的标志性关键技术逐次诞生了。

他的超前人机交互理念,指引了图形技术研发,推动语言学、心理学、计算机科学融合诞生计算机图形用户界面,开创了个人电脑、互联网络等新产业,为现代人机交互发展做出巨大贡献。

未来,我们拥有了可视化的人机交互界面,搭载新的语音、视觉、脑机等AI传感技术,接入听觉、视觉、感觉等多维度交互入口,进入更自然的三维交互时代,距离“人机共生”再近一步。

“多感官接入”扩大交互场景、精度

一个人就是一个“传感器”的集合,皮肤的触觉、眼睛的视觉、鼻子的嗅觉、耳朵的听觉……多通道的人机交互提供更多信息输入入口,确保更多场景的识别能力和精度,如语音识别的非动作输入、人脸识别的静态输入、手势控制的动作输入,让机器“理解”意图能力越来越强。

同时,多通道输入也是特殊人群的迫切需求,让残疾人或用键盘、语音,或用手势、表情、唇动等,或用脑电流,如基于多通道或多模态感知理论的手语识别,服务于聋哑残障人士的日常交流。

未来,人机交互的终局是希望人机交互和人人交互一样,多通道输入成为“人机共生”实现的有效方案:一方面,进行知识性感知,让机器获知人目前的状态,继而再进行下一步行为;另一方面,利用可穿戴设备,对人的心理、情感的境况进行推断,进而完成更“人格化”交互目的。

人机交互和人工智能共生

人机交互模块提供输入与输出通道,人工智能模块提供计算与推断中心,相辅相成,共进共生,从模仿人到成为人,直到“人机共生”终局。

第一代人机交互,一维的键盘、鼠标属于确定性交互,人适应交互,导致人的一系列习惯疾病,如鼠标手;

第二代人机交互,二维的触控模块属于模拟性交互,机器预定人的交互范围,无法提供更真实的感知;

第三代人机交互,三维的AI人机交互属于理解和推断性交互,机器利用大数据和计算推测人的意图,进入“人机共生”的通道。

一个人体有一套自动运行的机制——“交互模型”,而机器也可以建立一套模拟人体的“交互模型”,人机交互模块输入信息,为人工智能模块大数据提供数据,进一步提高计算参考,保证人机交互输出信息的精确度,沿着这套机制预定的框架,机器更好地适应人的动作、意图、情感,共同实现一个“人机共生”的目标。

未来,人机交互的硬件输入材料、形态、方案升级,人工智能算法、速度、架构升级,更大交互范围、精度层级挖掘感官体验,甚至创造一个幻想的世界,进入超认知世界,带领人进入一个普通肉体感官无法感知的世界。