小施 2020-12-08 10671
多年来,将我们与机器连接的人机界面(我们交互和控制机器的方式)已经发生了很大变化。从诸如按钮,键盘,触摸板和触摸屏之类的触觉方法,到最新的语音和视觉命令功能,我们已经通过使用更直观的输入技术使我们的设备变得更加人性化。我们都已经习惯了语音和手势来告诉我们的设备该做什么。但是他们仍然需要人为因素,这是人的主动指导。
新一代的设备将由感知您的需求的界面驱动。欢迎来到物联网和感知智能的未来,在这里,用户交互是可选的,并且上下文感知已启用机器学习。当设备从收集和传输信息过渡到自行智能地使用该信息时,计算已成为常态。
尽管基于某种程度的人机交互,环境计算并不需要主动参与。人工智能和深度学习现在可以为设备的整个集成生态系统提供动力,以了解用户,其环境和偏好,然后进行相应调整以提供最佳响应或行动。这种感知智能通过传感器和视觉实现,并以某种方式嵌入我们的生活和工作空间,而无需充分意识到自己正在使用它。
这种水平的智能是AI和机器学习向深度神经网络发展的结果,该深度神经网络将范式从感知转变为感知,最终转变为意图识别。深度学习方面的最新突破正在为人工智能到语音识别,视觉对象识别和对象检测的应用带来一场革命。连接的设备提供数据,而AI从该数据中学习以执行某些任务,而无需人工干预。
启用语音的系统已经对感知智能的发展产生了重大影响。这远远超出了简单地向语音助手询问直接问题或向其发出特定命令的范围。使用远距离语音接口的性能和功能突破为启用语音的设备带来了更自然的用户便利性和实用性。越来越多的智能设备变得上下文相关并且可以进行对话感知,无需直接命令即可感知信息之间的需求,偏好或关系。
这种功能水平受益于驱动自适应机器学习的深度神经网络。在启用语音的系统中,这是系统功能的扩展-例如,较大的词汇表或出于安全性和身份验证目的的语音生物识别。这允许更广泛的输入样式或术语,以使用户不必仅仅依赖几个触发词(例如,“嘿,Siri”)。这将创建一个更自然的界面,该界面还可以基于上下文事件,先前的行为或命令来识别意图。
计算机视觉的进步以及实现边缘视觉的能力正在扩大环境计算的可能性。这是真正的IoT接口多模式方法的关键,语音,手势,凝视和触摸都将发挥作用。
这样的系统正在利用更多的类似于人的神经形态方法来模仿人的大脑和眼睛的工作方式。与语音一样,机器视觉中的深层神经网络为智能和上下文感知提供了新的水平。这包括面部识别,然后可以基于先验知识来解释意图或偏好;电视或机顶盒,提供您通常在星期六晚上观看的内容;智能扬声器/显示设备,只要您走进去就可以识别您并提供您的个人更新,建议和时间表。
人机界面(HMI)是改善连接设备用户体验的重要组成部分。机器如何收集音频和视频数据,以及如何使用它们来理解和预测性地响应我们的行为,这些方面的改进改变了物联网的未来。了解意图,而不仅仅是命令,将使设备转变为真正有用的助手。