老年人的孤独,养个机器人来打败它十分必要

  早上,王爷爷吃完饭,机器人“小明”赶紧提醒王爷爷要在半小时之内吃药,吃完药王爷爷坐在电视机前,“小明”告诉王爷爷老花镜在茶几的第一个抽屉中。午休过后,王爷爷要出门散步,“小明”告诉王爷爷外面只有10度,需要穿外套,并拿上伞。

  以上的情景绝对不只是畅想,随着老龄化和少子化程度的加深,机器人会越来越多走进老年人家庭,成为智能养老小助手。但是每个老人的脾气、性格、需求各不相同,因此要求机器人能够不断学习,理解老人的隐性需求,真正能够陪伴老人。如何满足这些个性化的需求?从人工智能的角度分析,就要让机器人不断学习,认识老人的家庭环境,理解老人的需求,但是目前,不管是从机器视觉方面,还是自然语言理解方面都面临巨大的挑战。

  在英特尔中国研究院2018年媒体开放日上,英特尔的研究人员从计算机视觉、自然语言识别、强化学习等领域分享了英特尔的研究成果,让我们看到未来机器人的发展方向。

  目前的技术瓶颈

  机器人进入家庭,首先需要认识主人,只有认识了主人才能进行全方位的服务,比如主人习惯什么时候起床,如果起床晚了是否需要进行提醒?喜欢吃什么食物,当家里没有了是否需要提醒子女购买?对于主人和重要物品,目前是基于深度学习,进行大量训练进行识别,但是即使进行了大量训练,可能有时候还会出错,比如针对老花镜进行了一万张图片的训练,人工智能还是有可能认错主人的老花镜。

  另外,由于每个家庭的需求不同,机器人无法进行预编译处理,需要个性化定制。比如有些人喜欢静,家里不能随便走动,有些人喜欢动,需要随时满足主人的呼唤。主人的起床时间不同,无法预先编程,需要根据个人的特点进行观察。因此,做好机器人不仅需要人脸识别、底层语义分析,还需要高层语义分析,从而让机器人的智能程度满足个性化需求。

  进入家庭后需要自主学习

  现在的人脸识别一般是对正脸进行识别,对于侧脸识别可能就没有那么灵了,如果在家中机器人只能识别正脸将会发生很多尴尬,用户的交互体验也会大打折扣,因此有人想出了通过人体特征进行辨识,比如衣服,但是当主人换了衣服机器人又无法辨识。英特尔所采取的方式是将人脸特征和人体特征相结合,人体特征不需要预先把人各种各样的衣服都要看一遍或者姿态看一遍才能认,通过人体特征认人,而是通过人脸开始不断地自我学习,机器人刚开始通过人脸识别主人,经过一周的交互和观察,可以从各个角度把主人准确地识别出来。

  因为主人可能会换衣服,机器人还会发生错误,这时候机器人需要和主人主动交互,把可能的错误进行确认,这是自我学习的认人功能。同时,英特尔还研发了一些自适应物体识别,比如:药瓶,通过对一帧的图像标注之后,把物体在线建一个模型,后续可以把这个物体的边界准确的分割出来,这等于认识物体是可以通过向用户学习的过程实现。

老年人的孤独,养个机器人来打败它十分必要

  机器人的主动学习和强化学习

  让机器人理解:“昨天我在客厅里吃药,药瓶去哪里了?”

  在家庭生活中,王爷爷可能问机器人:昨天我在客厅里吃药,药瓶去哪里了?这个问题貌似非常简单,可能三岁小朋友也能理解,但是对机器人来说里面有很难跨越的技术鸿沟。其中王爷爷是对人的识别,吃药是动作识别,药瓶是物体识别,这些需要底层识别模块来实现。再看“昨天”和“客厅”这两个关键词,客厅是对空间的理解,昨天是对时间信的理解。如何让机器人理解这句话?首先最底层要进行人物识别、物体识别、情绪检测、动作检测,接下来,有一个三维语义环境,就是把底层检测到的信息和物理环境对应起来,比如人在什么位置,物体在什么位置,这件事发生在什么位置,这些信息只有在三维语义环境的模块中对应上,机器人才能够理解事件发生的意义。

  英特尔利用三维语义环境和个性化知识库这两个模块来解决这些问题,从底层的感知模块走到应用,但是底层的感知模块不可能做到百分之百精准。这个错误会往上层传播,到了空间层,我们希望把底层的这些信息打上空间智能的标签,位置跟空间相对的情况,包括跟空间的三维建模,都是在这一层次进行的。理想的情况机器人到了家里,马上建立空间模型,并且能够理解空间的含义。到了知识库层面,能够很好的记忆这个知识,基于这个知识进行推理、应用,但是目前的技术还存在问题,不可能做到百分之百精准。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

关闭