东京工业大学开发可以预测0.5 秒后的动作的「FuturePose」AI 系统

  东京工业大学的研究团队稍早发表了一套仅用一般RGB 影片,就能预测画面中人物未来动向的「FuturePose」系统。过去有过类似的预测系统相关的研究,但使用的是本身就自带深度资讯的Kinect,而东工大这边则是完全靠着画面本身画素的流向,先透过机器学习与AI 来定位关节,再由定位出来的关节和摆动方向,去推断3D 环境中的位置,整个过程简直神奇。

  靠着AI 的推断,这套FuturePose 系统可以大约猜出人类0.5 秒后的位置,颇有一点小说或漫画里那种「你的行动已经被我看穿啦」的风范。研究团队也还真的实际给人戴上Vive 头套,显示面前的另一个测试者予测动作。相较于没有予测系统的0.62 秒平均反应时间,戴上这套系统的人将平均降到了0.41 秒。这是个很明显的差距,但也没有真的到可以变武林高手的程度就是啰。

  以真实世界的应用来说,东京大认为这可以做为格斗练习的辅助系统,或是可以让观众提前一步看到足球PK时守门员将往哪个方向躲。然而,只是为了这点小小的乐趣,就让AI学会如何预判人类的行动,好像有点划不来啊...FuturePose (YouTube)

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

[!--temp.dlad--]