机器人又起来攻读人类的身体语言了,将微型机

作者: 亚洲彩票官网  发布:2019-11-03

计算机能够读懂一个人的肢体语言来判断他对屏幕上显示的内容是否感兴趣,这是来自布莱顿和萨塞克斯医学院的生理学科带头人Harry Witchel博士的一项最新研究成果。

本文由 伯乐在线 - Henry_USC 翻译。未经许可,禁止转载!
英文出处:Tomasz Malisiewicz。欢迎加入翻译组。

当你在因为机器人代替了你的工作而掩面哭泣时,机器人可能会给你递上一张纸巾。

研究表明,通过监测一个人使用计算机时的动作(比如是否出现微小的动作等等),就能够判断出他们的兴趣等级。Harry Witchel 博士表示,如果一个人全神贯注地在进行某件事情的事情,不自主的或者无意识的动作就会减少。

技术的未来是要增强人类的各种使用体验。而“你”,就是这种使用体验的核心。如果你的工作不再枯燥,如果你的生活充满乐趣、更加舒适,如果你和别人有着更多更有意义的交流,你的体验就在提升。成功的技术,永远是以提升人类生活质量为目的的,不论这种技术是使你的空闲生活更有趣(就像大屏幕的电视提升了娱乐体验),还是使你的工作更高效(就像计算器方便了工程师)。

图片 1

Harry Witchel博士说:“我们的研究表明,当一个人真在高度集中于做某件事情时,他们会抑制那些不自主的微小运动,就像小孩子一动不动的盯着电视上的动画片一样。”

让我们来看一下这类提升人类生活体验的技术是如何发展的:

如果你的朋友紧攥着拳头对你说她现在感觉很放松,你一定会觉得她在说谎,但机器人却会相信她说的话。我们的肢体语言会透露出很多讯息,但是就算现在计算机视觉和面部识别技术已经有了很大的进步,机器人还是很难注意到微小的肢体动作所透露出的信息,从而错过一些重要的线索。

这一发现对人工智能的发展有着非常重要的影响,其未来的应用将包括创建在线辅导课程,这样一来,人们就能够在无聊的时候重新变得集中精神。除此之外,它还有利于机器人的发展,陪伴机器人能够更好地评估人的精神状态。

图片 2

卡内基梅隆大学的研究专家们最近开发了一个“肢体追踪系统”,这个系统可能有助于解决这个问题。这个系统叫做“OpenPose”它能实时追踪人的肢体动作,包括我们的手部动作和面部表情变化。它使用了计算机视觉和机器学习技术来处理视频帧,还能实现同时多人肢体动作的追踪。OpenPose的这一能力可以简化人机交互,并且可以为更多的互动式虚拟场景和增强现实,以及直观的用户界面铺平道路。

IBM发展了PC机,让中小规模的企业能够买得起计算机,使用计算机提高他们的工作效率,进而增进产量。微软和苹果开发了易于操作的操作系统,使得那些不是计算机专家的人,也能够使用计算机进行娱乐和工作。PC机普及了没几年,因特网就快速发展了起来。Google的出现使我们能够从互联网高效地获取信息。社交网络的出现甚至重新定义了人类的交往模式。还有智能手机,使我们能够随时随地享受技术带给我们的便利

毫无疑问,iPhone的处理速度会变得越来越快,Google的搜索会变得越来越完善,但是,我们和这些设备与应用的交互模式就不该进行革新吗,为什么这种交互模式迟迟得不到发展?

OpenPose系统的一个显著特点是它不仅能够追踪人的头部、躯干和四肢,还能追踪人的手指动作。为了实现手指动作的追踪,研究人员们使用了CMU的“全景展示工作室”,这个工作室是一个装置着500个摄像头的圆形屋顶,这些摄像头能够从各个角度捕获人的肢体动作,然后用这些捕获到的动作图像建立一个数据库。

没有键盘的计算机:

接着,他们把这些图像运行于一个关键点检测器,识别并标记出一些特定的身体部位。这个系统还会将独立的身体部位与一个整体的人联系起来,这样它才能知道一个人的手通常是靠近其手肘的。也正是因此,系统才能够实现同时追踪多个人。

绝大多数出色的技术和应用,都被设计为这种交互模式——当我们使用它们的时候,它们能够和我们友好地交互,当我们不再使用它们的时候,它们就基本不再主动产生有价值的信息。其实我们不需要穿戴各种复杂的设备(比如Google Glass),也不需要去学习iOS给我们提供的新鲜应用,我们需要的,是让技术能够自主地产生有用的信息,这个过程完全不需要我们通过点击按钮或者输入文字来控制。要让计算机自主地产生有意义的内容,也就意味着使计算机产生智能。这也正是机器人研究领域的课题。

这些从圆形屋顶摄像头捕获到的图像都是平面的,但是研究人员们将检测到的关键点进行三角测量处理,并将其转化为3D以帮助他们的“人体追踪算法”理解每一动作姿势是如何从不同的角度呈现出来的。当处理完这些数据以后,系统就能在某种特殊的情境下,判断出一个人的手整体是怎样的,即使在图像中人的手部分被遮挡住了。

什么是机器人?

既然系统已经掌握了这个数据集,那么接下来它就只需要运行于一个摄像头和一台笔记本电脑。它不再需要那个装置着摄像头的圆形屋顶来判断肢体动作了,所以这项技术现在变得更加方便、灵活了。研究人员们已经向公众发布了他们的系统代码,鼓励更多人对这个系统进行试验。

如果我们想让机器人帮我们做些日常工作(比如打扫卫生,做饭,开车,和我们玩耍,教我们技能),我们需要机器人同时具有两种能力——直接感知周围环境的能力,和智能地对环境作出反应的能力。这个“感知-反应”的循环,正是我们将家用计算机变为机器人的过程中所要考虑的问题。当然,如果这种机器人的长相能够接近真正的“人”,看起来当然更好。如下图:

图片 3

他们表示这项技术适用于任何人机之间的互动,它在VR(虚拟现实)体验中扮演者重要的角色,无需额外的硬件就能更好地检测出用户的身体动作。

但在我看来,任何能够自我感知并作出反应的设备,都叫做机器人。所以,发展人形机器人并用于家政服务并不是机器人领域所考虑的全部议题。人们通常先入为主地认为,机器人一定要和人相似,有手有脚。而我们只有走出这种误区,拓展我们对于机器人的认识,才能真正拓展人工智能和机器视觉的研究思路。

你看

现今的家用台式机和笔记本电脑,需要我们通过点击鼠标和键盘进行交互。我不认为这种模式是完善的,因为打字和点击鼠标并不是我们必须进行的交互。而能够和人直接进行语音交互的Siri,就比较我对于机器人的理解了。所以某种程度而言,我们可以把装有Siri的iPhone叫做机器人。但是,无论我们把Siri做得多么智能,我们都没法用Siri来擦地板。为什么呢?因为无论地板有多么脏,地板自己都不会呼叫,“我脏了,快来擦!”。这也正是Siri和大多数智能应用的短板。我们还需要使这些设备能“看”。也就是说,我们要让智能设备有效感知周围环境(眼前的这个物体是沙发还是椅子?),作出有效判断和相应动作(它是脏还是干净?该不该擦?),并判断环境中各类物体的边界(如果获取的图像里面检测到了沙发,图像中哪些像素属于沙发,哪些像素不属于沙发?)

这个系统还能促进更多人类与家庭机器人的自然交流和互动。你可以告诉你的机器人“把那个东西捡起来”,机器人能够立刻明白你手指指的“那个东西”是什么。通过肢体动作的接收和转译,机器人还很可能会读懂你的情绪。所以当你在因为机器人代替了你的工作而掩面哭泣时,机器人可能还会给你递上一张纸巾呢。

加入视觉:

注:文章首发于36氪,转载请注明。

我们使用鼠标和键盘的时间已经太久太久了。不论你是否同意,敲击键盘实际上算是一种“计算机语言”了,因为它是更偏向于机器的表达方式。而且这种方式需要我们进行精准的操作,才能准确传达我们的指令和要求。我们需要教会计算机如何使用我们的语言进行表达和交互,并且让它们直接获取和感知环境信息。现今的计算机视觉的研究,已经越来越贴近现实生活了。这个世界需要更多有远见的人来研究计算机视觉,成为计算机视觉的专家,并且考虑如何将计算机视觉应用到更广阔的领域。我们也需要编程人员能够更多地在他们的应用中加入计算机视觉的元素。我们同样需要更多丰富且易用的计算机视觉工具,使那些刚刚投身于计算机视觉的人能够很快融入进来。通过大家的齐心协力,我们将会有希望看到真正的机器人进入家家户户的日常生活中来。

展望:

虽说VLfeat和OpenCV已经是很好的工具了,封装了很多底层的数据处理。但是,计算机视觉的研究人员仍然免不了自己去搜集训练数据,标记数据,谨慎地选择分类器,训练并聚类。如果我们能够有更高效的工具,更通用的API,研究人员将会从这些繁重枯燥的工作中解脱出来。如果我们能让那些没有相关数学基础,甚至没有丰富编程经验的人也能够直观地应用计算机视觉,那将多好。

赞 收藏 评论

关于作者:Henry_USC

图片 4

(新浪微博:@大酱封肚) 个人主页 · 我的文章 · 3

本文由亚洲彩票发布于亚洲彩票官网,转载请注明出处:机器人又起来攻读人类的身体语言了,将微型机

关键词: