科技时代,我们更加怀念温暖邂逅的时光
全文共2492字,预计阅读时长3分钟
提问:人类身上最复杂的是什么?
回答:表情!女朋友的表情我永远读不懂。
提问:21世纪网聊的必备工具是什么?
回答:表情包!没有什么是一个表情包不能解决的,如果有,那就给它一屏。
提问:人工智能领域最逆天的存在是什么?
回答:表情机器人!TA微微笑,我就吓哭了。
所以元旦佳节,我们迎来喜庆的日子,读芯君一定要和同学们聊聊表情机器人那些事儿——
表情机器人:人形机器人
我们印象中的机器人似乎都是未来感、科技感、酷炫感爆棚的样子,但谁能告诉我,“表情机器人”这种逆天的存在究竟是个什么鬼?
度娘上是这么描述的:能模拟人类面部表情和情绪动作的智能机器人。
而对“表情机器人”的第一个要求就是:外观上符合人类的审美观点,能给人以亲切感和可信任感。
而设计者眼中符合人类审美、亲切可信赖的表情机器人是这样子的……
这个名叫KOBIAN的表情机器人,一脸生无可恋,蜜汁审美。
OS:“模仿人类表情什么的,简直洒洒水啦~”还可以再贱一点吗?请滚粗!
不不不,如此感人的审美品味,该投降的是我啊!
高能!高能!
就那个获得公民身份的首个人形机器人索菲亚,你们还记得吗?她可是据称有着60种表情。
准备好你的小心脏,动图感受一下她的惊为天人的表情。
下面划重点!她的脸部是根据奥黛丽赫本以及创造者的妻子的样子设计的。
呃,设计师,你还我女神!
索菲亚和前面的KOBIAN都属于表情机器人,这类机器人最大的特点就是“类人”,虽然看上去有点“雷人”,但要实现面部、眼耳口鼻,小到眼睑、眼球、下颚各部位和人类的接近,可不是一件容易的工程。
表情机器人需要具备与人类似的传感系统、语音接收、图像接收、感觉系统等等。整个系统分为三大部分:一是,通过摄像头和无线话筒,获得视觉和听觉;二是,通过PC机接收图像和语音信息,并进行图像处理和语音识别,根据协议转换成控制指令;三是,嵌入式系统对机器人的实时控制和接收来自PC机的数据和控制指令,同时采集机器人目前的状态。系统之间协调运转更是复杂。
所以,不要过早给他们泼冷水,简单的一个笑容,也已经是人工智能的一大步。
看脸知你心
人工智能在给自己配上人类的表情之前,当然需要先读懂它。
有人说,世界上最难以相互理解的物种是男朋友和女朋友。你以为她笑就是开心?你以为她说没关系就真的不在意?你以为她嘟嘴就是在撒娇?天真!
女孩的心思和表情你别猜,因为猜来猜去还是不明白。
不过,人工智能或许能给你帮助,看脸知TA心。
给予系统算法以数万个人脸表情,他们来自不同种族、年龄、性别,运用深度学习技术,通过不同的关键点定位,演算法去寻找这些脸上的五官、纹路、皱纹和形状变化,基本上了解所有表情的特征和差异,分类并打上标签,比如对嘲笑和微笑做出区别。这些信息构成了一个数据库。
当他再见到一张脸时,通过对人脸型、眉毛、眼睛、鼻子等部位的N个关键点进行检测和跟踪。这些关键点被称为一个情感数据点,他们结合在一起组成一个表情网。之后通过对比数据库,判断呈现的面部表情。
人工智能读表情和人类最大的区别在于,机器细致地观察你脸上的每一个部位,并且是动态跟踪表情呈现的变化,而人类对表情的识别几乎依靠一瞬间的直觉,很可能遗漏了大量的信息。
也许将来,你可以偷偷地瞄着你地女朋友,窥探她的小心思。
而这项表情识别技术也可以更好地帮助自闭症患者理解身边的人,可以帮助盲人读取别人的表情。
如果应用在远程教育上,通过捕捉学习者的面部表情,能在感觉到你困惑时放慢节奏,在你无聊时加速,就像老师一样很好地调整上课的节奏。
如果你的汽车能懂你的疲劳,可以帮助你安全驾驶;你的冰箱如果知道你最近压力大,然后自动锁上门,以防你暴饮暴食……听起来,还是挺美好的。
斗图界萌新:一言不合就发表情包
除了表情识别、表情机器人这类看上去比较正经和靠谱的事情,人工智能还模仿人类玩起了花样。
和朋友尬聊,接不下话茬却又必须保持礼貌时,一个表情包就是一副救场良药。比如:尴尬又不是礼貌的微笑。
作为90后,能用表情包解决的绝不多打一个字。这一招被人工智能机器人偷师学去了。
Peeqo就是这样一款表情包机器人。它听你说话,而用表情包来回应。
像勾搭Siri一样,呼叫Peeqo来唤醒它。当它处于清醒状态的时候,会晃动头部和大眼睛来卖萌。
当你命令过多时,他会亮出“Shut up,nerd”(闭嘴,呆子),让你别唠叨。
没人搭理的时候,它还会打瞌睡。
听到恐怖故事,还会露出一脸惊悚的表情。
被欺负了,还会撒娇大哭。
这个Peeqo通过语音识别引擎对外界的声音和指令进行解析和交流,不过它的表达方式有些特别,在网络上搜索匹配合适的表情包进行回应。Peeqo还能接入到智能家居系统,通过接收到的语音指令控制家中的灯光和其他智能家电等设备。
表情包版的Siri,你若和他斗图,你有把握赢吗?
读芯君开扒
重要的不是表情,而是表情背后的含义
领教了KOBIAN、索菲亚、Peeqo的表情,读芯君最大的感受是“奇怪和尴尬”。虽然他们努力向人类模仿和靠拢,但情绪的表达和面部的调动还谈不上流畅自然,对表情的识别和模仿也不够准确。
人类的表情极其复杂,同样的表情在不同的情境下有不同的含义,比如同样是笑,可以有傻笑、奸笑、微笑、嘲笑,这些在外表上区别不大,机器人很可能混淆。其实,即使是人类,单凭表情,也会出错。无论是人还是机器人,只有结合语境、情境,才有可能做出正确的判断。
不过,关键之处在于,重要的不是表情,而是表情背后的含义。哭、笑、皱眉、瞪眼,这些都是表征,表情表情,最终落到的是喜怒哀乐这些丰富的情绪。即使人工智能正确识别人类的表情,但识别和读懂有着本质区别。他或许知道你现在很难过,但他不知道你究竟为什么难过,失恋了?失业了?也许,他未必知道你每天的微笑友善只是你的强颜欢笑和伪装。从这个意义上,人工智能仍谈不上懂,也谈不上真正理解人类。
留言 点赞 发个朋友圈
我们一起探讨AI落地的最后一公里
作者:六个太阳
参考文献:http://36kr.com/p/5085283.html
如需转载,请后台留言,遵守转载规范
领取专属 10元无门槛券
私享最新 技术干货