重磅推出《人工智障深度瞎学》连载专栏第二期!
——神经网络到底有多厉害?
大家好!
这里是《人工智障深度瞎学》半月刊第二期——
今天的话题是神!经!网!络!
什么?
你说你没看第一期?
你说你忘了第一期讲了啥?
【记一段失败的采访】
先从我和梦呆同学的一段对话开始讲起吧:
“嗨,梦呆同学,你喜欢什么样的男盆友啊?”
“哈哈哈,这个看眼缘吧。”
“具体一点嘛。”
“也没法具体呀,主要是能合拍。”
“额...”
听罢,我陷入了深深的哲学思考
…..
不知你注意没有,
所谓“道可道,非常道”。
这世间的万物呢,
就像女孩子的心,
大多数情况下,
是不可以用语言直观描述的。
在上期,我们提到了现在的人工智能研究把大问题分成了若干的子问题,比如有视觉方向的人工智能——教AI认识小猫小狗啊;有语音方向,教AI识别人们说的话啊,等等。
虽然分成小问题了,但是情况还是很复杂。
比如说,你知道怎么用语言向电脑描述什么是狗?
问题难就难在这,你很难表述出来,某样东西的特点到底是什么。
而且最关键的是,你不能找出反例,电脑就会把类似的东西给你拉过来说:这个就是你描述的啊。
比如上面这张图,这是一张柴犬的图片。
我可以这样描述:它是一个脑袋圆的,耳朵尖的,一半是黄色的动物。
已经很完美了对不对?
但是!!
AI可能会给你找来这个:
这只喵...确实也符合上面的描述啊...
而上面那还是个简单的栗子。
在实际生活中,还会遇到更多的bug。
比如库克大叔的苹果X给大家带来的人脸识别解锁系统。
请你用语言准确描述出下列女明星的区别:
额...
对,问题就在这儿。
世界上大多数问题,
就像女孩子的想法,
是科学家们无法用贫瘠的人类语言描述出来的。
上世纪90年代至今,
人们研究出了各种乱七八糟的算法,
企图用各种方式进行描述,
或者用统计的方式来攻克这些子问题。
那么这些算法到底做的怎么样呢?
就以视觉识别来举例吧。
首先,我们需要一个标准,来评判算法做得好不好。
ImageNet
斯坦福的李飞飞女神创建了一个ImageNet数据库,并且由此举办了一个叫“大规模视觉识别挑战赛”(Large Scale Visual Recognition Challenge)的比赛,英文缩写简称ILSVRC。
这个比赛是做什么的呢?
比赛的数据库共有140多万张图片,里面有各种阿猫阿狗。比如说,下面这些:
狗呀、樱桃呀、豹子呀、轮船呀、蘑菇呀之类的,一共1000多种东西。
当然了,参赛选手都是AI机器人。
而比赛规则就是,这些AI参赛选手们,拿到一张图片时,要说出图片里面有什么。AI参赛选手可以猜五个东西,只要这五个东西里面有一个图片里有就算回答正确。
其实对于人类而言,有些题目还真的挺难的:
比如左上角那只虫子其实根本不知道是啥……再比如蘑菇那张图,AI给出的答案前四个都是各种菌类,但我的脑子里只闪现出了蘑菇这一个词……
平均来讲,人类的错误率大概是4%左右,一百分的卷子能得个96分吧。
那么AI做的怎么样呢?
2010年,AI的错误率是28.2%。
不太行是不是,接近三分之一的图片猜半天一个都不对。
2011年呢?差不多还是26.8%左右吧。
额……
没戏啊AI同学,你们这都研究了二十多年了还是没长进啊!
凉了凉了,回家睡觉吧。
不过,到了2012年
……
哦?!
怎么回事?
到了2012年突然错误率降到了接近15%?
没错,就在2012年,平地一声惊雷!
神经网络家族在图像处理领域的大兄弟出现了!
众科学家们一看:
这个有戏!搞起吧!
于是乎,众将官一拥而上,大势掩杀,一阵敲代码!
一路把错误率降到了2015年的3.57%!
这个数字可就比人类还厉害了!(人类错误率约为4%)
上面的故事在各个子问题的领域中反复出现,问题难以解决,错误率居高不下!
然后神经网络在一个万众嘱目的情况下出现,身披金甲圣衣,脚踏七色彩云,把牛魔王打死了!
【画外音】
不对啊!
看了半天,
你还是没说神经网络是什么啊,
我们都等了半个月了!
看官们不要着急!
我们的第一篇文章告诉了大家:
人工智能是在研究神马。
第二篇文章告诉了大家:
神经网络有多么厉害,多么神勇,
是怎样降临,拯救了世界。
层层叠进,烘托气氛,制造悬疑,
培养感情,做好准备,厉兵秣马。
请准备好,下期揭晓:
神经网络到底是什么!
敬请期待《人工智障深度瞎学》半月刊第三期。
最后,别忘了关注公众号!
不关注你咋看下一期啊!
领取专属 10元无门槛券
私享最新 技术干货