人工智能(Artificial Intelligence),英文缩写为AI,它是研究、开发用于模拟和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
上个世纪50年代一次学术讨论会议上,当时几位著名的科学家从不同学科的角度探讨用机器模拟人类智能等问题,并首次提出了“人工智能”的术语。从此,人工智能这门新兴的学科诞生了。
那场学术讨论会议,就是计算机科学史上著名的达特茅斯会议(Dartmouth Conferences)。
人工智能的评判标准是什么? 要回答这个问题,就不得不先介绍另一个著名的概念:图灵测试。
图灵测试是著名科学家阿兰·麦席森·图灵于1950年提出的。其内容是,如果计算机程序能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则该程序通过测试,表明该程序拥有接近于人类的智能。
就如下图中的情景:
图灵测试的参与者包含一名或多名评委,两名测试者。其中一名测试者是人类,另一名测试者是计算机程序。在评委不能直接看到测试者的情况下,由评委提出若干问题,然后根据回答做出自己的判断。
时至今日,世界上只有一个智能聊天程序勉强通过了图灵测试,它的名字是 尤金·古斯特曼。由此可见,人类距离实现真正意义上的人工智能,还有很长的道路要走。
智能分为人工智能与自然智能两种:
学习人工智能,数学知识是非常必要的,需要的基本数学知识如下:
1.人工神经网络被提出(AI缘起):
2.达特茅斯会议(定义AI):
3.感知器(Perceptron)
感知器典型示意图如下:
感知器是人工神经网络中的一种典型结构, 它的主要的特点是结构简单,对所能解决的问题 存在着收敛算法,并能从数学上严格证明,从而对神经网络研究起了重要的推动作用。
感知器是生物神经细胞的简单抽象,如下图,神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’,而细胞核可以认为是处理信息的程序。 神经细胞示意图:
4.人工智能的第一个寒冬:
5.霍普菲尔德神经网络:
6.反向传播(Back Propagation)算法
7.人工智能的第二个寒冬:
8.深度学习(Deep Learning)
9.进入感知智能时代:
10.AlphaGo 击败众多人类选手:
11.未来由我们创造:
Tangle Lake量子计算芯片:
AI芯片Loihi:
简单来说AI、机器学习和深度学,这三者呈现出同心圆的关系:
同心圆的最外层是人工智能,从提出概念到现在,先后出现过许多种实现思路和算法。
同心圆的中间层是机器学习,属于人工智能的一个子集,互联网的许多推荐算法、相关性排名算法,所依托的基础就是机器学习。
同心圆的最内层是深度学习,以机器学习为基础的进一步升华,是当今人工智能大爆炸的核心驱动。
人工智能能够王者归来,深度学习功不可没,深度学习是引领人工智能热潮的 “ 火箭 ” ,深度学习作为 “后代”,却给 “爷爷” 和 “爸爸” 争光了。
什么是学习?
机器学习的必要性:
“晦涩” 的机器学习定义:
简单的机器学习定义:
练习和考试:
AlphaGo学下围棋:
机器学习大致等同于找到一个 好的函数(Function)/ 模型,Y = f ( X )
机器学习的分类:
监督学习会把不同标签的数据进行分类,然后通过学习生成预测模型,监督学习的特点就是在于数据有标签。
生成预测模型后就可以让模型来判断给的数据是什么:
非监督学习就是给的数据没有标签,让机器自己进行学习将相似的数据分成不同的类别,非监督学习的特点就是给的数据都没有标签:
然后把数据给生成的预测模型进行归类:
半监督学习最类似于人类的生活,半监督学习的特点就是给的少部分训练数据有标签,大部分训练数据没有标签。这就好比在人类还未成年、未踏入社会之前,都是由父母或老师来教授一些知识,这些知识就是有标签的数据,因为有人告诉你什么是什么,哪些事情能做哪些事情不能做。而当人类离开父母或老师踏入社会后,生活上的种种事情都是由自己去摸索学习,这部分的数据就是无标签的,所以说半监督学习最类似于人类的生活。
可以用AI玩游戏来简单解释一下强化学习,例如让AI去玩跑跑卡丁车,当AI跑赢了就加一分,失败则减一分,并且告诉它分数越高越好,那么这个AI就会有想要去获得更高分数的趋势,经过很多轮的训练后AI的总分数会达到一个比较高的分数。这就好像是给它一个奖励,通过这个奖励的机制去刺激它获得更高的分数,这种方式就是强化学习。
机器学习的算法:
我们可以根据以下这张图来筛选适合的算法来训练模型:
近年来人工智能的概念大热,很多人都跟风想转行学习人工智能,或者对人工智能有恐惧感,我们应该要有正确的态度对待这项技术:
“人工智障”
人类从未创造过生命
目前对人工智能的看法,有两个派别
反省自己比担心AI更重要
AI并非全能
不过也是需要适当的防备AI
借人工智能来认识自己
人机合作
先简单介绍一下什么是拟合:形象的说,拟合就是把平面上一系列的点,用一条光滑的曲线连接起来。因为这条曲线有无数种可能,从而有各种拟合方法。拟合的曲线一般可以用函数表示,根据这个函数的不同有不同的拟合名字。我们训练模型的曲线就是拟合,拟合结果主要有三种:欠拟合(UnderFitting)、拟合完美(Fitting right)以及一会要重点介绍的过拟合(OverFitting):
从以上的图形可以看到,欠拟合就是 “不在点子上” ,完全没有达到我们的要求,偏得让你想说一句“诶诶诶,兄弟你要去哪啊,我说“,这种就是所谓的欠拟合。好的拟合则是有一定的 ”弹性“ ,因为它合适的达到了我们的要求,但它又不会 “完美得过分 “ 。过拟合就比较逗逼了,就跟强迫症似地要去不择手段的完全贴合各个分散的点,或者完全区分不同的点,虽然看起来很完美,但是这种完美的代价就是泛化性能很差。
过拟合就好比追一个妹子时,去了解了这个妹子的所有喜好、兴趣,然后你就拼命学习对方感兴趣的东西,穿着打扮上也迎合对方的口味,终于你不辞艰辛完美地符合了妹子的要求,然后你也自信满满的去追这个妹子,你也的确追到手了。但是不久后你们分手了,悲伤过去没多久,你又看上了一个妹子,想要拿之前学习的一身本领去追这个妹子,结果这个妹子对你并不感冒,这个妹子的喜好和兴趣和之前的妹子完全不一样,甚至还有点讨厌。这就是过拟合,过拟合带来的泛化性能很差或者基本为0导致了你无法沿用之前的把妹技巧。
举个物理学上的段子(转自他人博文),费米的话就是一个非常直观的理解: 1953年春天,戴森和自己的学生利用赝标介子理论计算了介子与质子的散射截面,得到了与费米的实验观测值十分相符的结果。然而该理论需要4个自由参数,费米很不屑,讲了一句日后很著名的话:“我记得我的朋友约翰·冯·诺依曼(John von Neumann)曾经说过,用四个参数我可以拟合出一头大象,而用五个参数我可以让它的鼻子摆动。”
有趣的是,2010年6月,尤根·迈尔(Jurgen Mayer)等三位德国分子生物学家在《美国物理学期刊》(American Journal of Physics)发表了题为“用四个复参数画出一头大象”的论文。他们发现,利用四个复参数可以大致勾勒出大象的形态,再引入一个复参数则可以让大象的鼻子摆动起来。
再附上一张有趣的图片:
以上简单的聊了关于人工智能的各种概念,看了这篇文章的你或许会马上转身投入这个领域的研究、学习,也可能会对人工智能抱有一些恐惧,对其敬而远之。whatever,人工智能的确在慢慢改变我们的生活,虽然也可能会带来一些负面的影响,但是这项技术终究是有助于人类科技的发展,而且要学习这项技术门槛也比较高,比成为一个普通的程序员来说门槛是高得多的。首先你得要有高数、线代、统计学、概率论等数学基础,还要英语过关,不然谷歌都用不6,因为不管怎么说很多技术论文都是英文的,最先出的译文也是英文的,我个人认为学习英语的优先级要比数学高,不要让语言成为自己学习最大的障碍。