【作业】人工智能的发展历史

Posted by 橙叶 on Tue, Oct 25, 2016

人工智能报告

  1. 前言
  2. 人工智能的起源和发展
      起源
      发展
  3. 当前技术水平
  4. 最后
 

前言

一个典型的例子是年初AlphaGO与李世石博弈。虽然不是人类第一次输给电脑,但上次是全靠电脑计算快,而且相对于围棋来说,国际象棋的难度较低。而这次,AlphaGO的围棋技艺并非全是人类通过代码告诉它的,它是通过自我学习掌握了大部分技艺

电影《人工智能》是人类对未来的一种消极的预想,我们看过的人类被机器人蹂躏的电影电视剧也不少,不禁让我们产生一种担忧,如果人工智能真的成熟了,它会像电影中那样失去控制,受伤的是人类呢?

更多的,人们希望人工智能可以帮助我们,这点在无数科幻电影中已经体现。

例如:

starkai

不过后来………

sokewiya
 

人工智能的起源和发展

1.起源

其实人工智能这个概念从很久之前就有了,有多久呢?

希腊神话中的赫菲斯托斯皮格马利翁结合智能机器人(如塔洛斯)和人造生命(如加拉蒂亚潘多拉),其实就是一种人工智能的体现,在希腊神话中它们被描述为机械式思考、但与人类的能力丝毫不差的家伙。而在古埃及和古希腊中,古代人民制造的佛像机械被认为是有生命、有情感的。如果你说这个不明显,

在十七世纪初,迪尔卡提出,人类不过是一种复杂的机器。这一句话算是仿生学的动力之一,因为这意味着人类的身体结构可以被完全解读并且重新仿造出来并加以利用。

在此之后,人类的研究向着机械计算发展,

1642年,帕斯卡发明了机械计算器,这是第一个数字计算机。

1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。IBM公司“深蓝”电脑击败了人类的世界国际象棋冠军更是人工智能技术的一个完美表现。

1913年 伯特兰·罗素和怀特海出版的数学原理,它彻底改变了形式逻辑。 1915年 莱昂纳多托雷斯Ÿ克韦多建一个国际象棋自动机,萨尔瓦多Ajedrecista并发表了关于思维和自动猜测。 1923年 卡雷尔·恰佩克的发挥RUR(Rossum的通用机器人)在伦敦开设。这是第一次使用“字样的机器人 中英文的”。 20世纪二三十年代 维特根斯坦和卡尔纳普领先理念变成逻辑分析知识。邱奇开发演算用递归函数符号调查可计算性。 1931年 哥德尔表明,足够强大的形式系统,如果一致,允许真正的定理,从任何定理,证明机派生从公理所有可能的定理是无法证明的制定。要做到这一点,他必须建立一个通用的,基于整数的编程语言,这就是为什么他有时也被称为“之父的原因,理论计算机科学 ”。 1941年 康拉德楚泽建的第一个工作日程控计算机。 1943年 沃伦·麦卡洛克和沃尔特·皮兹发布(1943年)“的思路无所不在的在神经活动的逻辑运算”,奠定了基础,人工神经网络。 1943年 阿图罗Rosenblueth,维纳和朱利安·毕格罗硬币术语“ 控制论 ”。维纳的畅销书叫这个名字在        1948年出版。 1945年 博弈论这将是非常宝贵人工智能的进步与1944年的论文,介绍了游戏论与经济行为由数学家 约翰·冯·诺伊曼和经济学家 奥斯卡·摩根斯坦。 1945年 万尼瓦尔·布什发表的,因为我们可能认为(大西洋月刊,1945年7月)的未来,计算机帮助人类在许多活动的先见之明的眼光。 1948年 约翰·冯·诺依曼(由引ET杰恩斯响应在一次演讲,这是不可能的机器想评论):“你坚持,有一些机器不能做,如果你会告诉我恰恰是一个什么机器不能做到的话,我总是可以使一台机器,这将做到这一点!“。冯·诺依曼大概是影射教会图灵论题其中规定,任何有效的程序,可以通过(广义)的计算机模拟。

 

后来的故事大家都熟知了,机械向电子化发展,电脑产生了。

2.发展

其实早在1863年,塞缪尔·巴特勒认为,达尔文的进化论也适用于机器,并推测他们总有一天会成为自觉,并最终取代人类。此时离电脑的出现还远得很,而塞缪尔·巴特勒大概也想不到会有电脑这种东西。但他的预言正在慢慢实现,“达尔文的进化论也适用于机器”,这一句话令人不寒而栗。

之后便是电脑的发展,毕竟这是人工智能的基础

查看时间轴:人工智能时间轴

1950年,图灵早早为未来的机器人做好了测试机器智能的措施,也就是著名的“图灵测试”,它让人们松了一口气:我们的技术离真正实现还远着呢。

然而信息技术呈几何式发展,仅仅50年过去,我们就要为此担忧了

现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。(Aaron Saenz)

当前技术水平

1.现在的形势

人工智能13个细分领域及代表公司: aicompany

13个领域的公司数量:

aicompany2

总结来说,各个方向都在发展阶段,并且发展程度有高有低。以AlphaGo为代表的深度学习,现可以在围棋方面超越一流棋手,但在麻将、斗地主等领域并无太大进展。视觉识别方面,人脸识别是研究热点,并有部分应用。谷歌Artificial Neural Networks在识别普通图像时,还不尽如人意。机器人方面,日本很多家用机器人已经实用。谷歌Atlas已经能走会跳。技术进化还需要时间,产品普及还需要时间。个人助手有几家:苹果Siri,微软Cortana,谷歌在研发Majel;国内的科大讯飞灵犀语音助手,百度语音助手,搜狗语音助手等等。发展到什么程度,你可以实际体验。各个领域还处于前期投资阶段,行业爆发需要时间。AlphaGo酷炫是酷炫,但并不太实用。行业爆发需要一个iPhone 4这样既酷炫又实用的跨时代产品出现。

作者:图灵Don,来源:知乎

当前人工智能技术尚处在一个极基础的研究层次,而且研究的方向也各有不同:模拟神经系统或是单纯的程序开发,成果甚微。

但是信息技术发展速度已经令预言者们猝不及防,也许它并不是很远····

2.前瞻

1.让深度学习自动调超参。最近看到有人在一个AI群里推广自己的一篇论文《Deep Q-Networks for Accelerating the Training of Deep Neural Networks》https://arxiv.org/abs/1606.01467,大致是用强化学习的方法训练一个控制器来自动控制学习率以及在一个batch中各个类的样本占比。虽然它那篇论文问题很大,训练出来的控制器极其不通用,只能用在它原本的任务上,但是感觉很容易解决掉,这个另说。想象一下,如果能够训练出一个通用的控制器,对于各类任务都能够自动调整超参(或者只在某个子领域比如图像分类做到通用也好),那我们就再也不用自称调参狗了,同时也可以解放出更多的时间用于设计模型、验证架构,想必深度学习的发展步伐会得到极大加速。

2.自动学习网络架构。其实说起来这个问题也可以归入自动调超参,但是感觉应该还是有很大的不同。说起来无非就是两个方面,一是加法二是减法。加法方面可以参考《Net2Net: Accelerating Learning via Knowledge Transfer》https://arxiv.org/abs/1511.05641,这篇是让CNN自动根据需要自动拓展架构,包括横向的增加filter和纵向的增加layer。减法方面可以参考各类Network Compression(网络压缩)的论文中的所谓Network Pruning(网络剪枝),比如《Deep Compression - Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding》http://arxiv.org/abs/1510.00149,虽然这些论文出发点不在于自动学习网络架构而在于压缩网络规模,而且它们往往是在训练收敛之后才对网络进行裁剪而非边训练边裁剪,但是感觉只需要再跨一步就可以了。我个人觉得,自动学习网络架构需要解决的最根本问题就是“应该在什么时机进行架构变动”以及“应该怎么变”,第二个问题感觉上述论文算是回答得可以了,但是第一个问题似乎还有很多可以探索的地方。对于第一个问题,似乎强化学习就很适合解决,因为显然可以把它看成一个控制问题。

3.迁移学习。众所周知,深度学习的直接训练依赖大量数据,而transfer和finetune能够有效利用数据量大的外部任务训练出来特征来迁移到数据量小的目标任务上,使得目标任务对于数据量的要求大大减小。现在的问题在于,迁移学习的思想现在大家其实都在用,很多论文中都可以看到finetune的做法,但是对于两个任务之间需要“多像”才能够迁移这么一个问题还没有一个很好的回答。即使我们不奢求能够给出一个严格的数学理论,至少,如果有人能够做一个非常系统的对比实验,总结出一些规律,使得我们有信心说在如何如何这样一个边界内的任务都是基本上可以transfer的,那将会是一个很大的进步。这个问题也可以这么看,如今我们应该有信心说两个图像分类任务可以transfer,但是这个边界太过狭窄,我个人期待的就是能够有一套理论或者方法论使得这个边界大大拓展,然后在这个边界内我们可以像对两个图像分类任务一样自信满满地用迁移学习。

4.无监督/半监督学习。像LeCun等大佬其实一直在鼓吹这方面,但似乎还没有搞出像当年CNN(AlexNet)、最近强化学习(阿法狗)这样级别的大新闻来。我理解在这个问题上的努力方向应该是确定“何种representation最有用”。具体来说,就是找到一个指标,然后用深度网络优化这个指标,使得满足这个指标的data representation能够具有非常好的特性。再具体一些,下面举三个实际例子:autoencoder以重构损失作为指标来学习一个representation。之前听一个讲座,演讲人介绍他的论文《Why Deep Learning Works: A Manifold Disentanglement Perspective》IEEE Xplore Abstract,其中定义了三个指标来描述深度网络每一层中data representation的“蜷曲程度”,并发现,越高层的数据蜷曲度越低,换言之,越平展。那么无监督学习是否能够直接以这个蜷曲度作为损失函数来学习一个representation呢?这篇论文《Context Encoders: Feature Learning by Inpainting》提出通过预测周边上下文像素来无监督学习视觉特征,感觉很像word2vec从一维变成二维。除了上述的重构损失、蜷曲度、预测上下文精度,还有没有别的指标学习出来的representation更好呢?个人认为这些问题就是推动无监督/半监督学习进展的关键所在。

5.基于外部存储(external memory)的模型。如果说RNN、LSTM这样的模型属于internal memory / long-term memory的话,那么以神经图灵机(Neural Turing Machine,http://arxiv.org/abs/1410.5401)、记忆网络(Memory Network,http://arxiv.org/abs/1410.3916)为代表的模型就应该称为external memory / really long-term memory了。不过这两个模型刚出来的时候还太过naive,只能做一些很无聊的task,比如序列复制和排序以及非常简单的QA,但是现在已经开始看到它们被用到更加实际的问题上面,例如One-shot Learning:《One-shot Learning with Memory-Augmented Neural Networks》,http://arxiv.org/abs/1605.06065。往大了说,如果未来要实现强AI,这种外部存储的机制肯定是必不可少的。现在的问题在于,神经图灵机和记忆网络用的外部存储虽然比LSTM那样简单的一个hidden state向量更进一步,但也其实就是很简单的一片矩阵,没有任何结构和层次可言,换言之,就是还不够复杂。所以我猜想接下来可能external memory会和知识图谱(Knowledge Graph)结合起来或至少是向知识图谱类似的做法靠拢,因为知识图谱更加结构化。

作者:郑华滨,链接:https://www.zhihu.com/question/47602063/answer/106988408,来源:知乎。

 

 

最后

人类是一群喜欢作死的生物。

人工智能显然是把双刃剑,先不说引起什么机器人大混战这样渺无边际的事,单是人工智能造成的失业问题就必须要考虑一下。现在我们已经能感受到科技进步给传统行业带来的影响。在第一次工业革命时期,珍妮机的出现造成大量纺织工人失业,其中有一部分选择举起锤子,砸毁纺织工厂、抄了哈格里夫斯的家,这部分人被称为“古德派”,是破坏性创造的副作用。同样的,人工智能也很有可能造成社会动荡。

也许没那么糟,也许我们能有效控制呢?

我们的生活的细节会被改善,就是细节!许多小麻烦会被代替。

在其它领域,生物学、天文学、气象学的难题将得到解决······

 

 

时间仓促,自己写了写复制了点东西就交作业了。

老师要交什么H5、PPT等等的作品。我懒,直接当成文章发到博客上,还要方便的多。

希望老师不要骂我~

资料来源:

知乎:https://www.zhihu.com/question/47602063

Wikipedia:https://en.wikipedia.org/wiki/Artificial_intelligence



comments powered by Disqus