零零客微文大全00ke.net

  • 机器学习漫谈:深度学习的辉煌
  • 来源:人工智能学家

图片

来源:王宏琳科学网博客

如今,当有人提到人工智能引起社会变革潜力时,他们很可能是在谈论机器学习中的人工神经网络。当一篇文章谈人工神经网络突破性进展时,作者很可能指的是深度学习。
人工神经网络是一种非线性统计建模工具,可以用于发现输入和输出之间的关系,或在大型数据库中发现模式。人工神经网络已应用于统计模型开发、自适应控制系统、数据挖掘模式识别和不确定性下的决策。
深度学习是基于人工神经网络和表示学习的一系列机器学习方法的一部分。学习可以是有监督的、半监督的或无监督的,甚至强化学习的。

【深度学习有别于传统机器学习】

有人称,“实际上,深度学习是一种称为神经网络的人工智能方法的新名称,这种方法已经流行了70多年了”。但是,这样的说法并不准确。深度学习有别于传统机器学习。这里的“传统机器学习”,是指20世纪普通的神经网络,或浅层神经网络。
的确,计算机与大脑的关系,曾经吸引了20世纪40年代计算机先驱的关注。例如,1945年6月,约翰·冯·诺伊曼(John von Neumann)在《EDVAC报告草稿》首次描述现代计算的关键体系结构概念时,就使用了“memory(记忆)”,“organ(器官)”和“neuron(神经元)”等生物学术语。冯·诺伊曼生前还撰写《计算机与人脑》未完成稿,从数学的角度解析了计算机与人脑神经系统的关系。又如,1943年,沃伦·麦卡洛克(Warren McCullough)和沃尔特·皮茨(Walter Pitts)首次提出神经网络,他们的神经元模型,能够实现布尔逻辑语句。
第一次重大的神经网络突破,出现在20世纪60年代中期,苏联数学家亚历克赛·伊瓦克年科(Alexey Ivakhnenko)在他的助手拉帕(V.G.Lapa)的帮助下创建了小型但功能较强的神经网络,采用有监督深度前馈多层感知器的学习算法。而单层感知机是20世纪50年代罗森布拉特发明的。
上世纪80年代初,约翰·霍普菲尔德(John Hopfield)的循环神经网络(recurrent neural networks)引起了轰动,紧接着特里·塞伊诺夫斯基(Terry Sejnowski)的程序NetTalk可以发音英语单词。
2006年,卡内基梅隆大学教授、计算机科学家杰弗里·辛顿使用了“深度学习”这个词,此后,“深度学习”术语很快广泛流行。虽然,这个术语并非辛顿第一个使用的,早在1986年,R.德克特(R. Dechter)的一篇论文就将“深度学习”一词引入机器学习。2000年,艾森伯格(Aizenberg)等人首次将其引入人工神经网络。
21世纪的深度学习与传统神经网络区别在哪里呢?
首先,人工神经网络包含输入层和输出层之间的隐藏层。传统的神经网络只包含一个或几个隐藏层。深度学习是一个非常大的神经网络,包含多得多的隐藏层(通常为150个),它们可以存储和处理更多信息。这是深度学习有别于传统神经网络的最重要的一点。因此,名称“深层”用于此类网络。
其次,深度学习不需要手工提取特征,而直接将图像作为输入。这是深度学习有别于传统神经网络的另一点。图1描述了在机器学习和深度学习中识别对象所遵循的过程。
第三,深度学习需要高性能的GPU和大量数据。特征提取和分类是通过称为卷积神经网络(CNN)的深度学习算法进行的。CNN负责特征提取以及基于多个图像的分类。当数据量增加时,深度学习算法的性能也会提高。相反,当数据量增加时,传统学习算法的性能会降低。

图片 图1 机器学习与深度学习

在机器学习中,需要提供给算法更多的信息(例如,通过执行特征提取)来做出准确的预测。在深度学习中,由于采用了深度人工神经网络的结构,算法可以通过自身的数据处理学习如何做出准确的预测。表1更详细地比较了这两种技术:

表1 深度学习与传统机器学习比对


传统机器学习

深度学习

隐藏层数目

一个或少数几个隐藏层。

非常多的隐藏层。

数据点数量

可以使用少量数据进行预测。

需要使用大量的训练数据进行预测。

硬件依赖性

可以在低端机器上工作。它不需要大量的计算能力。

依赖高端机器。它执行大量的矩阵乘法运算。GPU可以有效地优化这些操作。

特征化过程

需要用户参与。

从数据中自动学习特征。

执行时间

训练所需时间相对较少,从几秒钟到几个小时不等。

由于深度学习算法涉及多个层次,因此通常需要很长时间进行训练。

输出

输出通常是一个数值,如分数或分类。

输出可以有多种格式,如文本、乐谱或声音。

【深度学习的三教父】

约书亚·本吉奥(Yoshia Bengio,出生1964.3.5)是加拿大的计算机科学家,最著名的是他在人工神经网络和深度学习方面的工作。 他是蒙特利尔大学计算机科学与运筹学系的教授,并且是蒙特利尔学习算法研究所的科学主任。
扬·勒村(Yann LeCun,出生1960.7.8)是一位法国计算机科学家,主要从事机器学习,计算机视觉,移动机器人和计算神经科学领域的研究。 他是纽约大学库兰特数学科学研究所的银教授,并且是Facebook副总裁兼首席AI科学家。
杰弗里·辛顿(Geoffrey Everest Hinton,出生1947.12.6),是英国和加拿大认知心理学家和计算机科学家,最著名的是他在人工神经网络方面的工作。自2013年以来,他将在谷歌和多伦多大学工作的时间一分为二。2017年,他共同创立并成为多伦向量研究所(Vector Institute,人工智能研究机构)的首席科学顾问。

图片 图2 勒村(左)和辛顿(中)和本吉奥(右),

2018年图灵奖授予了三位研究人员,他们为当前的人工智能繁荣奠定了基础。本吉奥,勒村和辛顿有时被称为“ AI的教父”,因其开发深度学习领域的工作而获奖。这三人在20世纪90年代和21世纪00年代开发的技术,在计算机视觉和语音识别等任务上实现了重大突破。他们的工作支持了从无人驾驶汽车到自动医疗诊断的AI技术的发展。
早在1970年代中期,“ AI寒冬”减少了对人工智能研究的资金投入和热情。但杰弗里·辛顿却坚守在神经网络研究的领域:模拟神经节点网络的发展,以模仿人类思想的能力。1986年,辛顿和其他几位研究人员,通过证明不止一小部分神经网络可以通过反向传播进行训练,帮助神经网络用于改进形状识别和单词预测。2012年,杰弗里·辛顿与他的学生亚历克斯·克里泽夫斯基(Alex Krizhevsky,出生于乌克兰,在加拿大长大)、伊利亚·萨茨凯(Ilya Sutskever)一起,改进了卷积神经网络,共同开发的一个程序,大大超越了ImageNet的所有其他参赛者,这是一项涉及上千种不同对象类型的图像识别竞赛。辛顿团队在一个“6000万个参数和65万个神经元”的网络(由“5个卷积层,其中一些层后面是最大池化层”组成的)中使用图形处理器芯片。“卷积层”是勒村最初设想的一种方法,辛顿的团队对此进行了重大改进。辛顿长期以来还坚持他对“无监督”训练系统潜力的信念,在这种系统中,学习算法试图在不提供大量标记示例的情况下识别特征。辛顿认为,这些无监督学习方法不仅有用,而且使我们更接近于了解人脑所使用的学习机制。
1988年,雅恩·勒村开发了一种生物启发的图像识别模型——卷积神经网络,并将其应用于光学字符识别。勒村提出了一个早期版本的反向传播算法,并基于变分原理对其进行了清晰的推导。1998年开发了LeNet5,并制作了被杰弗里·辛顿称为“机器学习界的果蝇”的经典数据集MNIST。勒村于2003年离开工业研究,在纽约大学的库兰特数学科学研究所(Courant Institute of Mathematical Institute)担任计算机科学教授,这是美国应用数学研究的领先中心。它在科学计算中有很强的地位,尤其侧重于机器学习。在纽约大学,勒村在计算和生物学习实验室,继续从事机器学习算法和计算机视觉应用的研究。勒村保持了他对建造的热爱,包括建造飞机、电子乐器和机器人的兴趣爱好。从2013年12月起,他被Facebook聘用从事人工智能研究,现在是Facebook的首席AI科学家。
2000年,约书亚·本吉奥撰写了一篇里程碑式的论文《神经概率语言模型》(参考资料[2]),对自然语言处理任务(包括语言翻译、问答和视觉问答)产生了巨大而持久的影响。自2010年以来,本吉奥关于生成性深度学习的论文,特别是与他的博士生伊恩·古德费洛(Ian Goodfellow)共同开发的生成性对抗网络(GAN),在计算机视觉和计算机图形学领域引发了一场革命。本吉奥本人曾与他人共同创立了几家初创公司,其中最著名的是2016年的Element AI,该公司为深度学习技术开发工业应用程序。2017年约书亚·本吉奥和伊恩·古德费洛、亚伦·库维尔出版了《深度学习》一书,是深度学习领域奠基性教材,又名“花书”,被誉为深度学习的“圣经”。

【21世纪10年代深度学习技术突破】

以物体识别为标志,从传统机器学习到深度学习的转变,大约发生在21世纪10年代初。但在2010年之前几年,已经已经为此转变做了准备,包括算法(“深度学习”)、建立图像数据库(“ImageNet”)和提升算力(“GPU”)。
大约在2016年之后,深度学习显示出令人印象深刻的结果,首先是在语音识别,然后是计算机视觉,最近是在自然语言处理方面。由此产生的算法,在学术和工业应用领域,引发了一场深度学习革命。
以下简单回顾发展历程。
2006年,杰弗里·辛顿等人说。发表了一篇论文(参考资料[1]),展示了如何训练一个能够以最先进的精度识别手写数字的深度神经网络(>98%)。他们称这种技术称为“深度学习”。深度神经网络是大脑皮层一个非常简化的模型,由一叠人工神经元层组成。
2008年,吴恩达(Andrew NG)在斯坦福的研究小组开始提倡使用GPU来训练深层神经网络,以将训练时间缩短数倍。这为在海量数据上进行有效的训练带来了深度学习领域的实用性。
2009年,斯坦福大学的人工智能教授李飞飞(Fei Fei Li)推出了ImageNet。李飞飞是一位华裔美国计算机科学家。ImageNet项目是一个大型可视化数据库,设计用于视觉对象识别软件的研究。超过1400万张图片已经被该项目手工标注,包含20000多个类别。李飞飞教授说:“我们的愿景是,大数据将改变机器学习的工作方式。数据驱动学习。”

图片 

图3 李飞飞

2011年,约舒亚·本吉奥等在他们的论文“深度稀疏整流神经网络”中表明,ReLU激活函数可以避免消失梯度问题。这意味着,除了GPU,深度学习社区还有另一个工具,来避免深度神经网络训练时间过长和不切实际的问题。
2012年,多伦多大学教授杰弗里·辛顿和他的学生亚历克斯·克里热夫斯基(Alex Krizhevsky)以及另外一个学生,建立了一个名为AlexNet的计算机视觉神经网络模型,参加ImageNet的图像识别比赛。参赛者将使用他们的系统处理数以百万计的测试图像,并以尽可能高的精度识别它们。AlexNet以不到亚军一半的错误率赢得了比赛。这场胜利在全球引发了一场新的深度学习热潮。AlexNet是在多年前由雅恩·勒村建造的LeNet5(图4A)基础上,发展和改进的。AlexNet是一种用于图像分类的多层卷积神经网络(图4B)。AlexNet架构包括5个卷积层和3个完全连接层(对比而言,LeNet是一个5层的卷积神经网络模型,它有两个卷积层和3个全连接层)。

图片 (A)

图片 (B)

图4 LeNet-5(A)和AlexNet的计算机视觉神经网络模型(B)

      2012年,Google Brain发布了一个被称为“猫实验”的不寻常项目的结果。该项目探索了“无监督学习”的困难。猫实验使用了分布在一个由16000台电脑组成的网络,通过观看YouTube视频中的1000万张“未标记”的图片,训练自己识别猫。在训练结束时,发现最高层的一个神经元对猫的图像有强烈的反应。该项目的创始人吴恩达说:“我们还发现了一种对人脸反应非常强烈的神经元。”。

2014年,生成型对抗性神经网络也称为GAN,是由伊恩·古德费洛(Ian Goodfellow)创建的。GANs凭借其合成真实数据的能力,在时尚、艺术、科学等领域开启了一扇全新的深度学习应用之门。
2016年,DeepMind的深度强化学习模型AlphaGo在复杂的围棋游戏中击败了人类冠军。
2019年,本吉奥、勒村和辛顿因其在深度学习和人工智能领域的巨大贡献,获得2018年度图灵奖。
2020年,OpenAI发布GPT-3,这是一种具有1,750亿个参数的自然语言深度学习模型。同年,DeepMind公司开发的人工智能程序AlphaFold2预测蛋白质结构堪比实验室水平。

【结语】

20世纪探索感知机和人工神经网络的科学家,都是基于这样的想法,即类似的网络可能像人的大脑一样,能够学习识别物体或执行其他任务。深度学习在21世纪10年代取得了辉煌的成就,成为驱动人工智能繁荣的动力。深度学习的成功已经用于在照片中识别物体或分类,自动驾驶汽车,游戏,自动机器翻译,图像字幕生成,文本生成,不同化学结构的毒性检测,预测蛋白质的 3D 结构形状等。深度学习已经变成了一种颠覆性的技术。总有一天,无人驾驶汽车会比你更了解道路,驾驶技能更高;深入的学习网络会诊断你的疾病。
“漫谈”的四篇博客(人工智能的第一项工作、感知机的兴衰、神经网络的复苏和深度学习的辉煌),回顾了神经网络和深度学习的从20世纪40年代至今的发展的若干重要事件,可以看出:(1)多学科协同研究很重要。(2)对新技术不要仓促否定,也不要夸张宣传。(3)科学家的坚持不懈的努力,造就了今天深度学习的辉煌和人工智能的繁荣。
深度学习的繁荣,也反映在出版有许多有关深度学习的图书,特别是有关深度学习编程的工具箱,对进一步学习提供很多便利(例如,[3],[4]和[5])。

参考资料:

[1] Geoffrey E. Hinton et al., “A Fast Learning Algorithm for Deep Belief Nets,” Neural Computation 18 (2006): 1527–1554

[2] Yoshua Bengio, Rejean Ducharme and Pascal Vincent . A Neural Probabilistic Language Model . NIPS'2000, 932-938. MIT Press

[3] Ivan Vasilev, Daniel Slater, Gianmario Spacagna, Peter Roelants, Valentino Zocca. Python Deep Learning. 2nd Edition. Packt. 2019

[4] Aurélien Géron. Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow, 2nd Edition. Oreilly. 2019

[5] Pramod Singh, Avinash Manure. Learn TensorFlow 2.0: Implement Machine Learning And Deep Learning Models With Python. Apress. 2020

//blog.sciencenet.cn/blog-3005681-1281688.html 

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。


  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

图片

科技

  • 美国国土安全部部长敦促小型企业积极防范不断增长的勒索软件威胁
    美国国土安全部部长敦促小型企业积极防范不断增长的勒索软件威胁
    NEWS新闻E安全5月5日讯 ——————————在美国商会主办的一次虚拟活动中,美国国土安全部部长亚历桑德罗·N·马约卡斯敦促小型企业积极防范渐增的勒索软件威胁。 马约卡斯在对大约1500名身为中小型企业所...
    E安全
  • “数”融百业“智”兴万物
    “数”融百业“智”兴万物
      贵阳农产品物流园 许发顺 摄    夏天到来,万物繁茂。黔中大地,在“数据优势”的滋养下,百业兴旺、万企争优,经济发展呈现出一片生机勃勃的样子——  贵阳贵安投入运营及在建的重点数据中心已达23个...
    贵阳晚报
  • 芯片价格涨10倍还缺货,对3D打印行业有何影响?
    芯片价格涨10倍还缺货,对3D打印行业有何影响?
    ↑↑广告南极熊导读:如今,芯片缺货已经成为影响全球众多行业的问题。3月26日,蔚来汽车宣布,因芯片短缺,将合肥江淮汽车工厂的生产暂停5天。福特、通用、本田、大众等多家汽车制造商也都因芯片短缺遭遇停产的...
    南极熊3D打印
  • 友达光电携手台湾大学成立联合研发中心 聚焦次世代关键显示技术
    友达光电携手台湾大学成立联合研发中心 聚焦次世代关键显示技术
    为引进学界创新研发能量、深化前瞻技术开发,友达光电与台湾大学共同成立「友达台大联合研发中心」,于昨(6)日举行揭牌仪式,由台大校长管中闵及友达董事长暨执行长彭双浪共同主持典礼。该中心将聚焦前曕显示...
    WitsView睿智显示调研
  • [报告]2021中国新能源汽车市场洞察(附56页PDF文件下载)
    [报告]2021中国新能源汽车市场洞察(附56页PDF文件下载)
    在中国汽车市场下行的大背景下,新能源汽车市场总体蓬勃发展,该新兴产业正由政策驱动转向市场驱动。随着新玩家不断入局,产业圈层不断拓展,市场洗牌和淘汰也愈演愈烈。在C端占比不断提升的情况下,如何把握个...
    汽车之地
  • 相约漓江·与光同行!5月28日——欢迎报名2021讯石桂林光通信产学研论坛
    相约漓江·与光同行!5月28日——欢迎报名2021讯石桂林光通信产学研论坛
    新闻导读相约漓江·与光同行!5月28日,讯石信息咨询携手桂林光隆科技集团在广西桂林举办“2021讯石桂林光通信产学研论坛”,汇聚光通讯产业链及知名院校,寻求产学研融合,探讨光通信产业更大市场机遇,助力光通...
    讯石光通讯
  • 美国银行的科技高管看好5G和3D打印技术前景
    美国银行的科技高管看好5G和3D打印技术前景
    美国银行(Bank of America Co. ,BAC)的科技高管有意在未来几年倡导使用数据分析、5G无线网络以及可能的3D打印技术的新举措,因疫情期间对该行数字服务的需求激增。据美国银行称,在过去10年里,该行每年在新技术...
    未知大陆
  • 7点见|维权女车主起诉特斯拉索赔5万;IBM宣布推出2纳米芯片
    7点见|维权女车主起诉特斯拉索赔5万;IBM宣布推出2纳米芯片
    各位小伙伴早上好呀!以下是今天的早报!车展维权女车主起诉特斯拉副总裁陶琳 要求赔偿5万元精神损失费河南安阳特斯拉车主张女士5月6日晚在腾讯新闻上发布一份声明,称已经起诉特斯拉对外事务副总裁陶琳。张女士...
    腾讯科技
  • 大突破!IBM全球首发2nm制程芯片及制造技术
    大突破!IBM全球首发2nm制程芯片及制造技术
    5月7日消息,虽然半导体制程工艺的持续推进变得越来越困难,但是根据台积电此前透露的信息显示,其已在2nm工艺上取得了重大突破,乐观的情况下,2nm工艺有望在2023年下半年进行风险性试产,2024年可能将步入量产...
    芯智讯
  • 卡巴斯基公司日前发现美国中央情报局开发的恶意软件
    卡巴斯基公司日前发现美国中央情报局开发的恶意软件
    关键讯息,D1时间送达!据媒体报道,网络安全厂商卡巴斯基公司日前表示,在收集的样本中发现了由美国中央情报局(CIA)开发的恶意软件。据媒体报道,网络安全厂商卡巴斯基公司日前表示,在收集的样本中发现了由...
    企业网D1net
  • 高通芯片高危漏洞影响全球40%手机
    高通芯片高危漏洞影响全球40%手机
    近日,高通公司的移动调制解调器MSM芯片(包括最新的支持5G的版本)中发现了一个高危安全漏洞(CVE-2020-11292),攻击者可以利用该漏洞获取手机用户的短信、通话记录、监听对话甚至远程解锁SIM卡!更可怕的是,...
    安全牛
  • 人民日报报道了
    人民日报报道了
    ▌4月28日,中国联通与陕西省人民政府在西安签署战略合作框架协议。陕西省委书记刘国中、省长赵一德会见中国联通集团党组书记、董事长王晓初一行,并出席签约仪式。中国联通党组成员、副总经理梁宝俊,陕西省副...
    中国联通微学堂
  • 为什么传统软件厂商都想转型做Saas?
    为什么传统软件厂商都想转型做Saas?
    早些年,我工作笔记用的最多的是微软的OneNote,这东西好用不说,不仅能够存在云端,也能存放在本地。可惜到了Office2019之后,OneNote不再随Office软件包附带,而是改为了线上模式,再没法打开本地存放的笔记本...
    人称T客
  • 美国阿拉斯加法院系统因网络攻击而被迫下线
    美国阿拉斯加法院系统因网络攻击而被迫下线
    由于网络攻击,阿拉斯加法院系统(ACS)在本周被迫临时断开其在线服务器,这是由于在其系统上安装了恶意软件,从而破坏了虚拟法庭的听证会。 根据美国证券交易委员会(ACS)周六发布的声明,法院的网站已脱机,...
    E安全
  • 华为卖车,最害怕的是谁?
    华为卖车,最害怕的是谁?
    2021年对于新能源汽车而言,注定是不平凡的一年,汽车行业将迎来前所未有的变革,这或许比前面这十年智能手机给人们生活带来的变化更为显著,汽车行业的“新四化”发展将会带动一系列产业进步。在传统豪华品牌BB...
    汽车事事通
1 2 3 4 5 >> 

公众号 • 人工智能学家

Flag Counter