当前位置: 代码迷 >> 综合 >> 《无人驾驶》九到十章 学习笔记(内容皆来自胡迪?利普森 和 梅尔芭?库曼著的《无人驾驶》)
  详细解决方案

《无人驾驶》九到十章 学习笔记(内容皆来自胡迪?利普森 和 梅尔芭?库曼著的《无人驾驶》)

热度:82   发布时间:2023-12-13 00:45:32.0

第九章 深度学习,无人驾驶的最后一块拼图

  • 神经网络
    不同于逻辑驱动软件,神经网络以人和动物的神经系统为模板。神经元是神经系统的组成单位。
    神经元之间的连接经过长时间的收到刺激或忽略刺激,会改变其连接性,即要么连接加强了,或者连接削弱了,我们把这个过程称为突触可塑造性(Synaptic Plasticity),突触可塑造性的概念在人工智能神经网络的研究中扮演关键的角色,而且是整个深度学习的核心。
    今天在人工神经网络研究的领域包含了好几种不同的方法,但是这些方法都有着一些得到普遍认同的核心观念。
    观点一:神经元彼此连接,组成一个去中心化的神经网络。
    观点二:当个体神经元细胞之间的兴奋加强或减弱时,大脑开始学习。
    观点三:只有达到一定的阈值,神经元才能放电或实现信息的传递。

  • 感知器
    弗兰克?罗森布拉在1957年特制造的感知器“马克1号”是现代深度学习神经网络的鼻祖。罗森布拉特认为感知器能学会任何技能。

  • 第一次人工智能的冬天
    在感知器取得良好开端不久,它便失去了光环。一是因为训练神经网络所需要的计算能力和传感数据仍然不足。二是人为问题——政治反对,反对之首是马文?明斯基,被称为“人工智能之父”的麻省理工学院计算机学教授。人工智能舞台从此拉开了两大主流学派长时间的理论之争:符号主义和神经网络。由于硬件和社会问题,神经网路研究资金被停止。
    15年之后,罗森布拉特的预言成真;计算能力的提高视神经网络结构越来也精密。1971年,罗森布拉特在一次船只事故中去世,年仅43岁。之后,明斯基走上了罗森布拉特的道路,并在若干年后向媒体夸夸其谈人工智能技术的潜力。

  • 神经网路研究的复兴
    1975年,哈佛博士生保罗?韦伯斯发明了一种新型改良的感知器,他为推进人工神经网络的发展做出了两项重要的贡献。
    第一,他推出的神经网络不仅能输出“1”和“0”,还能输出分数数值;
    第二,他提出了一项新的训练算法“误差反向传播算法(Error Backpropagation)”
    先进的数字摄像技术加上韦伯斯的误差反向算法,很快结束了20世纪60年代到70年代人工智能的冬天。但神经网络在人为结构设置的环境中能够取得成功,而在实际应用中它却表现不佳,问题在于神经网络的过度指定、过拟合。
    过拟合问题在于,神经网络能够学会识别训练过的图片内容,却缺乏‘举一反三’、对知识内容扩展的能力。现有“提前停止法”解决这个问题。
    后来,支持向量机成为神经网络的竞争对手,对于视觉识别任务,SVM的表现提高了1%。

  • 神经认知机
    1980年,日本科学家邦彦福岛提出了一种新型的神经网络模型:神经认知机(Neocognitron)。福岛的目标是创造出多层神经元网络,能够稳定地运行视觉识别。福岛的网络软件有三大主要且“及时雨般”的重大进步。
    首先,当图片被“喂食”到网络时,并非一步到位,图片是被分成若干组像素群,而不是把整张图片喂食到输入层。
    第二大进步是神经元克隆。神经认知机每一层的神经元都是克隆的产物,突出连接的力度相同。在这样的前提下,尽管每一层可能有成千上万的突触连接,只需要几个参数就能设置连接的力度。
    最后一项改进是由两种类型的神经元组成的网络人工神经元:S细胞用于特征提取,C细胞用于包容这些特征的变化情况。当不同的神经元曾交替运用时,就会应用到上述神经元。

  • 深度学习的诞生
    机器通过接触大量的信息进行学习,即数据密集型办法,数据对训练十分重要,没有数据支撑的机器算法就是个不中用的摆设。
    李飞飞搭建了全球首家图像大型数据库ImageNet,他的目标不是囤积着一堆杂乱无章的数字图片合集,而是这些图片要有各自的分类,上百名亚马逊土耳其机器人最终解决了众包这个难题。

  • 绘图处理器(GPUs)
    使用GPU加快训练过程,使得训练周期从以“周”为单位减少到“天”为单位。

  • 现代深度学习
    卷积神经网络得到越来越广泛的应用。

  • 神经网络内部
    深度学习网络使用串联式多层人工神经元,从经过软件识别与标上标记的数字图片中捕捉图片特点。
    构建神经网络时,通过进行快速的个体特征分析确定物品分类,首先认识某个细小的特征,然后把该特征抽象出来,应用至更广义、更抽象的概念中去。
    书中以Super Vision这款神经网络为例,分析多层神经元解析机(Multilayer Analytical Engines)如何工作。在神经网络内部,Super Vision采用了更为简单的阈值形式。经过简化的传输功能有助于神经元提升速度,同时韦伯斯的训练算法深入多层神经网络调节其中的节点,有利于解决长期以来困扰多层神经网络的问题。为了解决过拟合问题,Super Vision团队采用一种名为Dropout技术,Dropout技术包括在训练过程中消除部分连接不畅的神经元,它能够让所有的神经元都各司其职参与到计算过程中去。
    创建深度学习网络的第一步是,提供原始视觉数据。每张数码图片包含一个矩阵,矩阵数值以红绿蓝光量化在每一个像素里。输入层内有三个相似但互补的输入矩阵,数值能矩阵之间相互流通。
    由于深度学习网络的种类不同,其神经元层的排列也各异。在标准的卷积神经网络中,第二层神经元与第一层具有数据功能的矩阵相连。例如,第一层含有33排列的矩阵,第二层的神经元负责计算出这些像素的加权综合,排列的神经元能够帮助神经网络完成调校——如果总数大于一定的阈值,神经元将会“放电”或向下一层神经元发出特定的信号。如果数值过低,神经元则安静等待,处于休息状态。当信号扩散后,或者说在神经元之间传送时,神经链中的下一个神经细胞将计算从33窗口里传过来的信号总数。这个过程在神经网络中一直持续进行着。
    大多数深度学习结构中也包括最大池法(max-pooling)的单元,与神经认知器的C细胞相似,从神经元池中抽取最大数值,忽略其他信号。结果证明最大池法能加强网络的稳定性。在大多数的深度学习网络的最后几层中通常包含两层及以上的老式“完全连接”的双层感知器。最后卷积神经网络学会并发现最佳图像特征,这时感知器开始运作。
    当信号抵达最后一层的神经末端,输出神经元会统计内层神经元细胞的“投票结果”。

  • 新型边缘检测
    深层学习网络的外层神经元对于线条和边缘反应更加强烈

第十章 燃料——数据

车辆内置的数字高清地图信息越详细,车辆安全系数越高,对于潜在客户而言市场价值就越高。高清地图的生产和维护成本很高,这正是其市场价值所在,然而长期看来,数字地图将会成为常见商品,两股力量将导致这样转变:
第一,数码相机和深度学习软件性能提升,汽车操作系统的可靠性就从地图数据存储转移到实时场景识别。
第二是“自动化”,一旦汽车能自主驾驶,他们就能自动更新并维护车载数字地图的信息。

  • 机器人的自我管理
    机器学习软件训练消耗的数据越多,软件的性能就越好,从而推动系统越发积极采集数据。
    深度学习软件的能力最终是由软件自己来提高的,这让人想到一个有趣的过程,那就是移动机器人有能力提高车载地图的准确率。这个地图构建的过程被称为“即时定位与地图构建”(SLAM)

  • 预测交通情况
    当无人驾驶汽车进一步开拓其他地图业务,它们的位置、速度和选择路径会生成非常实用的副产品:交通数据。
    无人驾驶汽车将包含复杂的交通预测软件,它使用机器学习软件从实时以及历史交通数据中学习。

  • 个人隐私

  • 道德伦理规范

第十一章 涟漪效应

“零原则”用于评估新技术的长期潜力的小型而实用的测试工具,工作原理是:一项或多项生产工作的成本将降到几乎为零。

  • 工作岗位
    无人驾驶汽车的出现——像在此之前的破坏性技术一样——重塑行业结构,促使上百万个岗位消失。

  • 交通事故带来的工作收入

  • 新型车身

  • 新的市场

  • 新的零售业