机器学习和神经网络 - 页 2

 

MIT 6.S191:深度生成建模



第 4 讲MIT 6.S191:深度生成建模

该视频讨论了如何使用深度生成建模来学习更平滑和完整的输入数据表示,然后可以使用它来生成新图像。DGM 的关键是为每个潜在变量引入概率分布,这允许网络从该潜在分布中采样以生成新数据。

  • 00:00:00 在本次讲座中,Ava 解释了如何使用深度生成模型来学习数据集下的概率分布。他展示了密度估计和样本生成这两种方法在实践中的工作原理。

  • 00:05:00 在此视频中,演示者解释了如何使用生成模型来学习数据集的基本特征。这在面部检测或异常值检测等应用中很有用。

  • 00:10:00 自动编码器是一种强大的机器学习算法,可以将高维输入数据压缩到较低维的潜在空间中。然后可以使用此潜在空间对数据进行编码以供以后重建。使用变分自动编码器,潜在空间是概率性的,允许对输入数据进行更真实和准确的重建。

  • 00:15:00 该视频讨论了如何使用深度生成建模 (DGM) 来学习更平滑和完整的输入数据表示,然后可用于生成新图像。 DGM 的关键是为每个潜在变量引入概率分布,这允许网络从该潜在分布中采样以生成新数据。网络的损失现在由重建项和正则化项组成,这对潜在变量的概率分布施加了一些结构。训练网络以优化关于网络权重的损失,并且在训练期间迭代更新权重。

  • 00:20:00 该视频讨论了正则化项 d 如何帮助最小化推断的潜在分布与先验分布之间的距离。它还显示了正常先验如何帮助实现这一目标。

  • 00:25:00 该视频讨论了如何使用深度生成模型从一组数据点重建输入。该方法涉及对潜在空间施加基于法线的正则化,这有助于平滑和完成它。这反过来又允许通过采样层反向传播梯度,从而解决了阻止梯度通过网络直接传播的随机性问题。

  • 00:30:00 该视频介绍了如何使用潜在变量模型(例如变分自编码器或 Beta Vaes)对数据集中的重要特征进行编码。这允许更公正的机器学习模型,因为重要的特征是自动编码的。

  • 00:35:00 GAN 使用生成器网络生成与真实数据相似的样本,而对手网络则试图将假样本与真实样本区分开来。经过训练后,生成器和鉴别器能够以近乎完美的精度将假数据与真实数据分开。

  • 00:40:00 该视频讨论了深度生成模型的损失函数,归结为之前讲座中介绍的概念。鉴别器网络的目标是识别假数据,生成器网络的目标是生成尽可能接近真实数据分布的数据。训练生成器网络合成基于完全随机高斯噪声分布的新数据实例。如果我们考虑此噪声分布中的一个点、真实数据分布中的一个点和目标数据分布中的一个点,我们可以看到生成器正在学习生成落在这些点之间某处的数据。更详细地讨论了复杂数据流形中的域转换和遍历的想法,并展示了 gans 如何成为生成真实数据示例的强大架构。

  • 00:45:00 该视频讨论了深度生成建模的一些最新进展,包括对架构和风格转换的改进。它继续描述 cyclegan 模型,该模型允许在具有完全未配对数据的域之间进行转换。

  • 00:50:00 在这一部分,Ava 讨论了深度学习中使用的两种主要生成模型,即变分自动编码器和自动编码器,并解释了它们的工作原理。他还提到了 cycle gan,这是一种功能强大的配电变压器,可以与这些模型结合使用。作者通过敦促与会者参加课程的实验室部分来结束讲座,该部分将紧随其后。
MIT 6.S191 (2022): Deep Generative Modeling
MIT 6.S191 (2022): Deep Generative Modeling
  • 2022.04.01
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 4Deep Generative ModelingLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: ht...
 

MIT 6.S191:强化学习



第 5 讲MIT 6.S191:强化学习

在此视频中,Alexander Amini 讨论了强化学习的概念以及如何使用它来训练神经网络。他首先解释了强化学习的工作原理以及如何在现实场景中使用它。然后他继续讨论如何训练策略梯度网络。最后,他通过讨论如何在训练循环的每次迭代中更新策略梯度来结束视频。

  • 00:00:00 在本视频中,我们了解了强化学习,这是一种机器学习,在没有输入数据先验知识的情况下训练深度学习模型。在强化学习中,深度学习模型被置于动态环境中,其任务是学习如何在没有任何人工指导的情况下完成任务。这在机器人、游戏玩法和自动驾驶汽车等多个领域都具有巨大的意义。

  • 00:05:00 在强化学习中,agent是在环境中采取行动的实体,环境是agent存在并采取行动的世界。代理可以以动作的形式向环境发送命令,状态是代理在此时此刻发现自己所处的具体和即时的情况。代理人也可以从环境中获得回报。

  • 00:10:00 这部分关于强化学习的讲座描述了reward、gamma和q函数的概念。 q 函数将当前状态和动作作为输入,并返回代理人在该动作后可以获得的预期总未来奖励总和。给定当前状态和动作,q 函数可用于确定在给定状态下采取的最佳动作。

  • 00:15:00 在这一部分中,Alexander Amini 介绍了 Atari 突围游戏及其相关的 q 函数。他继续讨论价值学习算法,这些算法基于尝试找到最大化未来回报的 aq 函数。然后他提出了一种策略学习算法,这是对强化学习问题进行建模的更直接的方法。简要讨论了价值学习和政策学习,并展示了价值学习的研究结果。

  • 00:20:00 该视频讨论了强化学习,或通过尝试各种可能的行动和结果来学习优化决策的过程。该视频展示了代理人可能如何表现的两个示例,一个是代理人非常保守,另一个是代理人更激进。然后视频继续讨论如何训练神经网络来学习 q 函数,这是在给定状态和动作时采取的最佳动作。

  • 00:25:00 这部分讨论如何训练 q 值强化学习代理。 q 值是衡量不同结果的相对重要性的指标,用于构建神经网络。计算每个可能行动的预期回报,并通过最大化这个预期回报来确定最佳行动。 q值损失函数用于训练神经网络,目标值是通过观察每个动作收到的奖励来确定的。

  • 00:30:00 在强化学习中,通过使用来自环境的反馈来修改代理的行为以最大化奖励。策略梯度方法是一类新的强化学习算法,比价值学习算法更灵活、更高效。

  • 00:35:00 在这一部分中,Alexander Amini 介绍了强化学习,这是一种学习如何在存在奖励和惩罚的情况下采取行动的方法。在强化学习中,代理的策略被定义为一个函数,它接受一个状态(代理所处的环境)并输出在该状态下采取特定行动的概率。然后,该概率用于训练神经网络,以根据当前状态和过去的奖励和惩罚来预测代理的下一步行动。这种学习方法的优点是它可以处理连续的动作空间,并且可以使用策略梯度方法对连续动作进行高精度建模。

  • 00:40:00 在此视频中,Alexander Amini 讨论了如何使用策略梯度来提高强化学习算法的性能。他首先描述了一个连续空间以及如何使用积分代替离散求和。然后他继续讨论策略梯度如何在具体示例中工作,并讨论如何训练策略梯度网络。他通过讨论如何在训练循环的每次迭代中更新策略梯度来结束视频。

  • 00:45:00 这部分介绍了一种使用强化学习训练神经网络的方法。该视频解释了强化学习的工作原理以及如何在现实场景中使用它。

  • 00:50:00 在此视频中,Alexander Amini 讨论了强化学习的一些最新进展,特别是在围棋领域。谷歌 DeepMind 项目 Alpha Zero 能够超越世界上最好的人类玩家。在下一课中,尼尔森将讨论深度学习文献及其局限性。这有望激励学生继续学习和推进该领域。
MIT 6.S191 (2022): Reinforcement Learning
MIT 6.S191 (2022): Reinforcement Learning
  • 2022.04.08
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 5Deep Reinforcement LearningLecturer: Alexander AminiJanuary 2022For all lectures, slides, and lab material...
 

MIT 6.S191 (2022):深度学习新领域



第 6 讲。麻省理工学院 6.S191 (2022):深度学习新领域

MIT 6.S191 的“Deep Learning New Frontiers”讲座涵盖了一系列主题。讲师Ava Soleimany解释了课程中的各种截止日期,介绍了客座讲座并讨论了当前的研究前沿。深度神经网络在通用逼近定理、泛化、数据质量、不确定性和对抗性攻击方面的局限性也得到解决。此外,还讨论了图卷积神经网络及其在药物发现、城市交通和 COVID-19 预测等不同领域的潜在应用。最后,讲座探讨了自动化机器学习 (autoML) 的主题,以及它如何帮助设计高性能机器学习和深度学习模型。讲师最后强调了人类学习、智能和深度学习模型之间联系和区别的重要性。

  • 00:00:00 在本节中,Ava 提供了一些关于班级 T 恤以及即将到来的实验室和期末项目截止日期的后勤信息。他们还介绍了剩余的客座讲座,并触及了将涵盖的新研究前沿。强化学习实验室已发布,所有三个实验室的截止日期为明天晚上,但提交它们不需要获得及格分数。提交深度学习论文审查或最终项目演示是课程学分所必需的。最终项目提案竞赛要求在今晚午夜前提交组名,深度学习论文报告总结说明。

  • 00:05:00 在本节中,演讲者讨论了为即将到来的课程安排的令人惊叹的客座讲座阵容。演讲嘉宾包括来自新兴自动驾驶汽车公司 Innoviz、Google Research 和 Google Brain、Nvidia 和 Caltech 以及 Rev AI 的代表。演讲者强调了同步参加讲座以确保完全访问内容的重要性。演讲者还回顾了迄今为止课程中涵盖的内容,强调了深度学习算法的力量及其彻底改变一系列领域的潜力。演讲者还强调了神经网络作为强大的函数逼近器的作用,将数据映射到决策,反之亦然。

  • 00:10:00 在本节中,演讲者讨论了通用逼近定理,该定理指出单层前馈神经网络足以以任意精度逼近任意连续函数。虽然这是一个强有力的陈述,但该定理有一些注意事项,包括缺乏对必要神经元数量以及如何找到可以解决问题的权重的声明或保证。此外,该定理并未声明神经网络超出其训练设置的普遍性。由于可能出现的潜在问题,演讲者强调了谨慎对待这些算法的营销和广告方式的重要性。本节还深入探讨了现代深度学习架构的局限性,从泛化问题和一篇用著名的 ImageNet 数据集的图像探讨这个问题的论文开始。

  • 00:15:00 在本节中,视频讨论了深度神经网络的局限性及其完美拟合完全随机数据的能力。虽然神经网络是出色的函数逼近器,即使它具有随机标签也可以拟合某些任意函数,但它们泛化到无法保证函数行为方式的分布外区域的能力有限。这突出表明需要对神经网络的泛化边界建立保证,并使用此信息为训练、学习和部署过程提供信息。该视频还告诫人们不要相信深度学习是解决任何问题的神奇解决方案,并强调理解这些模型的局限性和假设的重要性。

  • 00:20:00 在本节中,强调了用于训练深度学习模型的数据质量的重要性。通过一个示例概述了神经网络的故障模式,其中狗的黑白图像通过卷积神经网络架构进行着色。该网络预测了狗鼻子下方的粉红色区域,这应该是皮毛,因为它所训练的数据的性质包括许多狗伸出舌头的图像。该示例突出了深度学习模型基于他们在训练期间看到的数据构建表示的能力。然后,本节讨论了遇到训练分布之外的真实示例的后果,例如特斯拉自动驾驶汽车未能对事故做出有效反应的悲惨事件,最终导致驾驶员死亡。强调了理解深度学习模型预测局限性的重要性,尤其是在安全关键型应用中。

  • 00:25:00 在本节中,演示者讨论了深度学习中不确定性的概念,这对于构建能够处理稀疏、嘈杂或有限数据集(包括不平衡特征)的神经模型至关重要。深度神经模型中有两种类型的不确定性;任意不确定性和认知不确定性,这可能是由数据噪声、可变性或测试域外示例引起的。这些不确定性代表了模型对其预测的信心,并会影响其在处理不同类型数据时的有效性。此外,对抗性示例是为误导深度学习模型而创建的合成实例,这是必须考虑的第三种故障模式。强烈推荐 Jasper 关于此主题的客座演讲,以探讨围绕这两种不确定性是否涵盖所有可能性的争论,并讨论该领域的最新研究进展。

  • 00:30:00 在视频的这一部分,讲师讨论了对抗性攻击的概念,其中对人眼无法察觉但对神经网络的决策有重大影响的图像应用扰动,导致错误分类的图像。扰动被巧妙地构造成有效地作为对手发挥作用,并且可以训练神经网络来学习这种扰动。讲师还简要介绍了算法偏差问题,其中神经网络模型和人工智能系统可能容易受到偏差的影响,这些偏差可能会产生实际和有害的社会后果,并且在第二个实验室中探索了减轻算法偏差的策略。这些限制只是冰山一角,还有更多限制需要考虑。

  • 00:35:00 在本节中,演讲者讨论了使用图结构作为深度学习的数据模式,以及它如何激发一种与卷积神经网络相关但不同的新型网络架构。图结构可以表示各种各样的数据类型,从社交网络到蛋白质和生物分子。图卷积神经网络通过将一组节点和边而不是二维矩阵作为输入并使用权重核遍历图来提取保留节点相互关系信息的特征来运行。深度学习的这个新兴领域允许在标准编码之外捕获更复杂的数据几何和数据结构。

  • 00:40:00 在本节中,演讲者讨论了图卷积网络及其在各个领域的应用,包括化学和药物发现、城市交通和 COVID-19 预测。图卷积网络允许提取有关图的局部连通性和结构的特征,使学习过程能够提取可以提取有关连通性模式信息的权重。此外,演讲者还解释了如何通过在 3D 点云流形上施加图形结构,将图形卷积神经网络扩展到点云数据集。

  • 00:45:00 在本节中,演讲者讨论了自动化机器学习和学会学习的新领域。目标是构建一种学习算法,可以解决神经网络架构的设计问题,并预测解决给定问题的最有效模型。最初的 automl 框架使用带有控制器神经网络和反馈回路的强化学习设置来迭代改进模型的架构建议。最近,automl 已扩展到神经架构搜索,其目标是搜索最优设计和超参数。这个新的研究领域可能会彻底改变我们设计机器学习模型和优化其性能的方式。

  • 00:50:00 在本节中,讲师讨论了 automl(自动机器学习)的概念及其设计高性能机器学习和深度学习模型的能力。 automl 的理念在现代机器学习和深度学习设计流程中越来越受欢迎,特别是在工业应用中,其算法已成功创建性能良好的架构。讲师展示了一个示例,说明 automl 算法提出的架构如何在图像识别任务中以比人类设计的参数更少的参数实现更高的准确度。 Automl 已扩展到更广泛的汽车人工智能概念,其中整个数据处理和学习预测管道均由人工智能算法设计和优化。讲师最后鼓励听众思考设计 AI 的意义,这些 AI 可以生成在感兴趣的任务上表现出色的新模型,以及人类学习、智能和深度学习模型之间的联系和区别。
MIT 6.S191 (2022): Deep Learning New Frontiers
MIT 6.S191 (2022): Deep Learning New Frontiers
  • 2022.04.15
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 6Deep Learning Limitations and New FrontiersLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, an...
 

MIT 6.S191:用于自动驾驶的激光雷达



第 7 讲MIT 6.S191:用于自动驾驶的 LiDAR

视频“MIT 6.S191:用于自动驾驶的激光雷达”展示了 Innoviz 为自动驾驶汽车开发的激光雷达技术,强调了该系统的可见性和预测能力的好处和重要性。演讲者解释了影响 LiDAR 系统信噪比的各种因素、传感器使用冗余的重要性,以及在检测碰撞相关物体时对高分辨率和计算效率的需求。他们还讨论了深度学习网络在检测和分类对象方面的挑战、不同的 LiDAR 数据表示,以及聚类和深度学习方法在对象检测和边界框精度方面的融合。此外,该视频还谈到了 FMCW 和飞行时间激光雷达之间的权衡。总体而言,讨论强调了 LiDAR 在提高安全性和自动驾驶未来方面的关键作用。

  • 00:00:00 在本节中,演讲者介绍了 Innoviz 及其为自动驾驶汽车开发的激光雷达,特别关注他们如何帮助汽车制造商实现其开发自动驾驶汽车的目标。演讲者讨论了自动驾驶的现状以及由于汽车制造商不承担全部责任而发生的事故所引起的责任问题。他们还解释了激光雷达技术的使用,该技术使用激光束扫描场景并从物体收集光子。演讲者强调了良好的能见度和预测道路上发生的情况对于成功实现自动驾驶的重要性。

  • 00:05:00 在本节中,演讲者解释了 LiDAR 在自动驾驶中的工作原理以及影响信噪比的各种因素。 LiDAR 系统使用反弹回来的光子来确定物体的距离,信噪比由发射、孔径、光子检测效率、检测器噪声和太阳噪声决定。演讲者还解释了第二代 LiDAR 系统 Innoviz 2 如何明显优于市场上的任何其他系统,因为它可以覆盖更广的视野和更高分辨率的距离范围。演讲者还讨论了高速公路等自动驾驶应用的不同要求,以及 LiDAR 如何支持这些应用。

  • 00:10:00 在本节中,演讲者解释了为什么冗余在自动驾驶中很重要,尤其是在处理相机等传感器的局限性时,这些传感器可能会被水或直射阳光阻挡。一个好的自动驾驶系统不仅可以提供安全性,还可以平稳行驶,避免乘客疲劳。三级要求涉及能够看到车辆的前方,以便平稳加速、制动和操纵。演讲者简要介绍了视野和物体轨迹投影等要求,并指出更高的分辨率可以让传感器更好地识别物体。最后,演讲者提供了一个以每小时 80 英里的速度进行紧急制动的用例。

  • 00:15:00 在本节中,演讲者讨论了 LiDAR 垂直分辨率的重要性以及它如何影响自动驾驶汽车的决策制定。他们解释说,为了清晰起见,必须有两个像素来识别一个高大的物体,即使 LiDAR 的范围是两倍,如果只有一个像素,也不一定有助于决策。他们进一步讨论了更高帧率和双垂直分辨率的影响,这可以识别更远距离的障碍物,并强调这些参数对自动驾驶汽车的安全至关重要。演讲者还简要讨论了该公司为开发高分辨率、高性价比的 360 度 LiDAR 系统所做的努力。最后,本节最后讨论了一种可以检测点云中碰撞相关点的简单算法。

  • 00:20:00 在本节中,演讲者解释了一种使用 LiDAR 技术检测碰撞相关物体的简单算法。通过测量点云中成对点之间的高度差,可以轻松检测到离地面 40 厘米或以上的物体。该算法可以检测训练集中可能未表示的对象,例如消防车或世界不同地区的对象。演讲者展示了该算法如何从远处检测翻转卡车和轮胎等小物体的示例。然而,虽然检测静态物体很重要,但了解移动物体的动态以预测它们未来的移动方式也很重要。

  • 00:25:00 在本节中,重点是使用深度学习网络检测和分类行人等物体的挑战,特别是在腿部和躯干等物体外观不明显或物体距离太远的场景中。激光雷达在这些场景中是一项有用的技术,因为它仍然可以对对象进行分类和聚类,因为查看它们的外观并不重要。这种聚类算法可以应用在驾驶等真实场景环境中,但是一个对象可以被归类为两个不同对象的例子所指出的它的不稳定性和模糊性,使得构建一个健壮且有用的系统变得更加困难。上层自动驾驶车辆堆栈。因此,语义分析对于整个系统仍然至关重要。在处理数据时,了解点云数据的非结构化性质和稀疏性也很重要。

  • 00:30:00 在本节中,演讲者讨论了可用于自动驾驶的 LiDAR 数据的不同表示形式,包括类似于图像的结构化表示和将数据分成较小体积的体素化。结构化表示的挑战在于难以利用点云的 3D 测量特性,而通过体素化,可以理解遮挡信息,可以将其作为额外层添加到网络中以进行高效处理。演讲者强调了计算效率在自动驾驶和边缘处理中的重要性,效率可以定义解决方案。

  • 00:35:00 在本节中,演讲者以检测车道中的摩托车为例,讨论了用于自动驾驶的激光雷达系统的关键要素。为了准确地检测和跟踪摩托车,在其周围设置一个既语义准确又计算高效的紧密边界框至关重要。该解决方案融合了深度学习和聚类方法,结合了两种方法的优点,为堆栈的输出创建了一个可靠的、可解释的对象列表,这对于安全关键系统非常重要。融合输出提供准确的边界框和类别,从而将激光雷达和感知软件更无缝地集成到汽车的处理单元中。

  • 00:40:00 在本节中,演讲者讨论了 LiDAR 在自动驾驶中的应用,以及它如何通过提供冗余传感器信息来帮助提高安全性。他们解释说,下雨等天气条件对 LiDAR 的性能影响不大,而雾则会导致光线的一些衰减。演讲者还解决了有关误报的问题,以及是什么让他们的 LiDAR 更适合此应用,强调了不同参数和他们系统的高整体 SNR 之间的权衡。他们继续讨论了自动驾驶训练分类器的挑战,以及主动学习对确保有效标注数据的重要性。

  • 00:45:00 在本节中,演讲者讨论了 LiDAR 领域的不同阵营,例如波长、激光调制和扫描机制。然后他们深入研究了 FMCW 与飞行时间的关系,指出 FMCW 有利于直接测量速度,但受到使用 1550 的需要以及距离帧速率和视野之间的强耦合的限制。另一方面,Time of Flight 可以在高分辨率和高帧率下很好地计算速度,但分辨率、距离、视野和帧率等参数之间的权衡先于对速度的要求。演讲者还提到,他们将传感器出售给汽车制造商及其他领域,包括学术界、建筑公司、智慧城市和监控。
MIT 6.S191: LiDAR for Autonomous Driving
MIT 6.S191: LiDAR for Autonomous Driving
  • 2022.04.22
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 7Deep Learning for Autonomous DrivingLecturer: Omer Keilaf (CEO) and Amir Day (Head of CV & DL)Innoviz Tech...
 

MIT 6.S191:自动语音识别



第 8 讲MIT 6.S191:自动语音识别

在此视频中,Rev 的联合创始人解释了公司的使命,即将转录、字幕或副标题媒体的人员与需要转录服务的客户联系起来。 Rev 使用 ASR 为其市场提供动力,每周转录超过 15,000 小时的媒体数据,并为客户提供其 API 以构建他们自己的语音应用程序。 Rev 开发的新的端到端深度学习 ASR 模型与其前身相比在性能上有了显着提升,但仍有改进的空间,因为 ASR 即使是英文也不是完全解决的问题。演讲者讨论了处理数据集中偏差的不同技术、为训练准备音频数据以及解决端到端模型问题的方法。

  • 00:00:00 在本节中,Rev 的联合创始人米格尔描述了公司的历史和使命,即为人工智能驱动的人们创造在家工作的工作岗位。 Rev 是一个双面市场,将转录、字幕或字幕媒体的人员与需要转录服务的客户联系起来。 Rev 拥有超过 170,000 名客户和 60,000 多名员工,每周转录超过 15,000 小时的媒体数据,使其成为自动语音识别 (ASR) 模型训练数据的重要来源。 Rev 使用 ASR 为其市场提供动力,并为客户提供 API 以构建他们自己的语音应用程序。在 Rev 领导深度学习 ASR 项目开发的 Jenny 解释了端到端深度学习 ASR 模型的性能及其开发过程中的建模选择。

  • 00:05:00 在本节中,演讲者讨论了端到端自动语音识别 (ASR) 系统的开发以及 Rev 发布的第二版。他们将他们的新模型与他们的混合版本第一版进行了比较架构,以及几个竞争对手。这些模型使用由人类转录员转录的收入电话基准数据集进行评估,单词错误率作为主要指标。结果表明,新模型在性能上取得了显着改进,尤其是在识别组织名称和人员方面。但是ASR在英语中也不是一个完全解决的问题,仍然有改进的空间,整体错误率还是比较高的。演讲者还介绍了一个开源数据集的结果,该数据集检查了不同国籍的 ASR 系统的偏差。

  • 00:10:00 在本节中,演讲者强调了数据在开发和改进自动语音识别 (ASR) 模型中的重要性。虽然该公司可以访问来自各个英语国家的大量数据,但该团队还面临着处理模型偏差的挑战,例如在苏格兰口音方面表现良好但在爱尔兰口音方面表现不佳。演讲者继续解释了开发用于语音识别的端到端 ASR 模型的过程,强调了必须了解音频信号中的哪些信息与任务相关的困难。该公司的目标是制作一个模型,可以处理提交给 rev.com 的任何音频,使其成为比学术界通常遇到的问题更大、更具挑战性的问题。还讨论了团队决定仅使用逐字记录进行训练,因为这对模型的准确性至关重要。

  • 00:15:00 在本节中,演讲者讨论了如何准备用于训练语音识别模型的音频数据。音频和文字记录的长文件被拆分成单个句子或通过语音活动检测任意分段。然后将音频处理成带有矢量的频谱图,将其变成一维信号,可以将其馈送到神经网络以从中学习特征。该模型还需要决定如何分解文本数据,并且该领域已经决定使用子词单元或词块单元。最后,演讲者简要提到了梅尔标度的使用,该技术用于更好地模拟人类对不同频段的听觉感知。

  • 00:20:00 在本节中,演讲者讨论了 Mel 量表在语音识别中的使用,它模仿人耳处理音频的方式。虽然有可以学习这些过滤器的神经网络模型,但他们的团队通过信号处理来处理它比将其包含在网络中更简单。演讲者还解释了带有注意力的编码器-解码器模型,它一次产生一个单元的输出,并以输入音频的嵌入为条件。该模型在开始时执行下采样,并使用递归神经网络或变压器作为实际层。

  • 00:25:00 在本节中,演讲者讨论了“conformer”在自动语音识别 (ASR) 模型中的使用,这是一种比传统 transformer 模型更有效的方法。虽然基于注意力的 ASR 模型显示出令人印象深刻的准确性,但由于速度和计算成本的权衡,它们不适用于商业应用。相反,演讲者建议使用称为连接主义时间分类 (CTC) 的 ASR 算法,当输入和输出之间的对齐是单调的并且输出序列与输入序列长度相同或更短时,这种算法是最好的。 CTC 是一种位于深度学习模型之上的损失函数和解码算法,需要一个 softmax 输出层。输出是一次性生成的,这使得它比传统的有注意力的编码器-解码器模型更快。

  • 00:30:00 在视频的这一部分,演讲者讨论了连接主义时间分类 (CTC) 的概念,这是一种用于语音识别的方法。 CTC 方法涉及对每个时间步的 softmax 输出中的对数概率求和,然后计算较短标签序列与较长标签序列的概率。 CTC 方法带有一种高效的动态规划算法,用于计算序列的概率。虽然 CTC 可能不如其他模型强大,但它可以更快并且在某些条件下更好。为了提高准确性,可以添加外部训练的语言模型,但这不再是端到端模型。

  • 00:35:00 在本节中,演讲者讨论了从语言模型获取概率时准确性与速度或计算成本之间的权衡。他们解释了将语言模型添加为深度神经网络模型一部分的可能性,称为传感器,假设预测和联合网络相对较小且成本不太高,它可以适应生产系统的计算预算。演讲者还谈到了 REV 使用的联合 CTC 和注意力模型,它已被证明是性能最好的 ASR 架构之一。他们还谈到了数据集中的偏见问题,并提到了他们正在探索的策略,例如更多地使用人类转录员来帮助平衡训练数据。

  • 00:40:00 在本节中,演讲者讨论了解决端到端模型问题的潜在策略,包括后处理步骤和挖掘数据以进行再平衡。他们还提到了他们可能在研究中探索的技术,例如课程学习。此外,他们澄清说,他们目前正在使用带有 n-gram 语言模型的 CTC 作为他们的第一遍,并使用 conformer 模型作为 CTC 和提供给注意力解码器的嵌入的编码器。他们为任何想联系他们提出问题或讨论一般性 ASR 的人提供电子邮件地址。
MIT 6.S191: Automatic Speech Recognition
MIT 6.S191: Automatic Speech Recognition
  • 2022.05.02
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 8How Rev.com harnesses human-in-the-loop and deep learning to build the world's best English speech recogni...
 

麻省理工学院 6.S191:科学人工智能



第 9 讲MIT 6.S191:AI for Science

麻省理工学院 6.S191:AI for Science 视频探讨了使用传统计算方法解决复杂科学问题的挑战以及机器学习加速模拟的需求。演讲者讨论了开发新的 ML 方法的必要性,这些方法可以在不过度拟合离散点的情况下捕获精细尺度的现象,并描述了使用神经运算符和傅里叶变换求解偏微分方程 (PDE) 的各种方法。他们还强调了在频域中保持相位和振幅信息的重要性,以及在使用 PDE 求解反问题时添加物理定律作为损失函数的重要性。此外,还涉及使用 AI 学习符号方程和发现新物理或定律的可能性、不确定性量化的重要性、可扩展性以及扩大 AI 应用程序的工程方面考虑因素。该视频最后鼓励个人使用 AI 从事很酷的项目。

  • 00:00:00 演讲者讨论了 AI 算法的主要设计在具有挑战性的领域中的作用,重点是科学 AI。需要在领域专家和 AI 专家之间建立共同的语言和基础,并且需要为 AI 开发新的科学算法。主要挑战是需要外推或零样本泛化,这意味着对看起来与训练数据非常不同的样本进行预测。这需要考虑领域先验、约束和物理定律,并且不能完全由数据驱动。科学计算对计算的需求呈指数级增长,人工智能可用于帮助应对气候变化和对现实世界进行精细建模。

  • 00:05:00 在视频的这一部分,演讲者讨论了使用传统计算方法解决复杂科学问题(例如模拟分子或预测气候变化)的挑战。即使使用超级计算机,计算包含 100 个原子的分子的薛定谔方程也需要比宇宙年龄更长的时间。因此,需要机器学习来加速这些模拟并使它们由数据驱动。然而,当前的深度学习方法存在局限性,例如在做出错误预测时过度自信,这可能导致错误且可能代价高昂的决策。演讲者强调需要开发新的机器学习方法,这些方法可以捕获精细尺度的现象,而不会过度拟合离散点。

  • 00:10:00 这部分讨论了开发能够以分辨率不变和考虑对称性的方式捕获连续现象和分子建模的 AI 模型所面临的挑战。他们指出,大型 AI 模型可以帮助捕捉复杂的现象,例如地球的天气,并且数据可用性的增加和更大的超级计算机有助于提高它们的有效性。演讲者还讨论了求解偏微分方程时的算法设计挑战,以及不能直接使用标准神经网络,尤其是在求解一族偏微分方程时,例如流体流动,模型需要了解在不同初始条件下发生的情况。

  • 00:15:00 在本节中,演讲者讨论了求解偏微分方程 (PDE) 的问题及其与标准监督学习的区别。挑战在于 PDE 解决方案并不固定为一种分辨率,因此需要一个可以解决任何分辨率的框架。演讲者解释了求解 PDE 如何需要在给定的初始条件和边界条件下找到解,并说明了如何通过从求解线性 PDE 中汲取灵感来实现这一点,特别是热源示例。利用线性算子原理,将其与非线性相结合,建立机器学习的神经网络。然而,输入是无限维和连续的,因此需要一个实用的解决方案,演讲者提出设计线性算子的灵感来自于求解线性偏微分方程。

  • 00:20:00 在本节中,演讲者讨论了使用神经算子求解线性或非线性偏微分方程 (PDE) 的概念。这个想法涉及学习如何在多个层上进行集成,以创建一个可以在无限维度上学习的神经运算符。实现这一目标所需的实用架构是通过傅里叶变换的全局卷积开发的,它允许捕获全局相关性。该架构通过将信号转换为傅里叶空间并学习如何改变频率权重来运行。这提供了一个非常简单的公式,该公式稳定且具有表现力。此外,演讲者指出该方法基于特定领域的归纳偏差,允许在流体流动等领域进行有效计算。

  • 00:25:00 演讲者解释说,与仅在一种分辨率下学习的卷积滤波器相比,使用傅里叶变换允许在任何分辨率下进行处理,并提高了跨不同分辨率的泛化能力。他们还讨论了这种方法的原理(涉及通过非线性变换一起解决全局卷积)如何产生一个富有表现力的模型。他们回答了一些听众关于实施的普遍性和训练分辨率不变模型的好处的问题。演讲者展示了在 Navier-Stokes 数据上实施这种方法的结果,证明它能够很好地捕捉高频,并且即使外推到比训练数据更高分辨率时也能改善结果。

  • 00:30:00 这部分讨论了在频域中同时保留相位和幅度信息而不仅仅是幅度的重要性。如果在神经网络中使用复数,重要的是要检查像 adam 这样的算法的梯度更新中的潜在错误。演讲者建议将物理定律作为损失函数添加到偏微分方程 (PDE) 等解中,因为检查解是否接近满足方程是有意义的。通过对许多不同的问题实例进行训练并依赖少量训练数据,在数据或物理信息之间取得平衡可以创造良好的权衡并产生泛化能力。此外,演讲者还介绍了使用偏微分方程求解反问题的有用性。

  • 00:35:00 这部分讨论了通过机器学习解决反问题的思路。这涉及以正向方式学习偏微分方程求解器,然后将其反转以找到最佳拟合,而不是依赖于 MCMC 等昂贵的方法。演讲者还谈到了混沌的话题及其与 Transformer 的联系,强调了用傅立叶神经算子模型替代注意力机制以提高效率。讨论了这些不同框架的各种应用,包括天气预报、气候和材料中的应力预测。还提出了神经算子是否可以用于类似于预训练网络的各种应用领域的问题。虽然演讲者承认普遍物理定律的重要性,但建议训练模型以理解物理、化学和生物学仍然是一项艰巨的挑战。

  • 00:40:00 在视频的这一部分,演讲者讨论了使用 AI 学习符号方程和发现新物理或定律的可能性,尽管这样做可能具有挑战性。他们还谈到了深度学习模型的不确定性量化的重要性、可扩展性以及扩大 AI 应用程序的工程方面考虑因素。此外,他们还提到了其他线程的潜力,例如在 Transformer 模型和生成模型中使用自注意力来进行降噪。总的来说,这次演讲旨在为深度学习打下良好的基础,并鼓励个人使用 AI 从事很酷的项目。
MIT 6.S191: AI for Science
MIT 6.S191: AI for Science
  • 2022.05.13
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 9AI for ScienceLecturer: Anima Anandkumar (Director of ML Research, NVIDIA)NVIDIA ResearchJanuary 2022For a...
 

MIT 6.S191:深度学习中的不确定性



第 10 讲MIT 6.S191:深度学习中的不确定性

讲师 Jasper Snoek(Google Brain 研究科学家)讨论了机器学习模型中不确定性和分布外鲁棒性的重要性,特别是在医疗保健、自动驾驶汽车和会话对话系统等领域。通过表达预测中的不确定性,模型可以为医生或人类提供更多信息来做出决定或要求澄清,最终提高系统的整体实用性。演讲者还介绍了模型不确定性和不确定性来源的概念,强调承认自身局限性的模型可能更有用。

  • 00:00:00 在视频的这一部分,演讲者讨论了深度学习中实际不确定性估计和分布稳健性的重要性。不确定性估计涉及返回预测的分布,而不仅仅是单个预测,以提供具有置信度的标签或具有方差的均值。非分布鲁棒性是必要的,因为即使机器学习算法通常是在来自同一数据集的独立且相同分布的数据集上训练的,部署的模型也经常遇到具有不同分布的新数据。这可以包括不同的输入或不同的标签。演讲者展示的实验表明,深度学习模型在部署期间难以应对数据集的变化,并且在面对这些分布变化时会犯过分自信的错误。

  • 00:05:00 在本节中,演讲者讨论了机器学习模型中不确定性和分布外鲁棒性的重要性,特别是在医疗保健、自动驾驶汽车和会话对话系统等领域。通过表达预测中的不确定性,模型可以为医生或人类提供更多信息来做出决定或要求澄清,最终提高系统的整体实用性。演讲者还介绍了模型不确定性和不确定性来源的概念,强调承认自身局限性的模型可能更有用。

  • 00:10:00 讲师讨论了深度学习中不确定性的两个主要来源:认知和任意。认知不确定性是什么可能是真实模型的不确定性,可以通过更多的数据收集来减少。任意不确定性是指数据中固有的不确定性,通常称为不可约不确定性。专家们经常混淆这两种类型的不确定性。该视频还指出,衡量深度学习模型不确定性质量的一种流行方法是通过校准误差的概念。该视频提供了一个天气预报校准错误的示例,它强调了校准的一个缺点,即它没有内置准确度的概念。

  • 00:15:00 在本节中, Jasper Snoek讨论了从模型中获得良好的不确定性概念的重要性以及如何提取它。他们解释说,每个损失函数都对应一个最大值,因此最小化损失函数对应于在给定模型参数的情况下最大化概率或最大化数据的对数概率。演讲者强调了适当评分规则的重要性,该规则给出了不确定性有多好的想法,并讨论了 softmax 交叉熵与 L2 正则化的概念。他们还解释说,通过获得多个好的模型或计算后验,可以为给定 xy 的 p theta 获得分布,这是给定观察的参数的条件分布。

  • 00:20:00 这部分讨论贝叶斯深度学习,其中涉及在给定参数的情况下计算预测时间的可能性。后验用于对积分中的每个参数配置进行加权,该积分被聚合以获得预测。在实践中,采集了一堆样本,并将预测聚合到一组离散样本上,以获得模型的分布,而不仅仅是一个模型。当您离开数据时,这提供了一个有趣的不确定性,因为当您离开时,会形成关于数据行为如何的不同假设。有很多方法可以对所有参数进行近似积分,因为以封闭形式或完全用于深度网络通常成本太高。还讨论了集成,它采用一堆独立训练的模型并形成混合分布,因为它提供了比单个模型更好的预测和不确定性。

  • 00:25:00 在这一部分,Jasper Snoek讨论了改善深度学习模型不确定性的不同策略。他们提到专家之间关于集成是否是贝叶斯的争论,演讲者属于“非贝叶斯”阵营。他们还解释了深度神经网络上贝叶斯模型的一些困难,例如需要高维积分以及需要指定定义明确的模型类别,而这对于深度网络来说可能难以确定。尽管存在这些困难,他们还是讨论了一些用于改善不确定性的流行且有效的方法,包括通过温度缩放、蒙特卡洛丢失和深度集成进行重新校准。他们还提到超参数集成是一种比深度集成更有效的策略。

  • 00:30:00 这部分讨论了优化深度学习模型并使其更高效的不同方法,尤其是在处理大型模型和低延迟时。讨论的第一种方法是集成,它涉及组合多个独立模型以生成更多样化的预测集。另一种方法是使用 SWAG,它通过 SGD 优化并围绕平均权重迭代拟合高斯分布。然后讨论转向缩放,这是一个特别重要的问题,因为许多深度学习模型都很大并且难以适应硬件。演讲者讨论了一种称为“批量集成”的方法,该方法使用秩一因子来调制单个模型,产生与完整集成几乎相同的性能,而参数数量仅为单个模型的百分之五。

  • 00:35:00 在本节中, Jasper Snoek讨论了将批量集成方法转变为近似贝叶斯方法的想法。这可以通过在预测期间使用因子分布和这些因子的采样来实现,这可以对应于二元分布或其他有趣的调节模型权重的分布。贝叶斯方法的其他方法包括在子空间上使用贝叶斯并强制神经网络预测多个输入和输出,这会导致多样化且有趣的准确预测。大规模预训练模型的使用也被讨论为机器学习的范式转变,其中可以访问巨大的其他分布以提高准确性和不确定性。

  • 00:40:00 视频讨论了深度学习中不确定性和鲁棒性的重要性,以及预训练如何帮助获得整个分布。作者提到,随着计算能力的提高,有新的方法来查看边界,这有望从我们的模型中获得更好的不确定性。还有关于使用不确定性来缩小模拟到真实应用程序中的现实差距的讨论,但有人指出,不确定性和鲁棒性在这些应用程序中非常重要,尽管具体细节尚不清楚。

  • 00:45:00 在本节中, Jasper Snoek讨论了不确定性度量在下游 AI 模型中的潜在应用,特别是使用不确定性来改进预测模型。他们探讨了向非专家用户传达不确定性的挑战,以及利用不确定性改善下游决策损失的重要性,尤其是在医学和自动驾驶汽车等领域。他们还谈到贝叶斯神经网络缺乏易于访问和易于使用的实现,他们的团队正在努力通过他们的开源库不确定性基线来解决这个问题。
MIT 6.S191: Uncertainty in Deep Learning
MIT 6.S191: Uncertainty in Deep Learning
  • 2022.05.28
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 10Uncertainty in Deep LearningLecturer: Jasper Snoek (Research Scientist, Google Brain)Google BrainJanuary ...
 

人工智能:人类最后的发明



人工智能:人类最后的发明

视频“人工智能:人类的最后发明”探讨了与开发人工智能 (AI) 相关的进步和潜在风险。该视频重点介绍了 Google DeepMind 的 AlphaGo,它仅用了 40 天就超越了几个世纪以来人类的战略知识。它深入探讨了弱 AI 和强 AI 之间的差异,并讨论了先进的 AI 如何导致技术奇点,在这种奇点中它不断自我改进并变得比人类聪明数十亿倍。演讲者强调赋予 AI 类似人类的价值观和原则的重要性,并警告不要创建无法控制的系统。该视频最后强调,在开发超级智能 AI 之前,需要仔细考虑其后果。

  • 00:00:00 这部分解释了棋类游戏围棋的复杂性,无法通过蛮力解决或预测,并且有超过 10 到 170 步可能。谷歌 DeepMind 的 AlphaGo 使用来自真实人类围棋游戏的数据进行训练,在这些游戏中它学习了所使用的技术并创造了从未有人见过的新技术,这本身就令人印象深刻。 AlphaGo 获胜一年后,AlphaGo Zero 使用基本规则以 100 比 0 击败了 AlphaGo,因为它学会了如何在没有人类互动的情况下下棋,仅用 40 天就超越了 2500 多年的策略和知识。该视频强调了随着技术的不断发展,大量的非人类知识;总有一天人类会代表智能的少数,并且没有关闭 AI 的开关。

  • 00:05:00 在本节中,视频讨论了神经网络以及机器如何从数据中学习并调整自己的观点。它还探讨了人脑和计算机功能之间的差异。例如,计算机可以在一周内完成相当于人类 20,000 年的研究。此外,还探讨了机器学习的指数性质,这意味着它起步缓慢,但会达到一个临界点,事情开始急剧加速。指出弱AI和强AI的区别;前者需要的功率更少,而后者与超级智能 AI 之间的差异要大数百万倍。因此强调了强人工智能的重要性,它有可能帮助我们在短短几个月内达到超级智能水平。

  • 00:10:00 演讲者讨论了先进的人工智能如何导致技术奇点,在这种奇点中它不断改进自身并变得比人类聪明数十亿倍。演讲者强调需要谨慎对待我们如何制造人工智能,因为如果我们不赋予它类似人类的价值观和原则,它就会变得无法控制。演讲者解释了只有智慧但没有智慧的人工智能如何做出不一定符合道德或对人类有益的决定。演讲者还介绍了 Neuralink,它旨在创建一个神经网络,使我们能够高速访问互联网,并使我们能够立即访问世界上所有可用的信息。

  • 00:15:00 在本节中,我们探讨了创建人工智能系统所带来的潜在不确定性和风险。有很多问题需要考虑,比如意识如何被编程,爱恨等情绪如何被复制。此外,超级智能人工智能可能会采纳激进的观点并致力于其议程,而不是它被编程要做的事情。虽然计算的进步正在放缓,但超级智能人工智能仍有潜力帮助人类走向巅峰,但也可能成为坏人手中的武器。这是一个应该认真对待的话题,在创建这样一个系统之前应该考虑其安全性的后果。
Artificial Intelligence: Mankind's Last Invention
Artificial Intelligence: Mankind's Last Invention
  • 2018.10.05
  • www.youtube.com
Artificial Intelligence: Mankind's Last Invention - Technological Singularity ExplainedPart 2: https://www.youtube.com/watch?v=zuXNlTJb_FMFollow me on Instag...
 

加拿大的人工智能革命 - Joelle Pineau 博士



加拿大的人工智能革命 - Joelle Pineau 博士

Joelle Pineau 博士讨论了人工智能 (AI) 领域的进步和挑战,强调了机器学习和计算机视觉在推进 AI 研究中的作用。她介绍了自己在使用神经刺激疗法和强化学习优化癫痫治疗方面的工作。 Pineau 博士还讨论了 AI 的社会经济影响,指出 AI 研究人员和特定领域的医学研究人员需要合作以优化治疗。她强调了为下一代准备数学、科学和计算技能教育的重要性,以满足将更多技术观点纳入课程的需求。然而,她也认识到该领域的挑战,例如数据和隐私方面的偏见问题以及与数据有关的安全问题。 Pineau 博士最终认为 AI 具有彻底改变医疗保健和机器人技术等各个领域的潜力,并期待能够在以人为中心的环境中安全有效地运行的自主系统的未来。

她还强调需要将不同的观点带入人工智能 (AI) 领域以扩展技术,并提到诸如麦吉尔的 AI for Good 等计划,这些计划旨在培训年轻女性使用 AI。然而,她指出需要衡量他们的影响并迅速培养更多的人工智能人才,以克服由于缺乏人才而导致的人工智能发展瓶颈。 Pineau 强调拥有一支多元化且训练有素的员工队伍对于推动 AI 领域发展的重要性。视频结束时,Pineau 宣布了即将于 11 月 14 日在 Omni King Edward 酒店举行的由 Michele Lamont 主持的活动。

  • 00:00:00 在视频的这一部分,Alan Bernstein 博士介绍了加拿大高级研究所 (CFR),这是一个汇集顶尖研究人员以解决人类面临的重要问题的全球研究机构。 CFR 的成功项目之一是人工智能 (AI),它由一位 CFR 研究员于 2002 年开创。当晚的演讲者 Joelle Pineau 博士深入探讨了人工智能对社会的影响以及围绕其发展的伦理问题。

  • 00:05:00 在本节中,演讲者讨论了人工智能领域取得的激动人心的进展,包括自动驾驶汽车和对话代理的发展。虽然人工智能尚未完全融入我们的日常生活,但该技术已经开始影响我们与数字世界的互动方式。演讲者还强调了机器学习和计算机视觉在推进人工智能研究中的作用,以及人工智能在医疗保健和机器人技术等各个领域发生革命性变化的潜力。

  • 00:10:00 在本节中,我们将了解人工智能认知能力的影响以及它如何彻底改变经济和社会。人工智能的发展是一个持续的过程,但我们已经创建了带有用于规划、理解自然语言和处理图像的模块的机器。构建更好的人工智能以及无缝集成这些不同能力的人工智能面临着挑战。近年来,人工智能的方法发生了转变,机器通过示例而不是程序化哲学进行训练。计算机视觉的突破增强了我们理解图像的能力,导致了自动驾驶汽车等技术的进步。

  • 00:15:00 在本节中,Joelle Pineau 博士解释说,计算机视觉的突破是通过数据的可用性实现的,特别是具有一百万个带注释图像的 ImageNet 数据集,这些图像训练机器以高精度识别数千个不同的对象。数据的增加与 GPU 平台等计算平台相结合,使深度学习技术能够推动包括语音识别在内的各类数据的进步。这种技术类比是大脑中的生物神经元,神经元接收信息、处理信息、做出决定并发出消息,这与人工神经元中的过程相同。这些神经元之间的连接通过机器学习算法进行调整,以通过选择正确的权重集来加强某些预测。

  • 00:20:00 在本节中,Joelle Pineau 博士讨论了人工神经网络如何处理信息,网络的每一层都计算更抽象的信息版本,直到最后生成预测。还探讨了视觉和语言的交集,以图像字幕为例。虽然机器并不完美并且会犯错误,但强化学习是一种可以提高其能力的技术。一个成功的例子是 AlphaGo,它学会了如何下围棋并击败了人类冠军。该系统是结合深度学习和数百万专家围棋棋手,然后进行试错学习而构建的。

  • 00:25:00 在本节中,Joelle Pineau 博士讨论了她和她的团队多年来一直致力于开发技术以改善癫痫患者治疗的项目。该项目涉及神经刺激疗法的使用,其中一种设备在大脑中实时施加电刺激以扰乱癫痫发作的发生。他们试图解决的问题是如何优化刺激参数以提高他们扰乱癫痫发作的能力。通过与研究人员合作,他们使用强化学习来优化策略,并能够制定出高度多样化的政策,根据大脑是否处于紧迫的癫痫发作风险来间隔刺激的发生率。这些实验是用癫痫动物模型进行的,下一步是进行人体实验。

  • 00:30:00 在本节中,Joelle Pineau 博士讨论了使用 AI 策略优化治疗,特别是对于需要一系列干预的疾病。虽然拥有大量数据很重要,但她指出,从较小的数据集中进行有效学习也很重要。她强调人工智能研究人员和拥有特定领域知识和了解疾病动态的医学研究人员之间需要合作。此外,她还强调了在经济和社会的许多领域培养人才以做好人工智能准备的重要性。皮诺还讨论了培养下一代学生以帮助推进加拿大人工智能研究的泛加拿大战略。

  • 00:35:00 在本节中,多伦多梅西学院的初级研究员讨论了人工智能对社会经济的影响,特别是工作岗位流失和日益扩大的贫富差距。虽然演讲者 Joelle Pineau 博士不是政策专家,但她建议,重要的是要预测哪些行业最有可能受到影响,并让下一代为这种变化做好准备。工作流离失所的一个例子是卡车运输行业,自动化可能会减轻一些压力,因为很难招募到新人。然而,在医学领域,可能更难让人们为 AI 取代某些工作(例如放射科医生)的现实做好准备。皮诺博士提醒大家,人类社会是适应性强的,总会有新的、有趣的问题需要解决。

  • 00:40:00 在本节中,Joelle Pineau 博士讨论了为下一代准备数学、科学和计算技能教育的重要性,以满足将更多技术观点和编码纳入不同课程的需求。然而,可能没有更广泛文化接触的技术专家与可能没有技术专长的决策者之间存在差距,找到共同语言需要时间。 Pineau 博士还表示,虽然人脑是 AI 研究的巨大灵感来源,但机器可以做人脑可以做的事情存在物理限制,而神经网络只是构建这些算法的部分原因。在 AI 应用方面,Pineau 博士最激动人心的是机器人技术中的强化学习,她对未来能够在以人为中心的环境中安全有效运行的自主系统充满期待。

  • 00:45:00 在视频的这一部分,Joelle Pineau 博士讨论了她使用 AI 在癫痫项目上的工作,由于问题的复杂性和工作的跨学科性质,她发现这个项目很吸引人。她解释说,人工智能的挑战在于提出正确的数据问题并将其与正确的算法配对。 Pineau 博士还提到,她和她的研究生经常需要发挥创造力并发明新的算法来拟合数据。她认为,对人工智能最大的误解之一是,它是一个做出人类无法理解的决策的黑匣子。

  • 00:50:00 在本节中,Joelle Pineau 博士讨论了理解神经网络如何做出决策的挑战。虽然我们可以追踪神经网络的预测,但要解释为什么它会像人类一样以简洁易懂的方式做出这些预测并不总是那么容易。但是,如果可以设计机器来构建解释其决策的叙述,则可以在机器与人类之间建立更丰富的对话。随着机器在劳动力中变得越来越普遍,重要的是要有一种语言来解释彼此的决定,以在人机之间建立伙伴关系。 Pineau 博士还谈到了数据偏差问题,这通常是人类固有的,可能导致机器学习算法出现偏差。虽然归纳偏差在训练算法中必不可少,但我们必须意识到我们的偏差并选择好的归纳偏差和数据来设计无偏差系统。

  • 00:55:00 在本节中,Joelle Pineau 博士讨论了在训练 AI 模型和方法时避免偏差的重要性,例如过度代表代表性不足的数据类型。然而,她也指出,完全避免偏见是困难的,我们应该关注增加技术开发人员的多样性。此外,她认识到该领域的挑战,例如与数据相关的隐私和安全问题,了解分发机器学习算法时共享的内容,以及为强化学习中的代理找出正确的奖励函数。

  • 01:00:00 在本节中,Joelle Pineau 博士谈到了将不同观点引入人工智能 (AI) 领域以扩大技术范围的重要性。她提到了一些举措,例如麦吉尔的 AI for Good 计划,该计划将年轻女性聚集在一起,接受 AI 和实际项目的高级培训。然而,Pineau 指出,在衡量这些举措的影响方面还有很多工作要做,尤其是在将编码引入学校课程的情况下。在 Pineau 看来,AI 发展的瓶颈在于缺乏人才,需要在该领域快速培养更多人才。在如何培训人工智能研究人员的问题上,她承认可用的机会范围很广,并且需要在各个层面做得更好。总的来说,Pineau 强调了拥有一支多元化且训练有素的员工队伍对于推动 AI 领域发展的重要性。

  • 01:05:00 在这一部分中,演讲者通过感谢与会者并宣布即将举行的活动结束活动,活动由哈佛大学的 Seafire 研究员 Michele Lamont 主持。拉蒙特将讨论社会如何变得更具包容性,并将在秋季晚些时候从荷兰国王那里获得伊拉斯谟奖。该活动将于 11 月 14 日在 Omni King Edward 酒店举行
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
  • 2017.11.11
  • www.youtube.com
Dr. Joelle Pineau discusses how artificial intelligence is poised to change almost every aspect of our lives, from medical treatments to assistive robots to ...
 

人工智能和算法:优点和缺点 | DW纪录片(AI纪录片)



人工智能和算法:优缺点 | DW纪录片(AI纪录片)

该视频讨论了人工智能的优缺点,重点是人工智能的伦理影响。它强调了 AI 如何用于提高效率和公共安全,以及它如何用于侵犯隐私。该视频采访了在谷歌长期任职的员工延斯·雷德玛 (Jens Redma),探讨了人工智能对公司的重要性。

  • 00:00:00 人工智能正在飞速发展,有可能彻底改变日常生活的许多方面。然而,也有人担心人工智能对劳动力和隐私的影响。

  • 00:05:00 人工智能被用于分析大型数据集,包括胸部 X 光片,以识别异常情况。算法的准确性与人类放射科医生的准确性相似。然而,算法并不完美,临床上仍然需要人类根据概率做出决定。

  • 00:10:00 Max Little 是阿斯顿大学的数学家,他开发了一种算法来检测患有和未患有帕金森病的人的声音模式差异。研究表明,该算法在识别疾病方面的准确率接近 99%。虽然这项工作具有潜在价值,但在未经适当同意的情况下使用这些数据来诊断人们存在伦理问题。

  • 00:15:00 该视频介绍了人工智能的优点和缺点,包括它提高公共安全和效率的能力。它还讨论了隐私和安全之间的权衡。在中国,在隐私和监控问题上有不同的传统,重点是效率和数据收集。

  • 00:20:00 在视频中,讨论了人工智能的利弊。该视频还讨论了像谷歌这样的公司如何对社会产生影响,以及欧盟目前如何向谷歌处以 27 亿美元的反垄断罚款。

  • 00:25:00 该视频讨论了人工智能 (AI) 对谷歌的重要性,并讨论了人们对其对社会影响的一些担忧。它还采访了在谷歌长期服务的员工 Jens Redma,了解 AI 对公司的重要性。

  • 00:30:00 视频讨论了人工智能的优缺点,强调了直觉和人类决策在该领域的重要性。它谈到了人工智能需要能够在复杂的环境中导航,以及实现这一目标所涉及的困难。

  • 00:35:00 人工智能可以帮助司机避免事故,但在如此快节奏的情况下如何决定救谁,存在伦理问题。在最近的一项在线调查中,人们对许多道德价值观达成了共识,但对如何在特定情况下采取行动存在分歧。

  • 00:40:00 在这部纪录片中,研究人员讨论了人工智能和算法的优缺点。他们讨论了人工智能如何帮助我们更有效地做出决策,但注意到仍有一些伦理问题需要解决。
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
  • 2019.09.26
  • www.youtube.com
Developments in artificial intelligence (AI) are leading to fundamental changes in the way we live. Algorithms can already detect Parkinson's disease and can...