机器学习和神经网络 - 页 6

 

人工智能的历史 [纪录片]



人工智能的历史 [纪录片]

人工智能纪录片的历史带我们穿越了科幻作家和电影业催生的“思维机器”概念的早期,到人工智能和深度学习过程的当今进步。这部纪录片展示了所取得的进展在 AI 中,机器像人类一样学习的能力,以及计算机工作原理背后的原理。该视频探讨了计算机的局限性、它们的发展潜力以及人工智能 (AI) 的可能未来。科学家们讨论了机器能够思考和产生新想法的可能性,目标是创建一个更通用的计算机系统,可以通过经验学习、形成概念和做逻辑。迈向 AI 的第一步可以在可以从经验中学习的小型计算机中看到,如电控鼠标解决迷宫的示例所示。

第二部分探讨了计算机在思维、感觉和创造力方面的局限性和潜力。虽然计算机擅长逻辑运算和数学计算,但它们在识别、模式识别和泛化、识别块、翻译语言和执行简单任务方面都很吃力。尽管最初的结果平平无奇,但 SHRDLU 和 TENDRIL 等专家系统和程序展示了计算机如何利用知识来解决歧义和语言学习。然而,教授常识知识(包括事实知识和人们随着时间的推移获得的经验)的挑战仍然存在。神经网络虽然最初很吸引人,但也有局限性,只能处理小任务。研究人员需要训练计算机了解大自然如何构建和协调大脑中的许多微型机器,然后才能构建完全人工的版本。

第三部分涵盖了与人工智能的历史和未来相关的广泛主题。它讨论了基于常识实现通用智能的持续努力,包括 Cyc 项目和 AI 中一般自然语言理解的潜力。还探讨了实现类人智能的挑战,包括对正式智能模型的需求和心理学的作用。受访者讨论了计算机对心理学领域的影响,以及非单调推理带来的挑战和概念突破的必要性。尽管受到批评,受访者仍将人工智能的目标视为一项能够帮助我们更好地了解自己的崇高项目。

  • 00:00:00 在这一部分,我们回到了 1950 年代,那时“思考机器”的想法仍然是一个梦想,只有科幻作家和电影业才持有。电影《会思考的机器》讨论了机器是否真的会思考,这个概念在当时还是太牵强,因为人工智能领域才刚刚起步,研究人员还没有搞清楚如何让机器产生真正的新想法。今天,这部纪录片让我们想起了 AI 和深度学习过程所取得的进步,这些进步为我们有时认为理所当然的技术进步做出了贡献。

  • 00:05:00 在这段文字记录中,一个孩子正在学习字母表,一位心理学家质疑大脑如何识别模式。然后谈话转移到计算机的潜力,通过第一次向他们展示字母表来模仿与儿童相同的学习过程。计算机已经过测试,虽然它并不完美,但随着信息的增多,它可以准确地识别字母,准确度也越来越高。探索了机器能够像人类一样学习的可能性,但机器的具体思维过程仍不清楚,并且正在发现计算机的全部用途。

  • 00:10:00 在本节中,展示了一组名为西蒙和纽厄尔的卡内基理工学院教授试图理解传教士和食人者之谜等逻辑问题。他们通过解决让所有三个传教士和食人者乘坐一艘只能容纳两个人的船过河的问题来代表他们的进步,而食人者的人数不会超过传教士。教授之间的一次谈话表明,他们的一位名叫芭芭拉的学生已经针对计算机现在重现的问题提出了解决方案。此外,教授们还展示了一个人与计算机下西洋跳棋的演示,这引起了人们对计算机根据已编程到其中的概率或合理性进行学习的能力的关注。

  • 00:15:00 在本节中,视频探讨了计算机如何工作的问题,解释了它们接收输入、使用数学运算处理它们并通过编程输出结果。虽然计算机和活体神经系统之间存在相似之处,但神经生理学家认为差异远大于相似之处。该视频还谈到了人类是通过遗传和经验进行编程的想法,提供了一个实验,在这个实验中,孤立地长大的小鸭子无法识别鹅的轮廓。总的来说,本节简要解释了计算机工作原理背后的原理,并深入探讨了有关机器和生物编程的一些想法。

  • 00:20:00 在本节中,两个人讨论了编程与动物本能的概念。一个人认为鸭子区分鹅和鹰的能力是本能的一个例子,而另一个人则认为有些动物天生就有比以前想象的更多的内在知识。他们分析了对青蛙所做的研究,并表明青蛙眼睛中的纤维只向大脑报告与青蛙生存相关的特定事物,例如运动和潜在的猎物。这一理论虽然尚未被广泛接受,但可以解释本能的存在。

  • 00:25:00 在这一节中,我们看到一位研究人员对一个五岁的孩子进行了一项实验,以证明人类天生具有某些先天能力。孩子被要求在他的杯子里倒满牛奶,直到和研究人员的杯子一样多,但他倒满了,以为是一样的量。这表明我们脑海中存在一些关于我们周围世界的先入之见,我们依靠眼睛来形成我们对周围世界的概念。视频继续证明我们用眼睛看到的并不总是准确的,错觉可以欺骗我们的大脑。

  • 00:30:00 在这一部分,一位教授与另一个人谈论人类如何根据先入为主的信念和规则做出反应。该男子质疑计算机是否可以做任何原创的事情,教授向他展示了一部由计算机在名为哈里森莫尔斯的程序员的协助下编写的剧本。观众对戏剧的打印输出感到惊讶,教授解释说这不是魔术,而是精心设计的程序的结果。

  • 00:35:00 在这一部分,麻省理工学院的工作人员 Doug Ross 解释了他们如何使用一个程序编写一个小剧来说明构成智能行为的规则。他们强调智能行为是遵守规则的行为,并展示了如何让计算机进行创造性工作。他们提到了计算机用来确定合理行为的规则,他们甚至编写了影响强盗行为的醉酒因素。他们强调在机器上做这些事情并没有什么黑魔法,而且他们展示了计算机每次都写出不同的剧本,展示了它的创造力。

  • 00:40:00 在本节中,视频探讨了计算机的局限性及其发展潜力。该动画着重介绍了计算机编程所涉及的反复试验过程以及出错的可能性。视频随后展示了一个使用计算机研究人脑信号的实验,强调了计算机在提高我们对学习过程的理解方面的潜力。视频随后向观众展示了林肯实验室及其 TX2 计算机,这是世界上最大、用途最广泛的计算机之一。该视频表明,诸如 TX2 之类的计算机正被用于研究学习过程,并且全球正在为科学目的开发计算机。

  • 00:45:00 在本节中,科学家们讨论了机器能够思考和产生新想法的可能性。虽然一些人认为机器和计算机程序将能够智能地运行并帮助人类减轻智力工作的负担,但其他人怀疑机器是否能够进行真正的创造性思维。预计计算机的未来将产生直接和间接的影响,例如让机器以各种方式工作,以及像人类使用计算机一样学习新事物。第二次工业革命有望成为计算机辅助人类思维的时代,而机器在人类辅助下能做什么的可能性难以想象。

  • 00:50:00 在本节中,重点是人工智能 (AI) 的潜力及其未来可能的发展。目标是创建一个更通用的计算机系统,可以通过经验学习、形成概念和执行逻辑。它将由感觉器官、大型通用灵活计算机程序和输出设备组成。在取得进展的同时,人们也担心如何管理该技术的影响。然而,一位科学家认为,如果我们正确处理它,我们可以创造一个更美好的世界。迈向 AI 的第一步可以在可以从经验中学习的小型计算机中看到,如电控鼠标解决迷宫的示例所示。

  • 00:55:00 在本节中,我们看到了鼠标在迷宫中导航的演示,该演示由电话继电器和簧片开关系统控制。鼠标能够添加新信息并适应变化。该演示展示了鼠标将旧的、过时的信息替换为它正在学习的关于新迷宫配置的信息。虽然真正移动鼠标的是迷宫地板下的机器,但该演示提供了对可以实现的智能行为类型的一瞥。

  • 01:00:00 在本节中,视频探讨了“思考”的定义及其与计算机的关系。虽然计算机擅长存储和调用信息,但仅此一项并不包含真正的思考。然而,计算机可以执行逻辑操作,例如下棋,它们可以分析数据并确定最佳着法。这种基本逻辑功能的显示使一些计算机在业余国际象棋比赛中获得了第一名。

  • 01:05:00 在本节中,视频探讨了计算机如何能够执行逻辑运算,甚至每天做出数百万个逻辑决策,但在可视化和识别能力方面受到限制。虽然计算机可以生成图片和模拟设计,但它们难以识别模式和进行概括。该视频还指出,由于不同语言的单词之间缺乏一对一的对应关系,因此很难教计算机翻译语言。最终,计算机缺乏思考、感受或考虑任何事物的能力。

  • 01:10:00 在本节中,视频讨论了计算机在情感和创造力方面的能力。虽然计算机无法真正感受到情绪,但可以对它们进行编程以模拟它们。同样,虽然创造力通常被认为是人类独有的能力,但计算机能够制作动画电影甚至音乐。计算机的实用性和效率,包括它们可以执行数十亿次而不会出错的数学运算,是不可否认的,但它们是否具有真正“思考”的能力这一问题仍有待商榷。

  • 01:15:00 计算机可以像跳棋一样玩游戏并解决复杂的问题导致人工智能 (AI) 的诞生。这成为以 Marvin Minsky 和 John McCarthy 为首的一群数学家探索的前沿,他们在麻省理工学院设立了一个部门来探索 AI 的可能性。像 Jim Slagle 这样的学生开发了解决微积分问题的程序,并且在 1960 年,一台计算机能够在麻省理工学院的考试中获得 A,表现与普通学生一样。这表明计算机可以拥有智能,并为机器可以思考的未来带来了希望。

  • 01:20:00 在这一部分中,纪录片探讨了人工智能的早期以及该领域的先驱们如何不关心大脑的物理构造。他们将思维视为一个符号处理实体,而大脑只是思维运行的硬件。这部纪录片认为,盲目模仿大自然的做事方式并不总是一个好主意,并且基于鸟类飞行方式进行人工飞行的尝试是一场灾难。这部纪录片突出了麻省理工学院的科学家们试图建立一个可以与世界互动并堆叠积木的计算机思维时出现的困难。据说虽然这看起来像是一项简单的任务,但识别积木实际上非常复杂,并且程序对当你放开积木时会发生什么有一些奇怪的想法。

  • 01:25:00 在本节中,纪录片探讨了教计算机像人类一样看东西和移动的挑战。研究人员发现,视觉的计算问题是如此巨大,以至于许多人决定专注于一种无形的智能形式,称为图灵测试,它衡量机器智能使用语言的能力。为此目的而创建的首批计算机程序之一是“Eliza”程序,它使用了一系列技巧来模拟对话,但不可能通过图灵测试。该纪录片强调了人类语言理解的复杂性如何使开发能够像人类一样理解意义和语境的 AI 语言模型变得困难。

  • 01:30:00 在本节中,视频讨论了使用计算机翻译语言的早期尝试,由于歧义和上下文问题,这些尝试遇到了很大的麻烦。尽管声称计算机可以取代人工翻译,但语言的复杂性以及对人类共同知识和理解的需求使得这项任务比预期的要困难得多。计算机无法识别人脸、学习语言以及执行诸如穿衣服之类的简单任务,这表明人们认为容易的事情对人工智能来说实际上很难完成。人工智能的失败导致资金减少,该领域的前景黯淡。

  • 01:35:00 在本节中,我们看到尽管最初的结果不尽如人意,但 Terry Winograd 的名为 SHRDLU 的程序表明计算机可以使用知识来解决歧义和语言学习。然而,它仅限于一个模拟的方块微观世界。 Edward Feigenbaum 和他的同事随后开发了一个名为 TENDRIL 的系统,该系统捕获了狭窄领域的专家用来做出决策的规则。他们发现,狭窄领域的专家行为只需要几百条知识。这导致专家系统的开发被证明是脆弱的并且缺乏在其知识领域之外操作的灵活性。

  • 01:40:00 在这一部分,纪录片讲述了 1970 年代语言研究人员所面临的挑战,他们试图让计算机像孩子一样听简单的故事。他们发现问题不在于故事所说的内容,而是大量的事情没有说出来,因为它们太明显了,不值得一提。研究人员提出了为计算机可能遇到的不同情况构建框架或脚本的想法,例如生日聚会,其中将包含通常在生日聚会上发生的所有事情。然而,挑战在于如何包含一般背景知识,而不是特定于情况或上下文。这种常识性知识产生了常识性知识问题,使得教计算机解释简单故事变得具有挑战性。

  • 01:45:00 在本节中,摘录讨论了常识性知识以及将其教授给机器的难度。常识性知识是每个人共有的直觉知识,比如知道物体在松开时会掉落。然而,这不仅仅是事实性知识,它也是人们随着时间的推移获得的技能和经验。长期以来,科学家们一直对教机器如何像人类一样学习和获取知识感兴趣,但计算机一开始的学习水平很低,以至于机器学习只有在获得大量常识性知识后才能发挥作用。 PYSCH 项目于 1984 年在德克萨斯州创立,旨在输入常识性知识,是对 AI 的终极考验。然而,批评者认为,真正的常识取决于人体,常识知识不仅由事实构成,还包括儿童随着时间的推移获得的经验和技能。

  • 01:50:00 在本节中,视频探讨了常识知识的概念以及如何通过世界经验获得常识知识,同时还介绍了一位没有身体经验但仍通过语言获得常识的患者的案例。然后视频深入探讨了要构建人工思维,必须先构建人工大脑的论点。人脑由数十亿个以数千种方式连接的神经元组成,其复杂性激发了 1950 年代的科学家们追求构建人工大脑的想法,从而导致感知器的发展,后来又演变成神经网络。神经网络的现代感知模型是一种不断发展的运动,称为连接主义者,它侧重于通过大脑而不是思想进行机器学习。

  • 01:55:00 反复试验,在本节中,纪录片重点介绍神经网络及其局限性。虽然神经网络最初很吸引人,但它们只能完成小范围的任务,而且研究人员还没有完全理解它们是如何学习的。神经网络学习区分有坦克和没有坦克的图片的例子突出了网络得出错误结论的可能性。虽然微型神经网络捕捉像常识这样复杂的东西的可能性很有趣,但研究人员承认,这一长期目标仍远未通过当今的技术实现。此外,由于需要较长的训练时间,尝试创建大于几百个神经元的神经网络常常适得其反。因此,研究人员必须先了解大自然如何构建和协调大脑中的许多微型机器,然后才能构建完全人工的版本。

  • 02:00:00 在本节中,文字记录讨论了人工智能的实际应用如何挪用该术语,但它们与实现基于常识的通用智能的最初追求相去甚远。然而,对 AI 的探索并未放弃,由 Doug Leonard 于 1984 年启动的 Cyc 项目仍在进行中。该项目旨在建立一种知识足以理解语言并学习人类所知道的一切的思想。尽管是没有身体或直接体验世界的软件,但 Cyc 项目中的 AI 实体 Psyche 分析了其数据库中的不一致之处并做出了有趣的新发现,表明它以独特的方式看待世界。

  • 02:05:00 在本节中,讨论的重点是人工智能中一般自然语言理解的潜力以及实现这一目标以防止符号人工智能消亡的必要性。如果成功通过一般自然语言理解的图灵测试,Psyche 项目被称为高风险项目,具有高回报潜力。这种成功可能会导致机器学习程序的发展,以学习未知事物,从而以目前无法想象的方式增强智能。人工智能创始人之一约翰麦卡锡博士回顾了该学科的历史,并预测了它对社会的影响。

  • 02:10:00 在本节中,视频讨论了实现与人类一样智能的计算机程序的困难。尽管在解决数学定理等难题方面取得了一些早期进展,但事实证明,识别语音等常识性任务对于计算机智能来说是困难的。演讲者和他的同事们一直致力于开发等同于人类智能的正式智能模型,但实现这一目标的方法各不相同。心理学领域在这方面也发挥了作用,计算机科学帮助他们摆脱行为主义并获得对认知的洞察力。

  • 02:15:00 在本节中,专家们讨论了计算机对心理学领域的影响,以及这两个领域如何处理意识的概念。虽然计算机提供了对思维运作的深刻见解,但计算机是否真的具有自我意识的问题仍然是哲学辩论的主题。此外,意识只是它的各个部分的总和,就像一台机器,这种观点并不完全准确,因为头脑是由以特定方式相互作用的专门部分组成的复杂系统。

  • 02:20:00 在这一部分,受访者讨论了人类拥有超越我们存在的机械方面的观点的退缩,因为关于人类生理学和心理学的发现越来越多。尽管如此,人类意识的某些方面仍然没有在计算机程序中的机器中实现。这位看好人工智能的受访者表示,可以应用计算机蛮力的问题集合相当有限,人工智能的核心问题是表达智能行为所必需的关于世界的知识。数理逻辑一直被作为实现这一目标的工具,在 20 世纪 70 年代后期,一些人发现了将他们所谓的非单调推理形式化的方法,极大地扩展了数理逻辑在常识领域的力量。

  • 02:25:00 在本节中,受访者讨论了非单调推理以及它如何对计算机中的类人思维提出挑战。普通逻辑通过添加更多前提来得出更多结论,而人类推理并不总是具有该属性。例如,术语“鸟”有一个内在的假设,即它会飞,而额外的上下文可以改变从中得出的结论。非单调推理可以用作数学工具来形式化这种类型的思维,并在计算机中引入对上下文的认识。然而,上下文的挑战在于总是存在无法解释的例外情况,因此需要一个系统来做出假设,除非有相反的证据。

  • 02:30:00 在本节中,人工智能的先驱约翰麦卡锡讨论了人工智能的历史以及为什么人类花了这么长时间才开发出人工智能。他解释说,我们观察自己的心理过程的能力有限阻碍了我们的进步,正如莱布尼茨未能发明命题演算所见,命题演算在 150 年后由 Boule 发明。他还承认,人工智能的未来需要概念上的突破,可能需要几十年到几百年的时间才能在机器中实现真正的类人智能。尽管有人批评人类智能无法复制,但麦卡锡仍将人工智能的目标视为一项旨在更好地了解我们自己的崇高项目。
 

人工智能的诞生



人工智能的诞生

该视频讨论了现代人工智能 (AI) 的诞生,以及在 60 年代和 70 年代初人工智能的“黄金岁月”期间随之而来的乐观情绪。然而,该领域面临着重大挑战,包括 20 世纪 70 年代中期的第一个 AI 冬天,因为他们面临的问题的难度和计算性能有限。

专家系统标志着该领域的一个转折点,将重点从开发通用智能转移到狭窄的特定领域 AI,并有助于提高业务效率。然而,围绕专家系统的炒作导致资金减少,尤其是在 1987 年市场崩盘之后。该视频承认理解和定义 AI 的挑战,并推荐 Brilliant 作为人们了解 AI 从基础构建块到更高级架构的资源。

  • 00:00:00 在本节中,我们将了解现代人工智能在 1956 年达特茅斯夏季研究项目中的正式诞生,“人工智能”一词最早被创造出来。该会议旨在通过描述机器可以模拟的智能的每个特征来模拟人类学习。这七个方面包括对计算机进行编程以使用语言、神经网络、抽象、自我完善以及随机性和创造力。会议之后的时期被称为 AI 的“黄金岁月”,计算和 AI 理论和算法开始实施,包括作为搜索的推理、语义网和微观世界。这些算法是开创性的,并为该领域注入了乐观情绪,使像马文·明斯基这样的人相信,创造人工智能可以在一代人的时间内得到实质性解决。

  • 00:05:00 在这一部分中,视频探讨了人工智能的诞生,以及它如何在 60 年代和 70 年代初产生大量乐观情绪和炒作。这导致主要来自政府的大量资金用于 AI 研究和实施,导致许多研究机构处于当今 AI 研究的前沿。然而,在 70 年代中期,第一个 AI 冬天开始了,因为他们没有意识到他们所面临的问题的困难,再加上这一时期计算机科学领域仍在定义中。列出了五个问题,包括在有限的计算性能下取得突破的事实,以及 Moravec 的悖论,这是卡内基梅隆大学人工智能和机器人研究人员 Hans Moravec 提出的理论。

  • 00:10:00 在本节中,我们将了解专家系统如何通过将重点从开发通用智能转移到狭窄的特定领域 AI 来标志着 AI 领域的一个重要转折点。基于特定领域专家知识的专家系统具有切实的现实影响,并帮助企业提高效率,正如 XCON 物流专家系统所见,它每年为数字设备公司节省近 4000 万美元。此外,专家系统的兴起帮助复兴了联结主义,联结主义成为学习和处理信息的可行方式。 Hopfield 网络和反向传播等训练 AI 的方法在此期间得到普及和完善,为深度学习铺平了道路。然而,随着对专家系统的期望逐渐失控,并且其脆弱的、基于条件逻辑的系统开始出现裂缝,人工智能的资金再次减少,部分原因是 1987 年的世界市场崩盘。

  • 00:15:00 在本节中,文字记录讨论了定义和理解人工智能 (AI) 的挑战,特别是由于过去一个世纪来来去去的炒作周期。该视频承认随着人工智能流行语的兴衰而出现的混乱,从深度学习到人工智能。希望将炒作与人工智能的实际应用分开,例如深度学习系统中的特定领域专业知识。该视频推荐将 Brilliant 作为一种资源,让个人保持头脑敏锐,并从基础构建模块到更高级的架构来学习 AI。
 

监督机器学习解释




监督机器学习解释

该视频解释了监督学习涉及一个带标签的数据集,其目标是学习从输入变量到输出变量的映射函数。标记数据集分为训练集和测试集,模型在训练集上进行训练,在测试集上进行评估以衡量其准确性。
视频指出,如果模型过于复杂并且与训练集过于贴合,就会出现过拟合,导致在新数据上的表现不佳,而如果模型过于简单,无法捕捉到数据的复杂性,则会出现欠拟合。该视频提供了鸢尾花数据集的示例,并演练了训练模型的过程,以使用决策树算法根据其测量结果预测新鸢尾花的种类。

  • 00:00:00 在本节中,视频解释了机器学习的定义和目的,机器学习可用于根据过去的数据进行预测。该视频提供了回归示例,它衡量变量之间的关系,创建一条最佳拟合线,并使用该线预测新数据。视频然后扩展了这个想法来解释分类问题,这涉及添加标签数据和创建决策边界以对新数据的输出标签进行分类。该视频检查了该模型的准确性,并解释了机器学习算法力求最大限度地提高模型准确性。该视频指出,决策树是一种机器学习算法,它使用基于条件语句的方法,类似于专家系统。

  • 00:05:00 在本节中,视频深入探讨了可用于机器学习的不同类型的算法,包括支持向量机以及如何为高维空间添加额外变量。该视频还涉及人工智能、大数据和数据科学的交集,为简单起见,将数据科学和统计学视为一回事。然后视频继续解释监督学习,它由两种主要的学习模型模式组成,回归和分类,以及它如何本质上是模式识别问题的统计数学,更名为机器学习。该视频最后提到了无监督学习和深度学习(将在以后的视频中介绍),以及 Brilliant.org 向那些有兴趣进一步了解这些概念背后的数学和科学的人的推荐。
 

无监督机器学习解释



无监督机器学习解释

该视频解释了无监督机器学习,它处理未标记和非结构化数据,主要用于从非结构化数据中推导出结构。它分为两种类型:关联和聚类,其中聚类涉及使用像 K-means 聚类这样的算法将决策空间划分为离散的类别或聚类。

关联问题识别数据集特征之间的相关性,并且要提取有意义的关联,必须通过降维来降低列的复杂性。此过程涉及最小化表示数据点所需的特征数量并实现有意义的结果和关联,同时防止欠拟合或过拟合。视频的最后一部分介绍了在 Brilliant 上学习数学和科学的概念,该平台提供有趣且相互关联的数学和科学学习,并为观看未来学内容的高级订阅提供 20% 的折扣。该视频还征求了对该频道在 Patreon 或 YouTube 会员资格上的支持,并欢迎在评论中就未来的主题提出建议。

  • 00:00:00 在本节中,我们将了解无监督机器学习,它适用于未标记和非结构化的数据。它代表了大多数现实世界的问题,发生在大数据和人工智能领域的交叉领域。无监督学习主要用于从非结构化数据中获取结构。这种类型的学习被细分为两种主要类型:关联和聚类。聚类涉及使用 K 均值聚类等算法,其目标是将具有多个数据点的决策空间划分为指定数量的离散类别或聚类。这是通过首先添加质心然后在更新质心的同时迭代地将数据点重新分配给它们的新集群来完成的。

  • 00:05:00 在本节中,重点从聚类转移到无监督学习中的关联。关联问题识别数据集特征之间的相关性,这与聚类不同,聚类将相似的数据点组合在一起。要提取有意义的关联,必须通过降维来降低数据集中列的复杂性,其中最小化唯一表示数据点的特征数量。可以通过选择最佳数量的特征来完成特征提取,以避免数据集欠拟合或过拟合。降维是通过流形学习实现的,其中高维数据可以用低维流形表示。数据集的低维表示包含表示问题所需的缩减特征集,并且仍然产生有意义的结果和关联。特征工程是机器学习的一个子领域,包括降维、特征选择和提取。

  • 00:10:00 视频的最后一部分介绍了学习数学和科学的概念,以便更深入地理解频道中讨论的概念。 Brilliant,一个让数学和科学学习变得有趣、相互关联并提供离线学习的平台。此外,用户可以通过访问提供的链接了解未来学并获得 20% 的高级订阅折扣。最后,鼓励观众通过 Patreon 或 YouTube 会员支持该频道,并在评论中留下对未来主题的建议。
 

什么是机器学习(机器学习解释)



什么是机器学习(机器学习解释)

机器学习是一个研究领域,它使计算机无需明确编程即可学习。它涉及使用算法在数据集的决策空间上形成决策边界。这种对机器学习的理解是第二广泛使用的,由 Tom Mitchell 博士建立。

机器学习可以归因于计算能力和存储的增加,允许更大更好的数据,以及深度学习的兴起。虽然它被归类为弱人工智能,因为它执行的任务通常是孤立的和特定领域的。机器学习包含许多不同的方法和模型,虽然由于抽象和简化,它们在预测现实世界问题的输出时永远无法 100% 准确,但它们仍然可以在广泛的应用程序中发挥作用。 Brilliant 被认为是学习机器学习和其他 STEM 主题的资源之一。

  • 00:00:00 在本节中,重点是机器学习的含义和定义以及它与人工智能的关系。机器学习是一个研究领域,它使计算机无需明确编程即可学习。它涉及使用算法在数据集的决策空间上形成决策边界。形成模型的过程称为训练,一旦经过训练的模型在训练数据上表现出良好的准确性,就可以用于推理以预测新的数据输出。这个过程定义了卡内基梅隆大学的 Tom Mitchell 博士建立的第二个最广泛使用的机器学习定义。

  • 00:05:00 在这一部分中,视频通过突出机器学习的五个主要部落来探索机器学习和人工智能的兴起:符号主义者、联结主义者、进化论者、贝叶斯主义者和类比主义者。它接着解释了 AI 的发展是如何从 AI 早期试图创建一个更通用、更强大的 AI 转变为专注于获取各个领域的特定领域专业知识的。机器学习的兴起可以归因于计算能力和存储的增加,从而允许更大更好的数据以及深度学习的兴起。此外,该视频还谈到了由于数据成为行业中的巨大瓶颈,人工智能取得了多少突破。

  • 00:10:00 本节说明虽然机器学习是人工智能的一种形式,但它被归类为弱人工智能,因为它执行的任务通常是孤立的和特定于领域的。机器学习包含许多不同的方法,从复杂的规则和决策树到基于进化的方法等等,所有这些方法的目标都是模拟生活的复杂性,就像我们的大脑试图做的那样。虽然众所周知,由于抽象和简化,模型在预测现实世界问题的输出时永远不可能 100% 准确,但机器学习模型仍然可以在广泛的应用中发挥作用。该视频鼓励观众寻求更多资源以了解更多信息,包括 Brilliant,这是一个提供涵盖各种 STEM 主题的课程和日常挑战的平台。
 

深度学习解释(以及为什么深度学习如此受欢迎)



深度学习解释(以及为什么深度学习如此受欢迎)

该视频解释说,深度学习的流行源于它可以直接从数据中学习特征,并使用神经网络来学习数据集中的潜在特征。深度学习的兴起可归因于大数据、增强的处理能力和简化的软件界面。

  • 00:00:00 在本节中,视频解释了深度学习是人工智能的一个子领域,由于机器学习联结主义部落的成功而变得流行起来。深度学习系统可以直接从数据中学习特征,并使用神经网络来学习数据集中的潜在特征。深度学习的关键要素是使用通用学习程序从数据中学习特征层,而不是手工设计。该视频还提供了一个神经网络检测输入图像中人脸的示例,从低级特征开始,辨别中级特征,最后发现高级特征以识别各种面部结构。该视频最终指出,深度学习的真正诞生是在 2012 年的 ImageNet 竞赛中,获胜算法的错误率为 16%,比最接近的竞争对手高出近 10%。

  • 00:05:00 在本节中,视频讨论了深度学习的兴起如何归因于大数据的普及、计算能力的提高、TensorFlow 等简化的软件界面以及深度学习处理能力等因素非结构化数据。该视频还介绍了神经网络的历史发展,从 60 年代的单层感知器网络到具有数十到数百层的现代深度网络。此外,该视频推荐 Brilliant.org 作为那些有兴趣深入研究深度学习领域的人的一个很好的学习资源。
 

从大脑到人工智能(什么是神经网络)




从大脑到人工智能(什么是神经网络)

该视频讨论了人工神经元(人工神经网络的主要元素)的组成部分,以及它如何基于生物神经元的结构。

它还解释了神经网络如何在可应用于任何类型输入的逐层过程中从大量数据中导出表示。该视频建议前往 brilliant.org 了解更多有关深度学习算法的基本构建块的信息。

  • 00:00:00 在本节中,视频介绍了人工神经元的基础知识,人工神经元是人工神经网络的主要组成部分。人工神经元的结构类似于生物神经元,具有三个主要组成部分:胞体或细胞核、树突或连接其他神经元的臂,以及将信息传入和传出细胞的轴突或长尾身体。该视频展示了深度学习神经网络架构的基本结构是如何从 Santiago Ramon y Cajal 的第一张神经元图导出的,将树突表示为输入,将体细胞表示为处理中心,将轴突表示为输出。此外,神经元之间的连接或突触被建模,连接的强度与线条的粗细有关。

  • 00:05:00 在本节中,视频讨论了神经网络如何从大量数据中导出表征。它继续解释了这是如何在逐层过程中发生的,该过程可以转换为任何类型的输入,从图像识别的像素值到语音识别的语音音频或患者的病史以预测患癌症的可能性。该视频还提到,要了解有关该领域的更多信息,应考虑访问 brilliant.org,这是一个保持大脑敏锐和创造力并了解深度学习算法的基本构建块的平台。
 

如何制作神经网络 |神经网络解释



如何制作神经网络 |神经网络解释

该视频通过讨论所涉及的结构和数学解释了神经网络如何形成模式识别能力。它以图像为例,讨论了输入层、输出层节点,并引入了隐藏层的概念。

然后,该视频深入探讨了激活函数以及它们如何将输入信号转换为输出信号。讨论了双曲正切函数和修正线性单元层,表明构建的神经网络需要大量的人工工程来确保无歧义值。视频推荐 Brilliant.org 了解更多。

  • 00:00:00 在本节中,视频从上一节结束的地方继续,进一步讨论了神经网络的结构和数学,以了解它们如何形成模式识别能力。为了更好地理解这个复杂的主题,将使用图像作为直观示例。输入层定义为构成图像的像素,输出层节点为四种不同类型的结构任意设置。然后视频介绍了隐藏层的概念,它可以应用激活函数来重新映射输入值并为原始节点值添加边界。还合并了权重以显示我们的隐藏层节点的输入如何受到随机输入图像的影响。

  • 00:05:00 在本节中,视频讨论了激活函数如何将输入信号转换为神经网络中以下层可以理解的输出信号。以双曲正切函数为例,它将X轴上的所有值映射到负一到一之间的Y值。通过添加更多节点,感受野变得更加复杂,例如,在第三个隐藏层中,网络开始识别像倒十字这样的模式。最后,引入修正线性单元层,修正负值并保持正值不变,从而形成一个完整的神经网络,可以进行测试。

  • 00:10:00 在本节中,将深入分析上一节中构建的神经网络,以了解它如何识别输入图像中的模式。据透露,构建的网络并不完美,需要大量的人工工程来确保无歧义的价值。该系列的下一个视频将介绍梯度下降和反向传播、将学习置于深度学习中的方法,以及它们如何让网络构建自己的表征。
 

计算机如何学习 |神经网络解释(梯度下降和反向传播)



计算机如何学习 |神经网络解释(梯度下降和反向传播)

该视频解释了神经网络如何通过改变隐藏层中的权重来让网络确定它们来学习。引入成本函数的概念以最小化神经网络的错误率,并将反向传播解释为调整网络参数的基本过程。

连接主义部落涵盖了机器学习的三个主要组成部分,包括表示、评估和优化。该视频还指出,网络并不总是在抽象层中完美地安排自己。深度学习的目标是让网络自己学习和调整权重。

  • 00:00:00 在本节中,重点是神经网络如何实际学习。第一步是通过更改我们之前手动设置的隐藏层中的权重来调整网络,以允许网络本身确定它们。有 181 个潜在权重,可视化每个权重对输出决策空间的影响是一项艰巨的任务。为了简化事情,使用一个简单的数字和 12 个权重,并绘制出带有决策边界的输出节点方程,其中红色 P 大于 Q,蓝色小于 Q。改变网络中的加权值会改变决策边界的斜率。据观察,权重调整导致的所有变化都会产生直线输出,直到应用像 sigmoid 函数这样的激活函数来添加非线性。要实现深度学习,目标是让网络自己完成学习过程和权重调整。

  • 00:05:00 在本节中,视频解释了成本函数的概念以及它如何帮助最小化神经网络的错误率。该视频还解释了在调整神经网络参数值时必不可少的反向传播过程。梯度下降是确定向哪个方向移动的方法,而反向传播实际上是将参数调整到该值,使网络能够产生预期的结果。目标是使加权值接近真实值以最小化成本函数值。在训练网络时重复该过程,直到权重达到它们产生我们期望看到的结果的点。

  • 00:10:00 在本节中,我们将了解连接主义部落中机器学习的三个主要组成部分,包括表示、评估和优化。表示是通过使用定义表示空间的神经网络函数实现的,评估是通过计算输出节点的平方误差来完成的,用于获得成本或效用函数。最后,通过搜索表示模块的空间来实现优化,这是通过梯度下降和反向传播实现的。尽管我们已经对人工神经网络的工作原理做了很多概括,但仍有很多内容我们没有涵盖。其中之一就是网络并不总是将自己安排在完美的抽象层中。
 

神经网络如何工作 |神经网络解释



神经网络如何工作 |神经网络解释

该视频解释了神经网络中的偏差参数,当达到某个阈值时,它会启动节点以激活,以及参数和超参数之间的区别,超参数需要通过优化技术进行微调。

还讨论了学习率,并强调了在避免过度拟合或欠拟合的同时找到最佳学习率的挑战。特征工程是神经网络中的另一个子领域,分析师必须在其中确定准确描述问题的输入特征。该视频指出,虽然理论上的人工神经网络涉及完美的抽象层,但由于所使用的网络类型,它在现实中更加随机,这是通过选择最重要的超参数来选择的。

  • 00:00:00 在本节中,视频讨论了过去的深度学习视频中未涵盖的一些概念。解释了神经网络中的偏差参数,这是另一个必须调整以学习表示的参数。偏置参数的目的是在满足特定阈值时启动节点以强烈激活。该视频解释说,偏差是线性方程的 Y 截距,其中权重是斜率。还讨论了参数与超参数的概念,其中超参数是模型外部的配置,其值无法从数据中估计。讨论强调超参数调整和优化是深度学习的一个完整子领域,需要不同的技术来为不同的参数找到最佳值。还解释了作为超参数的学习率,学习率的值对神经网络将构建的表征具有巨大的影响。

  • 00:05:00 在本节中,视频解释了在神经网络中寻找理想学习率和特征工程的挑战。要找到最佳学习率,需要做大量工作才能确保神经网络正常运行。不合适的学习率会导致过度拟合或欠拟合,从而导致计算能力和时间消耗增加。另一方面,特征工程是分析师必须确定准确描述他或她试图解决的问题的输入特征的子领域。捕获增强信号和消除噪声的特征至关重要,因为当特征很少时可能会发生欠拟合,而当模型过于专业且脆弱而无法响应新数据时可能会出现过拟合。

  • 00:10:00 在本节中,视频解释了虽然人工神经网络的理论概念涉及完美的抽象层,但实际上它更加随机。用于特定问题的网络类型是通过选择最重要的超参数来选择的,这是造成这种情况的一个重要原因。通常选择前馈神经网络来学习深度学习,因为它易于理解。然而,现在出现了许多类型的神经网络,它们更适合解决各种问题,包括卷积网络和循环网络。该视频最后敦促个人保持头脑敏锐,并为多学科问题想出创造性的解决方案。