机器学习和神经网络 - 页 19

 

第 16 讲 学习:支持向量机



16.学习:支持向量机

在视频中,Patrick Winston 讨论了支持向量机 (SVM) 的工作原理以及它们如何用于优化决策规则。他解释说,SVM 算法使用变换 Phi 将输入向量 x 移动到一个新空间,在该空间中更容易分离两个相似的向量。核函数 k 提供 x sub i 和 x sub j 的点积。所需要的只是函数 k,它是一个核函数。 Vapnik 是一名苏联移民,他在 1990 年代初期从事 SVM 研究,他因复兴内核思想并使其成为 SVM 方法的重要组成部分而受到赞誉。

  • 00:00:00 支持向量机是一种划分空间以确定决策边界的复杂方法。它们由 Vladimir Vapnik 开发,意义重大,因为它们可以做出更准确的决策。

  • 00:05:00 该视频讨论了支持向量机的工作原理,并提供了样本何时为正或负的决策规则。
     
  • 00:10:00 在此视频中,Patrick Winston 介绍了支持向量机 (SVM) 的概念,这是一种机器学习算法,可帮助找到问题的最佳解决方案。 SVM 中的第一个方程是成本函数,它是一个接受变量向量并输出数字的函数。成本函数乘以权重向量,该向量对应于成本函数中每个变量的重要性。 SVM 中的第二个方程是优化问题,它是一个接受成本函数和权重向量并试图找到最佳解决方案的函数。通过最小化成本函数来解决优化问题。 SVM 中的最终方程是输出向量,它是 SVM 的输出。

  • 00:15:00 该视频讨论了使用支持向量机 (SVM) 解决问题,并演示了如何使用该技术计算街道宽度。

  • 00:20:00 在此视频中,Patrick Winston 讨论了拉格朗日乘数如何使用约束来优化函数。该视频还介绍了如何使用拉格朗日乘数来查找具有约束的函数的极值。

  • 00:25:00 在此视频中,发现样本的线性和等于样本分量的线性和。另外,对拉格朗日量对不同变量的导数进行微分,证明alpha i 乘以y sub i 的和等于0,这意味着向量w 等于一些alpha 的和i,一些标量,乘以这个负 1 或加 1 变量乘以 x sub i over i。

  • 00:30:00 在此视频中,他解释了如何使用支持向量机解决二次优化问题。说明决策向量是样本的线性和,代数很容易。学生解释说,对于问题中的每一项,通过取 alpha i 乘以 y sub i 乘以 x sub i 的总和来简化代数。

  • 00:35:00 在此视频中,一位数学家解释了决策规则的优化如何仅取决于样本对的点积。这表明数学分析是可行的,优化算法会找到一条直线分隔两个最优解。

  • 00:40:00 在支持向量机中,变换 Phi 用于将输入向量 x 移动到一个新空间,在该空间中更容易分离两个相似向量。核函数 k 提供 x sub i 和 x sub j 的点积。所需要的只是函数 k,它是一个核函数。

  • 00:45:00 该视频讨论了支持向量机 (SVM) 的工作原理,以及如何使用内核来提高 SVM 的性能。 Vapnik 是一名苏联移民,他在 1990 年代初期从事 SVM 研究,他因复兴内核思想并使其成为 SVM 方法的重要组成部分而受到赞誉。
 

第 17 讲 学习:提升



17.学习:提升

该视频讨论了 boosting 的概念,即结合几个弱分类器来创建一个强分类器。这个想法是弱分类器投票,而强分类器是得票最多的那个。该视频解释了如何使用提升算法来提高单个分类器的性能。

  • 00:00:00 视频讨论了提升的想法,即将几个弱分类器组合成一个强分类器。这个想法是弱分类器投票,而强分类器是得票最多的那个。

  • 00:05:00 YouTube 视频解释了如何使用提升算法来提高单个分类器的性能。该算法涉及在不同的数据集上训练每个分类器,然后组合结果。该视频还解释了如何在使用此算法时避免过度拟合。

  • 00:10:00 在视频中,演讲者谈到了如何通过“提升”来提高机器学习算法的准确性。提升涉及查看一组扭曲的样本,其中算法出错的样本会对结果产生夸大的影响。这允许算法从错误中学习并提高其准确性。

  • 00:15:00 在 YouTube 视频中,演讲者解释了如何使用提升来创建一批测试。他还解释了如何计算错误率以及如何使用权重来夸大某些错误的影响。

  • 00:20:00 演讲者解释了如何通过组合多个分类器来构建分类器,每个分类器都有自己的权重。他解释说,这是分类器的最新技术,而且比仅仅将分类器加在一起更有效。

  • 00:25:00 该视频讨论了提升学习算法中涉及的各个步骤。这些步骤包括选择一个能够最小化错误率的分类器、计算 alpha 值以及使用分类器生成修正后的权重。该算法的总体目标是产生一个分类器,该分类器对所有样本数据产生一组完美的结论。

  • 00:30:00 该视频讨论了如何教会机器通过最小化错误率来提高其性能。它通过一系列示例证明了这一点,展示了如何以指数方式降低错误率。

  • 00:35:00 在此视频中,演讲者解释了如何使用 alpha 值计算新权重。他谈到了这个程序是如何工作的,以及知道如何进行数学计算才能找到更好的方法来做这类事情。他还解释了如果答案正确,错误率的平方根除以 1 减去错误率是权重的乘数,而 1 的平方根减去错误率除以错误率是权重的乘数如果答案不正确,则称重。

  • 00:40:00 分类正确的样本权重之和为1/2,分类错误的样本权重之和为1/2。

  • 00:45:00 Boosting 是一种用于提高机器学习模型性能的方法。它通过组合多个弱模型来创建更强的模型来工作。 Boosting对减少过拟合很有效,常用于手写识别和语音理解等领域。

  • 00:50:00 该视频讨论了“提升”的概念,这是一种提高机器学习算法性能的方法。提升涉及训练一系列弱分类器,然后组合它们的预测。与使用单个强分类器相比,这通常会带来显着的性能改进。
 

第 18 讲。表示:类、轨迹、转换



18. 表示:类、轨迹、过渡

在此视频中,Patrick Winston 教授讨论了人类智能的概念、形成符号表示的能力及其与语言的关系,以及使用语义网表示内在语言和思想。温斯顿强调理解基本模式和开发变化词汇的重要性,以帮助理解不同的对象及其行为。此外,他还讨论了使用轨迹帧来描述涉及从源到目的地的运动的动作,以及多重表示对于更好地理解句子的重要性。最后,Winston 提供了有关如何通过避免模棱两可的语言、令人困惑的代词和转换单词来改进技术写作的技巧,特别是对于非英语母语者。

  • 00:00:00 在本节中,Patrick Winston 首先反思人类智能与机器智能相比的本质。他解释说,虽然机器可以通过支持向量机和提升等方法执行智能任务,但它们缺乏对自己在做什么的理解,也无法提供对人类智能的洞察力。温斯顿然后讨论了人类智力的进化观点,强调了我们家谱中大脑体积的增加。然而,他指出大脑的大小不足以解释人类的智力,因为比现代人的大脑更大的尼安德特人并没有产生太大的影响。相反,是南部非洲的一群智人开发了一些其他人没有的东西并迅速接手,工具和艺术品就是证明。

  • 00:05:00 在本节中,演讲者讨论了形成符号表示的能力使人类能够讲述和理解故事的想法。这种与语言发展相关的能力让我们这个物种变得特别,因为我们可以将两个概念放在一起形成第三个概念,没有限制。他还讨论了“内在语言”的概念——我们用来思考的语言,可能与我们用来交流的语言不同。演讲者建议使用语义网来表示内在语言和思想,语义网是传达意义的节点和链接网络。他提供了语义网络的示例,例如一个注释支持关系的网络和另一个跟踪 Macbeth 中事件的网络。

  • 00:10:00 在本节中,演讲者讨论了语义网的概念、它们的元素以及它们在人工智能中的应用。语义网是一种使用节点和链接表示信息的方法,链接连接节点。它们允许将链接之间的连接视为可以作为其他链接的主题或对象的对象。另一个概念是“具体化”,这是将链接视为对象的过程。演讲者强调了将定位层置于组合器网络概念之上的重要性。分类的使用是语义网内部语言中最有用的元素之一,适用于钢琴、工具和地图等事物。还存在寄生语义的风险,即我们将自己的理解投射到机器上,而机器并不以与物理世界的任何接触为基础。

  • 00:15:00 在本节中,Patrick Winston 教授讨论了我们对物体的理解中的层次概念。他强调,我们在不同的层次上了解不同的事物,并且根据分类的特殊性,一些对象比其他对象更容易形象化。例如,很难形成工具的图片,但圆头锤更具体,因此更容易形象化。温斯顿还指出,我们使用层次结构中的元素来悬挂有关对象的知识,而层次结构中的基本级别是我们悬挂大部分知识的地方,例如“钢琴”一词。此外,Winston 还讨论了我们如何在层次结构中讨论不同层次的对象,以汽车撞墙为例,其中涉及考虑各种因素,例如汽车的速度、与墙壁的距离以及墙壁的状况。车。

  • 00:20:00 在本节中,演讲者讨论了如何使用变化词汇来理解不同时间段的对象,例如车祸等事件之前、期间和之后。词汇包括减少、增加、变化、出现和消失等元素,所有这些都与视觉密切相关。类比也用于帮助理解不同的概念,例如相机的工作原理。演讲者还介绍了轨迹作为表示的第三个元素,它涉及沿轨迹移动的对象。总的来说,演讲者强调了理解基本模式和开发一种可以帮助我们理解不同对象及其行为的语言的重要性。

  • 00:25:00 在本节中,演讲者讨论了使用轨迹帧来描述涉及从源到目的地的运动的动作。这些框架由各种元素组成,包括对象、代理和工具等。演讲者指出,在英语等语言中,介词经常被用来修饰这些元素。此外,演讲者还讨论了角色框架,这些框架缺乏轨迹但仍包含工具和受益人等元素。演讲者解释说,这些框架在华尔街日报语料库中很常见,可用于分析给定文本中转换和轨迹的密度。最后,演讲者介绍了故事序列的概念,并举例说明了为避免麻烦而选择的中性名称。

  • 00:30:00 在本节中,视频讨论了多重表示的重要性以及它们如何能够更好地理解一个句子。给出的例子是 Pat 安慰 Chris,它可以分解为一个角色框架和一个过渡框架,其中涉及一个情绪可能得到改善的对象 (Chris)。该视频还探讨了将动作更改为负面(如恐吓)会如何影响画面。此外,该视频介绍了轨迹框架的概念,作为一种心理图像,可以从“Pat kissed Chris”这样的句子中形成。

  • 00:35:00 在本节中,Jordan Peterson 教授讨论了人类如何使用事件序列来创建故事的表现形式。他解释了这种表现如何从简单的亲吻或刺伤到复杂的故事,以及它如何根据事件发生的背景而变化。他还谈到了顺序在讲故事中的重要性,以及我们的记忆如何植根于顺序的概念。最后,他讨论了故事库如何帮助人类根据他们所属的超类(例如事件框架、灾难框架和聚会框架)更多地了解他们遇到的故事。

  • 00:40:00 在本节中,演讲者讨论了如何将事件分组到框架类型中,例如聚会和灾难。每一帧都有特定的插槽来填充信息类型,例如死亡人数或新娘和新郎的姓名。然而,由于代词先行词的句法挑战,理解故事可能很困难。演讲者强调了在讲故事时不要增加不必要的句法困难的重要性,因为这会妨碍理解。报纸记者会以清晰简洁的方式撰写故事,以确保读者能够轻松理解信息。

  • 00:45:00 在本节中,帕特里克·温斯顿 (Patrick Winston) 提供了有关如何改进技术写作的技巧,特别是对于希望用英语清晰写作的俄罗斯和德国作家。他建议避免使用代词以减少读者的歧义和混淆,而应使用明确的名词。他还强调了避免使用“前者”和“后者”之类的词的重要性,因为这些词需要读者回过头来确定它们的意思,并避免切换“铲子”和“铲子”之类的词。根据 Winston 的说法,通过遵循这些简单的规则,技术作家可以让他们的文章更清晰,更容易让读者理解。
 

第 19 讲 架构:GPS、SOAR、包容、心智社会



19. 架构:GPS、SOAR、包容、心智社会

该视频讨论了用于创建智能系统的各种架构,包括通用问题解决器和 SOAR 架构,后者大量结合了认知心理学实验并侧重于解决问题。演讲者还讨论了马文·明斯基 (Marvin Minsky) 的“情感机器”,它考虑了多个层面的思考,包括情感,以及主张让计算机像人类一样具备常识的常识假设。还讨论了受人脑结构启发的包容架构,Roomba 就是一个成功的例子。想象和感知事物的能力与描述事件和理解文化的能力相关,语言在构建描述和组合器中起着至关重要的作用。强调了进行看、听、画和说话等活动以锻炼大脑的语言处理区域的重要性,演讲者警告说快说话的人可能会干扰语言处理器并导致做出冲动的决定。

  • 00:00:00 在本节中,教授讨论了用于创建智能系统的各种替代架构。他首先谈到了 2007 年爱沙尼亚的网络攻击,以及没有计算机能够理解其背后的故事,除了他稍后将演示的一个。然后,他继续讨论由卡内基梅隆大学的 Newell 和 Simon 开发的通用问题求解器,其中智能系统通过测量当前状态和目标状态之间的符号差异并选择运算符从中间状态移动到目标状态来运行。更好的状态,重复这个过程,直到达到目标。本节最后解释了下一讲将涵盖的想法,该讲将重点介绍如何在 AI 业务中创办公司时避免破产。

  • 00:05:00 在本节中,我们了解了手段-目的分析的概念,它涉及识别当前状态和期望的最终状态之间的差异,并选择合适的运算符来最小化差异。给出了使用手段-目的分析来解决从麻省理工学院回家的问题的例子,说明了识别差异和选择运算符的递归过程,直到达到所需的最终状态。虽然通用问题求解器的概念在当时是一个令人兴奋的想法,但由于难以构建将差异与操作员相关联的表,所以结果并没有达到预期。这导致了更新的 SOAR 架构的开发,它代表“State Operator And Result”,尽管该架构的支持者断言它只是一个标签而不是首字母缩写词。

  • 00:10:00 在本节中,重点是 SOAR 架构及其不同组件。 SOAR 由长期和短期记忆、视觉系统、行动系统和偏好系统组成。该架构大量结合了认知心理学实验,其主要重点是解决问题。此外,SOAR 有一个精心设计的子系统,用于打破基于规则的系统中的联系,它以人是符号操纵者的思想为中心。该系统旨在系统地解决问题,并且它有一个精心设计的偏好系统来打破基于规则的系统中的联系。

  • 00:15:00 在本节中,演讲者讨论了严重偏向于解决问题的各种架构,包括 SOAR 和 Newell 的架构。然而,根据演讲者的说法,最重要的架构是 Marvin Minsky 的“情感机器”,它强调了解决问题的方式可能是分层的。演讲者通过一个简短的小插图提供了一个马文建筑的例子,一个女人正在过马路。 Marvin 的建筑突出了女性所经历的不同思维层次,从听到声音的本能反应到社会背景下的反思思维。

  • 00:20:00 在本节中,SOAR 架构侧重于解决问题,而 Minsky 的“情感机器”考虑了多个层面的思考,包括情感。然而,常识的发展阻碍了实现这种思维,因为计算机从来没有太多的常识。因此,常识假说认为,为了让计算机拥有如此智能的思维过程,它们必须像人类一样具备常识。这催生了开放思想项目和从万维网收集常识作为实现分层思维的手段。相比之下,Rod Brooks 和他的包容架构认为,机器人不能做很多事情,因为人们正在以错误的方式思考构建机器人,将视觉系统、推理系统和动作系统封装起来。相反,布鲁克斯建议让抽象层专注于处理世界,例如避开物体、徘徊、探索和寻找。

  • 00:25:00 在本节中,演讲者讨论了罗德尼·布鲁克斯 (Rodney Brooks) 提出的架构,该架构的灵感来自人脑的构建方式,其中旧部分位于深处,新皮质层叠在其上。布鲁克斯假设,人们可以让一台机器像昆虫一样聪明,而不必像我们在课程中专注于表示的方式那样需要表示。他的想法是使用世界而不是模型,所以一个人所做的一切都是反应性的,而不是头脑中有一张房间的地图。最纯粹形式的机制只是有限状态机。 Brooks 将这个想法命名为包容架构,它被用在了非常成功的 Roomba 机器人中。 Roomba 使用红外接近传感器进行导航,这有助于避免集中控制器和对世界模型的需求。

  • 00:30:00 在视频的这一部分,演讲者讨论了包容架构,以能够找到并捡起罐头的机器人为例。该机器人使用激光划线器定位罐头,并在其手臂中安装传感器以特定方式抓取罐头。机器人还使用磁罗盘导航回到起点。演讲者还提到了其他架构,如 SOAR 和 GPS,并介绍了以语言为中心并引导感知系统的创世架构。

  • 00:35:00 在本节中,演讲者讨论了想象和感知事物的能力如何与描述事件、讲述和理解故事以及最终理解文化的能力相关联。他举例说明人们如何知道没有明确教给他们的东西,例如操作台锯时戴手套的危险。他提出“强故事假说”作为 50,000 年前我们物种繁盛的可能解释,他认为这为我们提供了讲故事和理解故事的能力。

  • 00:40:00 在本节中,我们将了解一个实验,该实验被认为是认知和发展心理学中有史以来最重要的一系列实验。实验包括将食物放在长方形房间两个相对角的篮子里,然后让老鼠、小孩和成人旋转,看看他们去了哪里。他们都倾向于带着食物去两个角落,除非一面墙被漆成蓝色。老鼠和孩子仍然以相同的概率去到两个对角角,而大人只去有食物的角。当孩子开始使用“左”和“右”来描述世界时,他们就长大了。

  • 00:45:00 在本节中,演讲者与一名志愿者进行了一项实验,以证明语言如何在构建描述和组合器中发挥关键作用。实验涉及阅读一本书中的一段话,而志愿者同时重复它,干扰他们的语言处理器,导致他们无法连接某些形状和颜色。演讲者建议,进行看、听、画、说等活动,可以锻炼大脑中负责语言处理的相同区域,让你变得更聪明。此外,演讲者会警告说话快的人,以及他们如何干扰您的语言处理器,导致您冲动地做出决定。
 

第 21 讲概率推理 I



21. 概率推理 I

在这个关于概率推理的视频中,帕特里克温斯顿教授解释了如何在人工智能中使用概率来根据各种场景进行推理和计算概率。他用雕像的出现、狗对浣熊或窃贼吠叫、公元前1861年麻省理工学院成立等例子来演示联合概率表的使用,如何使用公理和链式法则计算概率,以及独立性和条件独立性的概念。演讲者强调了正确陈述变量独立性的必要性,并建议使用信念网作为表示变量之间因果关系的一种方式,同时简化概率计算。

  • 00:00:00 在视频的这一部分,Patrick Winston 教授讨论了概率在人工智能中的应用,特别是因为它与随机事件的观察有关。他以在校园里观察一座雕像的外观为例,并构建了一个表格来跟踪可能导致雕像出现的事件的可能组合。他指出,表中的行数是变量数的 2,并且可以使用长时间的观察来确定每个事件发生的概率。归根结底,任何给定事件的概率只是其发生频率除以观察总数。

  • 00:05:00 在本节中,演示者演示如何使用联合概率表来计算各种概率。使用的示例涉及在满足某些条件(例如存在艺术展和黑客攻击)的情况下知道雕像出现的概率。演示者还对基于狗吠的浣熊出现的概率以及在浣熊存在的情况下狗吠的概率进行了类似的计算。该演示展示了如何使用联合概率表来根据不同的场景进行推理和计算概率。

  • 00:10:00 在本节中,演讲者讨论了使用联合概率表来计算概率推断。尽管此工具很有用,但更复杂情况所需的大量行可能难以管理,因此除了概率推理之外,还需要考虑其他方法。演讲者还提出了一个假设场景,其中麻省理工学院成立于公元前 1861 年,并讨论了可能用于确定哪些物体漂浮的实验方法。

  • 00:15:00 在本节中,演讲者讨论了概率的基础知识及其支撑的公理。他们解释说概率必须大于 0 小于 1,在二元世界中,为真的概率为 1,为假的概率为 0。演讲者还介绍了第三个公理,即 A 的概率加上 A 的概率B 减去 A 的概率,B 等于 A 或 B 的概率。他们指出,这种对概率的基本理解是概率推理中使用的更复杂计算的基础。

  • 00:20:00 在本节中,演讲者解释了使用公理处理概率的正式方法,以及如何通过涉及空间讨论的直觉来反映它。 a 的概率与圆相对于矩形总面积的大小有关,公理一到三在该图方面是有意义的。演讲者随后解释了条件概率以及它如何被定义为给定 b 的概率,它等于 a 和 b 的概率除以 B 的概率。这个定义是有道理的,因为它将考虑的范围限制在原始宇宙的一部分。

  • 00:25:00 在本节中,演讲者介绍了将概率空间分为三部分的想法,并解释了如何确定 a、b 和 c 的概率。通过扩展公式,所有事情都是这样的概率被分解为三个条件概率的乘积。然后演讲者将这个想法概括为链式法则,它指出一组事物的概率可以写成条件概率的乘积。尽管演讲者的图表只讲了一半,但他们表明他们取得了良好的进展。他们讨论的下一个概念是条件概率的概念。

  • 00:30:00 在这一部分,教授解释了独立性和条件独立性的定义。独立性是指 a 的概率不依赖于 b 的情况。例如,如果 a 和 b 是独立的,则给定的 b 等于 a。条件独立意味着如果世界被限制在 z 中,那么 a 的概率不依赖于 b 的值。教授使用直觉主义图表来说明这些概念,使用图表的区域来表示概率。

  • 00:35:00 在本节中,讲师讨论了概率推理中的条件独立性以及它如何导致推断变量的联合概率。他使用一只狗对浣熊或窃贼吠叫的例子来解释这个概念,以及添加两个以上的变量如何导致需要一个大的联合概率表。然后,他介绍了信念网的概念,作为表示变量之间因果关系的一种方式,并强调需要正确说明每个节点都独立于其非后代变量。

  • 00:40:00 在本节中,演讲者讨论了给定非后代父母的独立性概念,以及理解这种语言在概率推理中的重要性。然后,演讲者创建一个模型,根据浣熊等其他因素的存在来确定各种事件的概率,例如窃贼出现或狗叫声。演讲者指出,指定模型只需要 10 个数字,与尝试直接构建联合概率表相比,这节省了大量工作。

  • 00:45:00 在本节中,演讲者讨论了链式法则在计算全联合概率表时的使用。他们解释了如何使用条件独立知识,他们能够从公式中剔除某些概率,因为它们不依赖于后代。通过对公式进行特定的排列,演讲者无需编造数字或进行大量测量即可计算出完整的联合概率表。发言人指出,在这种特殊情况下,他们只需要从 32 个数字中设计出 10 个数字,并质疑如果有更多的属性,可以节省多少。
 

第 22 讲概率推理 II



22.概率推理II

在此视频中,Patrick Winston 教授解释了如何使用推理网(也称为“贝叶斯网”)进行概率推理。他讨论了如何使用链式法则对贝叶斯网络中的变量进行排序,以计算所有变量的联合概率。演讲者演示了如何通过运行模拟来累积概率以及如何使用模型生成概率。他还讨论了贝叶斯规则以及如何使用它来解决分类问题、选择模型和发现结构。视频强调了概率推理在医学诊断、测谎、设备故障排除等各个领域的实用性。

  • 00:00:00 在本节中,Patrick Winston 教授讨论了推理网(也称为“贝叶斯网”)的使用,用于进行概率推理。他首先回顾了联合概率表,点击相应的框就可以用它来决定一个概率,但问题是当涉及到很多变量时,编造或收集数字变得困难且耗时。他继续使用推理网络执行计算以获得事件同时发生的可能性。这里使用了链式法则,本节最后解释了这条规则。

  • 00:05:00 在本节中,演讲者讨论了在贝叶斯网络中对变量进行排序的过程,以及如何将其与链式法则一起使用来计算所有变量的联合概率。通过以这样一种方式安排变量,使其后代不会以线性顺序出现在其左侧,并使用链式法则,他能够计算出这些变量的任何特定组合的概率。他断言,这种情况下的所有条件概率都是非后代的,并且根据依赖关系剔除变量可以帮助计算表中的任何条目。

  • 00:10:00 在本节中,演讲者解释了如何使用小型网络来完成任何可以用表格完成的事情,以及实现这一目标所需的概率。他讨论了他如何扩展表格以跟踪计算狗叫或 B 发生的概率所需的计数,并使用实验结果在表格的相关部分给出刻度线或计数,最终导致演示过程。

  • 00:15:00 在视频的这一部分中,教授首先演示了如何通过运行模拟来累积网络的概率。他解释了如何解释表格并跟踪数据元素告诉您特定组合出现的频率。他运行多次模拟以获得更准确的概率。然后,他演示了如何通过在顶部概率表中来回移动并掷硬币来模拟系统为所有变量生成值的组合。

  • 00:20:00 在本节中,演讲者讨论了通过在概率表中选择适当的行来生成场景概率的过程。然后,演讲者继续解释如何使用左侧的模型生成这些概率,该模型可用于生成数据以计算右侧的概率。然而,演讲者承认对于给定的场景可能有多个正确的模型,因此很难确定哪个是正确的。为了解决这个问题,演讲者介绍了朴素贝叶斯推理的概念,它涉及以允许使用贝叶斯定理进行计算的方式重写条件概率。

  • 00:25:00 在本节中,视频解释了如何使用贝叶斯规则来解决分类问题。例如,在诊断疾病时,可以通过将证据给定疾病的概率除以证据的总体概率,然后乘以给定疾病的先验概率来计算给定证据的疾病概率。如果存在多个独立证据,则可以计算给定疾病的联合证据概率除以证据的总体概率,然后可以比较所有相关类别的概率。

  • 00:30:00 在本节中,讲师讲述了一个关于选择两种硬币的故事,一种是正面朝上的概率为 0.8,另一种是正面朝上的概率为 0.5。抛硬币后,讲师根据先验概率和抛硬币的证据,使用贝叶斯概率计算出选择了哪一枚硬币。本讲座演示了如何使用证据来确定概率推理中不同假设的概率。

  • 00:35:00 在本节中,教授演示了不同硬币的概率如何随着一系列的翻转而变化,以及优势证据如何改变正面朝上的概率。大数法则生效,所选择的硬币在游戏中的概率越来越接近 1。然后教授使用这个概念通过查看孩子的政党并对其进行推断来创建父母政党分类器父母所属的一方。总的来说,概率推理的概念可以应用在各种场景中进行预测和得出结论。

  • 00:40:00 在视频的这一部分,演讲者讨论了使用贝叶斯 hack 来比较两个模型并根据数据选择最佳模型。该过程涉及模拟从模型中抽取并计算给定数据的每个模型的概率。然后演讲者转向结构发现,他们从无关联变量开始,并使用随机搜索来修改和比较模型,直到找到首选模型。这个过程需要使用概率的对数之和而不是乘积,以避免在 32 位机器上丢失信息。然而,由于空间大和局部最大值,寻找最佳结构可能具有挑战性。

  • 00:45:00 在本节中,演讲者讨论了概率推理和结构发现在医学诊断、测谎和设备故障排除等各个领域的实用性。他解释了在信息有限时如何使用概率计算是正确的方法,以及如何使用这种方法根据观察到的症状确定问题的最可能原因。演讲者还暗示了未来关于如何使用这种方法来发现模式和故事的讨论。
 

第 23 讲。模型合并,跨模态耦合,课程总结



23.模型合并,跨模态耦合,课程总结

在此视频中,Patrick Winston 教授讨论了模型合并、跨模态耦合并对课程材料进行了反思。他讨论了在不过分关注贝叶斯概率的情况下发现规律性的重要性,以及跨模态耦合对理解我们周围世界的潜在好处。他还为未来的课程提出了建议,并强调了专注于通过人和计算机一起工作来创造新收入和能力的重要性,而不是仅仅旨在取代人。此外,他还强调了首先识别问题并选择合适的方法来解决问题的重要性。最后,这位教授反思了将智能简化为可复制的人工模型的局限性,并强调了他的团队的杰出工作。

  • 00:00:00 在本节中,Patrick Winston 讨论了模型合并和跨模态耦合。他通过展示如何在您可能无法找到结构的情况下发现结构来展示贝叶斯故事合并的想法,例如在两个故事中发现事件并将它们组合成两个故事图。他还谈到了通过使用机器学习和云计算提高效率的多个级别发现概念的能力。最后,他展示了 Michael Coen 的程序,该程序使用多种模态和它们之间的对应关系来整理斑胸草雀歌曲中的两种贡献模态。

  • 00:05:00 在本节中,通过将产生元音的手势与声音本身相关联的示例来解释跨模式耦合的概念。元音的傅里叶变换产生共振峰,嘴周围的椭圆形成第二种模态。使用跨模态耦合数据,可以在没有任何标记数据的情况下对声音进行聚类并将唇形与声音相关联。 Coen 的工作演示展示了如何通过使用投影和向量作为度量的组成部分来形成集群。

  • 00:10:00 在本节中,演讲者讨论了跨模式耦合的概念以及它如何帮助理解呈现在我们面前的世界。他认为,无需过分关注贝叶斯概率就可以发现规律性,而且这种耦合思想很可能与我们对周围世界的理解密切相关。演讲者还总结了课程材料,强调了工程和科学视角在为人工智能创建复杂应用程序方面的重要性。他还指出,需要专注于通过协同工作的人和计算机创造新的收入和能力,而不是仅仅以取代人为目标。

  • 00:15:00 在本节中,演讲者讨论了编程为创建模型和进行实验提供的独特优势。具体来说,编程提供了隐喻和创建模型的能力,允许通过实验来测试这些模型的含义。演讲者还强调了首先要确定问题,然后选择合适的方法论或机制来使用,而不是陷入机制嫉妒和专注于特定方法的重要性。最后,演讲者简要回顾了考试形式,并为学生提供了一些提醒,例如带上计时器和计算器,以及考试时可以灵活地穿着服装。

  • 00:20:00 在这一部分,教授对下学期的工作提出了一些建议,包括选修 Marvin Minsky 的科目 Society of Mind,或 Bob Berwick 的语言理解和进化科目,或 Gerry Sussman 的大规模符号系统科目。他还推广自己的春季课程,即人类智能企业。教授将他的课程描述为人文课程,没有讲课,而是与他的对话。他讨论了课程中涵盖的一些主题,例如包装和各种智能系统中的常见元素。

  • 00:25:00 在本节中,演讲者讨论了包装的重要性,以及它如何影响一个人的成功,无论他们的职业道路如何。演讲者提到了一个名为“如何说话”讲座的活动,这是一个一小时的非线性讲座,可以通过提供提示(例如何时讲笑话或如何讲笑话)来显着影响某人进行演示、演讲和工作谈话的能力打开演示文稿。此外,演讲者还谈到了他们小组的 Genesis 系统,该系统即将进入可以检测可能疾病发作的领域。

  • 00:30:00 在本节中,现场演示展示了系统如何从多个角度阅读和理解故事,从而检测潜在问题并进行干预以预防灾难。两个具有不同教育背景的角色识别故事中明确的内容,并推断出灰色的其他概念。由于他们独特的背景,他们对故事的看法各不相同,甚至可以相互协商,教导其他领域,避免灾难发生。该系统还检测潜在的报复行动和得不偿失的胜利,说明其预测潜在问题和干预的能力。

  • 00:35:00 在本节中,我们通过了解多层次的故事,了解如何使用概念向量而不是关键字计数来进行信息检索。 Propagator 架构用于防止个人过度工作,学生参与麻省理工学院小组受到表扬。至于进一步的研究生课程,应该考虑他们想拜师谁,并找到一个不同侧重点的课程,比如人工智能,以拓宽他们在该领域的视野。

  • 00:40:00 在这一部分,Winston教授为申请研究生院的理论物理和人工智能的学生提出了建议,强调了前者实地考察和后者专注于特定领域的重要性。他还分享了一个人工智能职业选择缺陷理论的极端案例,其中一位计算机视觉研究人员由于专长于物体识别而无法识别他的妻子。最后,温斯顿教授反思了计算机科学中强大思想的实用性和简单性,并提出了理解语言不一定需要真正的智慧这一论点。

  • 00:45:00 在这一部分中,演讲者谈到了将智力简化为可以人工复制的东西的局限性。他以他的宠物浣熊为例,说明它是一种高度智能的动物,他没想到能够制造出同样智能的机器。人工智能是不可能的想法通常基于还原论的论点,这些论点没有考虑到随着时间的推移运行的程序所产生的知识和魔力。演讲者还花点时间感谢他的团队的出色工作,并祝愿学生们在期末考试中取得好成绩。
 

巨型R1。基于规则的系统



巨型R1。基于规则的系统

该视频重点介绍 Mega-Recitation,这是一种教程式讲座,可帮助学生处理讲座和背诵中涵盖的材料。该视频涵盖了与基于规则的系统相关的几个主题,包括反向链接、正向链接、规则的决胜顺序和匹配过程。反向链接过程涉及查看规则的结果并根据需要添加前提以达到最高目标,而打破平局和消除歧义对于目标树至关重要。该视频还讨论了使用一系列断言的前向链接和匹配规则到断言。演讲者强调了在使用规则之前检查断言和避免无能为力的规则的重要性。匹配过程涉及使用反向链接来确定哪些规则匹配给定的断言,系统将优先考虑编号较小的规则,无论它们是否是新的。

  • 00:00:00 在本节中, Mark Seifter介绍了 Mega-Recitation 的概念,这是一个教程式的讲座,旨在帮助学生处理讲座和背诵中涵盖的材料。目标是帮助学生理解和使用对课堂至关重要的算法,并在测验中展示他们的理解。重点是去年让许多学生犯错的测验问题,马克思回顾了让他们犯错的技巧,希望能防止再次犯这些错误。最后,他解释了两种符号之间的区别,in-fix 和 prefix,用于编写规则,以及为什么学生需要了解它们。

  • 00:05:00 在本节中,我们了解了六个标有 P 的规则,每个规则都有相应的 if-then 语句。第一条规则指出,如果 X 雄心勃勃且 X 是个哑炮,则 X 的任期不好。 X 或 Y 中的问号表示等待绑定的变量。后向和前向链接将用于确定这些变量的绑定。我们还可以使用四个断言,包括 Millicent 住在 Slytherin 地牢和 Seamus 在 Gryffindor Tower 并标记 Millicent。强调了在使用规则之前检查断言的重要性,因为它是去年绊倒一些人的一个错误。

  • 00:10:00 在本节中,演示者解释了反向链接的概念并强调了它与正向链接的区别。根据假设,反向链接器尝试在断言列表中找到匹配的断言,如果没有匹配,它将尝试找到具有匹配结果的规则。主持人继续提供简单问题的示例,然后解决一个现实生活中的问题,米莉森特成为赫敏的朋友。在整个示例中,演示者都强调了目标树中打破平局和消歧的重要性。

  • 00:15:00 在本节中,视频讨论了基于规则的系统中的反向链接过程。向后链接涉及查看规则的结果并根据需要添加前提以达到最高目标。该视频强调了在检查其他规则之前在结果中寻找具有当前目标的事物并在断言中搜索它的重要性。这个过程涉及到深度搜索,从左边的节点开始,如果有子节点就向下移动,寻找与当前目标匹配的规则。该视频还解释了如何正确地将节点添加到目标树中,例如底部带有 or 节点的结束节点。

  • 00:20:00 在本节中,演讲者讨论了深度优先搜索,同时使用树形图来识别 Millicent 是主角还是反派,最终试图证明她是反派。他们首先沿着左边的分支,试图找到一条规则,判断 Millicent 是否是主角。由于没有任何规则符合他们的标准,他们返回到“或”节点并回溯到 Millicent 是一个反派。即使它不在断言中,他们也会按照分支查看是否有规则将其作为结果。最终,他们找到一条规则,说明 Millicent 是恶棍,但必须继续寻找最终答案。

  • 00:25:00 在本节中,演讲者解释了反向链接器的一心一意,以及它对其他断言或前因的缺乏关注。 backward chainer 仅旨在证明 Millicent 可能是反派的可能性,并不关心其他后果,例如 Millicent 野心勃勃。需要注意的是,这可能会导致不必要的计算,但这是对系统进行编码的一种简单而有效的方法。讨论了哈希表的潜在用途,但得出的结论是它可能不值得付出额外的努力。

  • 00:30:00 在本节中,课程讨论实现哈希表以提高基于规则的系统的运行速度。但是,这种方法存在一些潜在问题,因为它丢失了表中断言触发的顺序,并且某些规则取决于这些断言的顺序。该讲座还解决了人群中关于当存在与先前断言相反的断言以及如何解决此问题的断言时规则解决的问题。该班级得出结论,这就是为什么他们在测验中没有删除语句,并且他们不添加断言而是检查目标树中的所有内容,直到被证明或被推翻。

  • 00:35:00 在本节中,演讲者快速浏览了主角 Millicent 示例的其余部分,以及如何使用基于规则的系统来确定她是否成为 Hermione 的朋友。这包括回答几个问题,例如确定 Millicent 成为 Hermione 的朋友所需的最少额外断言数,而不添加与规则的结果相匹配的断言。本节还介绍了由于添加断言而出现的不常见情况,以及需要通过删除矛盾的断言来修复它。最后,简要提到了反向链接,演讲者要求听众解决与变量绑定相关的问题,目标是确定 Millicent 是否有错误的术语。

  • 00:40:00 在本节中,解说员讨论了前向链接,其中涉及添加新的断言,以及规则的决胜顺序。规则的决胜顺序是从 0 到 5,如果同一条规则可以触发多个不同的断言,则规则按数字顺序使用。叙述者演示了如何通过使用一系列断言将规则与断言相匹配,以及如何触发规则。叙述者还告诉我们,不应该解雇无能为力的规则,或者什么都不做的规则,而是应该转到顺序中的下一个规则。最后,解说员解释了他们如何匹配规则和断言,以及他们如何添加新的断言。

  • 00:45:00 在视频的这一部分,演讲者讨论了基于规则的系统的匹配过程。给出的例子是一个测验问题,带有编号的规则和断言。系统使用反向链接来确定哪些规则匹配给定的断言,在这种情况下,只有规则 1、2、3 和 5 匹配。演讲者还回答了是否应首先处理规则编号较低的新断言的问题,并解释说系统将优先处理编号较低的规则,而不管它们是否是新的。
 

巨型R2。基本搜索、优化搜索



巨型R2。基本搜索、优化搜索

这个 YouTube 视频涵盖了各种搜索算法和技术,包括深度优先搜索、广度优先搜索、最优搜索和 A* 算法。该视频使用了一个有趣的例子,即邪恶霸主马克维德寻找新据点来说明这些概念。演示者强调了图形搜索中可接纳性和一致性的重要性,并解释了扩展列表的使用,以防止重新评估节点。该视频解决了观众的常见错误和问题,并鼓励观众提出更多问题。总的来说,该视频全面介绍了这些搜索算法和技术。

  • 00:00:00 在本节中,视频介绍了邪恶霸主马克维德利用他在课堂上学到的开始搜索技术寻找新据点的问题。维德从他目前的据点“深度优先搜索之星”开始,并希望到达 6:03 的堡垒,该堡垒没有弱点并且具有所有令人满意的功能,例如被奴役的爪牙、带有激光束的鲨鱼和一条绝佳的逃生路线。该视频展示了探索选择的图表,其中边连接了仅相差一个特征的据点,并为观众提供了多种搜索方法,包括可靠但较慢的方法和快速但更容易出错的方法。

  • 00:05:00 在本节中,视频演示者讨论了解决深度优先搜索的不同方法。虽然有一种非常快速的方法,但它更容易出错并且通常不被使用。相反,演示者建议使用目标树,从起始节点开始,到目标节点结束,这比绘制整个议程要快一点。演示者还解释了词典编纂的概念以及它如何用于在搜索过程中按字母顺序打破平局。此外,该视频警告不要咬自己的尾巴,这是在系统中实施规则时的常见错误。最后,演示者强调了不要让同一节点在同一路径中出现两次的重要性,因为这会导致错误。

  • 00:10:00 在本节中,演讲者解释了如何使用目标树而不是队列来解决深度优先搜索问题。他们从节点 s 开始,请求听众帮助找出该节点的选择。演讲者强调了检查连通性和阅读说明的重要性。他们使用字典序决胜局来决定下一步去哪个节点,并在遇到死胡同时回溯。他们还告诫不要重复计算回溯的错误,并提醒观众注意他们回溯了多少次。

  • 00:15:00 在本节中,演讲者解释了算法在进行搜索时的重要性,因为它会影响找到解决方案所需的步骤数。他们还讨论了回溯技术,并就如何在搜索过程中跟踪回溯提出了建议。然后演讲者继续演示如何执行深度优先搜索,并建议一种快速解决广度优先搜索问题的方法。他们强调在广度优先搜索期间找到的路径保证具有最少的跳跃次数,并且他们指示从左到右逐层展开图。最后,演讲者阐明了广度优先搜索中类型排序顺序的用法。

  • 00:20:00 在本节中,演讲者强调了视频中使用的搜索算法不对队列中的路径进行排序的重要性。他们解释说,最佳优先搜索只会在到达一个节点时打破关系,并且他们总是将所有内容添加到队列的末尾,这意味着他们不必回溯。他们还提到,虽然图形顺序确实在搜索中发挥了作用,但它只是以巧妙和偷偷摸摸的方式发挥作用。最后,他们讨论了使用扩展列表进行广度优先搜索的可能性,这可以用来防止程序重新评估它已经访问过的节点。

  • 00:25:00 在视频的这一部分中,演讲者使用马克的示例讨论了最优搜索,他试图找到从当前宇宙到目标宇宙的最短路径,宇宙之间的能量成本各不相同。该图包括赋予每个节点的距离和启发式值,演讲者解释说该算法将使用启发式值来引导搜索到目标节点,同时还会考虑到达每个节点的实际成本。使用的算法是 A-star 算法,它以最低的实际成本和启发式成本扩展节点。演讲者还解释了使用扩展列表来防止重复搜索的重要性,并解决了有关将节点添加到搜索中的顺序的问题。

  • 00:30:00 在本节中,马克介绍了编程最短宇宙跳跃次数的概念,这将使他在不消耗太多能量的情况下到达目标。他解释说,他的简单分支定界搜索就像芝士披萨,而 A-star 搜索就像肉食爱好者的带有额外配料的披萨。但是,它们可以相互影响,因此选择当前最短的路径至关重要。在例子中,计算机将节点C添加到扩展列表中,将其标记为长度为0的唯一路径。SB的长度为3,路径成本为103,而f为4,成本为的 14. 尽管忽略了字典顺序的决胜局,但选择了最短路径,并且一旦 B 被消耗,它就会到达长度为 4 的 D,因此到 G 的更新路径长度为 7。

  • 00:35:00 本节讲者继续最优搜索算法,扩展路径S、B、F、D。路径E再扩展为H、A,找到最短路径为SFHIG .演讲者还提到使用 A-star 作为更有效的搜索算法,并解决了听众关于扩展已经在扩展列表中的节点的问题。尽管最初对路径是否连接到 C 和 D 存在一些疑惑,但最终获得了正确答案。

  • 00:40:00 在本节中,演讲者讨论了上一节中导致某些节点被排除在最终创建的树之外的一些错误。他澄清说,该节点也应该转到“e”,如果他们询问一个节点由于不在扩展列表中而被执行了多少次,情况就会有所不同。然后他们继续讨论 A-star 算法和启发式值的计算。需要强调的是,重要的是不要为列表中的每个节点添加启发式值,而是将到目前为止的路径添加到最终启发式值。他们还澄清了扩展节点“G”的决定是一个品味问题和一个不会在问题集上失分的实现细节。最后,他们解决了 A 星搜索,最终获胜者被确定为节点“D”,值为 57。

  • 00:45:00 在本节中,视频总结了一种称为 A* 的搜索算法,并展示了如何以最佳方式使用它来查找图中的最短路径。该视频讨论了在图表中的每个点都有可接受的启发式方法的重要性。可接受意味着对剩余工作量的估计总是低估或准确预测。高估的启发式方法会导致算法认为它需要做比必要的更多的工作,并且可能不会探索重要的节点。该视频还讨论了一致性,这意味着图中相邻节点之间的距离小于这些节点之间的启发式差异。该视频强调了理解这些概念的重要性,因为它们可能会出现在测验中。

  • 00:50:00 在本节中,演讲者解释了图形搜索中的可接受性和一致性的概念。可采性就像一致性,但它要求每个节点和目标节点之间的一致性。任何一致的图总是可接受的,但并非每个可接受的图都是一致的。扩展列表将适用于可接受的图,因为它检查每个节点到目标节点的估计。但是,如果节点内的估计不正确,则乱序遍历它们会违反在决定使用扩展列表时所做的假设。视频中呈现的图表经过专业设计成为瓶颈目标节点,并且包含节点之间的不一致,包括 I 和 H,事实证明这是唯一重要的不一致。最后,演讲者鼓励观众提出他们对这个话题可能有的任何问题。
 

巨型R3。游戏、Minimax、Alpha-Beta



巨型R3。游戏、Minimax、Alpha-Beta

该视频涵盖了与博弈论和 minimax 算法相关的各种主题,包括常规 minimax、alpha-beta 加法、alpha-beta 修剪、静态评估、渐进加深和节点重新排序。讲师使用示例对这些概念进行解释和演示,并要求听众参与确定博弈树中不同节点的值。视频最后讨论了启发式函数的潜在缺陷,并为即将到来的测验提供了建议。

  • 00:00:00 在本节中,讲师介绍了游戏的概念,并提到重点将放在游戏的不同组成部分上。然后他们继续解释常规的 minimax 算法以及如何计算出博弈树中特定点的 minimax 值。使用示例博弈树,讲师通过算法引导听众,他们确定各个节点的极小值。还简要提到了白雪公主原则和祖父条款。

  • 00:05:00 在视频的这一部分,演讲者解释了博弈论中极小极大公式的 alpha 和 beta 加法。他将这些数字的增加与冷战进行了比较,在冷战中,每一方都在为最坏的情况做准备的同时试图找到最好的结果。 Alpha 和 Beta 代表为每一方提供故障保护或最坏情况的数字。演讲者建议 alpha-beta 搜索比 minimax 更复杂,对某些人来说可能是一个挑战。不过,他还提到掌握 alpha-beta 搜索有助于理解和解决极小极大问题。

  • 00:10:00 在本节中,讲师解释了 alpha 和 beta 的概念,分别作为 Maximizer 和 Minimizer 的核选项。将 alpha 设置为负无穷大,将 beta 设置为正无穷大会创建一个故障保护,确保 Maximizer 和 Minimizer 每次都会查看他们看到的第一条路径。随着算法的进行,alpha 和 beta 的值会根据游戏的潜在结果而变化。当 beta 低于 alpha 或 alpha 低于 beta 时,算法会修剪分支,表明其中一名玩家不再想探索该分支。讲师还指出,在博弈树的不同节点上绘制 alpha 和 beta 数字有不同的方法。

  • 00:15:00 在本节中,演讲者解释了 alpha-beta 算法中使用的白雪公主原理。该原则涉及从父节点继承 alpha 和 beta 值,但在上升到父节点时为自己取更好的值。还讨论了默认的 alpha 和 beta 值,其中 alpha 为负无穷大而 beta 为正无穷大。演讲者随后展示了 alpha-beta 修剪的示例,并要求听众确定搜索树中每个节点的 alpha 和 beta 值。抛出一个技巧题来强调alpha-beta算法可以避免根据从父节点继承的值搜索某些节点。

  • 00:20:00 在本节中,演讲者解释了 alpha-beta 剪枝的原理,即剪掉决策树中不太可能产生更好结果的分支。演讲者举了一个例子,涉及到敌人核攻击的选项,并根据alpha-beta剪枝原则来决定剪枝哪些选项。此外,speaker 提供健全性测试以确定是否可以修剪分支,以及 Maximizer 确定是否跳过分支的能力,这与决策树游戏中从无穷大开始的最小化器不同。

  • 00:25:00 在视频的这一部分,演讲者通过分析博弈树中不同节点的值,讨论了在极小极大算法中确定 alpha 和 beta 值的过程。演讲者解释说,当遇到最小化节点时,beta 值设置为正无穷大,当遇到最大化节点时,alpha 值设置为负无穷大。然后演讲者使用博弈树中的特定值来演示算法的工作原理以及当 alpha 值大于或等于 beta 值时如何修剪节点。最后,演讲者讨论了在使用渐进加深的博弈树中评估节点的顺序。

  • 00:30:00 在本节中,演讲者解释了静态评估的概念,它本质上是负责为叶节点分配数值的函数。静态评估器将这些值分配给叶子的底部,评估顺序仅指叶子。演讲者还解释了白雪公主原则,即每个节点都从其祖父节点(alpha 或 beta)获取相同类型的值开始。最大化器无法控制选择哪条路径;选择要走哪条路的是最小化者。静态评估的概念对于 alpha-beta 修剪技术至关重要,因为它有助于确定是否消除特定路径。从本质上讲,静态评估有助于算法的效率,使 alpha-beta 修剪能够通过摆脱一些静态评估来节省更多时间。

  • 00:35:00 在本节中,演讲者解释了静态评估的概念,静态评估用于评估国际象棋等游戏中的棋盘位置。评估需要很长时间,需要仔细分析比赛的状态。搜索树的叶节点之所以称为静态,是因为它们是基于对游戏状态的分析而对值进行的启发式猜测。演讲者还介绍了在只有两层深的树上逐步加深的概念,并询问如何重新排序树以允许 alpha-beta 尽可能多地修剪。

  • 00:40:00 在本节中,讲师解释了如何使用 minimax 算法优化搜索最佳节点的过程,方法是根据潜在获胜者对分支进行重新排序,因为这样更容易快速拒绝所有错误的节点首先选择最终的获胜者。讲师通过为每个叶节点分配一个二进制值并使用这些值来计算每个子树的最终获胜者来说明这一概念,从而找到最佳着法。将这种方法与渐进深化相结合将显着减少需要评估的节点数量。

  • 00:45:00 在本节中,讲师讨论了渐进式深化和重新排序节点以改进 alpha-beta 修剪的可能性。虽然渐进加深对于小的、无分支的树来说可能是浪费时间,但对于更大、更复杂的树来说这是必不可少的。然而,基于渐进加深结果重新排序节点的概念取决于启发式函数的准确性。讲师强调,没有任何启发式函数是完美的,有缺陷的启发式函数可能会在重新排序节点时导致更糟糕的结果。最后,讲师解释了如何为一致的启发式函数缓存启发式值,例如在相同的启发式值将始终与特定游戏状态相关联的情况下,无论该状态是如何达到的。

  • 00:50:00 在视频的这一部分,讲师讨论了使用总是给出最差着法而不是最佳着法的启发式方法的潜在缺点。虽然它可以帮助最大限度地降低风险,但也可能导致最糟糕的修剪,导致无法保证成功。讲师提到即将到来的测验将很有趣并且涉及各种挑战。不过,他建议学生们不要为此过分紧张,好好享受他们的周末。