05:35:00 在本节中,视频讨论了机器学习中的套袋和随机森林技术。 Bagging 涉及行采样,这会导致更大的模型,从而减少方差。随机森林是相同的,但以列抽样和决策树作为基础模型。决策树中的训练复杂度是 n log m 乘以 n 乘以 d,而在随机森林中,它是 d 乘以 k 乘以 n。该视频还讨论了随机森林如何简单地并行化,从而使其易于训练。最后,引入了极度随机树的概念,在决策树中尝试可能的值来确定阈值。
06:20:00 在本节中,演讲者解释了梯度提升算法的过程,该算法首先使用一些常数初始化模型,然后应用 for 循环为每个训练示例取出残差。然后,该模型将基础学习器拟合到残差并计算每个模型的乘数 lambda m。更新模型,将之前的模型拟合之前的残差,将之前的模型与求解一维优化问题后得到的新模型相加得到最终模型。演讲者还介绍了正则化和收缩的概念,以及为什么由于高偏差而需要在提升中使用它们。
06:25:00 在本节中,视频讨论了如何使用提升来减少机器学习模型中的高偏差。提升涉及在每次迭代期间拟合先前的模型残差,这可能导致过度拟合和方差增加。为了避免这个问题,可以使用称为 v 的可学习参数添加正则化和收缩。根据经验,已经发现 v 的值等于 0.1 会导致显着的改进。该视频还介绍了梯度提升决策树的时间复杂度以及通过 scikit-learn API 实现梯度提升。
07:00:00 在本节中,演讲者解释了如何使用 K 近邻、随机森林和逻辑回归等不同模型实现堆叠分类器。他们通过实例化对象并执行三重交叉验证来选择具有最高精度的最佳模型。演讲者还演示了如何绘制决策边界并使用网格搜索来调整偏差和方差权衡。通过选择最佳参数和特征,堆叠分类器可以提供比单个模型更准确的预测。
07:25:00 在本节中,演讲者介绍了聚类主题以及不同类型的聚类算法,例如基于中心和基于密度的聚类算法。重点将放在 k 均值聚类算法上,将对其进行深入探讨。演讲者还鼓励观众解决问题集和项目,以更好地理解机器学习。演讲者强调了无监督学习的重要性,并展示了聚类如何应用于各个领域。 X 和 Y 平面上的聚类用于说明聚类的概念。总的来说,该部分突出了课程中即将涵盖的主题,并鼓励观众继续学习。
07:50:00 在本节中,讲师介绍了不同类型的聚类,包括基于分区的聚类、层次聚类、分离良好的聚类、基于中心的聚类和基于密度的聚类。讲师解释说,聚类就是对相似的对象进行分组,集群内的对象彼此相似,而集群之间的对象则不同。讲师还解释了如何使用不同的指标评估聚类模型的性能,包括 Dunn 指标和 Davis-Bouldin 指标。下一节将重点介绍 k 均值聚类,这是一种基于中心的算法。
07:55:00 在本节中,讲师回顾了前面的小节,这些小节涵盖了无监督学习应用、聚类类型以及聚类的直觉和形式定义。然后重点转移到 k 均值聚类算法(也称为 Lloyd 算法)及其各种功能,例如初始化、质心、超参数、评估指标和限制。讲师提供了具有两个随机初始化质心的算法的可视化,并说明了分配步骤以及第一次迭代中的平均步骤。
第 9 部分
08:00:00 本节讲师详细讲解k-means聚类算法。该算法涉及初始化k个质心,聚类分配,通过取出平均值更新聚类,并通过分配最近的数据点来更新质心。重复这个过程,直到质心不再变化,表明算法已经收敛。讲师还提到 k 均值聚类也称为 Lloyd 算法,涉及随机初始化质心。
08:05:00 在本节中,演讲者解释了 k 均值聚类算法的步骤。他们首先选择簇数 (k),然后将每个点分配给最近的簇。他们通过取平均值并移动它来重新计算质心,然后重复该过程直到质心停止变化。优化目标是最小化成本函数,可以使用数据点与聚类质心之间的欧几里得距离来计算成本函数。成本函数也称为 SSE(误差平方和),目标是最小化集群内的可变性。演讲者指出,也可以使用除欧几里得之外的其他距离度量。
08:45:00 在本节中,讲师解释了组平均簇间相似性度量的概念,这是另一种簇间相似性度量。他为它提供了一个方程式,并展示了一个树状图来解释它是如何工作的。然后讲师讨论了最小距离度量的缺点,指出它对异常值很敏感,并建议学习者可以参考维基百科页面以进一步了解。他还提供了凝聚聚类的时间和空间复杂度,空间复杂度为 n 阶,时间复杂度为 n 阶 log n 或 n 立方阶。最后,他通过鼓励学习者通过大量项目练习来巩固他们对机器学习的理解来结束本节。
08:50:00 在本节中,演讲者讨论了课程的项目部分,并介绍了将要建立的心力衰竭预测模型。演讲者解释说,该模型将根据年龄、性别、血压、糖尿病和吸烟等各种特征来预测一个人是否会死亡。该项目的数据可在提供的链接中获得,演讲者解释说,该项目的业务目标是构建一个医疗保健 AI 系统,该系统将有助于及早发现健康问题以挽救生命。此外,演讲者提到课程中还将介绍垃圾邮件检测系统项目。演讲者导入必要的库,加载数据,并打印数据的形状。
00:35:00 在此视频中,讲师解释了如何使用机器学习技术来创建训练、验证和测试集。讲师演示了如何缩放数据集以使值更具可比性,然后创建一个函数来转换 x 值。最后,讲师创建一个 2d numpy 数组并调用 hstack 函数将数组并排堆叠。
00:40:00 在此视频中,讲师讨论了可用的不同机器学习模型以及如何在代码中使用它们。讨论的模型包括 k 最近邻、线性回归和神经网络。
00:45:00 在此视频中,讲师 Alan Siegel 回顾了机器学习的基础知识,包括距离函数的使用和最近邻算法的使用。他解释说,在二进制分类中,最近邻算法将使用“k”值来确定哪个点是“正”或“负”标签。他展示了如何将其应用于汽车所有权和生育子女的数据集,展示了最近邻算法如何确定给定数据点的哪个点是“正”或“负”标签。
00:50:00 该视频讨论了如何使用机器学习来预测点的位置。该视频介绍了如何使用 k 最近邻算法查找最近点。该视频还解释了如何使用分类报告来确定标记点的分类。
01:15:00 在本节中,演讲者正在解释为训练和测试数据集中的填充词、起始词、未知词和未使用词分配值给它们各自的键的过程。他们添加了一个 pad 标签,通过在列表的末尾添加 padding words 使整个电影评论具有相同的长度,从而使所有电影评论集具有相同的长度。为了创建一个允许整数指向一个词而不是相反的字典,反向词索引列表用于反转键中的值来实现这一点。最后,演讲者解释了使用连接的空白字符串和反向单词索引将训练和测试数据解码为人类可读单词的功能。
01:15:00 在本节中,视频教程重点介绍通过称为随机过采样的过程对数据集进行归一化和平衡。通过可视化数据,讲师演示了糖尿病患者和非糖尿病患者的数据集如何高度不平衡,从而导致神经网络可能无法很好地训练。通过使用随机过采样器,更多的随机样本被添加到数据集中,平衡了两个类别的长度。这是通过导入另一个名为 Imbalance learn dot over sampling 的包来实现的,其中包括一个 Random Over Sampler。使用 fit_resample 函数再次拆分数据集,使两个结果近似等于 1。重新运行单元格后,模型的准确率接近 50%,表明平衡数据集导致更好的模型性能。
Keras with TensorFlow 课程的重点是教用户如何使用 Keras,这是一种用 Python 编写并与 TensorFlow 集成的神经网络 API。它涵盖了组织和预处理数据、构建和训练人工神经网络的基础知识,以及数据规范化和创建验证集的重要性。该课程还提供视频和文本文件等资源,以及有关如何设置 GPU 以提高效率的指南。用户还可以学习如何保存和加载模型,包括保存所有内容的选项,仅保存架构或仅保存权重。该课程适合那些具有基本编程技能和一些 Python 经验的人。
“使用 TensorFlow 的 Keras 课程”的第二部分涵盖了各种主题,从将权重加载到与原始模型具有相同架构的新 Keras 模型开始。然后,讲师解释如何准备和预处理图像数据以训练卷积神经网络将图像分类为猫或狗,然后继续为第一个 CNN 构建和训练 Keras 顺序模型。本节详细介绍了使用包含标签数据的生成器来训练模型以在模型拟合期间进行验证,以及如何绘制混淆矩阵来评估模型性能。最后,它演示了如何微调预训练的 VGG 16 模型以对猫和狗的图像进行分类、调整其预处理并进行训练。
00:00:00 在本节中,解释了该课程的重点是教授如何使用 Keras,这是一种用 Python 编写并与 TensorFlow 集成的神经网络 API。它从组织和预处理数据的基础知识开始,然后继续构建和训练人工神经网络。该课程推荐一些基本的编程技能和一些 Python 经验,但也会在代码实现之前简要介绍每个深度学习概念。该课程还提供视频和文本资源,包括课程中使用的代码文件,这些资源会定期测试和维护,并且 Deep Lizard Hive Mind 的成员可以下载这些文件。进一步解释说,Keras 的开发重点是实现快速用户实验,并且与 TensorFlow 集成,Keras 现在已与 TensorFlow API 完全集成。建议学习多种神经网络API,而不是永远坚持一种,以展示经验和它们之间的比较,从而使候选人更有价值。
00:05:00 在 Keras with TensorFlow 课程的这一部分中,讨论了对 GPU 的需求,并指出这不是课程所必需的。但是,如果用户想要使用 GPU,可以使用有关如何设置 GPU 以使用 TensorFlow 的指南。建议先使用 CPU 完成课程,然后设置 GPU 以提高效率和速度。下一节将讨论如何为人工神经网络准备和处理数值数据,以及 Keras 中的顺序模型期望的不同数据格式。 fit 函数期望输入数据 (x) 位于 NumPy 数组、TensorFlow 张量、dict 映射、TF 数据集或 Keras 生成器中。目标数据 (y) 也需要采用与 x 相同的格式。
00:25:00 在本节中,我们将学习如何在前面部分中创建和处理的数据上训练神经网络。构建模型后,我们使用适当的损失、优化器和指标对其进行编译。然后,我们在拟合函数中指定输入数据、目标数据、批量大小和训练轮数。训练开始,我们看到在 30 个时期内,我们的简单模型毫不费力地达到了 94% 的准确率。这是一个很好的例子,说明 Keras 入门很容易。
00:30:00 在本节中,将在训练机器学习模型的背景下解释验证集的概念,并强调其使用的重要性。验证集的创建允许用户衡量模型对未接受过训练的数据的概括程度。可以通过检查验证集结果的准确性来避免过度拟合,该准确性不应显着低于训练数据。讨论了通过 Keras 顺序模型创建和使用验证集的两种方法,第二种方法允许 Keras 为用户创建验证集。
00:45:00 在本节中,我们将使用混淆矩阵直观地观察神经网络模型对测试数据的预测效果。通过导入必要的包并使用 scikit-learn 创建混淆矩阵,我们可以将测试集的真实标签与预测标签进行比较,从而更好地了解我们模型预测的准确性。我们还将了解如何绘制混淆矩阵函数以及如何获取、预处理和可视化其中的某些值。在 deep lizard 博客上还提供了指向 Keras with TensorFlow 课程的有用功能的链接。
00:50:00 在本节中,讲师演示了如何绘制混淆矩阵以可视化模型预测的准确性。该图在 x 轴上显示预测标签,在 y 轴上显示真实标签。正确的预测显示在从图的左上角到右下角的对角线上的蓝色方块中。混淆矩阵允许用户可视化模型的执行情况并识别可能需要改进的类。讲师解释说,混淆矩阵是用于评估模型性能的一个很好的工具,它可以帮助深入了解哪些类需要进一步的工作。最后,讲师展示了如何使用 .save() 函数保存 Keras 顺序模型,该函数将模型的架构、权重和训练配置保存到 h5 文件中。
01:00:00 在本节中,演示者讨论了将权重加载到与原始模型具有相同架构的新 Keras 模型中。他解释说,加载的权重的形状必须与模型架构的形状相匹配,权重映射才能起作用。然后,演示者展示了如何使用 Keras 中的“加载权重”和“获取权重”功能,使用原始模型的权重加载和填充新模型。然后该部分过渡到一个新主题,即准备和处理图像数据以训练卷积神经网络将图像分类为猫或狗,使用来自 Kaggle 猫与狗比赛的数据集。演示者解释了准备数据进行处理所需的手动和编程步骤。
视频的第二部分涵盖了几个主题,包括网格搜索、指标、管道、阈值调整、时间序列建模和异常值处理。讲师探讨了自定义指标的使用以及在模型创建中平衡精度和召回率的重要性。此外,投票分类器作为元估计器展示,可提高模型的灵活性和表现力。该视频最后介绍了 Human Learn 工具,该工具有助于构建可与机器学习算法相结合的基于规则的系统并对其进行基准测试。此外,探索了 FunctionClassifier 工具,它允许用户创建自定义逻辑作为分类器模型并添加异常值检测等行为。总体而言,该视频全面概述了 Scikit-learn 及其灵活的 API,强调了理解模型创建和定制的相关指标的重要性。
00:00:00 数据 y。 X 包含特征或输入变量,而 Y 包含我们要预测的目标或输出变量。我们将数据分成训练集和测试集来评估模型的性能。接下来,我们需要对数据进行预处理。最重要的预处理技术之一是缩放,它涉及对特征值进行归一化,使它们都落在相似的范围内。这有助于模型更有效地学习。最后,我们选择一个模型并在训练集上对其进行训练。训练好模型后,我们将评估其在测试集上的性能并对新数据进行预测。在接下来的部分中,我们将深入探讨预处理、模型评估和元估计器等主题。
00:05:00 在本节中,演讲者讨论了如何将数据拆分为机器学习模型的 x 和 y 集。 x 集表示用于进行预测的数据,而 y 集包含感兴趣的预测。使用 scikit-learn 库,用户可以加载用于教育目的的基准数据集。演讲者还解释了创建和拟合模型以从数据中学习以进行预测的两阶段过程。 k 最近邻模型用作示例,但还显示了线性回归模型,以说明不同的模型如何在 scikit-learn 中仍然具有相同的 API。
00:10:00 在本节中,Scikit-learn 速成课程视频解释了 K 最近邻模型如何在一个简单的数据集中工作,该数据集以房屋的平方英尺及其与学校的距离为特征。该模型根据最近的 5 个邻居进行预测,但是当使用具有不同尺度的距离时可能会出现挑战,这意味着一个轴对预测的影响可能比另一个轴大得多。这需要重新思考什么是机器学习模型,并建议在将数据提供给 K 最近邻模型之前需要进行一些预处理,以便在做出预测之前完成缩放,并且预置中的所有内容处理框是模型的一部分。
00:40:00 在视频的这一部分,演讲者讨论了归一化的概念以及如何通过计算分位数而不是平均值来有效地使用它。通过使用分位数,异常值对数据的影响会减少,过程变得更加稳健。演讲者演示了如何将分位数变换器作为预处理步骤来实现,以取代标准缩放器,从而在机器学习模型中取得更好的效果。变换器对输出数据的深远影响通过绘图输出函数显示,该函数训练 k 最近邻模型并为标准缩放器和分位数变换器生成预测。
01:20:00 在本节中,解说员讨论了 Scikit-learn API 的灵活性,以及通过在自定义指标中传入 y 标签,将离群值检测算法用作分类器的能力。这有助于判断离群值模型是否适用于分类问题。但是,解说员警告说,关注标签的质量很重要,因为这会显着影响模型的指标。此外,解说员还指出了一些指标的自定义设置,例如指定是否越大越好,以及某些指标需要进行概率度量。最后,解说员提到了 Scikit-learn 处理元模型的能力。
01:45:00 在本节中,演讲者介绍了一个名为 Human Learn 的工具,这是一个开源项目,旨在提供 scikit-learn 兼容工具,帮助构建和基准化基于规则的系统。演讲者解释说,过去更常见的是使用人类专家来提出数据分类的业务规则和系统,而不是机器学习算法。然而,机器学习模型并不完美,可能会表现出有问题或无效的行为。 Human Learn 的目标是构建基于规则的系统,这些系统可以很容易地针对机器学习模型进行基准测试,同时也可以与它们相结合。演讲者演示了如何使用 Titanic 数据集构建基于规则的系统,并解释了 Human Learn 如何使将这些系统整合到您的日常工作流程中变得更加容易。
02:35:00 在本节中,讲师讨论了神经网络中的形状错误,这是深度学习中最常见的错误之一。由于神经网络由多个矩阵乘法运算组成,即使是轻微的张量形状误差也可能导致形状误差。然后教师创建两个张量,张量 a 和张量 b,并尝试在它们之间执行矩阵乘法,导致形状错误。为了修复此错误,讲师引入了转置的概念,它可以切换给定张量的轴或维度,并演示了如何使用它来调整 PyTorch 代码中张量的形状。
02:40:00 在本节中,讲师解释转置张量的概念及其在矩阵乘法中的重要性。转置在不改变其基础数据的情况下重新排列张量的元素,并用“点 t”表示。讲师还演示了张量 b 转置时矩阵乘法运算的工作原理,并强调了该运算在神经网络和深度学习中的重要性。转置张量的过程以可视化方式说明,讲师提供分步代码示例以帮助学生理解和练习该概念。
02:45:00 在本节中,讲师使用 PyTorch 和一个名为 Matrix Multiplication 的网站解释了矩阵乘法。他创建了两个张量,张量 a 和张量 b,并表明它们相乘会产生具有特定输出形状的新张量。他挑战观众转置张量 a 而不是张量 b 并查看结果。接下来,讲师介绍了张量聚合,展示了如何使用 PyTorch 方法查找张量的最小值、最大值、平均值和总和。他还解释了张量聚合如何帮助减少张量中的元素数量。
02:50:00 在 PyTorch 教程的这一部分,讲师展示了如何解决 PyTorch 中最常见的错误之一,即数据类型错误。他通过创建数据类型为 long 的张量来演示这一点,这可以防止使用 torch mean 函数。然后,他解释了如何使用 x.type() 方法将张量转换为 mean 函数所需的浮点数 32。除了寻找张量的最小值、最大值、平均值和总和之外,讲师还设置了寻找位置最小值和最大值的挑战,这将在下一个视频中介绍。
03:50:00 在视频的这一部分中,强调了可重复性在机器学习和深度学习中的重要性,并解释了随机种子的概念。手动种子是一种调整 PyTorch 随机张量的随机性并使其可重现的方法。推荐将 PyTorch 再现性文档作为学习再现性的重要资源。该部分还讨论了在 GPU 上运行 PyTorch 对象以加快计算速度以及如何访问 GPU,包括使用 Google Colab 获得免费 GPU,使用 Google Colab Pro 获得更快的 GPU 和更长的运行时间,以及使用 Google Colab Pro Plus 获得更多高级优势。
03:55:00 在本节中,讲师解释了访问 GPU 以执行深度学习和机器学习任务的不同方法。选项包括使用 Google Colab、升级到 Colab Pro、使用您自己的 GPU 或使用 GCP、AWS 或 Azure 等云计算服务。讲师建议从 Google Colab 开始,它简单易用且免费。但是,如果您需要更多资源或想要运行更大的实验,您可能想要升级或使用您自己的 GPU 或云计算。讲师还展示了如何通过更改运行时类型并使用 PyTorch 检查 GPU 访问来在 Google Colab 中获取 GPU。
04:30:00 在本节中,讲师介绍了机器学习中的两部分博弈,其中涉及将数据转换为数值表示并构建模型以在该表示中找到模式。然后,讲师使用线性回归公式创建已知数据来展示此过程。公式的权重和偏差用作模型将通过查看不同示例来学习的参数。 Python 中的代码用于创建一系列数字,为变量 X 分配一个值,并创建一个等于权重乘以 X 加上偏差的 Y 公式。查看X和Y的长度和值,显示X和Y的前十个值。
04:40:00 在PyTorch完整课程的这一部分中,讲师讨论了泛化在机器学习模型中的重要性以及训练和测试中常用的三个数据集:训练集、验证集和测试集。他还解释了用于这些集合的常见百分比分割,训练集通常有 60-80% 的数据,测试集有 10-20%。然后,讲师演示如何使用具有 X 和 Y 值的样本数据集创建训练集和测试集,并使用索引为每个拆分选择适当数量的样本。最后,他解释说,虽然在更复杂的数据集中经常有验证集的用例,但训练和测试集是最常用的。
04:45:00 在本节中,讲师通过编写一个名为“plot predictions”的函数来强调可视化数据的重要性,该函数将用于比较训练和测试数据。该函数将 X 训练、Y 训练、X 测试、Y 测试和预测作为参数,然后使用 matplotlib 库使用散点图以蓝色绘制训练数据。然后使用相同的散点函数将测试数据绘制成绿色。该函数还检查是否有任何预测,如果有,也使用散点函数绘制它们。通过可视化数据,它变得更容易理解和解释。
04:50:00 在视频的这一部分中,讲师讨论了训练和评估机器学习模型的过程。他们解释说,目标是在训练数据上训练模型,以便准确预测测试数据的值。他们使用一个简单的线性数据集来证明这一点,训练数据以蓝色绘制,测试数据以绿色绘制。然后,讲师介绍了线性回归的概念并为下一节做准备,他们将在下一节中构建用于线性回归的 PyTorch 模型。他们还为 Google Colab 提供了一些故障排除技巧。
05:30:00 这部分,视频解释了测试 PyTorch 模型预测能力的过程。该模型的前向方法获取输入数据 X 并将其传递给模型以进行预测。该视频演示了如何通过输入由 10 个变量组成的 X test 并观察模型的输出 Y pred 来测试模型的预测能力。该视频还解决了在创建 PyTorch 模型期间可能发生的常见错误并提供了修复方法。
05:35:00 在本节中,我们通过使用先前定义的 Ford 方法运行测试数据来查看模型的预测。这些预测似乎与理想的预测相去甚远。该代码还引入了 torch 推理模式,这是一种上下文管理器,用于在进行预测时禁用梯度跟踪,从而允许 PyTorch 跟踪更少的数据并更快地进行预测。虽然 torch no grad 可以做类似的事情,但推理模式比 no grad 有一些优势,如 PyTorch 文档和视频中提供的 Twitter 线程中所述。因此,推理模式是目前最受欢迎的推理方式。
06:40:00 在“PyTorch for Deep Learning & Machine Learning – Full Course”的这一部分,讲师强调了在 PyTorch 中编写训练循环的重要性,因为这是模型学习模式和数据的方式。该视频还为那些对数学背景感兴趣的人提供了有关反向传播和梯度下降的其他资源。讲师解释说,损失函数和优化器的选择将针对每个问题而定,并推荐 MAE 损失和 L1 损失用于回归问题,二元交叉熵损失用于分类问题。本节以仅使用两个参数和一个时期的模型演示训练循环结束。
07:25:00 在这部分视频中,讲师演示了如何使用推荐的保存状态字典的方法来保存 PyTorch 模型。为模型命名,并使用 pathlib 库创建路径。路径准备好后,使用 torch.save() 函数保存模型状态字典,其中第一个参数是对象,第二个是模型要保存的路径。讲师展示了如何使用 ls 命令检查模型是否保存在 models 目录中。该视频还提供了将保存的模型下载到本地计算机或 Google Drive 的指南。此外,讲师鼓励观众通过提前阅读文档和使用 torch.load() 函数来学习如何加载保存的模型来挑战自己。
07:30:00 本节讲师讲加载PyTorch模型以及如何使用torch dot load方法。该类先前保存的模型参数字典将作为状态卡片加载,本节介绍如何创建线性回归模型类的新实例并将保存的状态卡片加载到其中。 torch nn 模块的 load state deck 方法允许将状态字典直接加载到模型实例中,而 torch dot load 方法接受 F 并将其传递给保存前一个 state deck 的模型保存路径。
08:10:00 在 PyTorch 课程的这一部分,讲师解释了如何为数据编写设备不可知代码,强调在同一设备上进行所有计算对于避免错误至关重要。模型和数据应该在同一个设备上,可以是 CPU 也可以是 CUDA。通过使用 X train 和 Y train 将训练和测试数据放在目标设备上,这将创建与设备无关的代码,从而在训练模型时提供更准确的结果。讲师还解释了如何使用 state decked 评估模型,证明估计的参数接近理想值。本节以用户做出和评估预测并将其绘制在原始数据上的挑战结束。
08:15:00 在本节中,讲师讨论了将PyTorch模型转为评估模式并对模型从未见过的测试数据进行预测的重要性。他们引入了绘图预测函数来可视化模型的预测,但在尝试将 CUDA 设备类型张量转换为 NumPy 时遇到类型错误,因为 Matplotlib 使用 NumPy,而不是 PyTorch。他们通过先使用张量点 CPU 将张量复制到主机内存来解决此错误。讲师还鼓励观众使用路径模块保存和加载经过训练的模型,他们通过创建模型目录并为其设置模型路径来演示。
09:30:00 在课程的这一部分,讲师讨论了如何定义能够处理输入特征的神经网络层。他继续解释说,每一层所需的特征数量取决于所使用的数据集。在此示例中,X 有两个特征,第一层定义为“n 线性”,其中 n 个特征等于二,而第二层定义有五个特征以帮助模型学习更多模式。讲师还解释说,第二层的输入特征应与前一层的输出特征相匹配,以避免形状不匹配错误。最后,他定义了一个 Ford 方法,该方法概述了 Ford pass 并返回第二层自我(将自我第一层和 X 作为输入)。
初学者机器学习课程(第 6-10 部分)
初学者机器学习课程
第 6 部分第 7 部分
第 8 部分
第 9 部分
第 10 部分
面向所有人的机器学习——完整课程
面向所有人的机器学习——完整课程
00:00:00 - 01:00:00 这部分视频讨论了机器学习的基础知识,包括有监督和无监督学习。它还涵盖了可用的不同模型以及如何使用它们。最后,它解释了如何衡量机器学习模型的性能。
01:00:00 - 02:00:00 这部分解释了如何使用机器学习来预测事件的结果。它讨论了线性回归、逻辑回归和支持向量机。它还解释了如何使用网格搜索来训练机器学习模型。
02:00:00 - 03:00:00 这部分涵盖了机器学习的基础知识,包括线性回归和反向传播。它解释了如何使用 TensorFlow 库规范化数据和拟合线性回归模型。
03:00:00 - 03:50:00 该视频介绍了机器学习的概念,包括监督学习和非监督学习。它演示了如何使用线性回归和神经网络进行预测。演示者还解释了如何使用机器学习对数据进行聚类。
第1部分
第2部分
第 3 部分
第 4 部分
TensorFlow 2.0 速成班
TensorFlow 2.0 速成班
“TensorFlow 2.0 速成课程”视频涵盖了神经网络及其架构的基础知识,重点是图像分类。讲师以蛇游戏和时尚 mnist 数据集为例,通过基于损失函数调整权重和偏差的过程来训练神经网络。该视频展示了数据预处理和使用激活函数(例如 sigmoid 和 ReLU)创建更复杂模型的重要性。演讲者还强调了测试和训练数据的重要性,并演示了如何为模型加载和修改图像数据。最后,演示者展示了如何在 Keras 中定义模型的架构,使用编译和拟合方法对其进行训练,以及使用“model.predict”对特定图像进行预测。
视频教程的第二部分涵盖了创建基本神经网络的各个方面,该神经网络可以对时尚商品进行分类并对电影评论进行情感分析。从加载和准备训练数据开始,本教程继续解释预处理数据和规范化输入序列长度的重要性。然后,本教程介绍了创建合适的模型架构,包括使用不同的层,例如嵌入层和密集层。最后,本教程解释了如何微调超参数、验证模型、保存和加载模型以及评估模型在外部数据上的性能。总体而言,本教程提供了构建更高级神经网络知识的基本结构。它还涵盖了与 TensorFlow 2.0 相关的不同主题,包括为模型编码数据、运行保存的模型进行预测以及在 Ubuntu Linux 上安装 TensorFlow 2.0 GPU 版本。在编码部分,演示者介绍了修剪和清理数据以确保正确的词映射的过程,并创建了一个查找函数来对数据进行编码以进行预测。然后,他们展示了以正确格式准备输入数据以供模型处理的重要性,然后继续介绍在 Linux 系统上安装 TensorFlow 2.0 GPU 版本的教程,建议观众耐心等待,因为涉及的下载量很大.
用于机器学习的 Python TensorFlow——神经网络文本分类教程
用于机器学习的 Python TensorFlow——神经网络文本分类教程
在此 YouTube 教程中,演示者涵盖了与用于机器学习和神经网络文本分类的 Python TensorFlow 相关的一系列主题。他们首先讨论了 Google Colab 中的设置过程和必要库的导入,然后重点关注 Wine Reviews 数据集并使用 Matplotlib 绘制各种特征的直方图。本教程涵盖机器学习概念,包括监督学习、定性和定量数据之间的差异,以及二分类和多分类等分类场景中的输入和预测。涵盖的其他主题包括损失函数、神经网络、激活函数、梯度下降和反向传播,以及神经网络在 TensorFlow 中的实现。最后,演示者使用 TensorFlow 实现了一个用于文本分类的神经网络,展示了使用包和库提高效率的好处。
视频教程的第二部分涵盖了使用 Python 中的 TensorFlow 进行机器学习的各个方面,特别侧重于神经网络文本分类。本教程涵盖将数据拆分为训练集和测试集、使用 TensorFlow 和 Keras 创建简单模型、缩放和平衡数据集、使用递归神经网络以及使用 TensorFlow Hub 进行文本分类。本教程强调了评估模型准确性的重要性以及各种神经网络组件的使用,例如激活函数、丢失层和不同类型的单元格。本教程最后总结了关键要点,包括构建神经网络、使用 TensorFlow 进行文本分类以及处理数值数据。
TensorFlow 2.0 完整课程 - Python 神经网络初学者教程(第 1-4 部分)
TensorFlow 2.0 完整课程 - Python 神经网络入门教程
00:00:00 - 01:00:00 该视频介绍了 TensorFlow 2.0,这是一个用于数据处理和机器学习的库。讲师解释什么是张量以及如何使用张量存储部分定义的计算。他还演示了如何使用 TF dot rank 和 TF dot reshape 函数来控制张量中的维数。
01:00:00 - 02:00:00 该视频教程介绍了如何使用线性回归来预测数据集中的值。以泰坦尼克号数据集为例。演示者解释了如何使用线性回归来预测数据集中的值以及如何使用 TensorFlow 在数据集中创建特征列。
02:00:00 - 03:00:00 本视频教程涵盖了使用 Python 构建神经网络的基础知识。该视频首先描述了神经网络如何由相互连接的神经元层组成。然后,该视频介绍了如何创建随机数生成器以及如何训练神经网络。最后,视频展示了如何连接神经元和权重,如何通过网络传递信息,以及如何计算一个神经元的输出值。
03:00:00 - 04:00:00 该视频介绍了如何使用 TensorFlow 构建用于图像识别的卷积神经网络。该视频涵盖了卷积神经网络的基础知识,包括它们的工作原理以及如何使用预训练模型。
04:00:00 - 05:00:00 该视频介绍了如何使用 TensorFlow 训练可以预测图像类别的机器学习模型。该视频涵盖了深度学习和卷积神经网络等基本概念。
05:00:00 - 06:00:00 该视频是使用 TensorFlow 2.0 训练神经网络的完整指南。它涵盖了神经网络的输入和输出形状、如何创建损失函数以及如何使用模型来预测序列。该视频还演示了如何使用 TensorFlow 生成文本。
06:00:00 - 06:50:00 本视频教程介绍了强大的机器学习库 TensorFlow 2.0 的基础知识。在介绍了 TensorFlow 及其关键概念之后,本教程将引导观众完成一系列关于深度学习和强化学习等不同机器学习任务的教程。
第1部分
第2部分
第 3 部分
第 4 部分
TensorFlow 2.0 完整课程 - Python 神经网络初学者教程(第 5-7 部分)
TensorFlow 2.0 完整课程 - Python 神经网络入门教程
第 5 部分
第 6 部分
第 7 部分
Keras with TensorFlow 课程 - Python 深度学习和神经网络初学者教程
Keras with TensorFlow 课程 - Python 深度学习和神经网络初学者教程
Keras with TensorFlow 课程的重点是教用户如何使用 Keras,这是一种用 Python 编写并与 TensorFlow 集成的神经网络 API。它涵盖了组织和预处理数据、构建和训练人工神经网络的基础知识,以及数据规范化和创建验证集的重要性。该课程还提供视频和文本文件等资源,以及有关如何设置 GPU 以提高效率的指南。用户还可以学习如何保存和加载模型,包括保存所有内容的选项,仅保存架构或仅保存权重。该课程适合那些具有基本编程技能和一些 Python 经验的人。
“使用 TensorFlow 的 Keras 课程”的第二部分涵盖了各种主题,从将权重加载到与原始模型具有相同架构的新 Keras 模型开始。然后,讲师解释如何准备和预处理图像数据以训练卷积神经网络将图像分类为猫或狗,然后继续为第一个 CNN 构建和训练 Keras 顺序模型。本节详细介绍了使用包含标签数据的生成器来训练模型以在模型拟合期间进行验证,以及如何绘制混淆矩阵来评估模型性能。最后,它演示了如何微调预训练的 VGG 16 模型以对猫和狗的图像进行分类、调整其预处理并进行训练。
在第三部分中,讲师介绍了 MobileNets,这是一种更小、更快的替代更复杂模型的方法。他们演示了在 Jupyter Notebook 中下载和使用 MobileNets、组织手语数字的数据集,以及为新的分类任务微调模型。讲师强调了将迭代器正确指向数据集在磁盘上的位置、训练期间要冻结的层数以及调整超参数以减少过度拟合问题的重要性。最后一节介绍了数据增强及其减少过度拟合和增加数据集大小的潜力,并提供了有关不同类型增强(例如,移动、翻转、旋转)、将增强图像保存到磁盘以及将它们添加回训练的说明放。
Scikit-learn 速成课程 - Python 机器学习库
Scikit-learn 速成课程 - Python 机器学习库
“Scikit-learn 速成课程”视频概述了如何在 Python 中使用 Scikit-learn 库进行机器学习。该视频涵盖数据准备、模型创建和拟合、通过网格搜索调整超参数以及模型评估。强调了预处理和转换器在提高模型性能方面的重要性,并以标准缩放器和分位数转换器为例。该视频还讨论了模型评估和为问题选择正确指标的重要性,以及在单热编码中处理不平衡数据集和未知类别。演讲者强调理解数据集和模型预测中的潜在偏差,并提供了信用卡欺诈检测的示例。
视频的第二部分涵盖了几个主题,包括网格搜索、指标、管道、阈值调整、时间序列建模和异常值处理。讲师探讨了自定义指标的使用以及在模型创建中平衡精度和召回率的重要性。此外,投票分类器作为元估计器展示,可提高模型的灵活性和表现力。该视频最后介绍了 Human Learn 工具,该工具有助于构建可与机器学习算法相结合的基于规则的系统并对其进行基准测试。此外,探索了 FunctionClassifier 工具,它允许用户创建自定义逻辑作为分类器模型并添加异常值检测等行为。总体而言,该视频全面概述了 Scikit-learn 及其灵活的 API,强调了理解模型创建和定制的相关指标的重要性。
用于深度学习和机器学习的 PyTorch – 完整课程(第 1-4 部分)
用于深度学习和机器学习的 PyTorch – 完整课程
00:00:00 - 01:00:00 “PyTorch for Deep Learning & Machine Learning”在线课程讲师 Daniel Bourke 向观众介绍该课程,该课程侧重于使用 Python 代码在 PyTorch 中实现机器学习概念。课程涵盖的主要主题包括迁移学习、模型部署和实验跟踪。该视频介绍了机器学习和深度学习及其区别,深度学习更适合需要大量数据的复杂问题,并提供对非结构化数据的洞察力。解释了神经网络的解剖结构,课程涵盖了机器学习的不同范式,例如监督学习和迁移学习。此外,该视频探讨了深度学习的潜在应用,特别是在对象检测和自然语言处理方面。最后,解释了 PyTorch 的好处,例如标准化研究方法和使机器学习代码能够在 GPU 上运行以高效挖掘数值计算。
01:00:00 - 02:00:00 这部分涵盖 PyTorch 的基础知识、预处理数据、构建和使用预训练的深度学习模型、将模型拟合到数据集、进行预测以及评估模型的预测。讲师强调实验、可视化和提问的重要性,以及使用课程资源(包括 GitHub、讨论和 learnpytorch.io)的重要性。还向学习者介绍了 Google Colab,它提供了使用 GPU 或 TPU 加速来缩短计算时间、预安装的 PyTorch 和其他数据科学包的能力。该课程深入介绍了张量作为深度学习的基本构建块,演示了如何创建具有不同维度和形状的张量,包括标量、向量和矩阵张量。该课程还包括创建随机张量、0 和 1 张量,以及如何指定数据类型、设备,以及在创建张量时需要 grad 参数。
02:00:00 - 03:00:00 在此 PyTorch 教程中,讲师涵盖了张量运算的各个方面,包括故障排除、操作、矩阵乘法、转置和聚合。他们解释了在使用深度学习模型时保持正确的张量形状和数据类型的重要性,并演示了如何使用 PyTorch 命令检查和更改这些参数。该教程包括面向观众的挑战,例如练习矩阵乘法和查找张量的位置最小值和最大值,并提供有用的技巧来避免常见的形状错误和提高性能,例如在 for 循环上使用矢量化。此外,讲师还介绍了几个有用的 PyTorch 函数,用于重塑、堆叠、压缩和解压张量。
03:00:00 - 04:00:00 这部分涵盖了与 PyTorch 相关的各种主题,包括重塑、查看、堆叠、挤压、取消挤压和置换等张量操作方法。讲师提供代码示例,强调张量形状操作在机器学习和深度学习中的重要性,并挑战观众尝试索引张量以返回特定值。该课程还涵盖了 PyTorch 张量和 NumPy 数组之间的数据转换以及每种数据的默认数据类型,以及神经网络中可再现性的概念以及使用随机种子来减少实验中的随机性。讲师解释了如何访问 GPU 以实现更快的计算,并提供了诸如 Google Colab、Colab Pro、使用您自己的 GPU 或使用 GCP、AWS 或 Azure 等云计算服务的选项。
04:00:00 - 05:00:00 这部分为初学者涵盖了广泛的主题,包括如何使用 PyTorch 设置 GPU 访问、使用 PyTorch 中的 nn 模块、创建线性回归模型等。讲师强调了与设备无关的代码在不同设备上运行的重要性,并牢记存储张量和模型的设备类型。该课程还包括用于练习所学内容的练习和额外课程,讲师提供有关如何在 Colab 中进行练习的提示。该课程涵盖训练和评估机器学习模型、将数据拆分为训练集和测试集以进行泛化以及可视化数据。讲师解释了如何使用纯 PyTorch 创建线性回归模型,其中涉及使用 init 函数创建构造函数,使用 nn.parameter 创建权重参数,并使用 torch.rand 将其设置为随机参数。
05:00:00 - 06:00:00 这部分涵盖的主题包括使用 PyTorch 创建线性回归模型、通过 PyTorch 实现梯度下降和反向传播等优化算法,以及了解如何测试 PyTorch 模型的预测能力。还讨论了在进行预测、初始化模型参数、使用损失函数来衡量模型预测的准确性以及优化模型参数以提高模型准确性时使用 torch.inference_mode 上下文管理器的重要性。此外,还介绍了 PyTorch 中的基本模块,包括 torch.nn、torch.nn.module、torch.optim 和 torch.utils.dataset。
06:00:00 - 07:00:00 这部分涵盖了 PyTorch 和机器学习的各个方面。其中一节重点介绍了在 PyTorch 中构建训练循环所需的步骤,包括遍历数据、计算损失和执行反向传播。讲师强调了选择合适的损失函数和优化器的重要性,并介绍了梯度下降的概念。另一部分讨论了优化器和学习率,以及它们如何影响模型的参数。该视频还强调了测试的重要性,并提供了创建测试预测和计算测试损失的概述。该课程为那些对反向传播和梯度下降的数学背景感兴趣的人提供了额外的资源。
07:00:00 - 08:00:00 这部分涵盖了与 PyTorch 相关的多个主题。本课程讨论了通过记录损失值和绘制损失曲线来跟踪模型进度的重要性,损失曲线应显示下降趋势。讲师还讲解了保存和加载 PyTorch 模型的方法,包括保存状态字典、使用 torch.nn.module.loadStateDict 方法或 torch.load 方法加载模型以及测试加载的模型。在后面的部分中,课程包括创建线性回归模型和使用 PyTorch 中预先存在的模型,例如通过子类化 nn.module 的线性层。
08:00:00 - 09:00:00 这部分涵盖了深度学习和机器学习领域的广泛主题。第一部分涵盖 torch.nn 中可用的不同层、这些层的预构建实现,以及如何使用损失函数和优化器函数训练 PyTorch 模型。在后续部分中,讲师解释了与设备无关的代码的重要性、保存和加载 PyTorch 模型,以及如何处理分类问题。讲师提供示例并强调输入数字编码的重要性、创建自定义数据以及分类模型中涉及的设计复杂性,例如隐藏层、神经元、损失函数和优化器的数量。最后,讲师强调,从数据开始任何机器学习问题都是最重要的一步。
09:00:00 - 10:00:00 这部分概述了如何使用 PyTorch 创建和训练用于二元分类的神经网络。该视频涵盖了广泛的主题,包括创建自定义数据集、检查输入和输出形状、准备训练数据、创建模型并将其发送到 GPU、为模型选择优化器和损失函数以及进行预测。该课程包括这些概念的实际演示,旨在提供对使用 PyTorch 进行机器学习项目的全面理解。
10:00:00 - 11:00:00 这部分涵盖了几个主题,包括损失函数、优化器、激活函数、训练循环和评估指标。讲师解释了如何设置损失函数和优化器、创建精度函数以及将原始对数转换为预测概率和标签。该课程还回顾了 BCE 损失和 BCE with logits 损失之间的区别,以及如何计算分类模型的测试损失和准确性。此外,讲师还提供了有关提高模型性能的技巧,例如增加神经网络的深度、调整超参数以及从外部 Python 脚本导入和使用辅助函数。
11:00:00 - 12:00:00 在这部分中,讲师解释了如何通过改变超参数(例如隐藏单元的数量、层数和轮数)来改进模型,并强调了测试的重要性一次更改一个以确定改进或退化。他们还讨论了参数和超参数之间的区别,以及区分这种区别的重要性。此外,讲师还介绍了模型无法正常工作时的故障排除技术,并介绍了非线性在机器学习和深度学习模型中的重要性。讲师通过各种示例演示这些概念,包括线性和非线性回归问题,并展示如何在测试不同的超参数和损失函数的同时训练和评估模型。
12:00:00 - 13:00:00 这门用于深度学习和机器学习的 PyTorch 课程涵盖了用于构建模型的基本到高级 PyTorch 概念。讲师介绍了非线性的概念,并演示了如何使用 PyTorch 使用非线性来构建分类模型。他们还讨论了构建优化器、损失函数和自定义激活函数。强调了结合线性和非线性函数以通过堆叠这些函数的层来创建模型来查找数据模式的重要性。该课程涵盖二元和多类分类模型,并解释了如何在 PyTorch 中设置它们。本节最后演示了如何使用输入特征和输出特征初始化多类分类模型。
13:00:00 - 14:00:00 这部分的讲师讨论使用 PyTorch 的 nn.Sequential 方法创建线性层堆栈模型以执行多类分类。他们使用交叉熵损失和随机梯度下降 (SGD) 解释了损失函数和优化器的创建。讲师还讨论了丢失层以及对机器学习代码进行故障排除以解决错误的重要性。他们使用 torchmetrics 和 scikit-learn 库使用准确度、精确度、召回率、F1 分数、混淆矩阵和分类报告等各种分类评估方法演示了对训练模型的评估。最后,讲师展示了如何使用 torchmetrics 包在 PyTorch 中导入和使用预构建的指标函数,并提供了指向 torchmetrics 模块和课外文章的链接以供进一步探索。
14:00:00 - 15:00:00 这部分涵盖了与 PyTorch 和使用机器学习的计算机视觉相关的各种主题。这包括理解计算机视觉问题,例如二进制或多类分类问题,以及学习机器学习模型如何从各种图像示例中学习模式。该视频还介绍了 PyTorch 库(例如 TorchVision),以及它如何包含数据集、预训练模型以及将视觉数据处理为机器学习模型可用数字的转换。此外,讲师还介绍了 FashionMNIST 数据集的输入和输出形状、可视化和探索数据集以识别潜在问题的重要性,并演示了如何使用 PyTorch 和 Matplotlib 绘制和可视化图像数据。
15:00:00 - 16:00:00 这个关于 PyTorch 深度学习和机器学习的视频课程涵盖了准备数据和使用 PyTorch 数据集和数据加载器的重要性。强调了深度学习中小批量的概念,并使用 PyTorch 解释了创建训练和测试数据加载器的过程,批量大小超参数设置为 32。讨论了批量可视化图像的重要性,以及概念引入了扁平化以将多维数据转换为单个向量以用于 PyTorch 模型。涵盖了创建具有展平层和两个线性层的简单神经网络模型的过程,并解释了在 Python 机器学习项目中使用辅助函数的概念。最后,演示了计时功能对于测量模型训练所需时间的重要性以及 TQDM 用于进度条的重要性。
16:00:00 - 17:00:00 课程的这一部分涵盖与 PyTorch 相关的各种主题,从设置训练和测试循环、排除常见错误、评估模型和进行预测开始。讲师强调了通过实验为给定数据集找到最佳神经网络模型的重要性,并讨论了非线性对非线性数据建模的好处。他们还演示了如何在 PyTorch 中创建辅助函数、优化和评估循环以及执行训练和测试步骤。该课程进一步探讨了与设备无关的代码以及在 CPU 和 GPU 上训练模型的优势,最后演示了如何测量两种设备上的训练时间。
17:00:00 - 18:00:00 这部分涵盖了深度学习和机器学习中的许多主题。讲师演示了如何创建和测试深度学习模型、使用 PyTorch 构建卷积神经网络 (CNN) 以及在 PyTorch 中创建块。此外,本教程还介绍了 PyTorch 模型的组成以及卷积在实践中的工作原理、卷积层中步幅和填充值的更改,以及 PyTorch 中的卷积层和最大池化层。在整个视频中,讲师共享资源,提供 PyTorch 代码和分步说明,并提供有关如何创建高效和可重用代码的指导。
19:00:00 - 20:00:00 这部分涵盖了各种主题,例如可视化机器学习模型预测、在 PyTorch 中使用混淆矩阵评估多类分类模型、在 Google Colab 中安装和升级包、保存和加载 PyTorch模型,并使用自定义数据集。该课程还演示了使用 PyTorch 构建计算机视觉模型的过程。讲师强调了利用域库实现数据加载功能和自定义数据加载功能的重要性,并提供了视觉、文本、音频和推荐等各种类别的示例。他们还提供有用的资源,例如 learn pytorch.io 网站和 PyTorch 深度学习存储库。
20:00:00 - 21:00:00 这个用于深度学习和机器学习的 PyTorch 课程的讲师首先介绍了 Food 101 数据集,但提供了一个较小的子集,其中包含三个食物类别,并且只有 10% 的图像用于练习火炬。讲师强调了拥有单独的数据目录的重要性,然后展示了如何使用 Python 图像库 Pillow 和 PyTorch 方法打开、可视化和转换图像。该部分还介绍了使用 PyTorch 进行的数据转换,例如调整图像大小和翻转图像,并且讲师演示了如何使用 PyTorch 将图像加载和转换为机器学习模型的张量。本节最后建议探索 PyTorch 中可用的各种图像转换选项。
21:00:00 - 22:00:00 在此 PyTorch 课程中,讲师解释了如何加载图像数据并将其转换为张量,创建和自定义数据加载器以进行训练和测试,以及创建自定义数据加载类。它们演示了预建数据集函数、图像文件夹的功能,可用于为所有图像自定义转换。他们还介绍了构建自定义数据加载器所需的步骤,包括创建一个函数以从目录中获取类名和映射、子类化 torch.utils.data.Dataset 以及覆盖 get item 和 len 方法。虽然数据加载器的自定义功能很有用,但存在编写错误代码的风险。
22:00:00 - 23:00:00 这部分课程涵盖如何在 PyTorch 中创建和使用自定义数据集和自定义加载器,以及如何实施数据增强技术。讲师演示了如何使用 PyTorch 库构建卷积神经网络,并提供了有关实验领域的建议,包括内核大小和步幅等超参数。该课程还涵盖如何测试扩充管道和利用简单的扩充技术来提高模型准确性。该课程的收获包括 PyTorch 的灵活性以及从基础数据集类继承以创建自定义数据集加载函数的能力。
23:00:00 - 24:00:00 讲师涵盖了用于深度学习和机器学习的 PyTorch 的各个方面,包括解决模型中的形状错误、使用 Torch Info 打印 PyTorch 模型的摘要、创建用于评估的训练和测试步骤函数数据集上的性能,并将这些函数组合成一个训练函数,以便于模型训练。讲师还讨论了对深度学习模型的训练过程进行计时,绘制损失曲线以跟踪模型随时间的进展,以及通过尝试不同的设置(例如添加层或调整学习率)来评估模型性能。最终,这些技能将为使用 PyTorch 构建和评估高级模型奠定坚实的基础。
24:00:00 - 25:00:00 在 PyTorch for Deep Learning & Machine Learning 课程的这一部分,讲师讨论了模型中过度拟合和欠拟合的概念,以及处理它们的方法,例如数据增强,提前停止,并简化模型。他们强调使用损失曲线随时间评估模型性能的重要性,并提供用于比较不同模型性能的工具。该部分还介绍了如何为预测准备自定义图像,并演示了如何使用 torch vision.io 将图像加载到 PyTorch 并将其转换为张量。讲师指出,在将图像传递给模型之前,可能需要调整其大小、转换为 float32 并放入正确的设备中。
25:00:00 - 26:35:00 PyTorch 课程的这一部分涵盖各种主题,例如数据类型和形状、使用 PyTorch 的转换包转换图像数据以及使用预训练模型对自定义数据进行预测。为确保数据在输入模型之前采用正确的格式,重要的是对其进行预处理,将其缩放到 0 到 1 之间,必要时进行转换,并检查其是否具有正确的设备、数据类型和形状.讲师还鼓励学习者通过 PyTorch 自定义数据集练习进行练习,并提供解决方案作为参考。讲师还提到,在 learnpytorch.io 中还有五个额外的章节可供探索,涵盖迁移学习、pytorch 模型实验跟踪、pytorch 论文复制和 pytorch 模型部署等主题。
第1部分
第2部分
第 3 部分
第 4 部分
用于深度学习和机器学习的 PyTorch – 完整课程(第 5-10 部分的说明)
用于深度学习和机器学习的 PyTorch – 完整课程
第 5 部分
第 6 部分
第 7 部分
第 8 部分
第 9 部分
第 10 部分