00:00 Introduction and survey01:36 "Lesson 0" How to fast.ai02:25 How to do a fastai lesson04:28 How to not self-study05:28 Highest voted student work07:56 P...
00:00:00 - Introduction00:01:59 - Linear model and neural net from scratch00:07:30 - Cleaning the data00:26:46 - Setting up a linear model00:38:48 - Creating...
01:35:00 在此视频中,Jeremy 讨论了如何使用深度学习提高计算机视觉模型的准确性。他指出,可以通过改变训练模型的图像来提高模型的准确性,并提供了一个示例来说明如何使用熊猫来做到这一点。他还解释了深度学习算法的工作原理以及如何使用 TTA(测试时间增加)来加快训练过程。最后,他总结了 Victor 和 John 提出的问题。
00:00 Review02:09 TwoR model04:43 How to create a decision tree07:02 Gini10:54 Making a submission15:52 Bagging19:06 Random forest introduction20:09 Creating...
01:10:00 在本节中,视频介绍了如何使用矩阵乘法根据用户的历史评分来预测用户的电影评分。本教程为电影和用户的潜在因素分配随机值,并执行点积来预测评级。然后计算损失函数,并使用 Data Solver 工具进行优化。该视频演示了通过将预测评分与优化后的实际评分进行比较来提高预测评分。还介绍了矩阵补全技术和协同过滤,其中向具有相似品味的用户推荐相似的电影。
01:40:00 在本节中,视频讨论了使用权重衰减作为一种正则化形式来防止深度学习模型中的过度拟合。通过找到不太高但足够高以用于预测的正确权重组合,模型可以获得损失函数的最低可能值。权重衰减系数可以传递到 fit 方法中,默认值通常适用于视觉应用程序,但对于表格和协同过滤,用户应该尝试 10 的几倍数以查看最佳结果。正则化是为了让模型不再比它必须的复杂,更高的权重衰减值减少了过度拟合,但也降低了模型做出良好预测的能力。
01:45:00 在本节中,Jeremy 和 John 讨论了超参数搜索的主题以及它如何经常用于构建单个模型。但是,在执行超参数探索时,除了 Jeremy 的经验法则之外没有其他规则。在回答是否可以基于用户体验的平均评分而不是协同过滤来构建推荐系统的问题时,Jeremy 解释说,如果所有的人都拥有购买历史,那将是不理想的。相反,需要有关用户的人口统计信息和有关产品的元数据等粒度数据来做出准确的推荐。
00:00 - Tweaking first and last layers02:47 - What are the benefits of using larger models05:58 - Understanding GPU memory usage08:04 - What is GradientAccum...
00:00 - Neural net from scratch04:46 - Parameters in PyTorch07:42 - Embedding from scratch12:21 - Embedding interpretation18:06 - Collab filtering in fastai2...
(All lesson resources are available at http://course.fast.ai.) This is the first lesson of part 2 of Practical Deep Learning for Coders. It starts with a tut...
This talk will cover some of the most important open problems in Deep Learning. A big part of the talk will be focused on Continual Learning as one main open...
00:25:00 在这一部分中,讲师解释了机器学习的过程,重点是 ML 管道。首先,必须定义问题、准备数据、选择模型和损失函数。还必须使用单热标记系统标记数据,以将其转换为模型可以识别的数字。讲师强调了良好数据的重要性,并指出糟糕的数据输入将导致同样糟糕的输出。此外,他还讨论了数据矢量化的重要性,确保所有特征都在相同的范围内并以正确的顺序表示。
00:40:00 在本节中,偏差和方差权衡的概念被讨论为机器学习中出现在深度学习和所有其他 ML 类中的一个重要方面。偏差是指模型对某些预测的倾向,而方差是模型在不记住数据的情况下捕获数据复杂性的能力。给出了高偏差和高方差的例子,其中高偏差是模型的表现力不足以准确学习数据集的情况,而高方差是指过度拟合。理想的模型是在不记住数据的情况下捕获数据的复杂性,这被称为金发姑娘区。偏差-方差权衡是机器学习中的一个关键概念,用户应该知道,因为他们在参加的每门机器学习课程中都会遇到它。
Lecture 1 - Intro to Machine LearningCS 198-126: Modern Computer Vision and Deep LearningUniversity of California, BerkeleyPlease visit https://ml.berkeley.e...
Lecture 2 - Intro to Deep Learning, Part 1CS 198-126: Modern Computer Vision and Deep LearningUniversity of California, BerkeleyPlease visit https://ml.berke...
第 3 课:编码员实用深度学习 2022
第 3 课:编码员实用深度学习 2022
该视频为编码人员介绍了实用的深度学习。它涵盖了矩阵乘法和梯度的基础知识,并演示了如何使用深度学习模型来预测狗和猫品种的概率。该视频为编码人员简要介绍了深度学习,包括讨论矩阵乘法如何需要很长时间才能获得直观感受。下一课将重点介绍自然语言处理,即获取文本数据并根据其散文进行预测。
第 4 课:编码员实用深度学习 2022
第 4 课:编码员实用深度学习 2022
该视频介绍了如何为 Coders 2022 竞赛构建深度学习模型。作者介绍了如何创建验证集、如何使用竞争数据来测试模型的性能,以及如何避免在现实环境中过度拟合。在这段视频中,Jeremy 解释了如何使用 Pearson 相关系数来衡量两个变量之间的关系,以及如何使用 Pytorch 来训练一个表现得像 fast.ai 学习者的模型。他还讨论了 NLP 技术生成的预测问题,以及如何使用 sigmoid 函数解决该问题。
第 5 课:编码员实用深度学习 2022
第 5 课:编码员实用深度学习 2022
该视频提供了有关如何使用深度学习构建和训练线性模型的教程。视频首先讨论就地操作,这些操作会更改给定函数内的变量值。接下来,视频演示了如何使用反向梯度下降计算线性模型的损失。最后,该视频提供了一个函数来初始化和更新线性模型中的系数。该视频最后演示了如何运行该函数并打印损失。该视频介绍了如何计算数据集中给定列的最佳二进制拆分。这对于机器学习竞赛特别有用,因为它提供了用于比较的基线模型。
第 6 课:编码员实用深度学习 2022
第 6 课:编码员实用深度学习 2022
此 YouTube 视频为编码人员提供了有关如何开始深度学习的指南。主要关注编码人员的实用深度学习,提供有关如何设置竞赛、获取验证集和快速迭代的提示。该视频还讨论了特征重要性和部分依赖图的重要性,以及如何使用机器学习模型创建它们。
该视频概述了如何使用深度学习来提高编码项目的准确性。它解释说,数据集通常可以有各种各样的输入大小和纵横比,这使得很难用矩形创建准确的表示。它建议改用方形表示,这在大多数情况下都表现良好。
第 7 课:编码员实用深度学习 2022
第 7 课:编码员实用深度学习 2022
在 2022 年程序员实用深度学习的第 7 课中,Jeremy 解释了如何通过减少大型模型所需的内存来扩展深度学习模型。他演示了一种称为梯度累积的技巧,该技巧涉及不在每个小批量的每个循环中更新权重,而是每隔几次更新一次权重,从而允许使用更大的批量大小而无需更大的 GPU。此外,Jeremy 讨论了 k 折交叉验证并创建了一个深度学习模型,该模型使用称为交叉熵损失的不同损失函数来预测图像中存在的水稻类型和疾病。总体而言,该视频提供了构建更复杂的深度学习模型的实用提示和技巧。
在本视频中,演讲者探讨了在 PyTorch 中使用协同过滤和点积创建推荐系统。他描述了电影评级的矩阵乘法预测并计算了损失函数,这是衡量预测评级与实际评级匹配程度的指标。他引入了嵌入的概念,它允许使用虚拟变量加速矩阵乘法器。演讲者随后解释了如何向矩阵添加偏差和正则化以区分用户评分并防止过度拟合。最后,讨论了超参数搜索的主题,强调了对精细数据进行准确推荐的必要性。总的来说,该视频分解了复杂的深度学习概念,为观众创造了一种实用的理解。
第 8 课 - 编码员实用深度学习 2022
第 8 课 - 编码员实用深度学习 2022
该视频涵盖了编码人员深度学习的基础知识。它解释了如何使用 Pytorch 库为深度学习模型创建参数,如何使用 PCA 减少数据集中的因素数量,以及如何使用神经网络预测工业重型设备的拍卖价格。
此 YouTube 视频为程序员提供了深度学习的概述。演讲者解释说,坚韧在这个领域很重要,并建议如果你想成功,就应该坚持下去,直到完成某件事。他还建议在 forums.fast.ai 上帮助其他初学者。
第 9 课:稳定扩散的深度学习基础,2022 年
第 9 课:稳定扩散的深度学习基础,2022 年
该视频介绍了深度学习,讨论了稳定扩散模型的工作原理以及如何应用它们生成新图像。该视频演示了如何使用 Diffusers 库创建看起来像手写数字的图像。它还引入了稳定扩散的概念,这是一种训练神经网络的方法。基本思想是修改神经网络的输入以改变输出。在本视频中,讲师讨论了如何创建一个能够从嘈杂输入中正确识别手写数字的神经网络。该视频讨论了如何使用深度学习算法训练机器学习模型。该模型使用一组潜在变量(代表数据)进行初始化,并使用解码器来理解原始数据。接下来,使用文本编码器为数据创建机器可读的标题。最后,U-Net 使用字幕作为输入进行训练,梯度(“得分函数”)用于调整训练数据中的噪声水平。
深度学习的挑战(Razvan Pascanu 博士 - DeepMind)
深度学习的挑战(Razvan Pascanu 博士 - DeepMind)
DeepMind 的 Razvan Pascanu 博士在此视频中讨论了深度学习中的几个挑战。他强调了适应性和从性能指标转移注意力的重要性,并建议深度学习系统中计算资源的限制实际上是有益的。此外,他探讨了持续学习中的挑战以及与之相关的机器学习子领域,包括规模和架构对深度学习模型性能的影响。 Pascanu 博士还讨论了随机梯度下降的作用、显式偏差的重要性,以及在深度学习模型中预训练和添加归纳偏差的概念。
DeepMind 的 Razvan Pascanu 博士讨论了深度学习中的遗忘问题以及模型如何从中恢复。虽然遗忘发生后一些知识可能仍然存在,但很难确定丢失了多少信息。 Pascanu 博士提到最近关于目标遗忘的论文如何关注数据隐私,但在这一领域需要更多的研究和关注。
CS 198-126:2022 年秋季现代计算机视觉(加州大学伯克利分校)第 1 讲 - 机器学习简介
CS 198-126:第 1 讲 - 机器学习简介
在本次机器学习讲座中,讲师涵盖了广泛的主题,包括课程介绍、机器学习概述、不同类型的机器学习、机器学习管道、标记数据和损失函数。还讨论了偏差-方差权衡、过度拟合和欠拟合的概念。讲师强调了在机器学习过程中选择正确函数的重要性以及超参数在这个过程中的作用。机器学习的总体目标是准确预测新数据,而不仅仅是拟合训练数据。讲师鼓励学生上课并努力学习机器学习和深度学习。
CS 198-126:第 2 讲 - 深度学习简介,第 1 部分
CS 198-126:第 2 讲 - 深度学习简介,第 1 部分
在这个关于深度学习简介的 YouTube 讲座中,讲师讨论了深度学习模型的基础知识以及如何使用梯度下降训练它们,涵盖了神经网络的不同构建块以及深度学习为何如此流行的技术。本讲座介绍了感知器和堆叠多个感知器以创建更复杂和精密的神经网络,并解释了如何通过矩阵乘法和最后的加法计算输出,中间层使用 ReLU 激活函数。演讲者介绍了 Softmax 函数和 ReLU 激活函数的使用,使用损失函数作为评估模型性能的指标,以及梯度下降优化的概念。最后,讲师讨论了深度学习的概念,以及大型神经网络如何在具有记忆数据的能力的情况下促进低损失。讲师还介绍了神经网络中超参数调整的概念,以提高其在特定数据集上的性能。他指出超参数没有通用值,并建议探索不同的选项,例如层数和激活函数。由于时间限制,讲座戛然而止,但讲师向学生保证,即将到来的测验不会太难,并且可以在 GreatScope 平台上进行。