These series of tutorials on tensorflow are based on the publicly available slides from the Stanford University class - CS20SI -being offered in the winter o...
TensorFlow for Deep Learning Research 讲座涵盖了广泛的主题,包括基本操作、张量类型、占位符和延迟加载。强调了利用 TensorBoard 可视化正在运行的图形的重要性,并讨论了 TensorFlow API 的各种函数,包括随机洗牌、随机裁剪、TF.dot 多项式和随机伽玛函数。该视频还涵盖了为不同数据类型定义 0-ness 的概念、初始化变量、为其赋值,以及使用 TensorFlow 交互式会话的好处。最后,详细介绍了 TensorFlow 中占位符的使用,并讨论了使用具有未定义形状的占位符时的潜在问题。
00:45:00 在本节中,视频介绍了变量的初始化和赋值。初始化器 op 将变量的初始值分配给变量本身。此外,assign op 将变量的当前值加、减或乘以一个新值,而 assign sub op 从当前值中减去新值。多个会话将维护自己的变量和初始化副本,在处理多个会话时小心管理和遵循执行路径以避免意外结果很重要。最后,未初始化的变量不会对赋值或操作产生任何影响,应关闭所有会话以释放资源。
This is the second lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI...
00:05:00 在本节中,讲师解释了线性回归的基础知识,并演示了如何在 TensorFlow 中训练线性回归模型。使用简单的线性模型,其中 y 的预测值是 W 乘以 X,再加上 B。损失计算为 Y 的预测值与实际值之间的差值,训练通过优化W 和 B 的可训练变量。讲师然后分享线性回归示例的代码,其中输入数据是火灾次数,输出目标变量是给定样本中的测试次数。该代码演示了如何为输入数据创建占位符、初始化 W 和 B 的可训练变量、提出预测、计算损失以及将优化器定义为具有特定学习率的梯度下降。
This is the third lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI ...
00:20:00 在本节中,讲师讨论了 softmax 引起的计算复杂性问题的潜在解决方案。通常用于解决此问题的两种方法是负采样和噪声对比度估计 (NCE)。尽管 NCE 可以在理论上保证近似 softmax,但两种方法在实际应用中产生的结果相似。然后,讲座深入探讨了经验分布和知识分布的定义,目标是借助模型参数来近似经验分布。最后,讲师介绍了NCE作为一种减少语言模型估计问题的方法。
00:25:00 在本节中,演讲者解释了他们将如何使用代理二进制分类为二分类训练问题生成数据。他们从 P tilde C 中抽取一个中心词,然后从 PT little P tilde W 逗号 C 中抽取一个真实样本。他们将使用 QW 生成 K 个噪声样本,并为它们分配标签 D,该标签等于 0 以指示这些数据点是噪声。然后,他们通过创建两个分布的混合来计算二类数据中 D、逗号 W 的联合概率。使用条件概率的定义,他们可以将其转化为 D 的条件概率,在 D 为 0 和 1 的两种情况下给定 W 和 C。
00:30:00 在本节中,演讲者讨论了配分函数的昂贵计算问题以及如何使用噪声对比估计 (NCE) 解决该问题。 NCE 建议为每个经验上下文词添加配分函数作为参数,并通过反向传播来学习它。通过将Vc参数固定为1,将P tilde W comma C替换为u theta W comma C除以配分函数除以Vc,得到一个二分类问题。目标是最大化 D 关于 K 个负样本的条件似然,可以写成对数概率。演讲者解释了 NCE 如何用蒙特卡洛近似值代替期望值,从而降低该过程的计算成本。
00:35:00 在本节中,讨论了使用噪声对比估计 (NCE) 代替负采样 (NS)。 NCE能够将语言建模目标简化为一个二元分类问题,并且表明该目标将在模型参数的同一点上实现。提供了用于 NCE 损失的 TensorFlow API 以及名称范围的使用,这允许将节点分组在一起以便在 TensorBoard 中更好地可视化。变量名称的范围也在名称范围功能的上下文中进行了解释。
This is the fourth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI...
TensorFlow for Deep Learning Research 系列的第五讲涵盖了几个主题,包括如何有效地管理深度学习实验、TensorFlow 中自动微分的重要性以及训练模型和保存变量的过程。演讲者解释说,TensorFlow 等深度学习框架提供了自动微分功能,使用户可以更轻松地编写模型代码,而无需处理梯度。虽然手动计算梯度不是必需的,但对于简单的函数和网络来说计算梯度仍然很有帮助。还涵盖了使用子类和必要的占位符和提要技术创建命名实体识别模型,以及在 TensorFlow 中保存和恢复变量以及跨不同会话和机器保存模型的过程。
This is the first part of the fifth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford Universi...
00:20:00 在本节中,演讲者讨论了运行 TensorBoard 以同时可视化测试编写器和训练编写器中的事件的方法。命令“s about -- clock there is equal to the path”有助于可视化一切,当前主机是localhost冒号六零零六,可以通过浏览器导航。此外,TF 点摘要点图像默认有一个名称 tensor max outputs,它解释了一个具有形状路径大小高度宽度和通道的四维张量。最大输出参数决定了将在 TensorBoard 上渲染和显示多少偏移后图像。总体而言,TensorBoard 是跟踪训练进度的重要工具,用于添加和合并各种操作的 API 非常简单。
This is the second part of the fifth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford Univers...
00:05:00 在本节中,演讲者讨论了寻找 G 关于 theta 的导数,这对于训练神经网络至关重要。使用的示例是 X、Y 和 Z 的简单函数,其中必须计算 F 相对于 X、Y 和 Z 的偏导数。引入了局部梯度的概念,它是给定操作的输出相对于输入的导数。然而,需要链式法则来计算关于远距离变量的最终输出,在本例中为 X、Y 和 Z。
00:10:00 在本节中,我们将了解如何使用梯度的反向流动在计算图中找到梯度。输出节点的梯度通常为 1,为了计算每个节点的梯度,我们将局部梯度与从前一个节点接收到的梯度相乘。然后程序可以计算 del X 的 del F、Del Y 的 del F 和 Del V 的 del F 的最终梯度。重要的是要记住,我们总是根据最终损失函数计算梯度,这在神经网络的情况下,是 J 损失函数。最后,我们将了解神经网络中的神经元如何在前向传播过程中执行简单的功能,以及在反向传播过程中如何在本地计算和使用梯度。
00:15:00 在本节中,演讲者将反向传播背后的直觉解释为神经元的计算图。局部梯度是通过向后函数与 del Z 乘以 Del X 和 del Z 乘以 Del Y 值获得的。反向流向神经元的输出方向,向它发送数据的其他神经元通过 Del X 得到 Del J。计算图技术还用于更复杂的函数,例如 sigmoid 函数,其中向后梯度是用数值计算的。每个节点的局部梯度是通过对函数求导,然后将其与梯度流相乘来计算的。
00:30:00 在本节中,反向传播中前向和反向传播的概念将作为计算图进行讨论。前向传递计算输出,该输出成为下一个节点的输入,直到达到损失。在backward pass中,DZ初始设置为1,反向计算。在处理向量时,使用雅可比矩阵获取局部梯度,并在链式法则中使用左乘法。 Del X 的 Del L 或 Del Y 的 Del L 是使用两个雅可比矩阵计算的,即 Del X 的 del Z 或 Del Y 的 del Z 和 Del V 的 del L。
00:45:00 在本节中,演讲者使用 TensorFlow 中的矩阵乘法示例,解释了在函数中计算 del D/del W 和 del D/del X 时如何确保维数有效。 W 和 DD 的维度是已知的,并且由于进行乘法运算的唯一方法是使用 W dot dot dot X,因此最好记住这个公式。演讲者提醒观众理解 TensorFlow 中的计算图操作很重要,即使像 TensorFlow 这样的框架抽象出了这种复杂性。在处理自定义层时,这些知识将被证明是有用的,这需要用户编写他们的前向和后向传递。
Here I go into details on how to visualize backpropagation as a computational graph. As part of my other tutorials on tensorflow, we have discussed as to how...
Jumio 的首席技术官兼首席科学家 Lavash Patel 讨论了他们的公司如何使用 AI 和 ID 专家的组合来建立在线信任并验证 ID 文件的真实性。由于 ID 和子类型的多样性,以及需要纠正和拒绝不可读图像,身份验证过程具有挑战性。为了保持准确性,采用了人在回路中的方法,其中 AI 模型检测问题,然后人类对结果进行健全性检查。 Patel 还讨论了 Jumio 如何使用混合主动学习算法将深度学习生产化,该算法适应新的子类型并通过自我再训练来改进。此外,他还强调了清洁数据在人脸识别中的重要性,以及在处理用于机器学习目的的敏感数据时保持 PCI 合规性。
00:00:00 在本节中,Jumio 的首席技术官兼首席科学家 Lavash Patel 介绍了该公司通过 AI 和 ID 专家的组合在线建立信任以验证 ID 文件的真实性的业务。由于他们接受来自各种渠道的流量,包括手机、网络摄像头和简单的 API 调用,因此这种验证过程的问题变得具有挑战性。为解决这些问题,Jumio 混合使用分类和 Facemash 模型来帮助验证 ID 的真实性和摄像头前人员的身份。
00:05:00 在本节中,鉴于存在各种 ID 和子类型,演讲者讨论了使用 AI 进行身份验证的挑战。强调了校正或对齐图像的重要性,以及拒绝由于模糊或眩光导致的不可读图像的需要。批准 ID 图像是一个比拒绝更严格的过程,因为每个组件都必须通过才能被视为有效。为了保持严格的准确性和拒绝欺诈用户,采用了一种人在回路中的方法,其中使用 AI 模型来检测问题,并使用人类对结果进行健全性检查。这种方法在转换和欺诈检测方面实现了行业领先的准确性。
00:10:00 在本节中,演讲者讨论了计算机视觉产品化深度学习的分类方面。虽然图像分类在过去几年中已使用预训练网络(如 Inception Version 4 或 Viji 16)得到解决,但由于聚合标签而不是颗粒标签,问题略有不同。有超过 1 亿张标记图像,发现不同的类别已成为一个变形的类别发现问题,主动学习可以解决这个问题。混合主动学习涉及一个无监督学习或内置聚类的步骤,从最流行的带有标记示例的类开始,以获得少数类。
00:15:00 在本节中,演讲者解释了如何使用混合主动学习算法将计算机视觉的深度学习生产化。该算法为每个类别收集大量样本,并训练分类器将图像自信地分类为 50 个类别,并输出置信水平。然后,该算法会自动对分类器不信任的图像进行聚类,人工代理会检查它们以在必要时添加新类。一旦创建了模型,它就会作为 API 部署,如果有合规性规定,可能会添加日志记录、监控和健康检查。此外,演讲者指出,该算法会适应新的子类型,并通过自我再训练不断改进,就像检测到拼写错误的新 ID 时所做的那样,而人工代理拒绝了它。
00:20:00 在本节中,演讲者讨论了他们如何通过始终拥有冠军模型并根据与冠军相比的表现来评估新模型来生产新模型。这种方法还允许使用持续收集和清理数据集的混合主动学习基础设施进行持续改进。生产流水线对数据集的清洁度很敏感,训练的目标错误率不超过 20%。整个过程还必须符合 PCI 和 GDP,这意味着所有内容都必须加密并带到数据中,而不是将数据带到训练中。然后,演讲者介绍了第二个关于面部匹配的案例研究,他们利用年龄、性别和种族方面的数据偏差来将自拍与 ID 相匹配。
In this conference talk, I explore how we use deep learning algorithms for smarter data extraction, fraud detection, and risk scoring to continuously improve...
Paper presented by Gail Weiss to the Neural Sequence Model Theory discord on the 24th of February 2022.Gail's references:On Transformers and their components...
Matthew Zeiler, PhD, Founder and CEO of Clarifai Inc, speaks about large convolutional neural networks. These networks have recently demonstrated impressive ...
用于深度学习研究的 Tensorflow - 第 1 讲
用于深度学习研究的 Tensorflow - 第 1 讲
视频“用于深度学习研究的 Tensorflow - 第 1 讲”介绍了 TensorFlow 教程,涵盖了深度教程的需要,解释了库的基础知识和实际应用。该讲座涵盖了如何从深度学习的角度使用 TensorFlow 构建和构建模型。本教程还介绍了 TensorBoard 中用于可视化计算图模型的工具,包括如何使用节点、边和会话进行操作,这些工具通过运行子图提供高效的计算选项。讲师推荐从零开始学习TensorFlow,构建自定义模型和高效处理资源,具备在CPU、GPU、Android或iOS上运行的能力,同时提供部署模型的能力。
用于深度学习研究的 Tensorflow - 第 2 讲
用于深度学习研究的 Tensorflow - 第 2 讲
TensorFlow for Deep Learning Research 讲座涵盖了广泛的主题,包括基本操作、张量类型、占位符和延迟加载。强调了利用 TensorBoard 可视化正在运行的图形的重要性,并讨论了 TensorFlow API 的各种函数,包括随机洗牌、随机裁剪、TF.dot 多项式和随机伽玛函数。该视频还涵盖了为不同数据类型定义 0-ness 的概念、初始化变量、为其赋值,以及使用 TensorFlow 交互式会话的好处。最后,详细介绍了 TensorFlow 中占位符的使用,并讨论了使用具有未定义形状的占位符时的潜在问题。
演讲者还讨论了 TensorFlow 中占位符的使用,包括如何提供多个数据点和使用免费字典。然后讲座转到延迟加载,其中计算被推迟到运行时,以避免由循环中相同操作的多个节点引起的图形膨胀。将操作对象的定义与变量定义和计算函数的计算和结构化代码分开,有助于避免在 TensorFlow 中调用函数时出现问题。演讲者还介绍了优化器如何在使用属性有效构建 TensorFlow 代码的同时最小化交叉熵并更新权重和偏差。
用于深度学习研究的 Tensorflow - 第 3 讲
用于深度学习研究的 Tensorflow - 第 3 讲
关于用于深度学习研究的 TensorFlow 的第三讲涵盖了使用 MNIST 数据集的线性回归和逻辑回归。讲师展示了如何通过为输入数据创建占位符、为权重和偏差初始化可训练变量、提出预测、计算损失以及将优化器定义为具有特定学习率的梯度下降来在 TensorFlow 中训练线性回归模型。该讲座还解释了小批量随机梯度下降和记住变量形状的重要性。模型的准确率计算方法是将TF argmax函数得到的最大值的指标与目标变量y进行比较,使用TF reduce sum和TF float计算预测正确的次数,除以测试总数例子。最后,讲师指出,该模型并不被认为是强大的,并且有更强大的模型,例如产生更高准确度的卷积层。
用于深度学习研究的 Tensorflow - 第 4 讲
用于深度学习研究的 Tensorflow - 第 4 讲
在 TensorFlow for Deep Learning Research 系列的第 4 讲中,演讲者深入研究了基于深度学习的自然语言处理中的词嵌入。本讲座解释了学习 NLP 问题的词嵌入的概念,并描述了在神经网络中将词表示为数值向量的过程。本讲座讨论了使用基于 AI 的 CBOW 和 skip gram 生成词向量的不同方法,以及使用负采样和 NCE 解决 softmax 中的计算复杂性问题。此外,讲师重点介绍了在 TensorFlow 中嵌入变量以及使用 t-SNE 以降维方式可视化高维词向量的过程。最后,讲座以对所涵盖概念的总结和对下一课的简要介绍结束,下一课将侧重于构建单词模型。
用于深度学习研究的 Tensorflow - 讲座 5_1
用于深度学习研究的 Tensorflow - 讲座 5_1
TensorFlow for Deep Learning Research 系列的第五讲涵盖了几个主题,包括如何有效地管理深度学习实验、TensorFlow 中自动微分的重要性以及训练模型和保存变量的过程。演讲者解释说,TensorFlow 等深度学习框架提供了自动微分功能,使用户可以更轻松地编写模型代码,而无需处理梯度。虽然手动计算梯度不是必需的,但对于简单的函数和网络来说计算梯度仍然很有帮助。还涵盖了使用子类和必要的占位符和提要技术创建命名实体识别模型,以及在 TensorFlow 中保存和恢复变量以及跨不同会话和机器保存模型的过程。
用于深度学习研究的 Tensorflow - 讲座 5_2
用于深度学习研究的 Tensorflow - 讲座 5_2
该视频教程讨论了 TF 摘要操作的实现,它允许在 TensorBoard 中可视化数据。本教程涵盖三种类型的摘要操作 - TF.summary.scalar、TF.summary.histogram 和 TF.summary.image - 并解释了如何将它们合并为一个并使用 FileWriter 类将它们写入事件文件。讲师演示了如何使用名称范围在 TensorBoard 中可视化图形,并定义了测试编写器和训练有素的编写器来将摘要写入单独的文件。他们强调利用 TensorBoard 的可视化功能来更好地了解模型的性能。总的来说,TensorBoard 是跟踪训练进度的重要工具,用于添加和合并操作的 API 非常简单。
作为计算图的反向传播背后的直觉
作为计算图的反向传播背后的直觉
本视频解释了反向传播作为计算图背后的直觉。演讲者讨论了如何使用代理函数来估计将输入映射到输出的经验函数,目标是找到使损失函数最小化的参数。反向传播允许通过图形的反向传递计算损失函数相对于每个参数的梯度。计算图中每个门的局部梯度,它们可用于计算最终输出相对于每个输入的梯度。演讲者还解释了如何处理分支和向量化操作的梯度,以及如何确保在计算导数时维度有效。
将计算机视觉的深度学习产品化
将计算机视觉的深度学习产品化
Jumio 的首席技术官兼首席科学家 Lavash Patel 讨论了他们的公司如何使用 AI 和 ID 专家的组合来建立在线信任并验证 ID 文件的真实性。由于 ID 和子类型的多样性,以及需要纠正和拒绝不可读图像,身份验证过程具有挑战性。为了保持准确性,采用了人在回路中的方法,其中 AI 模型检测问题,然后人类对结果进行健全性检查。 Patel 还讨论了 Jumio 如何使用混合主动学习算法将深度学习生产化,该算法适应新的子类型并通过自我再训练来改进。此外,他还强调了清洁数据在人脸识别中的重要性,以及在处理用于机器学习目的的敏感数据时保持 PCI 合规性。
盖尔维斯:像变形金刚一样思考
盖尔维斯:像变形金刚一样思考
Gail Weiss 在此视频中讨论了变换器编码器的概念,解释了它们处理序列并将其编码为向量的能力。 Weiss 重点介绍了几项探索变压器编码器的优势和局限性的研究,并引入了一种称为受限访问序列处理语言 (RASP) 的编程语言来表示变压器编码器的能力。在深入研究使用序列运算符和库函数来计算逆选择器和翻转选择器之前,她还讨论了多头注意力、选择模式和 softmax 在特定条件下的挑战。 Weiss 提供了关于为转换器创建最佳程序的见解以及来自通用和三明治转换器的见解,最终讨论了选择谓词和二元与三阶关系。
他还谈到了在 transformer 模型中使用高阶注意力的潜在好处和缺点,以及剩余连接在维护整个层中的信息方面的重要性。她还讨论了偏离 RASP 模型的非常深的转换器的潜在问题,并建议使用更长的嵌入来克服信息的模糊性。
Matt Zeiler 的可视化和理解深度神经网络
Matt Zeiler 的可视化和理解深度神经网络
Matt Zeiler 讨论了用于图像和视频中对象识别的卷积神经网络 (CNN) 的可视化和理解。他描述了与人类和灵长类动物相比,深度神经网络在识别物体方面的表现如何,并展示了 CNN 如何通过层层学习来识别物体。 Zeiler 解释了改进 CNN 架构的过程,并讨论了在使用有限数据进行训练时的局限性。最后,他回答了有关在较高层中使用较低层以及卷积在神经网络中的应用的问题。