机器学习和神经网络 - 页 43

 

如何使用 Python 从零开始实现逻辑回归

代码:https: //github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/03%20Logistic%20Regression



如何使用 Python 从零开始实现逻辑回归

该视频解释了如何使用 Python 从头开始实现逻辑回归,使用 sigmoid 函数创建概率和交叉熵作为误差函数。讲师分享了通过迭代计算预测、梯度和更新偏差的分步说明。他们还演示了如何加载乳腺癌数据集并训练逻辑回归分类器来预测肿瘤是恶性还是良性。该视频最后使用自定义函数评估模型的准确性。总的来说,实现是成功的,证明逻辑回归算法效果很好。

  • 00:00:00 在本节中,视频讨论了逻辑回归以及它如何涉及使用 S 形函数创建概率而不是特定值。逻辑回归不使用均方误差,而是使用交叉熵作为其误差函数。要使用梯度下降,需要计算误差函数在权重和偏差方面的梯度。学习率用于确定以多快的速度接近梯度给定的方向。在测试过程中,会计算概率,并根据最高概率选择标签。逻辑回归的实现类似于线性回归,但权重和偏差的初始化为零。

  • 00:05:00 在这部分视频中,讲师解释了如何使用 Python 实现逻辑回归,使用 S 型函数来预测结果。该过程包括根据权重和 x 值加上偏差的乘积计算预测,将它们放入 S 形函数中以给出结果,并计算梯度。讲师演示了如何通过迭代计算偏置和更新的梯度。本节还包括如何通过获取概率并根据预测值选择标签来使用逻辑回归进行推理。

  • 00:10:00 在本节中,讲师演示了如何使用 Python 从头开始实现逻辑回归。他们一步一步地解释了这个过程,展示了如何使用 sigmoid 函数计算概率和类别标签,以及如何调整学习率以获得更好的结果。讲师还从 Scikit-learn 加载乳腺癌数据集,并训练逻辑回归分类器根据数据集的特征预测肿瘤是恶性还是良性。最后,他们评估算法的准确性并演示如何使用自定义函数进行计算。总的来说,实现是成功的,表明自制算法运行良好。
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何使用 Python 从头开始实现决策树

代码:https: //github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/04%20Decision%20Trees



如何使用 Python 从头开始实现决策树

该视频提供了使用 Python 从头开始构建决策树的分步指南。演讲者解释了决策树的概念、它们的工作原理以及它们的构建方式。他们讨论了停止标准、生长树函数、辅助函数“最常见的标签”、“信息增益”、“熵”和“分裂”,以及预测函数。演讲者还演示了如何计算信息增益、加权熵和准确性。此外,他们还测试决策树模型并为查看者提供指向其 GitHub 存储库的链接,其中提供了代码。

  • 00:00:00 在本节中,我们将了解决策树及其工作原理和构建方式。构建决策树来表示数据集,每个数据点被划分为表示“是”或“否”的叶节点。叶节点之间的节点称为分支,它们根据特征进行划分,例如显示数据点位于东邻还是西邻的特征。信息增益计算为父母的熵和孩子的熵的加权平均值,决策树模型是根据最显着的信息增益来训练的。最后,我们讨论停止标准,它用于决定何时停止构建决策树。

  • 00:05:00 在本节中,演讲者讨论了在分析所有可能的叶节点之前停止决策树的方法,包括为节点设置最大深度或最小样本数。然后演讲者介绍了两个将用于实现决策树的类:一个 Node 类和一个 DecisionTree 类。节点类包括有关节点被划分的特征和节点值的信息。 DecisionTree 类包括使用 x 和 y 值拟合树、预测新数据以及设置停止条件(如最小样本数和最大深度)的方法。总的来说,演讲者采用循序渐进的方法概述了在 Python 中从头开始实现决策树。

  • 00:10:00 在本节中,演讲者讨论了 grow tree 函数的实现,这是递归构建决策树的主要函数。该函数接受 x 和 y 值,并检查特征数是否不超过实际特征数。该函数首先检查停止条件,然后继续寻找最佳分割、创建子节点并再次调用生长树函数。如果满足停止条件,该函数将创建一个新的叶节点并使用 value 参数返回它。演讲者还讨论了称为“最常见标签”的辅助函数,它利用计数器数据结构并返回数据集中最常见的标签。

  • 00:15:00 在本节中,视频讨论了如何使用 Python 从头开始实施决策树。讲师演示了如何创建辅助函数来找到最佳阈值和特征来创建新的拆分。该函数使用 numpy 随机选择一组特征来考虑创建新的拆分。一旦辅助函数在所有可能的分割中找到阈值,它就会计算信息增益以确定它是否优于目前计算出的最佳增益。最后,返回最佳分割索引和阈值。

  • 00:20:00 在视频的这一部分中,演讲者创建了一个名为“信息增益”的辅助函数来计算信息增益,并定义了另一个名为“熵”的辅助函数来根据传入的值计算父级的熵.他们解释说,父级的熵计算为 px 乘以 px 的 log 2 的总和,他们使用 numpy 技巧来计算每个值的出现次数并将其除以值的总数以获得 x 的 p .接下来,演讲者创建了另一个名为“split”的辅助函数,以帮助找到哪些索引向左,哪些向右移动,并演示了 numpy argwhere 的工作原理。

  • 00:25:00 在视频的这一部分,演示者解释了如何使用 Python 计算决策树子树的加权熵。得到y值的长度和左右索引后,就可以使用加权平均公式计算子项的熵。这涉及找到每个子节点中的样本数除以样本总数,将其乘以每个节点的熵,然后将结果加在一起以获得子节点的熵。有了这些信息,就可以通过父熵减去子熵来计算信息增益,然后将其传递回整个决策树。

  • 00:30:00 在视频的这一部分,演示者解释了如何为决策树分类器实现预测功能。此处使用 traverse_tree 辅助函数递归遍历树,如果到达则返回叶节点的值。如果特征的值小于或等于阈值,则传递树的左侧进行遍历,否则传递树的右侧进行遍历。这些值被返回,然后在输出之前变成一个 numpy 数组。然后使用乳腺癌数据集测试决策树分类器,并使用预测函数生成预测,并将其传递给准确度指标。

  • 00:35:00 在本节中,演示者正在测试他们使用 Python 从头开始构建的决策树模型。他们首先使用预测和测试数据计算模型的准确性。他们还在代码中发现了两个错误——一个在节点的初始化中,另一个在遍历树函数中。修复错误后,他们再次运行测试数据并获得 0.91 的准确度。然后他们向模型传递不同的参数并获得更好的准确性。最后,演示者邀请观众提问并提供指向其 GitHub 存储库的链接,其中提供了代码。
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何用 Python 从零开始实现随机森林

代码:https: //github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/05%20Random%20Forests



如何用 Python 从零开始实现随机森林

本视频教程讲授如何使用 Python 从头开始实施随机森林。在训练期间,选择数据集的随机子集,并使用该子集创建决策树。对开始算法之前确定的树数重复此过程。在推理过程中,预测是从每棵树中获得的,如果是分类,则采用类标签的多数票。演讲者演示了如何通过创建一个列表将决策树传播到其中并将其添加到 Numpy 数组来实现它。可以使用正确预测的真实值的数量除以真实值的总数来计算准确度。演讲者还谈到可以修改树的数量、最大深度和最小样本分割以获得更高的准确性。

  • 00:00:00 在本节中,我们将了解随机森林,它由许多不同的决策树组成。该过程涉及在创建这些树时在等式中引入一些随机性。在训练期间,选择数据集的随机子集,并使用该子集创建决策树。对开始算法之前确定的树数重复此过程。在推理过程中,预测是从每棵树中获得的,如果是分类,则采用类标签的多数票。如果是回归,则计算所有预测的平均值。该实现使用在上一课中创建的决策树类,并通过指定树的数量、最大深度、分割的最小样本、特征的数量以及用于保存所有树的空数组进行初始化。该类具有一个拟合和预测函数,需要的是如上所述传递所需的参数。

  • 00:05:00 在本节中,讲师解释了如何根据样本子集拟合决策树,并将其附加到随机森林模型中的树列表中。创建辅助函数“bootstrap_samples”以从给定数据集中随机选择指定数量的样本并进行替换。然后,讲师继续解释如何使用随机森林对输入 X 进行预测,这涉及遍历随机森林中的所有树并返回预测列表,其中每个内部列表包含对来自不同树的相同样本的预测。最后,讲师介绍了 numpy 中用于重新排列列表的“交换轴”函数,以及使用集合库中的计数器数据结构返回最常见分类标签的“most_common”辅助函数。

  • 00:10:00 在本节中,演讲者解释了使用 Python 从头开始实现随机森林的过程。他们提到了一个将用于预测的辅助函数,并创建了一个列表,将决策树传播到其中,然后将其添加到一个 NumPy 数组中,该数组将返回用于预测。使用正确预测的真实值的数量除以真实值的总数来计算准确度。演讲者还提到可以操纵树的数量、最大深度和最小样本分割以获得更高的准确性。演讲者将观众引导至其 GitHub 存储库中的代码,并欢迎在评论部分提出问题。最后,演讲者将教程的剩余部分交给帕特里克。
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何使用 Python 从零开始实现朴素贝叶斯

代码:https: //github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/06%20NaiveBayes



如何使用 Python 从零开始实现朴素贝叶斯

本视频教程重点介绍如何使用 Python 从头开始实施朴素贝叶斯。讲师概述了贝叶斯定理和独立性假设。他们解释了如何计算训练算法所必需的先验概率和类别条件概率。演讲者还介绍了高斯分布作为概率建模的一种方式。该视频通过代码演示了该算法的训练和预测步骤。讲师在包含两个类别的玩具数据集上测试该算法,准确率达到 96.5%。总的来说,对于那些有兴趣学习朴素贝叶斯并在 Python 中实现它的人来说,本教程是一个有用的资源。

  • 00:00:00 在本节中,演讲者讨论了朴素贝叶斯背后的理论,朴素贝叶斯是一种概率分类器,它假定特征之间的独立性来预测类标签。他们解释了贝叶斯定理和独立性假设,以及如何使用它来计算每个类别的后验概率。演讲者接着解释了如何计算先验概率和类别条件概率,这两者都是训练算法所必需的。他们还引入了高斯分布作为概率建模的一种方式。总结了训练和预测步骤,并演示了实现朴素贝叶斯的代码。演讲者提供了拟合和预测方法的定义,并概述了每种方法的训练和预测所需的步骤。

  • 00:05:00 在视频的这一部分,讲师解释了如何使用 Python 从头开始实施朴素贝叶斯。代码假定 x 和 y 已经是 numpy 和 d 数组格式。讲师展示了如何使用 x.shape 提取 x 以及如何使用 numpy.unique() 获取唯一类的数量。下一步是计算每个类的均值、方差和先验。这可以通过用零初始化这些值然后使用 numpy 函数计算它们来实现。然后,讲师解释如何使用辅助函数和列表理解来计算每个类的后验概率。最后,讲师展示了如何将预测作为 numpy 数组返回。

  • 00:10:00 在本节中,演讲者讨论了朴素贝叶斯算法在 Python 中的实现。他们经历了计算先验的步骤,然后使用高斯分布计算后验并为概率密度创建辅助函数,然后预测具有最高后验的类别。最后,他们在包含两个类别的 1000 个样本和 10 个特征的玩具数据集上测试该算法,准确率达到 96.5%。演讲者鼓励进一步探索代码并期待下一课。
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何用Python从零开始实现PCA(主成分分析)

代码: https ://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/07%20PCA



如何用Python从零开始实现PCA(主成分分析)

该视频介绍了使用 Python 和 Numpy 从头开始实施主成分分析 (PCA) 的过程。 PCA 是一种在保留大部分信息的同时降低数据集维度的技术。讲师将逐步介绍使用拟合和转换方法创建 Python 类以对数据集执行 PCA 的步骤。 fit方法首先计算数据的均值和协方差,提取特征向量和特征值。 transform 方法然后将数据投影到主成分上。演讲者强调了在此过程中减去均值和对特征向量进行排序的重要性。最后,该实现在鸢尾花数据集上进行了测试,成功地将维度从四维降为二维。

  • 00:00:00 在本节中,讲师讨论了主成分分析 (PCA),这是一种无监督学习方法,可通过将数据集转换为仍包含较大集合的大部分信息的低维集合来降低数据集的维度。讲师解释了 PCA 如何找到一个变换,使得变换后的特征是线性独立的,并且通过仅采用具有最高重要性的维度来降低维度。新发现的维度应该最小化投影误差,投影点应该有最大的分布,这意味着最大的方差。讲师将逐步介绍使用 Python 和 Numpy 从头开始实施 PCA 的步骤。这些步骤包括从 x 中减去平均值,计算 x 和 x 的协方差,以及根据特征值降序对特征向量进行排序。

  • 00:05:00 在本节中,演讲者解释了使用 Python 进行主成分分析 (PCA) 的实现。这涉及创建一个将分量数作为输入的“init”函数,一个减去均值的“fit”方法,计算协方差,对特征向量进行排序,并存储主分量。然后,“转换”方法将此转换应用于新数据。演讲者详细介绍了代码的每一步,强调了减去均值和对特征向量进行排序的重要性,并最终输出主成分以进行降维。

  • 00:10:00 在本节中,演讲者演示了如何在 Python 中从头开始实施 PCA(主成分分析)。他们首先创建一个具有适合和转换方法的类。 fit 方法首先计算数据的均值并以均值为中心。然后,它计算数据的协方差并提取特征向量和特征值。 transform 方法然后将数据投影到具有点积的主成分上。最后,演讲者使用 Iris 数据集测试了实现,并成功地将数据的维度从四维降为二维。
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何用Python从零开始实现SVM(支持向量机)

代码: https ://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/09%20SVM



如何用Python从零开始实现SVM(支持向量机)

支持向量机 (SVM) 旨在找到一个线性决策边界,使类之间的分离最大化,并在训练期间学习权重。成本函数涉及一个铰链损失,它决定了我们离决策边界的正确一侧有多远,并添加了一个正则化项来权衡最小化损失和最大化距离。计算梯度,导出更新规则,初始化权重,而预测函数是线性函数的输出。提供了使用 NumPy 和 Scikit-learn 库在 Python 中从头开始实现 SVM 的代码,包括导入列车测试和拆分、数据集,以及绘制决策边界和两个超平面确认准确实现。

  • 00:00:00在本节中,视频讨论了支持向量机 (SVM),其目的是找到一个线性决策边界或超平面,以提供类之间的最大分离。超平面应该与最近的点或支持向量有最大的边距,权重 (w) 是训练期间需要学习的。定义了一个损失函数,它涉及一个铰链损失,它决定了我们离决策边界的正确一侧有多远。正则化项被添加到成本函数中,以在最小化损失和最大化到两侧的距离之间进行权衡,并使用 Lambda 参数控制所述部分在成本函数中的重要性。

  • 00:05:00在本节中,讨论了为 SVM 寻找权重和偏差的过程。解释了梯度的计算,更新规则是从梯度中导出的。还演示了权重的初始化。类标签被更新为具有 -1 或 1 的值,并且更新规则应用于指定的迭代次数。预测函数只是我们从学习到的权重中得到的线性函数的输出。通过将输出与零进行比较,我们可以确定给定测试样本的类别。 SVM 的代码是使用 NumPy 和 Scikit-learn 库用 Python 编写的。

  • 00:10:00在本节中,演示者解释了如何编写 python 代码从头开始实现 SVM。该方法由两部分组成,拟合和预测方法。 fit 方法是我们的训练,它根据给定数据计算权重,而 predict 方法使用权重通过近似给定数据来预测输出。演示者进一步解释了根据不同梯度的代码更新,这取决于条件。条件 y times W Times x minus B 应该大于或等于 1,我们使用 numpy dot 来检查。代码跟进从 sklearn 和 matplotlib 导入训练测试、拆分和数据集,并创建一个示例数据集,其中包含两个具有两个特征的数据集,然后确保类为 -1 和加一,分为训练集和测试集,并运行 svm 来预测准确性。演示者还概述了用于绘制决策边界和正一负一两个超平面的代码,这证实了准确的实施。
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

如何用 Python 从零开始实现 Perceptron

代码:https: //github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/08%20Perceptron



如何用 Python 从零开始实现 Perceptron

该视频教程解释了 Perceptron 算法背后的理论,该算法只能使用激活函数、权重和输入来学习线性可分模式以进行二元分类。然后,演示者通过选择优化算法的学习率和迭代次数并将激活函数定义为单位阶跃函数,概述了在 Python 中从头开始实施感知器模型的必要步骤。初始化权重和偏差后,模型根据感知器更新规则更新权重和偏差,从而从训练数据中学习。最后,presenter 通过预测测试数据的类标签来评估模型的准确性,准确率为 100%,表明决策边界学习成功。

  • 00:00:00 在本节中,演示者解释了感知器算法背后的基本理论,以及它如何作为二元分类器的监督学习算法。感知器是生物神经元的简化模型,也被称为神经网络的原型。 Perceptron 算法只能学习线性可分的模式,它可以看作是人工神经网络的一个单元。然后,演示者解释了感知器的数学表示,其中包括权重、输入和激活函数,以及二元分类器类标签。该视频随后解释了 Perceptron 更新规则,该规则使算法能够更新权重和偏差,以在分类错误的情况下将它们推向正面或负面目标类别。

  • 00:05:00 在本节中,演讲者概述了在 Python 中从头开始实施感知器模型的步骤。他们首先选择优化算法的学习率和迭代次数。接下来,激活函数被存储为单位阶跃函数。权重和偏差在开始时被初始化为无,代码继续拟合和预测函数。对于拟合函数,从训练数据中得到样本数和特征数,然后初始化权重和偏差。类标签调整为 1 或 0。接下来,执行优化,计算每个输入的线性输出。最后,实现预测函数,其中线性模型和激活函数用于计算测试数据的预测输出。

  • 00:10:00 在本节中,演示者解释了使用 Python 从头开始实现感知器。感知器的更新规则是 delta w = alpha 乘以 y 减去 y hat 乘以 x,delta bias 是 alpha 乘以 y 减去 y hat。然后演示者使用此规则根据更新部分更新权重和偏差。在解释了 fit 方法之后,演示者继续介绍 predict 方法,其中计算线性输出,然后通过激活函数得到 y 预测值。最后,演示者使用辅助函数测试此实现的准确性,数据集生成具有 150 个样本和两个特征的 blob,创建具有学习率和迭代次数的感知器,用训练数据对其进行拟合,并用测试数据进行预测。准确率为 100%,表明决策边界学习成功。
 

如何使用 Python 从零开始实现 K-Means

代码: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/10%20KMeans



如何使用 Python 从零开始实现 K-Means

该视频演示了如何使用 Python 从头开始实施 K-Means 聚类算法。 K-Means 是一种无监督学习算法,通过迭代更新均值或质心直到没有进一步变化,将未标记数据聚类到 k 个不同的簇中。该视频介绍了初始化空集群以及为集群和迭代次数设置参数、更新集群标签和质心,以及在没有变化时停止优化循环。演讲者还解释了测量欧氏距离以计算最近质心的重要性,并提供了 Matplotlib 中预先编写的绘图函数以可视化聚类过程。

  • 00:00:00 在本节中,演讲者解释了 k-means 无监督学习方法,该方法涉及将数据集聚类为 k 个不同的聚类,并在迭代优化过程中更新均值或质心,直到不再发生变化。重复更新聚类标签和中心的过程,并使用最近质心公式计算两个特征向量之间的欧氏距离。然后演讲者演示了一个在未标记数据中找到三个聚类的示例,并展示了如何在 Python 中从头开始实现 k-means,包括初始化空聚类以及设置聚类和迭代次数的参数。该视频最后总结了 k-means 算法及其在 Python 中的实现。

  • 00:05:00 在本节中,演讲者讨论了使用 Python 从头开始实施 K-Means。他们首先初始化必要的变量,例如每个集群和质心的空列表,然后定义预测函数而不是拟合方法。他们解释说 K-Means 是一种针对未标记数据的无监督学习技术。优化循环涉及在从集群计算新质心之前将样本分配给质心。演讲者指出,辅助函数对于创建和获取质心和簇是必需的。他们最后提到,如果没有更多变化,则可以在最大迭代之前停止循环。

  • 00:10:00 在本节中,演讲者解释了辅助函数的实现,以更新聚类标签并将样本分配给最近的质心。更新聚类标签的函数遍历每个聚类,并将聚类索引分配给每个样本索引的标签。演讲者还展示了为每个集群初始化空列表以分配索引,然后遍历每个样本以将其分配给最近的质心。最后,演讲概述了绘制质心和簇的步骤,并检查代码是否需要提供绘制步骤。

  • 00:15:00 在本节中,演讲者解释了如何使用 Python 从头开始实现 K-Means 聚类算法。该算法将数据集和指定数量的聚类作为输入,然后将每个点分配给它们最近的质心。演讲者介绍了用于查找最近的质心和计算两点之间的欧氏距离的辅助函数。另一个辅助函数用于计算每个簇的平均值,然后将其分配给质心。最后,算法检查每个簇的新旧质心之间的距离是否为零,以确定算法是否收敛。

  • 00:20:00 在本节中,演讲者解释了如何使用 Python 和 numpy 从头开始实施 K-Means 聚类。他们讨论了测量欧氏距离的重要性以及如何计算新的质心和簇标签。他们还提供了一个预先编写的绘图函数,该函数使用 matplotlib 库逐步可视化聚类过程。最后,他们演示了使用 sklearn 的 make_blobs 函数创建三个集群的示例数据集的实现,展示了 K-Means 算法如何成功地将数据点分组到单独的集群中。演讲者鼓励观众查看 Github 上的完整代码,并观看课程的其余部分,以获得对机器学习概念的更深入解释。
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

在 Python 中开始使用 OpenAI ChatGPT (GPT-3.5) API |初学者教程



在 Python 中开始使用 OpenAI ChatGPT (GPT-3.5) API |初学者教程

该视频教程向初学者介绍了如何在 Python 中使用 OpenAI ChatGPT (GPT-3.5) API。演示者介绍了 GPT 3.5 Turbo 模型作为 DaVinci 的更便宜的替代品,DaVinci 是一种组合模型,可以生成自然语言和代码,并且没有令牌或总数限制。然后,本教程演示了如何注册 OpenAI 帐户、获取 API 密钥以及使用 chat_gpt-completion 函数来保存包含用户和系统输入的对话日志。该视频还介绍了如何检索回复、追加后续问题以及修改代码以保持对话不间断进行。

  • 00:00:00 在视频的这一部分中,演讲者介绍了 OpenAI 的 GPT 3.5 Turbo 模型,它是达芬奇模型的更便宜的替代品。 GPT 3.5 Turbo 模型是一种可以理解和生成自然语言和代码的组合模型,每千个代币的成本为 0.002 美分。与 GPT 3.0 模型不同,GPT 3.5 Turbo 模型没有令牌限制,也没有总量限制。然后视频继续演示如何开始在 Python 中使用 OpenAI GPT API,包括如何注册 OpenAI 帐户和获取 API 密钥。

  • 00:05:00 在本节中,教程的创建者讨论了如何在 Python 中使用 OpenAI ChatGPT (GPT-3.5) API。此 API 的工作方式与常规 GPT 3.0 模型不同,因为它更具对话性。该 API 使用一个名为 chat_gpt-completion 的函数,该函数引用了 OpenAI 库和聊天完成模型。会话日志传递给此函数,以不断添加会话记录。用户和系统角色用于确定输入是来自用户还是来自系统本身。打印响应选项,响应中最重要的部分是 Choice 键。

  • 00:10:00 在本节中,教程讨论了如何在 Python 中使用 OpenAI ChatGPT (GPT-3.5) API。本教程解释说,与常规 GPT 3.0 模型不同,ChatGPT 模型一次只能返回一条消息或一个响应。然后本教程继续演示如何从响应中检索行和内容、如何使用 ChatGPT API 编写对话以及如何检索和显示编写历史记录。本教程还介绍了如何将后续问题附加到作文中,以及如何根据后续问题从 API 中检索其他信息。

  • 00:15:00 在本节中,演讲者讨论了可以进行代码修改以保持 ChatGPT 组合不间断运行。修改涉及启动与系统行的会话,通过将内容设置为“我可以如何帮助你”来参与组合,并插入一个 while 循环以保持对话运行。用户在输入语句中输入问题或提示,将字符串保存到问题变量中。 content key设置为消息,用户运行ChatGPT补偿函数发送请求,将消息追加到组合列表中。然后可以通过后续问题继续对话,所有对话都保存在一个列表中,供 ChatGPT API 引用。
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
  • 2023.03.02
  • www.youtube.com
OpenAI has finally released the most anticipated ChatGPT model today, called "gpt-3.5-turbo". Unlike the GPT 3.0 models that work like a search engine, Cha...
 

在 Python 中开始使用 OpenAI GPT-4 API(ChatGPT 官方 API)



在 Python 中开始使用 OpenAI GPT-4 API(ChatGPT 官方 API)

该视频介绍了如何使用 ChatGPT 官方 API 在 Python 中使用 OpenAI GPT-4 API。生成 API 密钥并安装 OpenAI python 包后,用户可以通过创建函数并使用模型 ID 和对话日志调用 OpenAI 的端点来使用 GPT-4 模型。演讲者演示了如何将对话日志附加到组合日志参数、创建命令行工具以及使用 ChatGPT API 生成响应。鼓励观众试用 API 并订阅频道以观看未来的视频。

  • 00:00:00 在本节中,视频介绍了如何在 Python 中使用 ChatGPT Official API。 API 基于 GPT-4 模型,有四种不同的版本可用。常规 GPT-4 模型最多可以接受 8192 个令牌,而 GPT-4 32k 模型最多可以接受 32768 个令牌。要使用 API,您首先需要通过在 platform.openai.com 上注册一个帐户来生成 API 密钥。然后,您必须安装 OpenAI python 包并将 API 密钥附加到 OpenAI 模块。最后,您可以在 Python 中使用 GPT-4 模型,方法是创建一个函数并对 OpenAI 的端点进行 API 调用,将模型 ID 和对话日志列表传递给该方法。

  • 00:05:00 在本节中,演讲者演示了如何在 Python 中使用 OpenAI GPT-4 API。他们首先创建对话列表并解释 API 如何访问该列表以提供响应。要向 API 发送请求,用户需要提供一个行 ID 来标识对话是属于 AI 还是属于用户,以及对话的内容。演讲者分享了一个示例代码块,它向列表中添加了一个对话,并展示了如何使用聊天 GPT 对话功能调用 API。他们还解释了响应格式,包括时间戳和 API 调用的成本,以及如何在选择键中访问 GPT-4 响应。

  • 00:10:00 在本节中,演讲者将介绍如何在 OpenAI GPT-4 API 中使用 Python 将对话日志附加到合成日志参数。它们引用包含最新记录的组合锁,并将来自 choices 键的响应记录附加到组合日志参数。然后通过运行代码块并打印组成列表来测试输出。演讲者还演示了如何创建命令行工具以允许用户提供输入,然后可以根据用户的目的将其附加到作文日志中。总体而言,本节为希望在 Python 中使用 OpenAI GPT-4 API 的开发人员提供了有用的指南。

  • 00:15:00 在本节中,演示者展示了如何使用 ChatGPT API 通过 Python 生成响应。他编写了一个函数来接收用户输入并将其发送到 API,然后打印出响应。他通过要求 API 给他讲笑话并显示输出来演示这一点,其中包括用户输入和 API 响应。最后,演示者鼓励观众试用 ChatGPT API 并点赞和订阅他的频道。
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
  • 2023.03.29
  • www.youtube.com
In this video, we will learn 1) how to use OpenAI GPT-4 API, and 2) how to build a simple ChatGPT command line tool in Python.📑 Source Code: https://wp.me/p...