機械学習とニューラルネットワーク - ページ 43

 

Python でゼロからロジスティック回帰を実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/03%20Logistic%20Regression



Python でゼロからロジスティック回帰を実装する方法

このビデオでは、シグモイド関数を使用して確率と交差エントロピーを誤差関数として作成し、Python でゼロからロジスティック回帰を実装する方法を説明しています。インストラクターは、予測、勾配を計算し、反復によってバイアスを更新するための段階的な指示を共有します。また、乳がんのデータセットを読み込み、ロジスティック回帰分類器をトレーニングして、腫瘍が悪性か良性かを予測する方法も示しています。このビデオは、カスタム関数を使用してモデルの精度を評価することで締めくくられています。全体として、実装は成功しており、ロジスティック回帰アルゴリズムがうまく機能することが証明されています。

  • 00:00:00 このセクションのビデオでは、ロジスティック回帰と、シグモイド関数を使用して特定の値ではなく確率を作成する方法について説明します。平均二乗誤差を使用する代わりに、ロジスティック回帰は誤差関数に交差エントロピーを使用します。勾配降下法を使用するには、重みとバイアスに関する誤差関数の勾配を計算する必要があります。学習率は、勾配によって指定された方向に近づく速度を決定するために使用されます。テスト中に確率が計算され、最も高い確率に基づいてラベルが選択されます。ロジスティック回帰の実装は線形回帰に似ていますが、重みとバイアスの初期化がゼロです。

  • 00:05:00 ビデオのこのセクションでは、インストラクターがシグモイド関数を使用して Python でロジスティック回帰を実装し、結果を予測する方法を説明します。このプロセスには、重みと x 値とバイアスの積から予測を計算し、それらをシグモイド関数に入れて結果を出し、勾配を計算することが含まれます。インストラクターは、反復によるバイアスと更新の勾配を計算する方法を示します。このセクションには、確率を取得し、予測の値に基づいてラベルを選択することにより、ロジスティック回帰で推論を実行する方法も含まれています。

  • 00:10:00 このセクションでは、講師が Python を使用してゼロからロジスティック回帰を実装する方法を示します。シグモイド関数を使用して確率とクラス ラベルを計算する方法と、より良い結果を得るために学習率を調整する方法を示しながら、プロセスを段階的に説明します。また、講師は Scikit-learn から乳がんのデータセットを読み込み、ロジスティック回帰分類器をトレーニングして、データセットの特徴に基づいて腫瘍が悪性か良性かを予測します。最後に、アルゴリズムの精度を評価し、カスタム関数を使用して計算する方法を示します。全体として、実装は成功しており、自家製のアルゴリズムが非常にうまく機能していることを示しています。
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python でデシジョン ツリーをゼロから実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/04%20Decision%20Trees



Python でデシジョン ツリーをゼロから実装する方法

このビデオでは、Python を使用してゼロからデシジョン ツリーを構築するためのステップバイステップ ガイドを提供します。スピーカーは、デシジョン ツリーの概念、機能、構築方法について説明します。彼らは、停止基準、成長ツリー関数、ヘルパー関数の「最も一般的なラベル」、「情報獲得」、「エントロピー」、「分割」、および予測関数について説明しています。スピーカーは、情報ゲイン、加重エントロピー、および精度を計算する方法も示します。さらに、デシジョン ツリー モデルをテストし、視聴者にコードが利用可能な GitHub リポジトリへのリンクを提供します。

  • 00:00:00 このセクションでは、デシジョン ツリー、その仕組み、構築方法について学びます。デシジョン ツリーはデータ セットを表すために構築され、各データ ポイントは「はい」または「いいえ」を表すリーフ ノードに分割されます。リーフ ノード間のノードはブランチと呼ばれ、データ ポイントが東または西の近傍にあるかどうかを示すフィーチャなどのフィーチャに基づいて分割されます。情報ゲインは、親のエントロピーと子のエントロピーの加重平均として計算され、決定木モデルは最も重要な情報ゲインに基づいてトレーニングされます。最後に、決定木の構築をいつ停止するかを決定するために使用される停止基準について説明します。

  • 00:05:00 このセクションでは、可能性のあるすべてのリーフ ノードを分析する前に決定木を停止する方法について説明します。これには、ノードの最大深度またはサンプルの最小数の設定が含まれます。次にスピーカーは、決定木の実装に使用される 2 つのクラス (Node クラスと DecisionTree クラス) を提示します。 Node クラスには、ノードが分割された特徴とノードの値に関する情報が含まれます。 DecisionTree クラスには、ツリーを x 値と y 値でフィッティングし、新しいデータを予測し、最小サンプル数や最大深度などの停止基準を設定するためのメソッドが含まれています。全体として、講演者は、Python でゼロからデシジョン ツリーの実装を概説するための段階的なアプローチを採用しています。

  • 00:10:00 このセクションでは、スピーカーは決定木を再帰的に構築する主要な機能である成長ツリー機能の実装について説明します。この関数は x 値と y 値を受け取り、フィーチャの数が実際のフィーチャの数を超えていないことを確認します。この関数は、最初に停止基準をチェックしてから、最適な分割を見つけ、子ノードを作成し、ツリーの成長関数を再度呼び出します。停止基準が満たされた場合、関数は新しいリーフ ノードを作成し、それを value パラメーターと共に返します。スピーカーは、「最も一般的なラベル」と呼ばれるヘルパー関数についても説明します。これは、カウンター データ構造を利用し、データセット内で最も一般的なラベルを返します。

  • 00:15:00 このセクションのビデオでは、Python を使用してゼロから決定木を実装する方法について説明します。インストラクターは、ヘルパー関数を作成して、新しい分割を作成するための最適なしきい値と機能を見つける方法を示します。この関数は、numpy を使用してフィーチャのグループをランダムに選択し、新しい分割の作成を検討します。ヘルパー関数は、考えられるすべての分割の中からしきい値を見つけると、情報ゲインを計算して、これまでに計算された最良のゲインよりも優れているかどうかを判断します。最後に、最適な分割インデックスとしきい値が返されます。

  • 00:20:00 ビデオのこのセクションでは、スピーカーは「情報ゲイン」と呼ばれるヘルパー関数を作成して情報ゲインを計算し、「エントロピー」と呼ばれる別のヘルパー関数を定義して、渡された値に基づいて親のエントロピーを計算します彼らは、親のエントロピーは px に px の log 2 を掛けた合計として計算され、numpy トリックを使用して各値の出現回数を数え、それを値の総数で割って x の p を取得すると説明しています。 .次に、スピーカーは「split」と呼ばれる別のヘルパー関数を作成して、左に移動するインデックスと右に移動するインデックスを見つけ、numpy argwhere がどのように機能するかを示します。

  • 00:25:00 ビデオのこのセクションでは、プレゼンターが Python を使用して決定木の子の加重エントロピーを計算する方法を説明します。 y 値の長さと左右のインデックスを取得した後、加重平均式を使用して子のエントロピーを計算できます。これには、各子ノードのサンプル数をサンプルの総数で割った値を求め、それに各ノードのエントロピーを掛けてから、結果を合計して子のエントロピーを取得する必要があります。この情報を使用して、親のエントロピーから子のエントロピーを差し引いた情報ゲインを計算し、決定木全体に戻します。

  • 00:30:00  ビデオのこのセクションでは、発表者が決定木分類器の予測関数を実装する方法を説明しています。ここでは traverse_tree ヘルパー関数を使用して、ツリーを再帰的にトラバースし、到達した場合はリーフ ノードの値を返します。特徴の値がしきい値以下の場合は、ツリーの左側が渡されてトラバースされ、それ以外の場合はツリーの右側が渡されてトラバースされます。値が返され、numpy 配列に変換されてから出力されます。次に、決定木分類子が乳がんデータセットでテストされ、予測関数を使用して予測が生成され、精度メトリックに渡されます。

  • 00:35:00 このセクションでは、プレゼンターは、Python を使用してゼロから構築したデシジョン ツリー モデルをテストしています。最初に、予測とテスト データを使用してモデルの精度を計算します。また、コードに 2 つのエラーが見つかりました。1 つはノードの初期化にあり、もう 1 つはトラバース ツリー関数にあります。エラーを修正した後、テスト データを再度実行すると、0.91 の精度が得られます。次に、モデルに異なる引数を渡し、精度が少し向上します。最後に、プレゼンターは視聴者に質問をするように促し、コードが利用可能な GitHub リポジトリへのリンクを提供します。
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python でゼロからランダム フォレストを実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/05%20Random%20Forests



Python でゼロからランダム フォレストを実装する方法

このビデオ チュートリアルでは、Python を使用してゼロからランダム フォレストを実装する方法を説明します。トレーニング中に、データセットのランダムなサブセットが選択され、このサブセットを使用して決定木が作成されます。このプロセスは、アルゴリズムを開始する前に決定されたツリーの数に対して繰り返されます。推論中、各ツリーから予測が取得され、分類の場合は、クラス ラベルの多数決が取られます。スピーカーは、決定木を展開するリストを作成し、それを Numpy 配列に追加することによって、それを実装する方法を示します。精度は、正しく予測された真の値の数を真の値の総数で割ることで計算できます。講演者は、木の数、最大深度、および最小サンプル分割を変更して、より高い精度を達成できることについても話します。

  • 00:00:00 このセクションでは、さまざまな決定木で構成されるランダム フォレストについて学習します。このプロセスでは、これらのツリーを作成するときに方程式にランダム性を導入する必要があります。トレーニング中に、データセットのランダムなサブセットが選択され、このサブセットを使用して決定木が作成されます。このプロセスは、アルゴリズムを開始する前に決定されたツリーの数に対して繰り返されます。推論中、各ツリーから予測が取得され、分類の場合はクラス ラベルの多数決が取られます。回帰の場合、すべての予測の平均が計算されます。実装は、前のレッスンで作成されたデシジョン ツリー クラスを使用し、ツリーの数、最大深度、分割の最小サンプル、特徴の数、およびすべてのツリーを保持するための空の配列を指定することによって初期化されます。適合および予測関数であり、必要なのは、上記のように必要なパラメーターを渡すことです。

  • 00:05:00 このセクションでは、サンプルのサブセットに基づいて決定木を当てはめ、それをランダム フォレスト モデルの木のリストに追加する方法を講師が説明します。ヘルパー関数「bootstrap_samples」が作成され、指定された数のサンプルがランダムに選択され、指定されたデータ セットから置換されます。次に、インストラクターは、入力 X に対してランダム フォレストを使用して予測する方法を説明します。これには、ランダム フォレスト内のすべてのツリーを反復処理し、予測のリストを返すことが含まれます。各内部リストには、異なるツリーからの同じサンプルの予測が含まれます。最後に、講師は numpy の「swap axis」関数を導入してリストを再配置し、「most_common」ヘルパー関数を導入して、コレクション ライブラリのカウンター データ構造を使用して最も一般的な分類ラベルを返します。

  • 00:10:00 このセクションでは、スピーカーは Python を使用してゼロからランダム フォレストを実装するプロセスを説明します。彼らは、予測に使用されるヘルパー関数について言及し、リストを作成して決定木をそのリストに展開し、それを予測のために返される NumPy 配列に追加します。精度は、正しく予測された真の値の数を真の値の総数で割って計算されます。講演者は、木の数、最大深度、および最小サンプル分割を操作して、より高い精度を達成できるとも述べています。講演者は視聴者を GitHub リポジトリのコードに誘導し、コメント セクションで質問を歓迎します。最後に、講演者はチュートリアルの残りの部分を Patrick に引き継ぎます。
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python でゼロから Naive Bayes を実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/06%20NaiveBayes



Python でゼロから Naive Bayes を実装する方法

このビデオ チュートリアルでは、Python を使用してゼロから Naive Bayes を実装することに焦点を当てています。インストラクターは、ベイズの定理と独立性の仮定の概要を説明します。アルゴリズムのトレーニングに必要な事前確率とクラス条件付き確率を計算する方法を説明しています。スピーカーは、確率をモデル化する方法としてガウス分布も紹介します。ビデオは、コードを使用したアルゴリズムのトレーニングと予測の手順を示しています。インストラクターは、2 つのクラスを持つおもちゃのデータセットでアルゴリズムをテストし、96.5% の精度を達成しました。全体として、このチュートリアルは、Naive Bayes の学習と Python での実装に関心のあるユーザーにとって有用なリソースです。

  • 00:00:00 このセクションでは、スピーカーは、特徴間の独立性を仮定してクラス ラベルを予測する確率的分類器である Naive Bayes の背後にある理論について説明します。ベイズの定理と独立性の仮定、およびこれを使用して各クラスの事後確率を計算する方法について説明しています。スピーカーは、アルゴリズムのトレーニングに必要な事前確率とクラス条件付き確率の計算方法を説明します。また、確率をモデル化する方法としてガウス分布も導入しています。トレーニングと予測の手順が要約され、Naive Bayes を実装するコードが示されます。スピーカーは、適合方法と予測方法の両方の定義を提供し、それぞれのトレーニングと予測に必要な手順の概要を説明します。

  • 00:05:00 ビデオのこのセクションでは、講師が Python を使用してゼロから Naive Bayes を実装する方法を説明します。このコードは、x と y が既に numpy および d 配列形式になっていることを前提としています。インストラクターは、x.shape を使用して x を抽出する方法と、numpy.unique() を使用して一意のクラスの数を取得する方法を示します。次のステップは、各クラスの平均、分散、事前分布を計算することです。これは、これらの値をゼロで初期化し、numpy 関数を使用して計算することで実現できます。次に、インストラクターは、ヘルパー関数とリスト内包表記を使用して、各クラスの事後確率を計算する方法を説明します。最後に、講師は予測を numpy 配列として返す方法を示します。

  • 00:10:00 このセクションでは、スピーカーは Python での Naive Bayes アルゴリズムの実装について説明します。事前確率を計算し、ガウス分布を使用して事後確率を計算し、確率密度のヘルパー関数を作成してから、事後確率が最も高いクラスを予測します。最後に、1000 個のサンプルと 2 つのクラスを持つ 10 個の特徴からなるおもちゃのデータセットでアルゴリズムをテストし、96.5% の精度を達成しました。講演者は、コードのさらなる調査を奨励し、次のレッスンを楽しみにしています。
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

PCA (主成分分析) を Python でゼロから実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/07%20PCA



PCA (主成分分析) を Python でゼロから実装する方法

ビデオでは、Python と Numpy を使用してゼロから主成分分析 (PCA) を実装するプロセスを説明しています。 PCA は、ほとんどの情報を保持しながらデータセットの次元を削減する手法です。インストラクターは、データセットで PCA を実行するための fit メソッドと transform メソッドを使用して Python クラスを作成する手順を順を追って説明します。 fit メソッドは、最初にデータの平均と共分散を計算し、固有ベクトルと固有値を抽出します。次に、変換メソッドがデータを主成分に射影します。講演者は、その過程で平均を減算し、固有ベクトルをソートすることの重要性を強調しています。最後に、Iris データセットで実装がテストされ、4 次元から 2 次元への次元削減に成功しました。

  • 00:00:00 このセクションでは、教師なし学習法である主成分分析 (PCA) について説明します。これは、データセットをより大きなセットのほとんどの情報を含む低次元のセットに変換することで、データセットの次元を削減するものです。インストラクターは、PCA が、変換された特徴が線形に独立し、最も重要な次元のみを取得することによって次元が削減されるような変換を見つける方法を説明します。新たに発見された次元は、投影エラーを最小限に抑える必要があり、投影されたポイントは最大の分散、つまり最大の分散を持つ必要があります。インストラクターは、Python と Numpy を使用してゼロから PCA を実装する手順を説明します。これらの手順には、x から平均を減算する、x と x の共分散を計算する、および固有値に従って固有ベクトルを降順に並べ替えることが含まれます。

  • 00:05:00 このセクションでは、スピーカーは Python を使用した主成分分析 (PCA) の実装について説明します。これには、成分数を入力として受け取る「init」関数、平均を減算し、共分散を計算し、固有ベクトルを並べ替え、主成分を格納する「fit」メソッドを作成することが含まれます。 'transform' メソッドは、この変換を新しいデータに適用します。スピーカーは、コードの各ステップを順を追って説明し、平均の減算と固有ベクトルの並べ替えの重要性を強調し、最終的に次元削減のために主成分を出力します。

  • 00:10:00 このセクションでは、講演者は Python でゼロから PCA (主成分分析) を実装する方法を示します。最初に、fit メソッドと transform メソッドを使用してクラスを作成します。 fit メソッドは、最初にデータの平均を計算し、平均を中心に配置します。次に、データの共分散を計算し、固有ベクトルと固有値を抽出します。次に、変換メソッドは、内積を使用してデータを主成分に射影します。最後に、スピーカーは Iris データセットを使用して実装をテストし、データの次元を 4 次元から 2 次元に削減することに成功しました。
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python を使用してパーセプトロンを最初から実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/08%20Perceptron



Python を使用してパーセプトロンを最初から実装する方法

ビデオ チュートリアルでは、活性化関数、重み、および入力を使用してバイナリ分類の線形分離可能なパターンのみを学習できるパーセプトロン アルゴリズムの背後にある理論を説明します。次に、発表者は、最適化アルゴリズムの学習率と反復回数を選択し、活性化関数を単位ステップ関数として定義することにより、Python でパーセプトロン モデルを最初から実装するために必要な手順の概要を説明します。重みとバイアスを初期化した後、モデルはパーセプトロン更新ルールに従って重みとバイアスを更新することでトレーニング データから学習します。最後に、発表者はテスト データのクラス ラベルを予測することでモデルの精度を評価します。精度は 100% であることが判明し、決定境界の学習が成功したことを示します。

  • 00:00:00このセクションでは、発表者がパーセプトロン アルゴリズムの背後にある基本理論と、それがバイナリ分類器の教師あり学習のためのアルゴリズムであることを説明します。パーセプトロンは生物学的ニューロンの簡略化されたモデルであり、ニューラル ネットワークのプロトタイプとしても知られています。パーセプトロン アルゴリズムは線形分離可能なパターンのみを学習でき、人工ニューラル ネットワークの単一ユニットとして見ることができます。次に、発表者は、重み、入力、活性化関数とバイナリ分類子のクラス ラベルを含むパーセプトロンの数学的表現について説明します。次に、ビデオではパーセプトロン更新ルールについて説明します。これにより、アルゴリズムが重みとバイアスを更新して、誤分類が発生した場合に重みとバイアスを正または負のターゲット クラスに近づけることができます。

  • 00:05:00このセクションでは、講演者が Python でパーセプトロン モデルを最初から実装する手順の概要を説明します。まず、最適化アルゴリズムの学習率と反復回数を選択します。次に、活性化関数を単位ステップ関数として保存します。重みとバイアスは最初に何も初期化されず、コードは関数の適合と予測に進みます。フィット関数では、トレーニング データからサンプル数と特徴数が取得され、重みとバイアスが初期化されます。クラス ラベルは 1 または 0 になるように調整されます。次に、各入力に対して線形出力が計算される最適化が実行されます。最後に、線形モデルとアクティベーション関数を使用してテスト データの予測出力を計算する予測関数が実装されます。

  • 00:10:00このセクションでは、発表者が Python を使用したパーセプトロンの実装をゼロから説明します。パーセプトロンの更新ルールは、デルタ w = アルファ x y マイナス y ハット x x であり、デルタ バイアスはアルファ x y マイナス y ハットです。次に、プレゼンターはこのルールを使用して、更新部分に基づいて重みとバイアスを更新します。 Fit メソッドを説明した後、発表者は予測メソッドに進みます。そこでは線形出力が計算され、活性化関数に渡されて y が予測されます。最後に、発表者はヘルパー関数を使用してこの実装の精度をテストし、データ セットは 150 個のサンプルと 2 つの特徴を含むブロブを作成し、学習率と反復回数を使用してパーセプトロンを作成し、トレーニング データと適合させ、テスト データで予測します。精度は 100% であることが判明し、決定境界の学習が成功したことを示します。
 

Python で SVM (サポート ベクター マシン) をゼロから実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/09%20SVM



Python で SVM (サポート ベクター マシン) をゼロから実装する方法

サポート ベクター マシン (SVM) は、トレーニング中に学習される重みを使用して、クラス間の分離を最大化する線形決定境界を見つけることを目的としています。コスト関数には、決定境界の正しい側からどれだけ離れているかを決定するヒンジ損失が含まれます。損失を最小限に抑え、距離を最大にするトレードオフに正則化項が追加されます。予測関数が線形関数の出力である一方で、勾配が計算され、更新ルールが導出され、重みが初期化されます。 NumPy および Scikit-learn ライブラリを使用して Python で SVM を最初から実装するためのコードが提供されています。これには、トレーニング テストと分割、データ セットのインポート、決定境界のプロット、および正確な実装を確認する 2 つの超平面が含まれます。

  • 00:00:00このセクションでは、ビデオでサポート ベクター マシン (SVM) について説明します。これは、クラス間を最大限に分離する線形決定境界または超平面を見つけることを目的としています。超平面は最も近い点またはサポート ベクトルから最大のマージンを持つ必要があり、重み (w) はトレーニング中に学習する必要があるものです。損失関数が定義されます。これには、決定境界の正しい側からどれだけ離れているかを決定するヒンジ損失が含まれます。正則化項がコスト関数に追加され、損失の最小化と両側への距離の最大化の間でトレードオフが行われ、ラムダ パラメータによってコスト関数内の当該部分の重要性が制御されます。

  • 00:05:00このセクションでは、SVM の重みとバイアスを見つけるプロセスについて説明します。勾配の計算について説明し、勾配から更新ルールを導き出します。重みの初期化についても説明します。クラス ラベルは -1 または 1 の値を持つように更新され、更新ルールは指定された反復回数だけ適用されます。予測関数は、学習された重みから得られる線形関数の出力にすぎません。出力をゼロと比較することで、指定されたテストサンプルのクラスを決定できます。 SVM のコードは、NumPy および Scikit-learn ライブラリを使用して Python で作成されます。

  • 00:10:00このセクションでは、プレゼンターが SVM を最初から実装するための Python コードを記述する方法を説明します。このメソッドは、fit メソッドとpredict メソッドの 2 つの部分で構成されます。 Fit メソッドはトレーニングであり、指定されたデータから重みを計算します。一方、predict メソッドは重みを使用して、指定されたデータを近似することで出力を予測します。発表者はさらに、条件に応じて異なる勾配に従ってコードを更新することについて説明します。条件 y 掛ける W 掛ける x マイナス B は 1 以上である必要があり、これを numpy dot で使用してチェックします。このコードは、sklearn と matplotlib からトレーニング テスト、分割、およびデータ セットをインポートし、2 つの特徴を持つデータセットの 2 つのブロブを含むサンプル データセットを作成し、クラスが -1 とプラス 1 であることを確認し、トレーニング セットとテスト セットに分割します。そして svm を実行して精度を予測します。発表者はまた、決定境界とプラス 1 とマイナス 1 の 2 つの超平面をプロットするためのコードの概要を説明し、正確な実装を確認します。
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python を使用して K 平均法を最初から実装する方法

コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/10%20KMeans



Python を使用して K 平均法を最初から実装する方法

このビデオでは、Python を使用して K-Means クラスタリング アルゴリズムを最初から実装する方法を示します。 K 平均法は、変化がなくなるまで平均値または重心を繰り返し更新することで、ラベルのないデータを k 個の異なるクラスターにクラスター化する教師なし学習アルゴリズムです。このビデオでは、空のクラスターの初期化、クラスターと反復数のパラメーターの設定、クラスターのラベルと重心の更新、変化がなくなった場合の最適化ループの停止について説明します。講演者は、最も近い重心を計算するためにユークリッド距離を測定することの重要性についても説明し、クラスタリング プロセスを視覚化するために Matplotlib から事前に作成されたプロット関数を提供します。

  • 00:00:00このセクションでは、講演者が k 平均法教師なし学習手法について説明します。これには、データセットを k 個の異なるクラスターにクラスタリングし、変化がなくなるまで反復的な最適化プロセス中に平均値または重心を更新することが含まれます。クラスターのラベルと中心を更新するプロセスが繰り返され、最も近い重心の公式を使用して 2 つの特徴ベクトル間のユークリッド距離が計算されます。次に講演者は、ラベルなしデータで 3 つのクラスターを見つける例を示し、空のクラスターの初期化やクラスターと反復の数のパラメーターの設定など、Python で K 平均法を最初から実装する方法を示します。ビデオは、K-means アルゴリズムと Python でのその実装の概要で終わります。

  • 00:05:00このセクションでは、講演者が Python を使用したゼロからの K-Means の実装について説明します。まず、各クラスターや重心の空のリストなど、必要な変数を初期化してから、当てはめ方法ではなく予測関数を定義します。彼らは、K 平均法はラベルのないデータに対する教師なし学習手法であると説明しています。最適化ループでは、クラスターから新しい重心を計算する前に、サンプルを重心に割り当てます。講演者は、セントロイドとクラスターの作成と取得にはヘルパー関数が必要であると述べています。最後に、変更がなくなった場合、最大反復よりも早くループを停止することが可能であると述べています。

  • 00:10:00このセクションでは、クラスターのラベルを更新し、サンプルを最も近い重心に割り当てるヘルパー関数の実装についてスピーカーが説明します。クラスター ラベルを更新する関数は、各クラスターを反復処理し、クラスター インデックスを各サンプル インデックスのラベルに割り当てます。講演者は、各クラスターの空のリストを初期化してインデックスを割り当て、各サンプルを反復処理して最も近い重心に割り当てる方法も示します。最後に、重心とクラスターをプロットする手順の概要を説明し、プロットする手順をコードに提供する必要があるかどうかを確認します。

  • 00:15:00このセクションでは、講演者が Python を使用して K-Means クラスタリング アルゴリズムを最初から実装する方法を説明します。このアルゴリズムは、データセットと指定された数のクラスターを入力として受け取り、各ポイントを最も近い重心に割り当てます。講演者は、最も近い重心を見つけて 2 点間のユークリッド距離を計算するためのヘルパー関数を紹介します。別のヘルパー関数を使用して各クラスターの平均が計算され、それが重心に割り当てられます。最後に、アルゴリズムは各クラスターの古い重心と新しい重心の間の距離がゼロかどうかをチェックして、アルゴリズムが収束したかどうかを判断します。

  • 00:20:00このセクションでは、講演者が Python と numpy を使用して K-Means クラスタリングを最初から実装する方法を説明します。彼らは、ユークリッド距離を測定することの重要性と、新しい重心とクラスター ラベルを計算する方法について説明します。また、matplotlib ライブラリを使用してクラスタリング プロセスを段階的に視覚化する、事前に作成されたプロット関数も提供します。最後に、sklearn の make_blobs 関数を使用して 3 つのクラスターを作成するサンプル データセットへの実装を実証し、K-Means アルゴリズムがデータ ポイントを個別のクラスターに正常にグループ化する方法を示します。講演者は視聴者に、Github で完全なコードをチェックし、機械学習の概念のより詳細な説明についてはコースの残りの部分を視聴することを勧めています。
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python で OpenAI ChatGPT (GPT-3.5) API を使い始める |初心者向けチュートリアル



Python で OpenAI ChatGPT (GPT-3.5) API を使い始める |初心者向けチュートリアル

このビデオ チュートリアルでは、Python で OpenAI ChatGPT (GPT-3.5) API を使用する方法を初心者向けに説明しています。発表者は、DaVinci の安価な代替品として GPT 3.5 Turbo モデルを紹介します。これは、自然言語とコードの両方を生成でき、トークンや合計制限のない合成モデルです。次に、このチュートリアルでは、OpenAI アカウントにサインアップし、API キーを取得し、chat_gpt-completion 関数を使用してユーザーとシステムの入力による会話ログを保存する方法を示します。このビデオでは、応答を取得し、フォローアップの質問を追加し、会話をノンストップで継続するためにコードを変更する方法についても説明しています。

  • 00:00:00ビデオのこのセクションでは、講演者が OpenAI の GPT 3.5 Turbo モデルを紹介します。これは DaVinci モデルの安価な代替品です。 GPT 3.5 Turbo モデルは、自然言語とコードの両方を理解して生成できる合成モデルで、コストはトークン 1,000 個あたり 0.002 セントです。 GPT 3.0 モデルとは異なり、GPT 3.5 Turbo モデルにはトークン制限がなく、合計制限もありません。ビデオでは続いて、OpenAI アカウントにサインアップして API キーを取得する方法など、Python で OpenAI GPT API の使用を開始する方法を説明します。

  • 00:05:00このセクションでは、チュートリアルの作成者が Python で OpenAI ChatGPT (GPT-3.5) API を使用する方法について説明します。この API はより会話型であるため、通常の GPT 3.0 モデルとは動作が異なります。 API は、OpenAI ライブラリとチャット完了モデルを参照する chat_gpt-completion という関数を使用します。会話ログはこの関数に渡され、会話記録が追加され続けます。ユーザーとシステムの役割は、入力がユーザーからのものであるか、システム自体からのものであるかを判断するために使用されます。応答オプションが出力されます。応答の最も重要な部分は選択キーです。

  • 00:10:00このセクションでは、Python で OpenAI ChatGPT (GPT-3.5) API を使用する方法について説明します。このチュートリアルでは、通常の GPT 3.0 モデルとは異なり、ChatGPT モデルは一度に 1 つのメッセージまたは 1 つの応答しか返せないことが説明されています。次にチュートリアルは、応答から行とコンテンツを取得する方法、ChatGPT API を使用して会話を作成する方法、作成履歴を取得して表示する方法を示します。このチュートリアルでは、フォローアップの質問を構成に追加し、フォローアップの質問に基づいて API から追加情報を取得する方法についても説明します。

  • 00:15:00このセクションでは、講演者は ChatGPT 構成をノンストップで実行し続けるために行うことができるコードの変更について説明します。変更には、システム行とのセッションの開始、コンテンツを「お手伝いできることはありますか?」に設定して構成を取り込み、会話を継続するために while ループを挿入することが含まれます。ユーザーは質問またはプロンプトを入力ステートメントに入力し、文字列を問題変数に保存します。コンテンツ キーがメッセージとして設定され、ユーザーは ChatGPT 補正機能を実行してリクエストを送信し、メッセージを構成リストに追加します。その後、フォローアップの質問をして会話を続けることができ、すべての会話は ChatGPT API で参照できるリストに保存されます。
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
  • 2023.03.02
  • www.youtube.com
OpenAI has finally released the most anticipated ChatGPT model today, called "gpt-3.5-turbo". Unlike the GPT 3.0 models that work like a search engine, Cha...
 

Python で OpenAI GPT-4 API (ChatGPT 公式 API) を始める



Python で OpenAI GPT-4 API (ChatGPT 公式 API) を始める

このビデオでは、ChatGPT 公式 API を使用して Python で OpenAI GPT-4 API を使用する方法を説明します。 API キーを生成し、OpenAI Python パッケージをインストールした後、ユーザーは関数を作成し、モデル ID と会話ログを使用して OpenAI のエンドポイントを呼び出すことで、GPT-4 モデルを使用できるようになります。講演者は、会話ログを構成ログ引数に追加する方法、コマンド ライン ツールを作成する方法、および ChatGPT API を使用して応答を生成する方法をデモンストレーションします。視聴者は API を試し、今後のビデオのためにチャンネル登録することをお勧めします。

  • 00:00:00このセクションでは、Python で ChatGPT 公式 API を使用する方法をビデオで説明します。 API は GPT-4 モデルに基づいており、4 つの異なるバージョンが利用可能です。通常の GPT-4 モデルは最大 8192 トークンを受け入れることができますが、GPT-4 32k モデルは最大 32768 トークンを受け入れることができます。 API を使用するには、まず platform.openai.com でアカウントにサインアップして API キーを生成する必要があります。次に、OpenAI Python パッケージをインストールし、API キーを OpenAI モジュールにアタッチする必要があります。最後に、関数を作成して OpenAI のエンドポイントへの API 呼び出しを行い、モデル ID と会話ログのリストをメソッドに渡すことで、Python で GPT-4 モデルを使用できます。

  • 00:05:00このセクションでは、講演者が Python で OpenAI GPT-4 API を使用する方法をデモンストレーションします。まず会話のリストを作成し、API がそのリストにアクセスして応答を提供する方法を説明します。 API にリクエストを送信するには、ユーザーは、会話が AI に属するかユーザーに属するかを識別するための行 ID と、会話の内容を指定する必要があります。講演者は、リストに会話を追加するコード ブロックの例を共有し、チャット GPT 会話関数を使用して API を呼び出す方法を示します。また、タイムスタンプや API 呼び出しのコストなどの応答形式、および選択キー内の GPT-4 応答にアクセスする方法についても説明します。

  • 00:10:00このセクションでは、講演者が、OpenAI GPT-4 API で Python を使用して、会話ログを構成ログ引数に追加する方法を説明します。これらは、最新のレコードを含む構成ロックを参照し、選択キーからの応答レコードを構成ログ引数に追加します。次に、コード ブロックを実行して構成リストを出力することにより、出力がテストされます。また、講演者は、ユーザーが入力を提供できるようにするコマンド ライン ツールの作成方法も実演し、その入力はユーザーの目的に基づいて構成ログに追加できます。全体として、このセクションは、Python で OpenAI GPT-4 API を使用しようとしている開発者に役立つガイドを提供します。

  • 00:15:00このセクションでは、プレゼンターが ChatGPT API を使用して Python を使用して応答を生成する方法を示します。彼は、ユーザー入力を取得して API に送信し、応答を出力する関数をコーディングしました。彼は、API にジョークを言うよう依頼してこれを実証し、ユーザー入力と API 応答の両方を含む出力を示します。プレゼンターは最後に、視聴者に ChatGPT API を試し、チャンネルに「いいね!」を押して購読するよう勧めました。
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
  • 2023.03.29
  • www.youtube.com
In this video, we will learn 1) how to use OpenAI GPT-4 API, and 2) how to build a simple ChatGPT command line tool in Python.📑 Source Code: https://wp.me/p...