TensorFlow for Deep Learning Research に関する講義では、基本的な操作、テンソルの型、プレースホルダー、遅延読み込みなど、幅広いトピックを取り上げます。実行中のグラフを視覚化するために TensorBoard を利用することの重要性が強調され、ランダム シャッフル、ランダム クロップ、TF.dot 多項式、ランダム ガンマ関数など、TensorFlow API のさまざまな関数が説明されています。このビデオでは、さまざまなデータ型の 0-ness の定義、変数の初期化、変数への値の割り当て、TensorFlow インタラクティブ セッションを使用する利点についても説明しています。最後に、TensorFlow でのプレースホルダーの使用について詳しく説明し、未定義の形状でプレースホルダーを使用する場合の潜在的な問題について説明します。
00:45:00 このセクションのビデオでは、変数の初期化と変数への値の割り当てについて説明します。初期化子 op は、変数の初期値を変数自体に割り当てます。さらに、割り当て操作は、変数の現在の値を新しい値で加算、減算、または乗算しますが、割り当てサブ操作は、現在の値から新しい値を減算します。複数のセッションは、変数と初期化の独自のコピーを保持します。複数のセッションを処理するときは、予期しない結果を避けるために実行パスを慎重に管理して追跡することが重要です。最後に、初期化されていない変数は割り当てや操作に影響を与えず、すべてのセッションを閉じてリソースを解放する必要があります。
This is the second lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI...
深層学習研究のための TensorFlow に関する 3 番目の講義では、MNIST データセットを使用した線形回帰とロジスティック回帰について説明します。講師は、入力データのプレースホルダーを作成し、重みとバイアスのトレーニング可能な変数を初期化し、予測を考え出し、損失を計算し、オプティマイザーを特定の学習率で勾配降下として定義することにより、TensorFlow で線形回帰モデルをトレーニングする方法を示します。講義では、ミニバッチ確率的勾配降下法と、変数の形状を覚えておくことの重要性についても説明します。モデルの精度は、TF argmax 関数から取得した最大値のインデックスとターゲット変数 y を比較し、TF reduce sum と TF float を使用して正しい予測の数を計算し、それをテストの総数で割ることによって計算されます。例。最後に、講師は、このモデルは強力であるとは見なされておらず、より高い精度をもたらす畳み込み層などのより堅牢なモデルがあることを指摘しています。
00:00:00 このセクションでは、講演者は深層学習研究のための TensorFlow に関する 3 番目の講義を開始し、前の講義の資料の復習から始めます。彼らは、TensorFlow が計算グラフの定義をその実行から分離する方法と、グラフにさまざまな操作を追加してグラフを組み立てる方法を説明しています。次に、TF の定数、変数、プレースホルダー、およびグラフ内のそれらの機能について説明します。スピーカーは、遅延読み込みを回避することの重要性を強調し、代わりにグラフの組み立てと実行を分離して最適な効率を実現します。次に、線形回帰の最初の例を紹介し、データセット内の独立変数に基づいて従属変数 Y を予測する方法を説明します。スピーカーは、リスナーが例に従って問題を解決することをお勧めします。
00:05:00 このセクションでは、講師が線形回帰の基本を説明し、TensorFlow で線形回帰モデルをトレーニングする方法を示します。 y の予測値が W に X を掛けて B に加算される、単純な線形モデルが使用されます。損失は、予測値と Y の実際の値の差として計算され、トレーニングは、次に、講師は線形回帰の例のコードを共有します。入力データは火災の数であり、出力ターゲット変数は特定のサンプルのテストの数です。このコードは、入力データのプレースホルダーを作成し、W と B のトレーニング可能な変数を初期化し、予測を行い、損失を計算し、オプティマイザーを特定の学習率で勾配降下として定義する方法を示しています。
00:15:00 このセクションでは、講師が TensorFlow でモデルをトレーニングする際のオプティマイザーの役割を説明し、勾配降下、勾配運動量、Adam、RMSprop、近位勾配、および近位 a 勾配を含むいくつかのオプティマイザーをリストします。講師は、モデルが一般化可能であることを確認するために、これまで見たことのないデータでモデルのパフォーマンスをテストすることの重要性を強調しています。外れ値に対する二乗誤差損失関数の感度に対処するために、講師はフーバー損失関数を紹介し、その仕組みを説明します。講師は、TensorFlow で Huber 損失関数をコーディングする方法についても説明します。
00:20:00 このセクションでは、深層学習で一般的に使用される損失関数である Huber 損失の実装について講師が説明します。 Huber 損失は回帰問題に使用され、予測とラベルの間の残差を見つけることによって機能します。残差が Delta 値より小さい場合、Small Res という関数が返されます。ただし、Delta より大きい場合は、Large Res が返されます。その後、講師は MNIST データセットを使用したロジスティック回帰についての議論に移ります。ロジスティック回帰は分類問題に使用され、ロジットを X として W と B を足したものとして計算することによって機能します。この結果はソフトマックス関数に渡され、確率分布が生成されます。この場合に使用される損失関数はクロスエントロピー損失であり、2 つの確率分布間の距離を測定します。
This is the third lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI ...
00:20:00 このセクションでは、講師がソフトマックスで発生する計算の複雑さの問題に対する潜在的な解決策について説明します。この問題に対処するために一般的に使用される 2 つの方法は、ネガティブ サンプリングとノイズ コントラスト推定 (NCE) です。 NCE はソフトマックスを理論的に保証して近似できますが、どちらの方法も実際には同様の結果を生成します。次に、経験的分布と知識分布の定義について詳しく説明します。ここでの目標は、モデルのパラメーターを使用して経験的分布を近似することです。最後に、講師は言語モデルの推定問題を軽減する方法として NCE を紹介します。
00:25:00 このセクションでは、スピーカーは、プロキシ バイナリ分類を使用して 2 クラスのトレーニング問題のデータを生成する方法を説明します。彼らは P チルダ C から中央の単語をサンプリングし、PT リトル P チルダ W コンマ C から真のサンプルを 1 つ取得します。QW を使用して K ノイズ サンプルを生成し、それらに 0 に等しいラベル D を割り当てます。データ ポイントはノイズです。次に、2 つの分布の混合を作成することにより、2 クラス データの D、コンマ W の同時確率を計算します。条件付き確率の定義を使用して、D が 0 の場合と 1 の場合の 2 つのケースで W と C が与えられると、これを D の条件付き確率に変換できます。
00:30:00 このセクションでは、スピーカーは分配関数の高価な計算の問題と、Noise Contrastive Estimation (NCE) を使用してそれを解決する方法について説明します。 NCE は、パーティション関数をすべての経験的コンテキスト ワードのパラメーターとして追加し、逆伝播によって学習することを提案しています。 Vc パラメータを 1 に固定し、P チルダ W コンマ C を Vc による分割関数で割った u シータ W コンマ C に置き換えることにより、2 項分類問題が得られます。目的は、対数確率として記述できる、K 個の負のサンプルに関して D の条件付き尤度を最大化することです。講演者は、NCE がどのように期待値をモンテカルロ近似に置き換え、プロセスの計算コストを削減するかを説明します。
00:35:00 このセクションでは、ネガティブ サンプリング (NS) の代わりにノイズ コントラスト推定 (NCE) の使用について説明します。 NCE は、言語モデリングの目的を 2 項分類問題に還元することができ、目的がモデル パラメーターの同じポイントで実現されることが示されています。 NCE 損失のための TensorFlow API と名前スコープの使用が示されています。これにより、TensorBoard での視覚化を向上させるためにノードをグループ化できます。変数名のスコープについても、名前スコープ機能のコンテキストで説明されています。
00:40:00 このセクションでは、講師が深層学習研究のために TensorFlow に変数を埋め込むプロセスについて説明します。特定のスコープ内に変数を埋め込むことで、変数は TensorFlow ボードで適切にグループ化された視覚化の一部になります。講師は、t-SNE と呼ばれる手法を使用して単語ベクトルを視覚化する方法についても説明し、視覚化のために TC をプロットするためのレシピを提供します。埋め込み行列から学習した高次元ベクトルを取得することにより、t-SNE を使用して次元を 2D または 3D に縮小し、単語間の最近傍関係を示します。最後に、講師は、word to work モデルに使用されるコードの概要を説明します。
This is the fourth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford University class - CS20SI...
TensorFlow for Deep Learning Research シリーズの 5 番目の講義では、ディープ ラーニングの実験を効果的に管理する方法、TensorFlow での自動微分の重要性、モデルのトレーニングと変数の保存のプロセスなど、いくつかのトピックを取り上げます。講演者は、TensorFlow などの深層学習フレームワークで自動微分が提供されているため、ユーザーは勾配を処理せずにモデルを簡単にコーディングできると説明しています。勾配を手動で計算することは必須ではありませんが、単純な関数とネットワークについて計算することは依然として役に立ちます。サブクラスと必要なプレースホルダーとフィード手法を使用した名前付きエンティティ認識モデルの作成、TensorFlow での変数の保存と復元、およびさまざまなセッションやマシン間でモデルを保存するプロセスについても説明します。
This is the first part of the fifth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford Universi...
This is the second part of the fifth lecture in the series of tutorials on tensorflow and is based on the publicly available slides from the Stanford Univers...
00:05:00 このセクションでは、スピーカーはシータに関する G の導関数を見つけることについて説明します。これは、ニューラル ネットワークのトレーニングに不可欠です。使用される例は、X、Y、および Z に関する F の偏導関数を計算する必要がある、X、Y、および Z の単純な関数です。ローカル勾配の概念が導入されました。これは、特定の操作の入力に対する出力の導関数です。ただし、離れた変数 (この場合は X、Y、Z) に関する最終的な出力を計算するには連鎖規則が必要です。
00:10:00 このセクションでは、勾配の逆流を使用して計算グラフで勾配を見つける方法を説明します。出力ノードの勾配は自明に 1 であり、各ノードで勾配を計算するには、ローカル勾配に前のノードから受け取った勾配を掛けます。次に、プログラムは、Del X による del F、Del Y による del F、および Del V による del F の最終勾配を計算できます。ニューラル ネットワークの場合は、J 損失関数です。最後に、ニューラル ネットワークのニューロンがフォワード パス中に単純な関数を実行する方法と、バックプロパゲーション中に勾配をローカルで計算して使用する方法を学びます。
00:15:00 このセクションでは、スピーカーは、バックプロパゲーションの背後にある直感を、ニューロンの計算グラフとして説明します。局所勾配は、後方関数に del Z を Del X で、del Z を Del Y で乗算することによって得られます。逆方向の流れは、ニューロンの出力の方向に進み、そこでデータを送信している他のニューロンは、Del X によって Del J を取得します。計算グラフ手法は、後方勾配が適用されるシグモイド関数などのより複雑な関数にも使用されます。数値的に計算されます。各ノードのローカル勾配は、関数の導関数を取得し、それを勾配フローで乗算することによって計算されます。
00:30:00 このセクションでは、バックプロパゲーションにおけるフォワード パスとバックワード パスの概念を計算グラフとして説明します。フォワード パスは、損失に達するまで、次のノードの入力となる出力を計算します。逆方向パスでは、最初に DZ が 1 に設定され、逆方向に計算が行われます。ベクトルを扱う場合、局所勾配はヤコビ行列を使用して取得され、連鎖則では左乗算が使用されます。 Del X による Del L または Del Y による Del L は、2 つのヤコビ行列、Del X による del Z または Del Y による del Z、および Del V による del L を使用して計算されます。
00:45:00 このセクションでは、TensorFlow での行列乗算の例を使用して、関数で del D/del W と del D/del X を計算するときに次元が確実に機能するようにする方法をスピーカーが説明します。 W と DD の次元はわかっており、乗算を機能させる唯一の方法は W dot dot dot X を使用することなので、この式を覚えておくことをお勧めします。スピーカーは、TensorFlow のようなフレームワークがそのような複雑さを抽象化したとしても、TensorFlow の計算グラフ操作を理解することが重要であることを視聴者に思い出させます。この知識は、ユーザーが順方向および逆方向のパスを記述する必要があるカスタム レイヤーを扱うときに役立ちます。
Here I go into details on how to visualize backpropagation as a computational graph. As part of my other tutorials on tensorflow, we have discussed as to how...
Jumio の CTO 兼チーフ サイエンティストである Lavash Patel が、同社が AI と ID の専門家を組み合わせてオンラインで信頼を確立し、ID ドキュメントの信頼性を検証する方法について説明します。さまざまな ID とサブタイプがあり、読み取り不可能な画像を修正して拒否する必要があるため、身元確認のプロセスは困難です。精度を維持するために、AI モデルが問題を検出し、人間が結果の健全性チェックを行う、ヒューマン イン ザ ループ アプローチが採用されています。 Patel はまた、Jumio がハイブリッド アクティブ ラーニング アルゴリズムを使用して深層学習を生産化する方法についても説明しています。このアルゴリズムは、新しいサブタイプに適応し、それ自体を再トレーニングすることによって改善されます。さらに、顔認識におけるクリーン データの重要性と、機械学習の目的で機密データを扱う際の PCI コンプライアンスの維持の重要性を強調しています。
00:00:00 このセクションでは、Jumio の CTO 兼チーフ サイエンティストである Lavash Patel が、AI と ID の専門家を組み合わせてオンラインで信頼を確立し、ID ドキュメントの真正性を検証する同社のビジネスについて説明します。この種の検証プロセスの問題は、携帯電話、Web カメラ、単純な API 呼び出しなど、あらゆる種類のチャネルからのトラフィックを受け入れるという事実によって困難になります。これらの問題に取り組むために、Jumio は分類モデルと Facemash モデルを組み合わせて使用し、ID の真正性とカメラの前にいる人物の身元を検証します。
00:05:00 このセクションでは、さまざまな ID とサブタイプが存在することを考慮して、本人確認に AI を使用する際の課題について話します。ブレやグレアのために判読できない画像を排除する必要性と同様に、画像の修正または位置合わせの重要性が強調されています。 ID 画像の承認は、すべてのコンポーネントが有効であると見なされるために合格する必要があるため、拒否よりも厳しいプロセスです。厳密な精度と不正ユーザーの排除を維持するために、AI モデルを使用して問題を検出し、人間を使用して結果の健全性チェックを行うヒューマン イン ザ ループ アプローチが採用されています。このアプローチにより、変換と不正検出の点で業界をリードする精度が可能になります。
In this conference talk, I explore how we use deep learning algorithms for smarter data extraction, fraud detection, and risk scoring to continuously improve...
Paper presented by Gail Weiss to the Neural Sequence Model Theory discord on the 24th of February 2022.Gail's references:On Transformers and their components...
Matthew Zeiler, PhD, Founder and CEO of Clarifai Inc, speaks about large convolutional neural networks. These networks have recently demonstrated impressive ...
深層学習研究のための Tensorflow - 講義 2
深層学習研究のための Tensorflow - 講義 2
TensorFlow for Deep Learning Research に関する講義では、基本的な操作、テンソルの型、プレースホルダー、遅延読み込みなど、幅広いトピックを取り上げます。実行中のグラフを視覚化するために TensorBoard を利用することの重要性が強調され、ランダム シャッフル、ランダム クロップ、TF.dot 多項式、ランダム ガンマ関数など、TensorFlow API のさまざまな関数が説明されています。このビデオでは、さまざまなデータ型の 0-ness の定義、変数の初期化、変数への値の割り当て、TensorFlow インタラクティブ セッションを使用する利点についても説明しています。最後に、TensorFlow でのプレースホルダーの使用について詳しく説明し、未定義の形状でプレースホルダーを使用する場合の潜在的な問題について説明します。
講演者は、TensorFlow でのプレースホルダーの使用についても説明します。これには、複数のデータ ポイントをフィードする方法や無料の dict を使用する方法が含まれます。その後、講義は遅延読み込みに移ります。ここでは、ループ内の同じ操作の複数のノードによって引き起こされるグラフの肥大化を避けるために、実行時まで計算が延期されます。操作オブジェクトの定義を計算から分離し、変数定義と計算関数のコードを構造化することで、TensorFlow で関数を呼び出す際の問題を回避できます。講演者は、オプティマイザーがクロスエントロピーを最小化し、プロパティを使用して TensorFlow コードを効率的に構造化しながら重みとバイアスを更新する方法についても説明します。
深層学習研究のための Tensorflow - 講義 3
深層学習研究のための Tensorflow - 講義 3
深層学習研究のための TensorFlow に関する 3 番目の講義では、MNIST データセットを使用した線形回帰とロジスティック回帰について説明します。講師は、入力データのプレースホルダーを作成し、重みとバイアスのトレーニング可能な変数を初期化し、予測を考え出し、損失を計算し、オプティマイザーを特定の学習率で勾配降下として定義することにより、TensorFlow で線形回帰モデルをトレーニングする方法を示します。講義では、ミニバッチ確率的勾配降下法と、変数の形状を覚えておくことの重要性についても説明します。モデルの精度は、TF argmax 関数から取得した最大値のインデックスとターゲット変数 y を比較し、TF reduce sum と TF float を使用して正しい予測の数を計算し、それをテストの総数で割ることによって計算されます。例。最後に、講師は、このモデルは強力であるとは見なされておらず、より高い精度をもたらす畳み込み層などのより堅牢なモデルがあることを指摘しています。
深層学習研究のための Tensorflow - 講義 4
深層学習研究のための Tensorflow - 講義 4
TensorFlow for Deep Learning Research シリーズの講義 4 では、講演者はディープ ラーニングに基づく自然言語処理における単語の埋め込みについて詳しく説明します。この講義では、NLP 問題に対する単語埋め込みの学習の概念を説明し、ニューラル ネットワークで単語を数値ベクトルとして表現するプロセスについて説明します。この講義では、AI ベースの CBOW とスキップ グラムを使用して単語ベクトルを生成し、ネガティブ サンプリングと NCE を使用してソフトマックスで計算の複雑さの問題に対処するさまざまな方法について説明します。さらに、講師は TensorFlow に変数を埋め込むプロセスと、t-SNE を使用して高次元の単語ベクトルを縮小された次元で視覚化するプロセスを強調しています。最後に、説明した概念の要約と、単語モデルの構築に焦点を当てた次の講義の概要を説明して、講義を締めくくります。
深層学習研究のための Tensorflow - 講義 5_1
深層学習研究のための Tensorflow - 講義 5_1
TensorFlow for Deep Learning Research シリーズの 5 番目の講義では、ディープ ラーニングの実験を効果的に管理する方法、TensorFlow での自動微分の重要性、モデルのトレーニングと変数の保存のプロセスなど、いくつかのトピックを取り上げます。講演者は、TensorFlow などの深層学習フレームワークで自動微分が提供されているため、ユーザーは勾配を処理せずにモデルを簡単にコーディングできると説明しています。勾配を手動で計算することは必須ではありませんが、単純な関数とネットワークについて計算することは依然として役に立ちます。サブクラスと必要なプレースホルダーとフィード手法を使用した名前付きエンティティ認識モデルの作成、TensorFlow での変数の保存と復元、およびさまざまなセッションやマシン間でモデルを保存するプロセスについても説明します。
深層学習研究のための Tensorflow - 講義 5_2
深層学習研究のための Tensorflow - 講義 5_2
ビデオ チュートリアルでは、TensorBoard でのデータの視覚化を可能にする TF サマリー ops の実装について説明します。このチュートリアルでは、TF.summary.scalar、TF.summary.histogram、および TF.summary.image の 3 種類のサマリー op を取り上げ、それらを 1 つにマージして、FileWriter クラスを使用してイベント ファイルに書き込む方法を説明します。講師は、ネーム スコープを使用して TensorBoard でグラフを視覚化する方法を示し、テスト ライターと訓練を受けたライターを定義して、要約を別々のファイルに書き込みます。彼らは、TensorBoard の視覚化機能を利用して、モデルのパフォーマンスをよりよく理解することを強調しています。全体として、TensorBoard はトレーニングの進行状況を追跡するための重要なツールであり、op を追加してそれらをマージするための API は簡単です。
計算グラフとしてのバックプロパゲーションの背後にある直感
計算グラフとしてのバックプロパゲーションの背後にある直感
計算グラフとしてのバックプロパゲーションの背後にある直感については、このビデオで説明されています。スピーカーは、代理関数を使用して、入力を出力にマッピングする経験的関数を推定する方法と、損失関数を最小化するパラメーターを見つけることが目標であることについて説明します。バックプロパゲーションでは、グラフの逆方向パスを介して、各パラメーターに関する損失関数の勾配を計算できます。グラフ内の各ゲートのローカル勾配が計算され、それらを使用して、各入力に対する最終出力の勾配を計算できます。スピーカーは、分岐およびベクトル化された演算の勾配を処理する方法と、導関数を計算するときに次元が機能することを確認する方法についても説明します。
コンピューター ビジョン向けの深層学習の製品化
コンピューター ビジョン向けの深層学習の製品化
Jumio の CTO 兼チーフ サイエンティストである Lavash Patel が、同社が AI と ID の専門家を組み合わせてオンラインで信頼を確立し、ID ドキュメントの信頼性を検証する方法について説明します。さまざまな ID とサブタイプがあり、読み取り不可能な画像を修正して拒否する必要があるため、身元確認のプロセスは困難です。精度を維持するために、AI モデルが問題を検出し、人間が結果の健全性チェックを行う、ヒューマン イン ザ ループ アプローチが採用されています。 Patel はまた、Jumio がハイブリッド アクティブ ラーニング アルゴリズムを使用して深層学習を生産化する方法についても説明しています。このアルゴリズムは、新しいサブタイプに適応し、それ自体を再トレーニングすることによって改善されます。さらに、顔認識におけるクリーン データの重要性と、機械学習の目的で機密データを扱う際の PCI コンプライアンスの維持の重要性を強調しています。
ゲイル・ワイス:トランスフォーマーのように考える
ゲイル・ワイス:トランスフォーマーのように考える
Gail Weiss は、このビデオで変換エンコーダーの概念について説明し、シーケンスを処理してベクトルにエンコードする能力を説明しています。 Weiss は、Transformer エンコーダーの長所と制限を調査するいくつかの研究を強調し、Transformer エンコーダーの機能を表すために、制限付きアクセス シーケンス処理言語 (RASP) と呼ばれるプログラミング言語を紹介します。彼女はまた、多頭注意、選択パターン、および特定の条件下でのソフトマックスの課題についても説明した後、シーケンス演算子とライブラリ関数を使用して逆数とフリップ セレクターを計算する方法について詳しく説明します。 Weiss は、トランスフォーマーに最適なプログラムを作成するための洞察と、ユニバーサル トランスフォーマーとサンドイッチ トランスフォーマーからの洞察を提供し、最終的には選択述語とバイナリ対オーダー 3 の関係について説明します。
彼はまた、変圧器モデルで高次の注意を使用することの潜在的な利点と欠点、およびレイヤー全体で情報を維持する際の残留接続の重要性についても話します。彼女はまた、RASP モデルから逸脱する非常に深いトランスフォーマーの潜在的な問題についても説明し、情報のあいまいさを克服するために、より長い埋め込みを使用することを提案しています。
Matt Zeiler によるディープ ニューラル ネットワークの視覚化と理解
Matt Zeiler によるディープ ニューラル ネットワークの視覚化と理解
Matt Zeiler が、画像や動画のオブジェクト認識のための畳み込みニューラル ネットワーク (CNN) の視覚化と理解について説明します。彼は、深層ニューラル ネットワークが人間や霊長類と比較してオブジェクトを認識する方法について説明し、CNN がレイヤーを通過することによってオブジェクトを識別する方法を学習する方法を示します。 Zeiler は、CNN アーキテクチャを改善するプロセスを説明し、限られたデータでトレーニングする場合の制限について説明します。最後に、彼は上位層での下位層の使用と、ニューラル ネットワークでの畳み込みの適用に関する質問に答えます。
ChatGPT のトレーニング方法
ChatGPT のトレーニング方法
ChatGPT は、人間の会話を模倣するように設計された機械学習システムです。最初に大量の非構造化テキスト データに依存する生成的な事前トレーニング アプローチを使用してトレーニングされ、次に強化学習を使用して微調整されて、ユーザーの好みによりよく適応します。