MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
00:05:00 このセクションでは、フックの弾性の法則の概念を紹介します。この法則は、ばねを圧縮または伸長するために必要な力は、圧縮または伸長される距離に直線的に相関すると述べています。負の符号は、力が圧縮または伸張の反対方向に加えられることを示します。フックの法則は広範囲のばねに適用されますが、法則が崩れる前にばねを伸ばすことができる量には限界があります。フックの法則とばね定数を使用して、ばねを 1 cm 圧縮するのに必要な力を計算する例を示します。
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
ビデオのこのセクションでは、オーバーフィッティングを回避しながら、実験データに適合する適切なモデルを見つけることの重要性を発表者が強調しています。クロス検証を使用して、モデルの複雑さと新しいデータの予測における有効性の適切なバランスを判断するなど、いくつかの方法について説明します。講演者は、さまざまな次数のモデルを実験データに適合させる例を示し、データセットにノイズを追加することによる過適合の影響を示します。 R 二乗値は、モデルがデータにどの程度適合しているかを判断するためのツールとしても導入されています。全体として、新しいデータを予測する際にモデルの複雑さと有効性のバランスを取ることの重要性が強調されています。
00:05:00 このセクションでは、線形回帰の概念について詳しく説明します。線形回帰の背後にある考え方は、1 つのアクセスが a 値で、もう 1 つのアクセスが B 値である空間内のすべての可能な線を表すことです。ここで、表面の値または高さは、すべてのポイントでの目的関数の値です。アイデアは、その表面のあるポイントから開始し、底に到達するまで下り坂を歩くことです。底には常に 1 つのポイントがあり、そのポイントに到達すると、a と B の値が最適なラインになります。このセクションは、モデルがデータにどの程度適合しているかを測定する 0 と 1 の間のスケールに依存しない値である係数決定 R 二乗についての説明で締めくくります。
00:10:00 このセクションでは、スピーカーはモデルを実験データに適合させる際の R-2 乗値の重要性について説明します。 R 2 乗値は、モデルがデータにどの程度適合しているかを示します。値 1 は完全な適合を示し、0 に近い値は適合が不十分であることを示します。より高次のモデルの方がデータに適合する可能性がありますが、現象の説明や予測に使用するのに最適なモデルであるとは限りません。スピーカーは、ノイズを追加した放物線関数を使用して、例のデータをどのように生成したかについても説明します。
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonIn...
00:45:00 ビデオでは、クラスタリングを使用してデータの問題を診断する方法について説明しています。特に、クラスタリングを使用して、陽性である可能性が高い患者など、同様の特徴を持つ患者のグループを見つける方法を示しています。ビデオでは、クラスタリングを使用して K のさまざまな値を見つける方法を示しています。これにより、検出されるクラスターの数が増加します。
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
00:05:00 このセクションでは、プレゼンターは、ノイズの多いデータを回避し、最近傍法よりも信頼性の高い K 最近傍 (KNN) 分類法について説明します。彼は、動物の分類や手書き認識などの例を使用して、KNN のデモを行います。 KNN メソッドは、最も近いものだけではなく、通常は奇数である複数の最近傍の「投票」を行い、これにより外れ値の影響が軽減されます。発表者は、絶対確実ではありませんが、KNN は通常、ノイズのあるデータに対してより信頼性の高い分類方法であると結論付けています。
00:10:00 このセクションのビデオでは、K 最近傍アルゴリズムとその制限について説明します。 K 最近傍法は効率的で理解しやすいですが、すべてのトレーニング例を保存する必要があり、メモリを大量に消費する可能性があり、例を比較する必要があるため、分類の予測に時間がかかる場合があります。さらに、K が大きすぎると、アルゴリズムがクラスのサイズに支配され、分類エラーが発生する可能性があります。このビデオでは、クロス検証を使用して K の最適な値を選択することを提案し、投票プロセスで明確な勝者が存在するように K を選択することが重要であることを説明しています。
00:30:00 このセクションでは、スピーカーは、機械学習で使用される一般的な方法であるロジスティック回帰について説明します。実数を予測するように設計された線形回帰とは異なり、ロジスティック回帰は特定のイベントの確率を予測します。このメソッドは、各特徴の重みを見つけ、各特徴の予測に使用される重みを計算し、最適化プロセスを使用してトレーニング データからこれらの重みを計算します。ロジスティック回帰はログ関数を使用するため、その名前が付けられています。SK Learn Linear Model は、それを実装するために使用される Python ライブラリです。
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
00:10:00 このセクションのビデオでは、相関する特徴を処理する際の重みの過剰解釈の問題について説明します。ビデオでは、いくつかの例を分析しながら、重み自体を解釈すると誤解を招く可能性がある一方で、重みの符号を解釈すると役立つことを強調しています。ビデオでは、ロジスティック回帰のパラメーター P について説明し、P のさまざまな値が予測の精度と感度にどのように影響するかを説明します。ビデオは、精度が良いように見えても、感度に問題がある可能性があることを強調することで締めくくられており、重要な結論を引き出す前に、結果を包括的に分析する必要があることを示しています.
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
Learn the fundamental concepts and terminology of Deep Learning, a sub-branch of Machine Learning. This course is designed for absolute beginners with no exp...
00:25:00 このセクションでは、線形回帰式をネットワークとして表現する方法をビデオで説明しています。これは、ニューラル ネットワークがどのように機能するかをよりよく理解するのに役立ちます。ネットワークはノードとエッジで構成され、入力ノードは x sub 0 と x sub 1、出力ノードは v sub 0 です。w sub 0 0 と w sub 1 で表される重みは、接続するエッジです。入力ノードと出力ノード。これは有向非巡回グラフと呼ばれ、エッジが一方向にのみ進み、ループを形成する方法がないことを意味します。入力ノードを追加すると、方程式を高次元にすることができますが、依然として線形方程式のままであり、入力と出力の間の関係を決定する重みがあります。
02:10:00 このセクションでは、一般性を 1 つの軸に、パフォーマンスをもう 1 つの軸としてグラフ上でインテリジェンスを比較する方法について説明します。チェスをするコンピューターは、1989 年に IBM の Deep Blue が Gary Kasparov を破って、超人的なレベルで実行した最初のエージェントでした。どんな人間のプレーヤーよりも。ただし、Stockfish はチェス専用にプログラムされており、人間とは異なり一般性に欠けていることに注意してください。このビデオでは、Stockfish を、さらに複雑と見なされているボード ゲームの Go と比較し、知性における一般性の重要性を示しています。
02:50:00 このセクションでは、画像のさまざまなサイズ、回転、重みを考慮して、画像が X か O かを分類できる畳み込みニューラル ネットワークの例をインストラクターが提供します。画像の特定の特徴を識別するために、ネットワークは画像の一部を特定の特徴と照合し、画像全体が適切に一致すると見なされるまでそれらをシフトします。このプロセスにはフィルタリングが含まれます。ここでは、フィーチャが画像と位置合わせされ、ピクセルごとに乗算され、ピクセルの総数で除算されます。この方法により、ネットワークは画像のパターンを認識し、正確な予測を行うことができます。
03:00:00 ビデオのこのセクションでは、負の値をすべてゼロに変換する整流線形単位関数から始めて、畳み込みニューラル ネットワークが後続の層を通過するプロセスをインストラクターが説明します。 1 つのレイヤーの出力が次のレイヤーの入力のように見えるため、最終的な出力は、畳み込み、整流、およびプーリング レイヤーによって変換された画像のスタックです。サイズを縮小しました。さらに、インストラクターは、正しい答えが x または o である場合に強くなる傾向がある最終的なピクセル値は、それぞれ x または o カテゴリに強い票を与え、加重投票の合計を使用して入力を次のいずれかに分類すると述べています。 x または o は、特徴値のリストを取得し、各出力カテゴリの投票のリストになる全結合層によって決定されます。
Even if you are completely new to neural networks, this course will get you comfortable with the concepts and math behind them.Neural networks are at the cor...
講義 8. サンプリングと標準誤差
8. サンプリングと標準誤差
「サンプリングと標準誤差」に関するこのビデオでは、母集団パラメーターを推定するためのサンプリング手法に焦点を当てて、推論統計のさまざまな概念について説明します。このビデオでは、確率サンプリングと単純ランダム サンプリング、および層別サンプリングについて説明し、母集団からのランダム サンプル全体の平均値と標準偏差の一貫性に関連する中心極限定理について説明します。このビデオでは、エラー バー、信頼区間、標準偏差、標準誤差、適切なサンプル サイズの選択、分布タイプなどのトピックについても詳しく説明しています。スピーカーは、母集団全体を調べずに母集団標準偏差を推定するのに役立つため、標準誤差を理解することの重要性と、それがさまざまな部門で広く議論されている概念であることを強調しています。
講義 9. 実験データの理解
9. 実験データの理解
この講義では、Eric Grimson 教授が、データの収集からモデルを使用した予測まで、実験データを理解するプロセスについて説明します。彼はばねの例を使用して、線形関係を予測する際に精度を測定することの重要性を示し、適合度を測定するためのさまざまな方法を探っています。 Grimson は線形回帰と多項式近似の概念を導入し、高い r-2 乗値が必ずしも高次多項式が最適な選択であるとは限らないことを強調しています。 Grimson はコードを使用して 16 次元空間を最適化し、この多項式の適合を使用するかどうかの選択は次の講義に任せます。
講義 10. 実験データの理解 (続き)
10. 実験データの理解 (続き)
ビデオのこのセクションでは、オーバーフィッティングを回避しながら、実験データに適合する適切なモデルを見つけることの重要性を発表者が強調しています。クロス検証を使用して、モデルの複雑さと新しいデータの予測における有効性の適切なバランスを判断するなど、いくつかの方法について説明します。講演者は、さまざまな次数のモデルを実験データに適合させる例を示し、データセットにノイズを追加することによる過適合の影響を示します。 R 二乗値は、モデルがデータにどの程度適合しているかを判断するためのツールとしても導入されています。全体として、新しいデータを予測する際にモデルの複雑さと有効性のバランスを取ることの重要性が強調されています。
講義 11. 機械学習の概要
11. 機械学習の紹介
ビデオでは、機械学習の概念、そのしくみ、および教師あり学習と教師なし学習の 2 つの一般的な方法について説明しています。次に、教師あり学習の例を示します。マシンをトレーニングして、身長と体重に基づいて新しいサッカー選手の位置を予測します。
講義 12. クラスタリング
12. クラスタリング
このビデオでは、データ ポイントをグループにクラスタリングする概念を確認します。 k-means アルゴリズムを使用してクラスタリングを実行する方法と、速度のためにアルゴリズムを最適化する方法について説明します。また、クラスタリングを使用してデータの問題を診断する方法についても説明します。
講義 13. 分類
13.分類
このビデオでは、最近隣、K 最近傍 (KNN)、ロジスティック回帰など、いくつかの分類方法について説明します。プレゼンターは、動物の分類と手書き認識の例を使用して KNN を実演し、ノイズの多いデータを回避してより信頼性の高い結果を提供する方法を説明します。彼らは Titanic データセットを紹介し、感度や特異度などの指標を使用して分類モデルのパフォーマンスを評価する際に適切なバランスを見つけることの重要性を説明しています。さらに、このビデオでは、Leave-one-out と反復ランダム サブサンプリングの 2 つのテスト方法と、それらを KNN 分類に適用する方法について説明します。最後に、プレゼンターは、分類問題で線形回帰よりもロジスティック回帰が好まれる理由を説明し、さまざまな変数にさまざまな重みを割り当て、特徴の重みを通じて変数に関する洞察を提供する能力を強調しています。
講義 14. 分類と統計的罪
14. 分類と統計的罪
この YouTube ビデオでは、誤った結論につながる可能性のあるさまざまな分類と統計上の罪について説明しています。重要なポイントの 1 つは、機械学習モデルの研究から得られる洞察を理解することの重要性です。ロジスティック回帰の変数の重みの解釈は、特に特徴が相関している場合に誤解を招く可能性があるためです。このビデオでは、受信者動作特性 (AUROC) 曲線の下の領域を使用して分類器のパフォーマンスを評価し、数値を誤用する誘惑を避けることの重要性も強調しています。さらに、データを精査し、非代表的なサンプリングを回避することの重要性が強調されています。これは、ガベージ イン、ガベージ アウト (GIGO) や生存者バイアスなどの統計的罪につながる可能性があるためです。
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016. 講義 15. 統計的罪とまとめ
15. 統計的罪とまとめ
このビデオでは、John Guttag が 3 つの主な統計上の罪について説明し、それぞれが誤った結論につながる可能性がある例を示しています。彼は学生に、自分が見ているデータの種類を認識し、適切な間隔を使用して結論が正確であることを確認するように勧めています.
初心者のための深層学習クラッシュ コース
初心者のための深層学習クラッシュ コース
このビデオでは、教師あり学習アルゴリズムと教師なし学習アルゴリズムに焦点を当てたディープ ラーニングの短期集中コースを提供します。モデル、状態、報酬、ポリシー、価値など、各アプローチの主要な概念について説明します。ディープ ラーニング モデルの主な欠点は、トレーニング データにオーバーフィットする可能性があり、一般化が不十分になることです。ドロップアウトやデータセットの拡張など、オーバーフィッティングに対処するためのテクニックについて説明します。このディープ ラーニングの入門コースでは、トピックの概要を説明し、ニューラル ネットワークとドロップアウトの重要性を強調します。また、深層学習の基礎を理解することで過適合を減らす方法についても説明します。
ディープ ニューラル ネットワークのしくみ - 初心者向けフル コース
ディープ ニューラル ネットワークのしくみ - 初心者向けフル コース
00:00:00 - 01:00:00 ビデオ「ディープ ニューラル ネットワークのしくみ - 初心者向けフル コース」では、基本的な線形回帰方程式から画像認識で使用される複雑な畳み込みニューラル ネットワークまで、ニューラル ネットワークの動作について包括的に説明しています。インストラクターは、ノードのレイヤーが重み付き合計とスカッシュを実行して出力を生成する方法、重みを調整してエラーを最小限に抑えるためのバックプロパゲーションのプロセス、パターンを認識するための畳み込みニューラル ネットワークの概念など、ニューラル ネットワークの仕組みを例と視覚教材を使用して説明します。画像で。このビデオでは、ロジスティック関数、多層パーセプトロン、分類子を作成するための複数の出力関数の使用などのトピックについても取り上げています。
01:00:00 - 02:00:00 ディープ ニューラル ネットワークの初心者向けコースでは、ニューラル ネットワークの機能に関連するいくつかのトピックを扱います。コースのインストラクターは、畳み込み、プーリング、正規化、およびそれらを積み重ねてディープ ニューラル ネットワークを形成する方法について説明します。バックプロパゲーションは、エラーを減らすためにネットワークの重みを調整するために使用されるプロセスとしても説明されています。このコースでは、シーケンスからシーケンスへの変換におけるベクトル、ゲーティング、スカッシング関数、および再帰型ニューラル ネットワークの使用についても説明します。インストラクターは、LSTM ネットワークが文の次の単語を予測する方法と、時間の経過に伴うパターンを識別することによってロボット システムでどのように役立つかの例を提供します。最後に、このビデオでは、バックプロパゲーションを伴う勾配降下法を使用してニューラル ネットワークをトレーニングし、重みを調整してエラーを減らす方法について説明しています。
02:00:00 - 03:00:00 ビデオ「ディープ ニューラル ネットワークのしくみ - 初心者向けフル コース」では、人間レベルの知能と比較しながら、さまざまなシナリオでのニューラル ネットワークのパフォーマンスについて説明しています。講師は、多くのことをうまくこなす能力としての知能の科学的定義を紹介し、機械と人間の性能と一般性を対数目盛で比較します。このビデオでは、画像分類における畳み込みニューラル ネットワークの限界、ボード ゲームや言語翻訳でのディープ ラーニングの成功、レコメンダーと自動運転車の一般性の限界、ヒューマノイド ロボットの複雑化などのトピックを扱います。ビデオは、AlphaZero の知性、汎用性、およびパフォーマンスの大幅な向上を強調し、より一般的な一連のタスクに対応できるアルゴリズムを作成するために物理的な相互作用に焦点を当て、人間レベルの知性に近づけることを主張しています。最後に、インストラクターは、パターンを認識して正確な予測を行うための、畳み込みニューラル ネットワークでの畳み込み、プーリング、および正規化のプロセスについて説明します。
03:00:00 - 03:50:00 ディープ ニューラル ネットワークの仕組みに関するこのビデオでは、画像の輝度値のパターンを認識するニューロンとレイヤーを構築することで、画像分類のプロセスを初心者に説明しています。このビデオでは、勾配降下法と、遺伝的アルゴリズムやシミュレーテッド アニーリングなどのさまざまな最適化手法を使用した最適化プロセスについて説明しています。インストラクターは、エラーを最小限に抑え、バックプロパゲーションによって重みを調整する方法と、畳み込みニューラル ネットワークのハイパーパラメーターを最適化する方法について説明します。ニューラル ネットワークの作成に使用できるツールは多数ありますが、データの準備、解釈、およびハイパーパラメーターの選択について十分に理解することは依然として重要です。
パート1
パート2
パート3
パート 4