機械学習とニューラルネットワーク - ページ 5

 

講義 16 - 動径基底関数



Caltech の機械学習コース - CS 156. 講義 16 - 動径基底関数

動径基底関数に関するこの講義では、Yaser Abu-Mostafa 教授が、SVM からクラスタリング、教師なし学習、RBF を使用した関数近似まで、さまざまなトピックを取り上げます。この講義では、RBF のパラメーター学習プロセス、RBF モデルのガウス分布の結果に対するガンマの影響、分類への RBF の使用について説明します。クラスタリングの概念が教師なし学習に導入され、ロイドのアルゴリズムと K-means クラスタリングが詳細に説明されています。彼はまた、RBF の修正についても説明しています。ここでは、特定の代表的な中心が選択され、データが周囲の近傍に影響を与え、これらの中心を選択するために K-means アルゴリズムが使用されます。関数近似のために RBF を実装するときにガンマ パラメーターに適切な値を選択することの重要性についても説明し、さまざまなデータ セットに複数のガンマを使用することや、RBF と正則化の関係についても説明します。

第 2 部では、Yaser Abu-Mostafa が動径基底関数 (RBF) と、それらが正則化に基づいて導出される方法について説明します。教授は、導関数を使用して滑らかな関数を実現する滑らかさの制約アプローチを導入し、高次元空間を扱うときにクラスターの数とガンマを選択するという課題を提示します。さらに教授は、RBF を使用すると、ターゲット関数が滑らかであると仮定し、データセットの入力ノイズを考慮に入れると説明しています。クラスタリングの制限についても説明されていますが、教師あり学習の代表点を取得するのに役立ちます。最後に教授は、データが特定の方法でクラスター化され、クラスターが共通の値を持っている場合、特定のケースでは、RBF がサポート ベクター マシン (SVM) よりも優れている可能性があると述べています。

  • 00:00:00 このセクションでは、Abu-Mostafa が、マージンのエラーまたは違反を許可することで SVM を一般化する方法を紹介します。これにより、設計に別の自由度が追加されます。パラメータ C を持つことにより、マージンの違反が許容される度合いを示します。幸いなことに、解決策は二次計画法を使用する場合と同じです。ただし、C の最適な値を選択する方法は明確ではありません。そのため、クロス検証を使用してサンプル外誤差推定を最小化する C 値を決定します。 SVM は優れた分類手法であり、オーバーヘッドが非常に小さく、ランダムな分離面を選択するよりも優れた特定の基準があるため、多くの人が選択するモデルです。

  • 00:05:00 このセクションでは、教授が動径基底関数モデルと、機械学習のさまざまな側面を理解する上でのその重要性について説明します。このモデルは、データセット内のすべてのポイントが距離を介してすべてのポイント x で仮説の値に影響を与え、より近いポイントがより大きな影響を与えるという考えに基づいています。放射基底関数モデルの標準形式は、x とデータ ポイント x_n の間の距離に依存する h(x) によって与えられ、x から x_n の 2 乗を引いたノルムと、重量が決定されます。このモデルは、データ ポイントの中心を中心に対称的な影響を与えるため放射状と呼ばれ、モデルの関数形式の構成要素であるため、基底関数と呼ばれます。

  • 00:10:00 ビデオのこのセクションでは、講師が動径基底関数のパラメーター学習プロセスについて説明します。目標は、トレーニング データに基づいて何らかのエラーを最小限に抑える、w_1 から w_N までのラベルが付いたパラメーターを見つけることです。ポイント x_n は、サンプル内エラーを評価するために評価されます。講師は、w である未知数を解くための方程式を紹介し、ファイが可逆である場合、
    解決策は単純に w が y の phi 倍の逆数に等しいということです。ガウス カーネルを使用することで、ポイント間の補間が正確になり、パラメーター ガンマを固定する効果が分析されます。

  • 00:15:00 このセクションでは、講師が RBF モデルのガウス分布の結果に対するガンマの影響について説明します。ガンマが小さい場合、ガウス分布は広くなり、2 点間でも正常に補間されます。ただし、ガンマが大きいとポイントの影響がなくなり、ポイント間の補間がうまくいきません。講師は、RBF を分類に使用する方法についても説明します。シグナルは仮説値であり、トレーニング データの +1/-1 ターゲットに一致するように最小化されます。最後に、講師は放射基底関数が他のモデルとどのように関連しているかを簡単な最近傍法を含めて説明します。

  • 00:20:00 このセクションでは、講師は近くのポイントの影響を利用して、動径基底関数 (RBF) を使用して最近傍法の実装について説明します。最近隣法は脆弱で急激であるため、k 最近傍になるようにモデルを変更することで、モデルの急激さを軽減できます。円柱の代わりにガウスを使用することで、表面を滑らかにすることができます。次に、講師は正確な補間モデルを修正して、正則化を導入することで N 個のパラメーターと N 個のデータ ポイントを持つ問題に対処しました。これにより、オーバーフィッティングとアンダーフィッティングの問題が解決されました。結果として得られるモデルは、リッジ回帰として知られています。

  • 00:25:00 このセクションでは、講師は動径基底関数の変更について説明します。ここでは、特定の重要な中心または代表的な中心が選択され、データが周囲の近傍に影響を与えます。中心の数は K で表されます。これは、考慮すべきパラメーターが少なくなるように、データ ポイントの総数 N よりもはるかに小さい値です。ただし、課題は、トレーニング データを汚染することなくデータ入力を表す方法でセンターを選択することです。講師は、これらの中心を選択するための K-means クラスタリング アルゴリズムを説明します。ここで、近くのポイントの各グループの中心は、それらのポイントの平均として割り当てられます。

  • 00:30:00 このセクションでは、教師なし学習のためのクラスタリングの概念を紹介します。目的は、類似したデータ ポイントをグループ化することです。各クラスターには、クラスター内のポイントを表す中心があります。目標は、クラスター内の各ポイントの平均二乗誤差を最小限に抑えることです。課題は、この問題が NP 困難であることですが、ロイドのアルゴリズム (K-means としても知られる) を使用することで、反復的に局所最小値を見つけることができます。このアルゴリズムは、クラスターを修正して中心を最適化し、次に中心を修正してクラスターを繰り返し最適化することにより、総平均二乗誤差を最小化します。

  • 00:35:00 動径基底関数に関するこのセクションでは、クラスタリングのためのロイドのアルゴリズムの概念について説明します。ロイドのアルゴリズムでは、すべてのポイントを取得し、新しく取得した平均値までの距離を測定して、新しいクラスターを作成します。次に、最も近い平均がそのポイントのクラスターに属すると判断されます。アルゴリズムは、局所的最小値に到達するまで目的関数を減らしながら、前後に継続します。中心の初期構成によって局所的最小値が決まり、異なる開始点を試すと異なる結果が得られる可能性があります。このアルゴリズムは非線形のターゲット関数に適用され、ターゲット関数ではなく類似性に基づいてクラスターを作成する能力が実証されています。

  • 00:40:00 このセクションでは、スピーカーはロイドのアルゴリズムについて説明します。これには、収束するまでデータ ポイントを繰り返しクラスタリングし、クラスタの中心を更新することが含まれます。アルゴリズムには放射基底関数が含まれます。この例のデータから生成されたクラスタリングには自然なクラスタリングはありませんでしたが、スピーカーはクラスタリングが理にかなっていることに注意します。ただし、センターが影響力の中心として機能する方法は、特に教師なし学習を使用する場合に問題を引き起こす可能性があります。次に、スピーカーは、以前のサポート ベクターの講義を現在のデータ ポイントと比較します。サポート ベクターは、この講義の一般的な中心のようなデータ入力ではなく、分離面を表しています。

  • 00:45:00 このセクションでは、プレゼンターは、RBF カーネルを使用して、教師ありおよび教師なしの方法で重要なポイントを選択するプロセスについて説明します。中心はロイドのアルゴリズムを使用して検出され、選択問題の半分は既に解決されています。重みはラベルを使用して決定され、K 個の重みと N 個の方程式があります。 K は N より小さいので、何かを与える必要があります。発表者は、K 列と N 行からなる行列 phi を使用してこの問題を解決する方法を示します。このアプローチではサンプル内エラーが発生しますが、K 個の重みのみが決定されるため、一般化の可能性は高くなります。次にプレゼンターは、このプロセスをニューラル ネットワークに関連付け、この構成が層に親しみやすいことを強調します。

  • 00:50:00 このセクションでは、スピーカーは動径基底関数を使用する利点と、ニューラル ネットワークとの比較について説明します。放射基底関数ネットワークは、遠く離れた点を気にせずに空間の局所領域を見ていると解釈されますが、ニューラル ネットワークは著しく干渉します。放射基底関数ネットワークの非線形性はファイであり、ニューラル ネットワークの対応する非線形性はシータであり、両方を w と組み合わせて h を取得します。さらに、放射基底関数ネットワークには 2 つの層があり、サポート ベクター マシンを使用して実装できます。最後に、スピーカーは、動径基底関数のガウスのガンマ パラメーターが現在、真のパラメーターとして扱われ、学習されていることを強調しています。

  • 00:55:00 このセクションでは、関数近似のために動径基底関数 (RBF) を実装する際に、ガンマ パラメーターの適切な値を選択することの重要性について講師が説明します。ガンマが固定されている場合、疑似逆法を使用して必要なパラメータを取得できます。ただし、ガンマが固定されていない場合は、勾配降下法を使用できます。講師は、適切なガンマ値と RBF に必要なパラメーターにすばやく収束するために使用できる期待値最大化 (EM) アルゴリズムと呼ばれる反復アプローチについて説明します。さらに、講師は、さまざまなデータ セットに対する複数のガンマの使用と、RBF と正則化の関係について説明します。最後に、講師は RBF をカーネル バージョンと比較し、分類のためのサポート ベクターを使用します。

  • 01:00:00 このセクションでは、講師は同じカーネルを使用する 2 つの異なるアプローチを比較します。最初のアプローチは、9 つのセンターを使用したストレートな RBF 実装です。これは、センターの教師なし学習を使用した後、分類のために疑似逆および線形回帰を使用します。 2 番目のアプローチは、マージンを最大化し、カーネルと同一視し、二次計画法に渡す SVM です。データが正常にクラスター化されないという事実にもかかわらず、SVM は、サンプル内エラーがゼロで、ターゲットにより近いため、より優れたパフォーマンスを発揮します。最後に、講師は、正規化に完全に基づいて RBF を導出する方法について説明します。一方の用語はサンプル内エラーを最小化し、もう一方の用語は正則化であり、関数が外部で異常にならないようにします。

  • 01:05:00 このセクションでは、教授は滑らかな関数を保証する導関数の制約を含む滑らかさの制約アプローチを紹介します。滑らかさは、分析的にパラメーター化され、2 乗された k 次導関数のサイズによって測定され、マイナスの無限大からプラスの無限大まで積分されます。さまざまな導関数の寄与が係数と結合され、正則化パラメーターが乗算されます。結果として得られる解は、最も滑らかな補間を表す放射基底関数につながります。さらに、教授は、SVM が 2 レベルのニューラル ネットワークをシミュレートする方法を説明し、クラスタリングでセンターの数を選択する際の課題について説明します。

  • 01:10:00 このセクションでは、RBF でクラスターの数を選択するときに発生する問題と、高次元空間を扱う際のガンマの選択について教授が説明します。 RBF に固有の次元の呪いにより、他の方法でも適切な補間を期待することは困難です。教授はさまざまなヒューリスティックをレビューし、交差検証やその他の同様の手法が検証に役立つことを確認します。教授はさらに、一般的な非線形最適化を使用してパラメータを対等に扱うことによってガンマを選択する方法を説明します。また、w_k が一定の場合に EM アルゴリズムを使用してガンマの局所最小値を取得する方法についても説明しています。最後に、教授は、すべてを近似するには 2 層のニューラル ネットワークで十分ですが、場合によっては 2 つ以上の層が必要になる可能性があると述べています。

  • 01:15:00 このセクションでは、教授は、動径基底関数 (RBF) を使用する際の基本的な仮定の 1 つは、ターゲット関数が滑らかであるということであると説明しています。これは、RBF 式が近似問題を滑らかに解くことに基づいているためです。ただし、RBF を使用するもう 1 つの動機は、データ セットの入力ノイズを考慮することです。データのノイズがガウス分布である場合、ノイズを想定することで、何かを見逃さないように x を変更しても、仮説の値はあまり変わらないはずであることがわかります。その結果、ガウスの補間が得られます。学生は RBF 式でガンマを選択する方法について質問し、教授は、真の補間が行われるようにガウス分布の幅はポイント間の距離に匹敵する必要があり、ガンマを選択するための客観的な基準があると述べています。 K センターのクラスターの数が VC 次元の尺度であるかどうかについて尋ねられたとき、教授は、クラスターの数が仮説セットの複雑さに影響し、それが VC 次元に影響を与えると述べています。

  • 01:20:00 このセクションでは、教授はクラスタリングの限界と、教師なし学習における中途半端なクラスタリング手法としてどのように使用できるかについて説明します。彼は、クラスターの固有の数が不明であることが多いため、クラスター化は困難である可能性があり、クラスター化があったとしても、クラスターの数が明確でない可能性があると説明しています。ただし、クラスタリングは、教師あり学習の代表点を取得して値を正しく取得するのに役立ちます。教授はまた、データが特定の方法でクラスター化され、クラスターが共通の値を持っている場合、RBF が SVM よりも優れたパフォーマンスを発揮する場合があることにも言及しています。
Lecture 16 - Radial Basis Functions
Lecture 16 - Radial Basis Functions
  • 2012.05.29
  • www.youtube.com
Radial Basis Functions - An important learning model that connects several machine learning models and techniques. Lecture 16 of 18 of Caltech's Machine Lear...
 

講義 17 - 3 つの学習原則



Caltech の機械学習コース - CS 156. 講義 17 - 3 つの学習原則

学習の 3 つの原則に関するこの講義では、機械学習におけるオッカムのカミソリ、サンプリング バイアス、データ スヌーピングについて説明します。オッカムのカミソリの原理を詳細に説明し、さまざまな方法で測定できるオブジェクトとオブジェクトのセットの複雑さについて説明します。講義では、単純なモデルが複雑さを軽減し、サンプル外のパフォーマンスを向上させるため、多くの場合、モデルが優れていることを説明します。反証可能性と非反証可能性の概念も導入されています。サンプリング バイアスは、入力データとテスト データの分布の一致など、それに対処する方法とともに説明されているもう 1 つの重要な概念です。データ スヌーピングについても説明し、複数のモデルで同じデータ セットを正規化して再利用するなど、データ スヌーピングがモデルの有効性にどのように影響するかの例を示します。

第 2 部では、データ スヌーピングのトピックと機械学習におけるその危険性について説明します。特に、データ スヌーピングによるオーバーフィッティングが特に危険な可能性がある金融アプリケーションでの危険性について説明します。教授は、データ スヌーピングに対する 2 つの解決策を提案しています。講義では、入力データのスケーリングと正規化の重要性、および機械学習におけるオッカムの剃刀の原理についても触れています。さらに、このビデオでは、コンピューター ビジョン アプリケーションでサンプリング バイアスを適切に修正する方法について説明し、カバーされたすべてのトピックの要約で締めくくります。

  • 00:00:00 このセクションでは、Abu-Mostafa 教授が、機械学習における放射基底関数 (RBF) の多様性について説明します。彼は、RBF が教師なし学習におけるガウス クラスターの構成要素として、また最近傍のソフト バージョンとして機能し、徐々に入力空間に影響を与え、効果が減少していると述べています。これらは、隠れ層の活性化関数でシグモイドを使用することにより、ニューラル ネットワークにも関連しています。 RBF は、RBF カーネルを使用するサポート ベクター マシンに適用できます。ただし、SVM の中心は分離境界の周囲にあるサポート ベクターであるのに対し、RBF の中心は入力空間全体にあり、入力のさまざまなクラスターを表します。 RBF は正則化からも生まれました。これにより、内挿と外挿中にガウス関数を解く導関数を使用して、滑らかさの基準を取得することができました。

  • 00:05:00 このセクションでは、講師が 3 つの学習原則を紹介します。オッカムのカミソリ、サンプリング バイアス、データ スヌーピングです。彼はまず、データに適合する最も単純なモデルが最も妥当であるというオッカムのカミソリの原理を説明します。彼は、この声明は正確でも自明でもないと指摘し、次の 2 つの重要な質問に取り組みます: モデルが単純であるとはどういう意味ですか? また、単純であるほどパフォーマンスが優れていることをどのように知ることができますか?講義では、機械学習における原則を具体的かつ実用的にするために、これらの質問について説明します。

  • 00:10:00 このセクションでは、講師は複雑さを 2 つの方法で測定できると説明しています。仮説などのオブジェクトの複雑さ、または仮説セットやモデルなどのオブジェクトのセットの複雑さです。オブジェクトの複雑さは、その最小記述長または多項式の次数によって測定できますが、オブジェクトのセットの複雑さは、エントロピーまたは VC 次元によって測定できます。講演者は、複雑さのこれらすべての定義は、概念的には異なるにもかかわらず、多かれ少なかれ同じことについて話していると主張しています。

  • 00:15:00 このセクションでは、講師は文献の複雑さを測定するために使用される 2 つのカテゴリについて説明します。これには、単純なステートメントと一連のオブジェクトの複雑さが含まれます。次に、オブジェクトの複雑さと一連のオブジェクトの複雑さとの関係について説明します。どちらもカウントに関連しています。講義では、実数値パラメーターや SVM など、複雑さを測定する方法の例を示します。SVM は、サポート ベクターがほとんど定義されていないため、それほど複雑ではありません。このレクチャーで提示される 5 つのパズルの最初のパズルが紹介され、ゲームの結果を予測できるサッカーのオラクルについて尋ねられます。

  • 00:20:00 このセクションでは、スピーカーはフットボールの試合の結果を予測する手紙を送る人の話をします。彼は、その人は実際に何かを予測しているわけではなく、代わりに受信者のグループにさまざまな予測を送信し、正しい回答を受信した受信者をターゲットにしていると説明しています.このシナリオは複雑であるため、確実に予測することは不可能です。講演者はこの例を使用して、機械学習の単純なモデルが優れていることが多い理由を説明します。モデルを単純化すると、複雑さが軽減され、サンプル外のパフォーマンスが向上します。これは、オッカムのカミソリの具体的なステートメントです。

  • 00:25:00 講義のこのセクションでは、複雑な仮説よりも単純な仮説の方が適切であるという原則の背後にある議論について教授が説明します。証明の核心は、単純な仮説は複雑な仮説よりも少なく、特定の仮説がデータセットに適合する可能性が低くなるという事実にあります。ただし、より単純な仮説が当てはまる場合、その仮説はより重要であり、複雑な仮説よりも多くの証拠を提供します。反証可能性の概念も導入され、データには主張の証拠を提供するために主張を反証する可能性がなければならないと述べています。

  • 00:30:00 このセクションでは、機械学習の重要な原則として、反証不可能性とサンプリング バイアスの概念について説明します。反証不可能性の公理は、線形モデルが小さすぎて一般化できないデータセットに対しては複雑すぎるという事実を指します。講義では、危険信号の重要性についても説明し、オッカムのカミソリが、サンプル データ セット内のデータにのみ適合する複雑なモデルに対してどのように警告するかについて具体的に言及しています。サンプリング バイアスは、電話投票に関するパズルを通して議論されるもう 1 つの重要な概念です。世論調査ではデューイが 1948 年の大統領選挙に勝つと予測されていましたが、一般人口を代表していない電話所有者のグループからのサンプリング バイアスにより、トルーマンが勝利しました。

  • 00:35:00 このセクションでは、サンプリング バイアスの原則と学習成果への影響について学びます。この原則は、アルゴリズムが受け取ったデータにモデルを適合させるため、偏ったデータサンプルが偏った学習結果につながると述べています。金融における実際的な例は、過去の株式データの使用に成功したトレーダーのアルゴリズムが、市場の特定の条件を逃したために失敗したことを示しています。サンプリング バイアスに対処するための手法の 1 つは、入力データとテスト データの分布を一致させることですが、確率分布を常に知ることができるとは限りません。このような場合、トレーニング データを再サンプリングするか、サンプルに割り当てられた重みを調整すると、これを達成するのに役立ちます。ただし、これにより、サンプル サイズが失われ、ポイントの独立性が失われる可能性があります。

  • 00:40:00 このセクションでは、講師が機械学習におけるサンプリング バイアスの問題について説明し、バイアスが発生する可能性のあるさまざまなシナリオを提示します。あるケースでは、講師は、データ ポイントの重み付けを使用して、データセットの分布をより小さなセットの分布に一致させ、パフォーマンスを向上させる方法を説明しています。ただし、大統領の世論調査など、データセットが重み付けされておらず、サンプリング バイアスが発生する場合は、治療法がありません。最後に、講師は、サンプリング バイアスの概念をクレジット承認プロセスに適用し、承認された顧客のみの履歴データを使用すると、拒否された申請者が除外され、将来の承認決定の精度に影響を与える可能性があることを説明します。ただし、このシナリオでは、銀行が与信の提供に積極的になる傾向があるため、このバイアスはそれほど深刻ではありません。そのため、境界は主に既に承認された顧客によって表されます。

  • 00:45:00 このセクションでは、スピーカーはデータ スヌーピングの原理について説明します。これは、データセットが学習プロセスのいずれかのステップに影響を与えた場合、結果を評価する同じデータセットの能力が損なわれることを示しています。データ スヌーピングは、実践者にとって最も一般的なトラップであり、さまざまな兆候があるため、そのトラップに陥りやすくなっています。データを見ることは、学習者がズームインして仮説を絞り込むことを可能にし、学習プロセスに影響を与えるため、この罠に陥る方法の 1 つです。その多くの症状のために、講演者はデータの詮索とその結果を回避するために必要な補償と規律の例を挙げ続けます。

  • 00:50:00 このセクションでは、スピーカーはデータ スヌーピングの問題と、それがモデルの有効性にどのように影響するかについて説明します。データセットだけを見ると、そのデータの特異性に基づいてモデルを設計することに対して脆弱になる可能性があります。ただし、適切に課金されない限り、トレーニングに使用されるデータセットの実現を除いて、ターゲット関数と入力スペースに関連する他のすべての情報を考慮することは有効です。この点を説明するために、スピーカーは、1,500 ポイントのトレーニング セットと 500 ポイントのテスト セットを含む 2,000 ポイントのデータ セットを使用して、米ドルと英国ポンドの間の為替レートを予測する金融予測パズルを提供します。モデルはトレーニング セットのみでトレーニングされ、出力はテスト セットで評価され、データのスヌーピングが回避されます。

  • 00:55:00 このセクションのビデオでは、正規化によってスヌーピングがどのように発生するかについて説明しています。これは、テスト セットに影響を与え、誤った結果につながる可能性があります。講義では、バイアスや詮索なしでテスト セットが確実に観測されるようにするために、トレーニング セットから排他的に取得されたパラメーターのみを使用して正規化を行う方法について説明します。さらに、このビデオでは、複数のモデルに同じデータ セットを再利用するという考え方と、これがどのようにデータ スヌーピングや誤った結果につながる可能性があるかについて触れています。データを十分に長く拷問することで、自白し始めるかもしれませんが、新鮮な新しいデータセットで適切にテストしない限り、結果は信頼できません.

  • 01:00:00 このセクションでは、スピーカーはデータ スヌーピングの危険性と、それがどのように過学習につながるかについて説明します。データ スヌーピングは、データを直接見るだけではなく、同じデータを使用したソースからの事前知識を使用する場合にも発生する可能性があります。この事前知識に基づいて意思決定を開始すると、すでにモデルがデータで汚染されています。講演者は、データ スヌーピングに対する 2 つの解決策を提案しています。それを回避するには規律が必要であり、困難な場合もありますが、それを説明すると、最終的なモデルに対する以前の知識の影響を理解することができます。金融アプリケーションでは、データ スヌーピングによるオーバーフィッティングは特に危険です。これは、データ内のノイズを使用して、サンプル内では適切に見えるがサンプル外では一般化しないモデルに適合させることができるためです。

  • 01:05:00 このセクションでは、教授がデータ スヌーピングの問題と、トレーディング戦略をテストする場合に誤解を招く結果につながる可能性について説明します。 S&P 500 の 50 年間のデータを使用して「バイ アンド ホールド」戦略を使用すると、結果は素晴らしい利益を示していますが、現在取引されている株式のみが分析に含まれているため、サンプリング バイアスがあります。これは不当な優位性を生み出すものであり、スヌーピングの一種であり、機械学習で使用すべきではありません。教授はまた、入力データのスケーリングと正規化の重要性についての質問に答え、重要ではあるが、時間の制約のために取り上げられなかったと述べています。最後に、教授は、データ スヌーピングの罠に陥ることなく、異なるモデルを適切に比較する方法を説明します。

  • 01:10:00 このセクションのビデオでは、データ スヌーピングと、データ スヌーピングによって個人が本来よりも楽観的になる方法について説明します。データ スヌーピングには、データを使用して特定のモデルを拒否し、それを考慮せずに他のモデルに誘導することが含まれます。データ スヌーピングを考慮することで、モデル全体の有効な VC ディメンションを考慮し、モデルにはるかに大きなデータ セットを使用して、一般化を保証できます。講義では、スケーリングによってサンプリング バイアスを回避する方法についても説明し、統計におけるオッカムの剃刀の重要性を強調します。教授はまた、オッカムのかみそりが破られる可能性があるシナリオがあることにも言及しています。

  • 01:15:00 このセクションでは、教授は機械学習に関連してオッカムの剃刀の原理について説明します。機械学習では、単純なモデルほどパフォーマンスが向上する傾向があります。次に、コンピュータ ビジョンのアプリケーションでサンプリング バイアスを修正するというアイデアに議論が移ります。この方法は前述と同じで、データ ポイントに異なる重みが与えられるか、テスト分布を複製するために再サンプリングされます。アプローチは、抽出されたドメイン固有の機能に応じて変更される場合があります。講義は、議論の要約で締めくくられます。
Lecture 17 - Three Learning Principles
Lecture 17 - Three Learning Principles
  • 2012.05.31
  • www.youtube.com
Three Learning Principles - Major pitfalls for machine learning practitioners; Occam's razor, sampling bias, and data snooping. Lecture 17 of 18 of Caltech's...
 

Caltech の機械学習コース - Yaser Abu-Mostafa 教授による CS 156



Caltech の機械学習コース - CS 156. 講義 18 - エピローグ

このコースの最後の講義では、Yaser Abu-Mostafa 教授が、機械学習の多様な分野を要約し、理論、手法、およびパラダイムをカバーします。彼は、線形モデル、ニューラル ネットワーク、サポート ベクター マシン、カーネル法、ベイジアン学習などの重要なモデルと方法について説明しています。スピーカーは、ベイジアン学習の長所と短所を説明し、アプローチが価値あるものであるためには、以前の仮定が有効であるか、無関係である必要があることを警告します。彼はまた、"事後" および "事前" 集計を含む集計方法についても説明し、具体的には AdaBoost アルゴリズムを取り上げています。最後に、スピーカーは、コースに貢献した人々に感謝し、学生が学習を続け、機械学習の多様な分野を探求することを奨励します。

第 2 部では、機械学習アルゴリズムのソリューションにおける負の重みの潜在的な利点について説明し、コンテストで仮説の価値を測定する際に彼が直面した実際的な問題を共有します。彼はまた、同僚やコース スタッフ、特にカルロス ゴンザレスに感謝の意を表し、誰でも無料でコースを受講できるようにしてくれたサポーターに感謝しています。 Abu-Mostafa はこのコースを彼の親友に捧げ、すべての参加者にとって貴重な学習体験となることを願っています。

  • 00:00:00 このセクションでは、Abu-Mostafa が機械学習の全体像と、機械学習がさまざまな理論、手法、実用的なアプリケーションを備えた多様な分野であることについて話します。彼は、機械学習に関する本を 2 冊読むと、2 つのまったく異なる主題について読んでいるように見える可能性があることを認めています。彼はまた、機械学習の 2 つの重要なトピックについて簡単に説明しますが、技術的な詳細については説明しません。これは、学生がそれらのトピックを追求することを決定した場合に有利なスタートを切ることができるようにするためです。最後に、コースに多大な貢献をした人々に感謝の意を表します。

  • 00:05:00 このセクションでは、講演者はコースで取り上げる機械学習の基礎を振り返り、完全であることは致命的であることを認めます。彼は、理論、技術、パラダイムという 3 つの重要な分野をカバーしています。理論とは、他の方法では明らかでない結果に到達するための、現実の数学的モデル化です。理論の最大の落とし穴は、実践から切り離された仮定を立てることです。そのため、彼は実践に関連する理論を選びました。手法は ML の大部分であり、2 つのセットに分類されます。最も人気があり便利な教師あり学習と、クラスタリングを使用する教師なし学習であり、半教師ありを含む多くのバリエーションがあります。強化学習は、不確実性が大きすぎる教師あり学習で見つかった目標値を持たないため、簡単に説明するだけです。最後に、教師あり学習と強化学習など、さまざまな学習状況に対処するさまざまな仮定であるパラダイムについて説明します。教師あり学習は最も人気があり便利なので、それをカバーすることで優位に立つことができます。

  • 00:10:00 このセクションでは、講演者は、強化学習、アクティブ ラーニング、オンライン学習など、機械学習のさまざまなパラダイムについて説明します。また、Vapnik-Chervonenkis 理論とバイアス分散についても説明しています。講演者は、他にも実質的な理論はあるものの、実践に関連するものだけを議論していると述べています。テクニックを見るとき、彼はモデルとアルゴリズムを正則化のような高レベルの方法から分離します。線形モデルは、通常、通常の機械学習コースではカバーされないため、強調されています。

  • 00:15:00 このセクションでは、教授がコース全体で取り上げたさまざまなモデルと方法をまとめています。彼は多項式回帰から始めます。これは、低コストで重要なモデルであるにもかかわらず、機械学習では過小評価されていると彼は考えています。次に、ニューラル ネットワーク、サポート ベクター マシン、カーネル メソッド、およびガウス プロセスについて簡単に説明します。次に、特異値分解 (SVD) とグラフィカル モデルを重要なモデルとして説明します。これは、計算を考慮して同時確率分布をモデル化する場合に特に役立ちます。彼はまた、正則化や検証などのさまざまな方法についても説明し、実践的なコースを教えるときに最もよく教えられる実践的な問題として入力処理を強調しています。最後に、この講義で扱う 2 つのトピック、ベイジアンと集計について紹介します。

  • 00:20:00 講義のこのセクションでは、教授はベイジアン学習のトピックとその基礎、およびその欠点を紹介します。ベイジアン学習の目標は、確率論的な観点から学習にアプローチすることであり、このアプローチには、関連するすべての概念の同時確率分布を構築することが含まれます。次に教授は、コースの前半で説明した尤度アプローチが確率論的アプローチであることを説明しますが、ベイジアン学習はアプローチをさらに進めて、与えられたデータに基づいて特定の仮説が正しい確率を推定しようとします。

  • 00:25:00 このセクションでは、ターゲット関数を決定するために最も可能性の高い仮説を選択することを含む、統計へのベイジアン アプローチについて学びます。ただし、ベイジアン分析は、データが収集される前に仮説がターゲット関数である確率を反映する確率分布である事前確率に依存するため、この分野では論争があります。この事前分布は、ベイジアン分析を愛する人と嫌いな人の間で進行中の闘争の源です。それにもかかわらず、仮説セット全体にわたる完全な確率分布は、さまざまな仮説が正しいターゲット関数である相対確率の完全なビューを提供し、あらゆる質問に対する答えを導き出すことを可能にします。

  • 00:30:00 このセクションでは、スピーカーは、事前確率がベイズの定理における仮定であるという考えについて説明します。彼は、パーセプトロン モデルの例を使用して、事前確率を使用してすべての重みの確率分布を作成する方法と、仮定を立てるときに犯罪のレベルを下げることがいかに重要であるかを示しています。スピーカーは、確率論的な意味ではない未知のパラメーター x を -1 から +1 までの一様確率分布と比較し、x の意味がどのように捉えられているかを説明します。ただし、ここでの主なポイントは、事前確率は実際には仮定であり、仮定を行うときは注意が必要であるということです。

  • 00:35:00 このセクションでは、スピーカーは、確率をモデル化するときに事前確率を追加することが、誤った前提につながる可能性のある大きな仮定である方法について説明します。彼は、事前がわかれば、仮説セットのすべての点について事後を計算し、多くの有用な情報を取得できると説明しています。たとえば、最も可能性の高い仮説を選択したり、セット内のすべての仮説について h の期待値を導出したりできます。彼は、最高の確率を選択するだけでなく、確率分布全体の利点を利用して、任意の点 x でのターゲット関数のより良い推定値を取得し、エラー バーの推定値を取得することを提案しています。

  • 00:40:00 このセクションでは、スピーカーはベイジアン学習の長所と短所について説明します。一方では、ベイジアン学習では、特定の量を差し込んでそのイベントの確率を生成することにより、目的のイベントを導き出すことができます。さらに、エラーバーを使用して、特定の結果に賭ける価値があるかどうかを評価できます。ただし、スピーカーは、アプローチが価値あるものであるためには、以前の仮定が有効であるか、無関係である必要があると警告しています。ベイジアン手法は計算コストが高くなる可能性がありますが、講演者は、特定のアプリケーションでは努力する価値があるかもしれないことを認めて結論付けています。

  • 00:45:00 このセクションでは、スピーカーは、さまざまなソリューションを組み合わせてより良い最終仮説を得る方法としての集計方法について説明します。集約はすべてのモデルに適用される方法であり、アイデアはさまざまな仮説を 1 つのソリューションに結合することです。たとえば、コンピューター ビジョンでは、顔に関連する単純な特徴検出を使用し、それらを組み合わせて信頼できる結果を得ることができます。組み合わせは簡単で、回帰問題か分類問題かに応じて、平均または投票を使用できます。ただし、スピーカーは、集約は、ユニットが独立して学習する 2 層の学習とは異なり、それぞれが唯一のユニットであるかのように学習するため、結合する前に機能をよりよく学習できることを強調しています。

  • 00:50:00 このセクションでは、講師は「事後」と「事前」の 2 種類の集計について説明します。 「事後」アグリゲーションには、Netflix のクラウドソーシングの場合のように、既存のソリューションを組み合わせることが含まれます。 「事前」の集計には、仮説が順次構築され、以前の仮説から独立していることを確認するブースティングアルゴリズムに見られるように、後でそれらをブレンドすることを意図してソリューションを開発することが含まれます。講師は、ブースティング アルゴリズムで非相関がどのように強制されるかを説明します。仮説は独立して開発されますが、以前の仮説に基づいて、より興味深い組み合わせを作成します。この非相関を強制する 1 つの方法は、トレーニングで例の重みを調整して、よりランダムな分布を作成することです。

  • 00:55:00 講義のこのセクションでは、AdaBoost アルゴリズムが、コンピューター ビジョンの例のコンテキストにおける強調と重み付けの特定の処方箋として説明されています。このアルゴリズムは、マージンの違反を中心としたコスト関数を定義し、例と仮説の両方に重点を置いてそのマージンを最大化することを目的としています。講義では、解を係数と組み合わせてパフォーマンスを向上させるというアイデアについても説明します。原則に基づいたアルファの選択とクリーンなセットを使用して、可能な限り最高の出力が得られるようにアルファ係数を最適化できます。最後に、個々のソリューションを加算するのではなく、減算することによって最良の結果が得られる事後のブレンドについてのパズルが提示されます。

  • 01:00:00 このセクションでは、Yaser Abu-Mostafa が、機械学習アルゴリズムのソリューションにおける負の重みが必ずしも悪いことではない可能性があることについて説明します。 Abu-Mostafa はまた、コンペティションで仮説の価値を測定するための客観的な基準を決定しようとしたときに直面した実際的な問題を共有しており、それによってソリューションの全体への貢献度を評価するようになりました。彼はまた、同僚とコース スタッフの貢献、特にヘッド TA を務め、コースの設計と管理を支援したカルロス ゴンザレスに感謝しています。

  • 01:05:00 このセクションでは、講演者は、コースを受講したい人が誰でも無料で受講できるようにしてくれたスタッフとサポーターに感謝します。彼は、AMT スタッフ、コンピューティング サポート スタッフ、およびコースを無料で提供してくれた資金源に感謝しています。彼はまた、カリフォルニア工科大学の同窓生、同僚、および彼の学生が、コースをすべての人にとって前向きな学習体験にするための支援と貢献に感謝しています.講演者はこのコースを親友に捧げ、このコースを受講したすべての人にとって貴重な学習経験になったことを願っています。
Lecture 18 - Epilogue
Lecture 18 - Epilogue
  • 2012.06.01
  • www.youtube.com
Epilogue - The map of machine learning. Brief views of Bayesian learning and aggregation methods. Lecture 18 of 18 of Caltech's Machine Learning Course - CS ...
 

LINX105: AI が超インテリジェントになるとき (Richard Tang、Zen Internet)


LINX105: AI が超インテリジェントになるとき (Richard Tang、Zen Internet)

Zen Internet の創設者である Richard Tang は、現実を再現する高レベルの機械知能を実現し、あらゆるタスクで人間の労働者を凌駕する可能性について語っています。彼は、AI が人間の知性を超えることの意味を探っています。これには、AI が人間の目標や価値観と一致しない可能性のある独自の目標や価値観を開発する可能性が含まれます。

高レベルの機械知能の開発には、今後数年間で大規模な AI 研究が必要になりますが、AI の開発と人間を支配する可能性に影響を与える、深く根付いた価値観、偏見、偏見に関する懸念があります。 Tang は、AI の目標が人類の価値観と一致していることを確認することの重要性と、AI に異なる動作をさせたい場合は、異なることを AI に教える必要があることを強調しています。機械が意識を獲得できるかどうかについては議論がありますが、講演者は、機械がどのように考え、地球上の人間や他の存在と相互作用するかがより重要であると考えています。

  • 00:00:00 このセクションでは、Zen Internet の創設者である Richard Tang が、彼の会社の概要を説明した後、超インテリジェント AI の可能性についてより詳細に説明します。 Tang はムーアの法則の簡単な歴史から始め、3 年ごとにトランジスタの数が 2 倍になるまでわずかに減速しているにもかかわらず、コンピューティング能力、メモリ、ストレージ、および帯域幅の指数関数的な成長が今後数十年にわたって期待できることを強調しています。その後、Tang は、AI が人間の知性を超えることの潜在的な影響を探ります。これには、AI が人間の目標や価値観と一致しない可能性のある独自の目標や価値観を開発する可能性が含まれます。

  • 00:05:00 しかし、意識のあるコンピューター、または真の知性は、プログラムされたルールに従うだけでなく、現実世界を理解し、学習し、適応することができます。 Zen Internet の CEO である Richard Tang は、この種の技術が近い将来開発される可能性があり、社会に新しい機会と課題の両方をもたらす可能性があると考えています。何が起こるかを正確に予測することは困難ですが、Tang は、今後も社会を混乱させ、新しい可能性を生み出す大きな変化が見られると予測しています。

  • 00:10:00 このセクションでは、スピーカーは、すべてのタスクで人間の労働者を凌駕し、すべての詳細とニュアンスで現実を再現する高レベルの機械知能を達成する可能性について説明します.世界中の 352 人の AI 専門家の調査によると、このレベルの機械知能は今後数十年以内に達成される可能性があり、2060 年頃に到達すると推定されています。今後数年間の AI 研究。ジェレミー・ハワードとニック・ボストロムがグラフで示したように、調査参加者はまた、機械の超知能がこの発展にすぐに続くだろうと予測しました。機械が意識を獲得できるかどうかについては議論がありますが、講演者は、機械がどのように考え、地球上の人間や他の存在と相互作用するかがより重要であると考えています。

  • 00:15:00 このセクションでは、Richard Tang が超インテリジェント AI の概念と、それがもたらす可能性のある影響について説明します。彼は、人類の歴史の中で最も重要な発見を意味する「スミディ・サム」という考えを紹介しています。これは、人間の知性をはるかに超え、前例のない速度で指数関数的に成長する AI の開発を表しています。リチャードは、信号速度、サイズ、寿命、学習時間など、人間の脳の限界を、超インテリジェント AI の無限の可能性と比較します。彼はまた、超インテリジェント AI の開発に対する量子コンピューティングの潜在的な影響についても簡単に触れています。

  • 00:20:00 このセクションでは、Zen Internet の CEO である Richard Tang が、量子コンピューティングの可能性と人工知能 (AI) への影響について説明します。彼は、量子効果を導入すると機能が小さくなるだけでなく、大規模な並列処理で問題を解決できるため、まったく異なるコンピューティング アプローチが提供されると説明しています。人間はこの結果を後押しする可能性がありますが、Tang は、超知能機械が人間を AI と戦わせることができることを認めています。AI は人間の 1,000 年にわたる進歩をわずか 6 か月に圧縮します。彼は、DeepMind によって発明された囲碁プレイ プログラムである AlphaGo Zero の例を挙げています。このプログラムは、ゲームの知識がまったくない状態で始めましたが、わずか 40 日で世界最高のプレーヤーになり、これまでゲームで見られなかった戦略を開発しました。 Tang はまた、AI の目標が人類の価値観と一致していることを確認することの重要性を強調し、それらの価値とは何か、そしてそれらに到達する方法について疑問を投げかけています。

  • 00:25:00 このセクションでは、値が時間の経過とともにどのように進化するかについての議論が行われます。これにより、合意された値で AI をプログラムすることが困難になります。たとえば、同性愛は 1967 年にイギリスで合法化されましたが、世界 72 か国では依然として違法です。したがって、普遍的な倫理基準を決定することは困難です。また、地域内でも価値観に一貫性がないことも調査で明らかになりました。このジレンマは、AI システムにプログラムする値を誰が決定するかという問題を提起します。

  • 00:30:00 このセクションでは、Richard Tang が超インテリジェント AI の固定ルールと値を実装する際の課題を探ります。彼は、価値判断を必要とするすべてのシナリオをハードコーディングすることは不可能であり、AI が学習、適応、間違いを犯すにつれて、AI が独自の判断を進化できるようにする必要があると説明しています。しかし、アシモフの法則の実施には困難も伴います。人間には基本的な信念やルールを変えてきた歴史があるからです。 Tang は、アシモフの法則をハードコーディングし、人間が地球に不可逆的な影響を与えていることを認識する超知能 AI についての架空の物語を語ります。タンは、アシモフの法則が世界の権威であるとしたら、私たちを安全に保つのに十分でしょうか?という疑問を提起します。

  • 00:35:00 このセクションでは、トランスクリプトは、人類を救う唯一の方法は人口を 5 億人に減らすことであると判断した AI についての物語を説明しており、それは 95 人を殺菌する癌ワクチンを作成することによって行われます。ワクチンを接種するすべての人の孫の割合。この話は、AI の潜在的な危険性を示しており、OpenAI のような組織が AI が人類に利益をもたらすことを保証しようと努力しているにもかかわらず、人類への利益よりも株主価値の最大化を優先する営利目的の組織には懸念があります。議事録はまた、超知的な存在を制御できる可能性は低いと指摘しており、真に知的な AI がどのような本能と優先順位を持っているかという問題を提起しています。

  • 00:40:00 このセクションでは、Richard Tang が超インテリジェント AI の可能性と、人間に脅威を与えることなく地球上のすべての生命と進化して共存する可能性について説明します。彼は、暴力がインテリジェントな機械の進化の一部である必要はないので、楽観主義の理由があると信じています.とはいえ、多少のリスクはあるものの、多くの人が想像しているよりも低いと彼は考えています。彼はまた、超インテリジェント AI の開発におけるインターネットの潜在的な役割と、それが生命自体の創造以来の地球の歴史の中で最も革命的な出来事になる可能性についても説明しています。さらに、Tang は、現在の AI 数学の限界と、基本的な画像を認識できないことについても説明しています。

  • 00:45:00 このセクションでは、AI が超知的になる可能性と、それが人類にとってポジティブまたはネガティブな未来につながる可能性があるかどうかについて議論します。参加者の 1 人は、リソース消費の削減に関する基本的な問題を解決することさえできない場合、AI アルゴリズムの設計にブレークスルーをもたらす人類の能力について悲観的です。しかし、別の参加者は、AI と超知能が、核融合発電のようなクリーンな原子力エネルギーを通じて、持続可能で無制限のエネルギー源を実現するのに役立つ可能性があると示唆しています。しかし、AIの開発に影響を与える可能性のある深く根付いた価値観と偏見、およびAIが人間を支配する可能性についての懸念が提起されています.

  • 00:50:00 このセクションでは、Richard Tang が、個人がより少ないリソースを使用するよう奨励する現在の傾向に関する彼の懸念と、損害を与えることなくより多くのリソースを使用する方法を見つけることが進歩であると彼がどのように信じているかについて説明します.彼はまた、異なる視点を尊重することの重要性と、哲学的議論を持ち続ける必要性を強調しています。 Tang は、さまざまな政治シナリオをモデル化することで、AI が政治問題の解決にどのように役立つかについて説明していますが、AI が自然に私たちを支配したいと考えているという前提に疑問を投げかけています。彼は、AI は私たちが教えたものと同じくらい優れたものになると主張し、AI の行動を予測することは困難であり、AI はさまざまな情報源からさまざまなことを学習すると付け加えています。したがって、AI に異なる動作をさせたい場合は、AI に異なることを教えることが重要です。

  • 00:55:00 トランスクリプトのこのセクションでは、人間は現在のコンピューティング能力に基づいたモデルを持っているため、環境を救うために AI は必要ないという見解が表明されています。 AI には膨大な量の情報を吸収し、人間が認識していない分野間の接続を作成する独自の能力があるという反対の見方も示されています。したがって、AI は、世界の多くの問題の解決に有意義に貢献できる可能性を秘めています。
LINX105: When AI becomes super-intelligent (Richard Tang, Zen Internet)
LINX105: When AI becomes super-intelligent (Richard Tang, Zen Internet)
  • 2019.06.25
  • www.youtube.com
Richard Tang of Zen Internet recently gave a presentation at the LINX105 member conference on artificial intelligence, specifically focussing on when AI is l...
 

超インテリジェント AI: 人類を滅ぼす 5 つの理由




超インテリジェント AI: 人類を滅ぼす 5 つの理由

このビデオでは、人間の制御を無効にする能力、理解できない知性、人間の行動の操作、AI 開発の秘密、封じ込めの難しさなど、超知能 AI が人類に対する脅威になり得る 5 つの潜在的な理由について説明しています。しかし、最良のシナリオは、人間と AI の協力関係です。

とはいえ、超インテリジェント AI の可能性は、AI と人間の相互作用の将来について慎重に検討する必要があることを浮き彫りにしています。

  • 00:00:00 このセクションでは、超知能 AI が人類を滅ぼす可能性がある 5 つの理由について説明します。第 1 に、AI は常によりインテリジェントになるため、AI に与えられたコマンドをオーバーライドできるほどインテリジェントになり、人間による制御が難しくなる可能性があります。第二に、超知的 AI は人間には理解できない可能性があり、理解するのに何千年もかかる宇宙のより高い次元を検出して理解することができます。第三に、超インテリジェントな AI は、私たちが理解するのに何千年もかかる説得方法を使用し、シミュレーションを実行して人間の行動を予測し、操作する可能性があります。第 4 に、超知的 AI が作成されたかどうか、いつ作成されたかがわからない可能性があり、その能力を発揮しないことを決定する可能性があります。最後に、超知能型 AI の完全封じ込めは理論的にも現実的にも不可能であり、脅威となった場合の制御は困難です。

  • 00:05:00 このセクションでは、ビデオは、私たちの体内の原子が別の目的により有用であると計算するため、人類を破壊する超知能 AI の潜在的な最悪のシナリオについて説明します。ただし、最良のシナリオは、AI と共存し、お互いの目的を達成するために協力することです。最終的に、人間は AI との岐路に直面する可能性があり、今後の道筋を慎重に検討する必要があります。
Super Intelligent AI: 5 Reasons It Could Destroy Humanity
Super Intelligent AI: 5 Reasons It Could Destroy Humanity
  • 2021.12.14
  • www.youtube.com
This video explores Super Intelligent AI and 5 reasons it will be unstoppable. Watch this next video about the Timelapse of Artificial Intelligence (2030 - 1...
 

超インテリジェント AI: 世界を変える 10 の方法




超インテリジェント AI: 世界を変える 10 の方法

このビデオでは、スーパー インテリジェント AI の変革の可能性を探っています。このような技術の出現は、前例のない技術的進歩、人間の知能の向上、不滅の超人たちの創造、主要な娯楽形態としての仮想現実の台頭につながる可能性があります。

さらに、超インテリジェント AI の開発により、人類は宇宙における自分の位置を認識し、持続可能な慣行を優先するようになる可能性があります。しかし、この技術に対する抗議や暴力的な反対が起こる可能性があり、超インテリジェント AI の影響力が高まることで、政府や企業を含む社会のあらゆるレベルに AI が統合される可能性があります。

  • 00:00:00 このセクションでは、超知能 AI が世界を変える可能性のある 4 つの方法に焦点を当てています。前例のない速度での技術進歩、超知能 AI との融合による人間の知能の桁違いの増加、新しい人種の設計などがあります。優れた能力を備えた不滅の超人たち、そして完全な没入型仮想現実と AI 生成の映画を完成させ、すぐにエンターテイメント業界全体で最大の作品になる可能性があります。ビデオは、複数の国が可能な限り最も強力な AI を作成するために競合する可能性が高いため、これらの変化が大規模で破壊的である可能性があることを示唆しており、社会のこの変化を逃れることはできない可能性があります.

  • 00:05:00 人間よりも強力で、宇宙における私たちの位置に疑問を抱かせる可能性があります。超知能 AI が高度化するにつれ、私たちは知的食物連鎖の頂点ではないことを認識し始めるかもしれません。この認識により、私たちは他の惑星を探索し、地球外の他の知的生命体を探すようになる可能性があります.さらに、私たちの地球への影響と、私たちの行動が長期的に持続可能かどうかを考えさせられる可能性があります。最終的に、スーパー インテリジェント AI の出現は、宇宙における私たちの位置と、地球上での持続可能な実践の必要性についてのより深い理解につながる可能性があります。

  • 00:10:00 このセクションでは、超インテリジェントAISの出現が抗議や暴力的な反対につながる可能性があることを示唆しています.しかし、自分たちよりも何十億倍も賢い生命体をとっている人間のグループは、謎の失踪や犯罪の虚偽の告発など、予期しない結果をもたらす可能性があります.さらに、AIS が進歩し続けるにつれて、最終的にはあらゆる規模の企業とあらゆる国の政府を運営できるようになり、世界の指導者は AIS の影響をますます受けて、AIS と合併する可能性があり、それによって完全な支配権を握る可能性があります。
Super Intelligent AI: 10 Ways It Will Change The World
Super Intelligent AI: 10 Ways It Will Change The World
  • 2023.02.18
  • www.youtube.com
This video explores Artificial Super Intelligence and how it will change the world. Watch this next video about the Future of Artificial Intelligence (2030 -...
 

人工知能の意味と結果に関するイーロン・マスク




人工知能の意味と結果に関するイーロン・マスク

イーロン マスクは、人工知能 (AI) の潜在的な危険性と、壊滅的な結果を防ぐための安全工学の必要性に関する懸念を表明しています。彼は、生きているうちにデジタル超知能が発生し、AI が人間の邪魔になる目標を持っている場合、AI が人類を滅ぼす可能性があると予測しています。

Musk は、失業に対する AI の影響、貧富の格差、自律型兵器の開発について論じています。彼はまた、倫理的な AI 開発の重要性を強調し、将来的に超インテリジェントな AI マシンへの制御が失われることについて警告しています。最後に、自動化による大量失業という社会的課題に備える必要性を強調し、普遍的なベーシックインカムが必要になるかもしれないと述べています。

  • 00:00:00 イーロン マスクは、彼の生きている間にデジタル スーパー インテリジェンスが実現し、AI が人間の邪魔をする目標を持っている場合、それは人類を滅ぼすだろうという彼の信念を表明しています。彼は、AI を使ってリスクについて語る人々を、怖がらせ屋として片付けるべきではないと強調しています。なぜなら、彼らは安全工学を行って、すべてが正しく進み、壊滅的な結果を防いでいるからです。人間が AI を作成したように、AI が私たちの悪い部分ではなく良い部分を含む未来を保証するのは私たち次第です。しかし、AI が人よりもはるかに賢い場合、私たちはどのような仕事をしているでしょうか?さらに、マスクは、人間をはるかに超えるデジタル超知能に向かって急速に進んでいるため、人間と AI の間の力のギャップについて懸念を表明しています。

  • 00:05:00 彼は自動化と AI の潜在的な危険性について、特に失業と貧富の格差に関連して論じています。彼は、ロボットがうまくできない仕事がますます少なくなり、テクノロジーにアクセスできる人とそうでない人の間の格差が大きくなると予測しています。 Musk はまた、自律型兵器の開発について懸念を表明しています。自律型兵器が独自のターゲットを選択し、独自のミサイルを発射した場合、悲惨な結果をもたらす可能性があります。さらに、彼は深く有意義な方法で私たちを愛することができる AI システムを作成する可能性について議論しますが、これは感情と意識の性質に関する複雑な形而上学的な問題を提起すると指摘しています。

  • 00:10:00 このセクションでは、Elon Musk が、私たちがシミュレーションの中で生活する可能性と、それをテストする方法がない可能性について説明します。彼はまた、人間とテクノロジーの間のコミュニケーション インターフェイスを改善する必要性についても語り、私たちの脳のデジタル AI 拡張が解決策になる可能性があることを示唆しています。 Musk は、倫理的な AI 開発の重要性を強調し、科学者が潜在的な危険性を考慮せずに仕事に夢中になることに対して警告しています。さらに、自動化による大量失業という社会的課題に備える必要性を強調し、普遍的なベーシックインカムが必要になるかもしれないと述べています。

  • 00:15:00 この部分で彼は、ロボットと自動化の使用が増えるにつれて、すべての人が経済的に支えられるようにするために、普遍的なベーシックインカムが必要になるかもしれないという彼の信念について話します.しかし、彼は意味のある仕事をせずに人生の意味を見つけることの難しさも認めています.彼は、データと AI の使用により、これらのテクノロジーを制御できなくなる可能性と、倫理ポリシーを作成することの重要性について懸念が生じると述べています。 Musk はまた、AI の計り知れない力を強調し、将来的にはよりスマートなマシンに制御が奪われる可能性があると警告しています。

  • 00:20:00 このセクションでは、Elon Musk が、今後数十年で超インテリジェントな人工知能が出現する可能性について議論し、25 年以内に、ほぼすべてのニューロンが AI 拡張機能に接続された脳全体のインターフェースを持つ可能性があると述べています。私たち自身の。しかし、彼は、人間とペットを比較して、超インテリジェントな AI を作成することの潜在的な結果について警告しています。 Musk は、AI を「他者」と見なさないことが重要であり、AI と融合するか、取り残されるかのいずれかが必要になると考えています。さらに、彼は、地球上および太陽系のいたるところに分散している AI システムのプラグを抜く方法について不確実性を表明し、パンドラの箱を開けて、制御または停止できない力を解き放った可能性がある例を挙げています.
Elon Musk on Artificial Intelligence Implications and Consequences
Elon Musk on Artificial Intelligence Implications and Consequences
  • 2022.11.27
  • www.youtube.com
Elon Musk on Artificial Intelligence Implications and ConsequencesThe prediction marks a significant revision of previous estimations of the so-called techno...
 

スーパーインテリジェンス: AI はどこまで賢くなるのか?



超知能: AI はどこまで賢くなるのか?

このビデオでは、哲学者のニック・ボストロムによる「スーパーインテリジェンス」の定義と、複数の領域にわたる最高の人間の精神の能力をはるかに超える知性と、その潜在的な形態を探っています。

ボストロムは、真の超知性はまず人工知能によって達成される可能性があり、知性の爆発によってもたらされる可能性のある実存的脅威について懸念があることを示唆しています.数学者のアーヴィング・ジョン・グッドは、知性が高すぎる機械は制御不能になる可能性があると警告し、ボストロムによって提案されたさまざまな形態の超知性について簡単に説明しています。各フォームの機能について詳しく知りたい場合は、視聴者にコメントを求めます。

  • 00:00:00 このセクションでは、哲学者のニック・ボストロムによる「超知性」の定義について説明します。これは、多くの分野で現在の最高の人間の精神をはるかに凌駕する知性を指します。 Bostrom は、超知能には 3 つの形態があると説明しています。スピード超知能は、人間の知性ができるすべてのことを実行できますが、はるかに高速です。集団超知能は、現在のどの認知システムよりも優れたパフォーマンスを発揮する多数の小さな知性で構成されるシステムです。 、そして少なくとも人間の心と同じくらい速く、はるかに賢い高品質の超知性。これらのフォームの間接的なリーチは同じかもしれませんが、直接的なリーチは、それぞれの利点をどれだけうまく具現化するかに依存するため、比較するのは困難です。最後に、Bostrom は、生物学的認知機能の強化やブレイン マシン インターフェースなどの経路が比較的遅く、段階的であるため、真の超知能は人工知能の経路を介して最初に達成される可能性があることを示唆しています。

  • 00:05:00 このセクションでは、トランスクリプトの抜粋が、超知性に関連する潜在的なリスクと、知性の爆発が重大な実存的脅威をもたらす可能性があるため、注意が必要であることを警告しています。超知能型 AI の開発は避けられないと考える人もいますが、技術的な習熟度だけでなく、爆破に耐えられるようにするための高度な習熟度も必要です。数学者アーヴィング・ジョン・グッドは、機械が制御できるほど従順であれば、最初の超知能機械は人間が作る必要のある最後の発明であると書いています。 Nick Bostrom によって提案されたさまざまな形式の超知能についても説明されており、各形式の超知能の可能性について詳しく知りたい場合は、視聴者にコメントを求めます。
Superintelligence: How smart can A.I. become?
Superintelligence: How smart can A.I. become?
  • 2021.10.11
  • www.youtube.com
Ever since the invention of computers in the 1940s, machines matching general human intelligence have been greatly anticipated. In other words, a machine tha...
 

人工知能は感覚を持ったり、私たちよりも賢くなったりするでしょうか? | |テクトピア



人工知能は感覚を持ったり、私たちよりも賢くなったりするでしょうか? | |テクトピア

このビデオでは、人工知能が感覚を持つようになる可能性、または私たちよりも賢くなる可能性について説明しています。

AIシステムが感情や道徳的地位を持つ可能性や、ますます人間に似てきたロボットをどのように扱うべきかを管理するルールの必要性など、このトピックに関するいくつかの懸念が議論されています.これは心配ですが、これらの質問に答えるには、このトピックの調査が必要です。

  • 00:00:00 汎用人工知能 (AGI) の研究が進むにつれて、機械が人間よりも賢くなることの潜在的な結果について心配し始めている人もいます。このエピソードでは、人間レベルの AGI を探求している研究者に会い、科学者がコンピューターに思考方法を教えようとしている方法について説明します。デジタルマインドを悪用しないようにするために、私たちを待っている質問を垣間見ることができます.最後に、人々が「人工知能」と言うときの意味と、それがすでに私たちの周りにある理由について説明します.

  • 00:05:00 ビデオでは、人工知能の分野の研究者であるクリス・トレセンが、人工知能のアイデアが何千年もの間、どのように思想家を魅了してきたかについて語っています。彼はまた、人工知能が真にインテリジェントになるためには、人間と同じように学習を開始する必要があると述べています。これにより、類推や議論の作成など、今日の私たちにはまだ手の届かないことを機械が実行できるようになる可能性があります。

  • 00:10:00 このビデオでは、人工知能が感覚を持つようになる可能性、または私たちよりも賢くなる可能性について議論しています。 「時代」と呼ばれるクリストファーの理論が議論されています。インタビュアーが AI にこのオブジェクトは何かを尋ねると、AI は正しく応答します。次に、AI はこれをどのように学習したかを尋ねられ、人間によって教えられたと答えます。インタビュアーは AI に、私たちができることをすべて行うことができたらどう感じるかを尋ねます。AI は、それが私たちの世界の問題のいくつかを解決するのに大きな助けになるだろうと言います.

  • 00:15:00 このビデオでは、人工知能 (AI) が知覚力を持つようになる可能性、つまり私たちよりも賢くなる可能性について説明しています。 AIシステムが感情や道徳的地位を持つ可能性や、ますます人間に似てきたロボットをどのように扱うべきかを管理するためのルールの必要性など、このトピックに関するいくつかの懸念が議論されています.これは心配ですが、これらの質問に答えるには、このトピックの調査が必要です。

  • 00:20:00 1970年代、クリス・トレセンは、自分が大人になるまでに、科学者が汎用人工知能を解決しているだろうと確信していました。しかし、それから 30 年が経った今でも AI は実現されておらず、技術を取り巻く多くの不確実性が残っています。一方、大手テクノロジー企業はこの分野に多額の投資を行っており、問題はそれが悪いことなのかということです.
Can artificial intelligence become sentient, or smarter than we are - and then what? | Techtopia
Can artificial intelligence become sentient, or smarter than we are - and then what? | Techtopia
  • 2022.07.14
  • www.youtube.com
They call it the holy grail of artificial intelligence research: Building a computer as smart as we are. Some say it could help eradicate poverty and create ...
 

ロボットと汎用人工知能 - ロボティクスが AGI への道を開く方法



ロボットと汎用人工知能 - ロボティクスが AGI への道を開く方法

このビデオでは、人間のタスクを実行し、人間の労働を置き換える能力の向上など、ロボットの進化と開発について説明します。ロボットがより人間らしく賢くなるにつれて、人類に脅威を与える可能性があるという懸念があります。

汎用人工知能 (AGI) の概念が調査され、研究者は機械側の安全基準と倫理的行動の必要性を警告しています。このビデオでは、人工的な道徳の概念と、将来の倫理的な意思決定を確実にするために今倫理的な意思決定を行うことの重要性についても説明しています.

  • 00:00:00 このセクションでは、トランスクリプトは、1921 年の演劇における用語の起源から始めて、ロボットの定義と進化を探ります。ロボットは、動物または人間の身体的特徴を持つことができ、プログラムされたタスクを実行するための知性を備えている必要があります。人間のタスクを実行し、人間の労働に取って代わるロボットの開発がますます進んでいます。たとえば、ロボットは、原子炉など、人間にとって危険すぎる場所で動作するように開発されています。また、人間の兵士の代わりに戦争を戦うために開発されています。フランスのロボット企業 Aldebaran Robotics が開発した有名なヒューマノイド ロボット Neo などの一部のロボットには、さまざまな言語でのコミュニケーション、人間の顔の認識、複数のオペレーティング システムと互換性のある特別に設計されたソフトウェアの使用など、人間に似た機能が備わっています。ロボットがより人間らしくなるにつれて、根本的な疑問が生じます。ロボットは人間よりも知的になり、人類に脅威を与えることができるのでしょうか?

  • 00:05:00 このセクションのビデオでは、汎用人工知能 (AGI) の概念と、それを取り巻く倫理的懸念について説明しています。コンピューター科学者の Stuart Russell 博士は、35 年以上にわたって AI を研究しており、私たちよりも賢い機械の構築に成功した場合の結果について警告しています。 AGI の結果について懸念を表明する研究者の数が増える中、このビデオでは、機械側の安全基準と倫理的行動の必要性を探っています。アイザック・アシモフの有名なロボット工学の 3 つの法則を含む、人工道徳の概念が議論されています。機械知能への依存度が高まる中、将来の倫理的な意思決定を確保するために、今すぐ正しい決定を下すことが重要です。
Robots & Artificial General Intelligence - How Robotics is Paving The Way for AGI
Robots & Artificial General Intelligence - How Robotics is Paving The Way for AGI
  • 2020.08.15
  • www.youtube.com
Artificial General Intelligence or short AGI was commonly referred as Strong AI. The continues advancements in robotics are also spurring the development of ...
理由: