機械学習とニューラルネットワーク - ページ 10

 

Demis Hassabis 博士: AI を使用して科学的発見を加速する

DeepMind の共同創設者兼 CEO は、2022 年 5 月 17 日火曜日にオックスフォードのシェルドニアン シアターで大規模な公開講演を行います。




Demis Hassabis 博士: AI を使用して科学的発見を加速する

DeepMind の CEO 兼共同創設者である Demis Hassabis 博士が、AI を使用して科学的発見を加速するようになった彼のキャリア ジャーニーについて語ります。 DeepMind は、経験から直接第一原理を学習し、深層学習または深層ニューラル ネットワークと強化学習を融合する一般的な学習システムの構築に重点を置いています。ハサビス博士は、AlphaGo と AlphaZero がどのように AI を使用して科学的発見を加速し、AlphaFold がタンパク質の 3D 構造を予測できるかについて説明します。 AlphaFold 2 システムは原子精度に達し、平均で 1 オングストローム未満の誤差のスコアを達成し、世界中の何百もの論文やアプリケーションで使用されています。

また、生物学の分野、特に創薬分野に革命を起こす AI の可能性についても説明しています。彼は、責任を持って AI を構築し、科学的手法を使用してリスクと利益を管理することの重要性を強調しています。 Hassabis 博士は、神経科学、意識、自由意志における AI の使用に関連する倫理的懸念にも対処し、哲学者、倫理学者、人文科学が関与する学際的なアプローチの必要性を強調しています。彼は、AI が仮想シミュレーションを通じて道徳と政治学の分野に貢献できると信じていますが、人間とその動機の複雑さを認めています。最後に、Hassabis 博士は、人工ニューラル ネットワークを研究する上での課題と、今後 10 年間でこれらのシステムをよりよく理解する必要性について説明します。

  • 00:00:00 このセクションでは、DeepMind の CEO 兼共同創設者である Demis Hassabis 博士が、AI を使用して科学的発見を加速するようになった彼のキャリア ジャーニーについて話します。彼は、これまでで最も有益なテクノロジの 1 つとして AI の可能性を表現していますが、重大な倫理的問題を考慮することの重要性を指摘しています。 Hassabis 博士は、50 年にわたるタンパク質構造予測のグランド チャレンジの解決に成功した AlphaFold システムなど、一般的な学習システムの構築に重点を置いている DeepMind について話します。彼は、現実世界、特に科学的発見の分野で重要な問題を解決するために AI を使用する可能性を強調しています。

  • 00:05:00 このセクションでは、Demis Hassabis 博士が、2010 年の DeepMind の設立と、科学を進歩させ人類に利益をもたらす目的で汎用人工知能 (AGI) を構築することが当初の目標であったことについて話します。彼は、AI を構築するには 2 つの広い方法があると説明しています。1 つ目は、プログラマーが予見したものに限定された従来のロジックまたはエキスパート システムです。 2 つ目は、神経科学に触発された学習システムであり、経験から直接、第一原理を通じて学習します。彼は、深層学習または深層ニューラル ネットワークと強化学習を融合する学習システムに対する DeepMind の特別な取り組みについて語っています。この組み合わせにより、環境またはデータのモデルを構築し、その環境の理解に基づいて意思決定を行うことができます。

  • 00:10:00 このセクションでは、Dr. Demis Hassabis が、深層強化学習がどのように機能し、AI システムが環境の内部モデルを使用して試行錯誤から学習できるようにすることで、科学的発見を加速するためにどのように使用できるかについて説明します。強化学習には、環境からの観察を使用して内部モデルを構築および更新し、エージェントをその目標に最も近づけるアクションを選択することが含まれます。この学習メカニズムは、人間を含む哺乳類の脳の働きに似ており、一般的な人工知能への道のりの 1 つです。ハサビス博士は、従来のロジックやエキスパート システムでは解決できなかった囲碁の世界チャンピオンに勝つために設計されたプログラム、AlphaGo の概要についても説明します。

  • 00:15:00 このセクションでは、Demis Hassabis 博士が、学習システム、特に AlphaGo シリーズのプログラムの開発において、AI を使用して直感に近づけるプロセスについて説明します。システムは、位置を評価し、最も有用な動きを選択するためにセルフプレイでトレーニングされています。初期のニューラル ネットワークには知識がなく、ランダムに動きます。ネットワークの 100,000 回の対戦から得られたデータは、別のニューラル ネットワークのトレーニングに使用されるデータセットを形成し、どちらが勝つか、どの動きが特定の位置にある可能性が最も高いかを予測します。第1ネットワークと第2ネットワークの間でミニトーナメントが行われ、第2ネットワークが勝利した場合、第1ネットワークが置き換えられます。このプロセスは継続し、勝率が 55% に達するまで徐々に優れたデータセットを生成します。その後、開発の次の段階が開始され、約 17 ~ 18 回の反復で世界チャンピオン レベルよりも優れた結果が得られます。

  • 00:20:00 このセクションでは、デミス ハサビス博士が AI、特に AlphaGo を使用して科学的発見を加速する方法について説明します。 AlphaGo は、ニューラル ネットワーク システムとモンテカルロ木探索アルゴリズムを利用して、囲碁の巨大な探索空間を制限し、囲碁をより扱いやすくしました。このシステムは非常に進歩したため、人間の囲碁の見方が変わり、科学研究の分野にも革命をもたらしました。たとえば、AlphaGo は、医薬品の開発や病気との闘いに不可欠なタンパク質のフォールディングの研究を支援してきました。

  • 00:25:00 このセクションでは、Demis Hassabis 博士が、囲碁やチェスなどのボード ゲームをプレイするように訓練された 2 つの AI システム、AlphaGo と AlphaZero の開発について説明します。 AlphaGo は 2016 年の囲碁で世界チャンピオンを打ち負かしました。これは囲碁コミュニティを驚かせました。AlphaGo が行った動きは、人間の遊びから学べるものではなかったからです。ハサビス博士は、この技術がどのようにして 2 人用ゲームをすべてプレイできるように訓練された AlphaZero に一般化されたかを説明します。 AlphaZero は、4 時間のトレーニングで最高の手作りのチェス プログラムを打ち負かすことができ、物質性よりも機動性を優先するため、より審美的に楽しい、まったく新しいチェス スタイルを思いつきました。

  • 00:30:00 このセクションでは、DeepMind の共同創設者兼 CEO である Demis Hassabis が、人工知能プログラム Alpha Zero の独自の機能と、従来のチェス エンジンとの違いについて説明します。関連する位置とパターンを評価し、学習した要因のバランスをとる Alpha Zero の能力により、何千もの手作りのルールを持つ従来のチェス エンジンよりも効率的になりました。また、ハードコーディングされたチェス エンジンが計算しなければならない組み込みのルールを克服する必要もありません。プログラムである Alpha Zero は、Atari や Starcraft 2 などのゲームで画期的なブレークスルーをもたらしましたが、Hassabis 氏は Alpha Zero が最もエキサイティングな瞬間であると考えています。

  • 00:35:00 このセクションでは、Demis Hassabis 博士が AI を使用して科学的発見を加速する方法について説明します。彼は、次の 3 つの重要な機能を備えた科学的問題を探していると説明しています。大規模な検索スペース、最適化できる明確な目的関数、学習に使用できる大量のデータ、またはデータを生成できる正確なシミュレーターです。彼のチームは、このフレームワークを使用して、これらの基準に完全に適合する問題としてタンパク質の折り畳みを特定しました。タンパク質の折り畳みは、アミノ酸配列だけからタンパク質の 3D 構造を予測する古典的な問題であり、最近まで骨の折れる実験を使用してのみ行われていました。問題は非常に複雑で、検索空間には平均サイズのタンパク質の推定 10 の 300 乗のコンフォメーションが含まれます。 AI を使用することで、この問題をコンピューターで解決し、科学的発見のまったく新しい分野を切り開くことが期待されています。

  • 00:40:00 このセクションでは、Demis Hassabis 博士が 90 年代にケンブリッジ大学の学部生としてどのようにしてタンパク質の折り畳み問題に興味を持つようになったのかについて説明していますが、彼が開発した市民科学ゲーム Foldit を見るまでは興味がありませんでした。 2000年代にデビッド・ベイカーの研究室で、AIで問題を解決する可能性を認識した. Hassabis 博士は、タンパク質フォールディング分野が 10 年以上停滞していたため、AlphaFold プロジェクトに取り組み始めたときに、タンパク質フォールディングの分野に入ることができたと説明しています。彼らは、CASP と呼ばれるブラインド予測コンペティションが特に有用であることを発見しました。これにより、実験のグラウンド トゥルースに対して予測を評価し、この分野で大きな進歩をもたらすことができるからです。

  • 00:45:00 このセクションでは、Dr. Demis Hassabis が、彼のチームが AlphaFold 1 および 2 の開発によってタンパク質フォールディングの分野で達成したブレークスルーについて説明します。AlphaFold 1 は、タンパク質フォールディング予測の平均精度を 50% 向上させました。スコアは 60 GDT に近く、AlphaFold 2 は原子精度に達し、スコアは平均で 1 オングストローム未満の誤差でした。 Casp の主催者と John Mull は、AlphaFold 2 の開発後、構造予測の問題は本質的に解決されたと宣言しました。システムには 32 のコンポーネント アルゴリズムが必要であり、その成功にはすべての部分が必要でした。重要な技術的進歩は、システムを完全にエンド ツー エンドにすること、アテンション ベースのニューラル ネットワークを使用して暗黙のグラフ構造を推測すること、リサイクル反復ステージ アプローチを採用することでした。

  • 00:50:00 このセクションでは、Demis Hassabis 博士が、タンパク質の構造を予測する複雑な AI システムである AlphaFold の開発について説明します。このシステムでは、畳み込みバイアスを除去し、学習に影響を与えずに進化的および物理的制約を含める必要がありました。 AlphaFold の開発プロセスでは、生物学者、物理学者、化学者、機械学習者からなる学際的なチームがそれを構築する必要がありました。ほとんどのシステムでは一般性が求められていますが、AlphaFold はタンパク質の構造を見つけるために開発されたものであり、キッチン シンクのアプローチが必要でした。トレーニングにわずか 2 週間しかかからず、単一の GPU で予測を行うことができる AlphaFold 2 を使用して、約 20,000 のタンパク質からなる人体のプロテオームのすべてのタンパク質の構造を予測しました。このシステムは、プロテオーム内のタンパク質の 36% と 58% をそれぞれ高精度で予測しました。これは、実験カバレッジの 17% の以前のカバレッジの 2 倍以上です。

  • 00:55:00 このセクションでは、デミス ハサビス博士が、アルツハイマー病などの疾患で重要な障害タンパク質予測因子としてアルファ フォールドがどのように使用されているかについて説明します。彼らはまた、生物学者が予測の質を評価しやすくするために、システムがその予測に対する独自の信頼性を予測する方法を開発しました。チームは顧みられない熱帯病に優先順位を付け、データを無料で無制限にアクセスできるように公開しました。わずか 9 か月で、Alpha Fold は数百の論文やアプリケーションで使用され、190 か国で 50 万人の研究者がデータベースを使用し、150 万の構造が表示されました。

  • 01:00:00 このセクションでは、Demis Hassabis 博士が、AI が生物学の分野に革命を起こす可能性を共有し、情報処理システムとしての基本的な役割により、AI が役立つ可能性のある完全な体制であると説明しています。彼はまた、AlphaFold の成功は、従来の数学的方法と比較して、機械学習が生物学の複雑な現象にアプローチするためのより良い方法である可能性があるという概念の証明であると考えています. Hassabis 博士は、DeepMind のチームは、DeepMind とその新しいスピンアウト会社である Isomorphic Labs の両方で、特に創薬に焦点を当てた生物学への取り組みを強化していると説明しています。最後に、彼は責任を持って AI を構築し、それがすべての人に利益をもたらすようにすることの重要性を強調しています。

  • 01:05:00 このセクションでは、Demis Hassabis 博士が、AI における倫理と安全性の重要性と、それが AI の展開と使用方法にどのように依存するかを強調しています。このため、新しく設立された倫理研究所のような場所で幅広い議論を行い、これらのシステムの設計と展開の決定に可能な限り幅広い意見を得ることが不可欠です. Deepmind は、Google の AI 原則の起草において重要な役割を果たし、潜在的なリスクと害を事前に特定して軽減するのに役立ちました。 Hassabis 博士は、AI のリスクと利点を管理するために、迅速に行動して物事を壊すのではなく、思慮深い審議、事前の予測、仮説の生成、厳密で慎重なテスト、および制御されたテストを含む科学的方法を使用することを提案しています。

  • 01:10:00 このセクションでは、Demis Hassabis が科学的手法におけるコントロール テストとピア レビューの重要性を強調していますが、工学分野には欠けていると彼は考えています。彼はまた、敬意、用心、謙虚さを持って汎用人工知能に取り組む必要性を強調しています。 Hassabis 氏は、AI が正しく行われれば、これまでに発明された中で最大かつ最も有益な技術になる可能性があると考えており、AI は科学者が宇宙をよりよく理解するのに役立つ究極の汎用ツールであると考えています。彼は、AI アプリケーションに関しては倫理的な懸念があることを認めており、これらの問題に関する意思決定は開発者や企業だけに委ねられるべきではなく、政府も果たすべき役割を果たすべきだと考えています。

  • 01:15:00 このセクションでは、Demis Hassabis 博士が、神経科学における AI の可能性と、AI が人間の心の謎の解明にどのように役立つかについて説明します。彼は、哲学者、倫理学者、神学者、人文科学者が関与する学際的なアプローチの必要性を強調して、意識や自由意志のために AI を利用することに関する倫理的懸念に対処する必要があると強調しています。 Hassabis 博士はまた、DeepMind には研究プロジェクトをあらゆる側面から評価し、生物学者や生命倫理学者を含む外部の専門家を利用する機関審査委員会があると主張しています。ハサビス博士は、AI システムがより強力になり、より多くの世界に影響を与えるようになるにつれて、倫理的な課題に積極的に対処するために、より多くの作業が必要になることを認めています。

  • 01:20:00 このセクションでは、Hassabis が DeepMind の組織的および文化的な感覚と、スケールを取り入れながら、スタートアップ (エネルギー、創造性、ペース) と学術研究 (ブルースカイ シンキング) の最良の側面をうまく組み合わせた方法について説明します。そしてGoogleのような大企業のリソース。彼は、成長して官僚主義を避けながら、スタートアップの機敏さとスピードを維持することが課題であると述べています。彼はまた、DeepMind のアプローチが他の壮大なプロジェクトの青写真として役立つ可能性があることを示唆しています。 AI を使用してソーシャル ネットワークを構築することについて質問されたハサビス氏は、表面的なつながりの価値に疑問を投げかけ、そのようなプロジェクトの結果と測定基準を検討するために科学的手法を使用することを提案しています。彼は、適切な質問を見つけることの重要性を強調していますが、それ自体が課題になる可能性があります。

  • 01:25:00 このセクションでは、Demis Hassabis 博士が、人間とその動機の複雑さを引き合いに出し、道徳と政治学の領域に AI が関与することの難しさを認めています。しかし、彼は AI が何百万ものエージェントによる仮想シミュレーションの作成を通じてこれらの分野に貢献できると信じており、ライブ実装の結果なしにさまざまな政治システムと経済モデルの実験とテストを可能にします。彼は、脳の理解において神経科学がどのように進歩したかに匹敵するように、AI の不透明性を減らし、透明性を高めることの重要性を強調しています。

  • 01:30:00 このセクションでは、Demis Hassabis 博士が人工ニューラル ネットワークの研究の課題について説明し、すべてのニューロン、またはネットワーク内の人工ニューロンへのアクセスは、科学者が実験条件を完全に制御できることを意味すると述べています。しかし、AlphaGo のような急速に進化する人工システムの性質は、研究者が結論を出すまでに時代遅れになってしまうため、課題が生じます。それにもかかわらず、Hassabis 博士は、今後 10 年間でこれらのシステムの理解が深まるだろうと考えています。これには、大きなモデルや、研究に時間を費やすのに十分なほど興味深い AlphaFold タイプのものが含まれます。
Dr Demis Hassabis: Using AI to Accelerate Scientific Discovery
Dr Demis Hassabis: Using AI to Accelerate Scientific Discovery
  • 2022.08.03
  • www.youtube.com
Demis Hassabis, Co-founder and CEO of DeepMind, delivers a major public lecture at the Sheldonian Theatre in Oxford on Tuesday 17 May 2022.The past decade ha...
 

Geoffrey Hinton と Yann LeCun、2018 ACM AM Turing Award レクチャー「The Deep Learning Revolution」


Geoffrey Hinton と Yann LeCun、2018 ACM AM Turing Award レクチャー「The Deep Learning Revolution」

Geoffrey Hinton と Yann LeCun は、2018 ACM AM Turing Award を受賞し、深層学習革命に関する講演を行いました。
講義では、深層学習がコンピューター サイエンスにどのように革命をもたらしたか、そして深層学習を生活のさまざまな側面に役立てる方法について説明しました。彼らはまた、深層学習の課題とこの分野の将来についても話しました。
彼らは、深層学習の理論的理解が重要である一方で、複雑な状況で決定を下すのは人間次第であると指摘しました.また、自動運転における進化的計算やその他の形態の人工知能の可能性についても議論しました。

  • 00:00:00  Geoffrey Hinton と Yann LeCun が 2018 ACM AM Turing Award Lecture を行い、深層学習の革命について語ります。彼らは、ディープ ラーニングがコンピューター サイエンスにどのように革命をもたらしたか、および関連する会議に参加することで参加者がどのように利益を得ることができるかについて議論します。

  • 00:05:00  2018 ACM AM Turing Award の 3 人の受賞者は、Geoffrey Hinton、Yoshua Bengio、Yann LeCun です。ヒントンは深層学習の発展について歴史の講義を行い、クーンは深層学習の継続的な進歩について議論します。

  • 00:10:00  2018 ACM AM Turing Award Lecture で、Geoffrey Hinton は、生物学に着想を得た人工知能へのアプローチに基づくディープラーニング革命について説明しています。ディープ ラーニングのアプローチは、従来のシンボリック パラダイムよりも効率的かつ効果的ですが、学習がより困難でもあります。

  • 00:15:00  2018 ACM AM Turing Award Lecture で、Geoffrey Hinton はニューラル ネットワークがどのように機能するかを説明し、それらは脳内の実際のニューロンの単純化されたバージョンであると説明しました。また、バックプロパゲーションが強化学習アルゴリズムの効率的なバージョンであり、ニューラル ネットワークのトレーニング プロセスを 10 倍以上高速化する方法についても説明しました。

  • 00:20:00  Geoffrey Hinton と Yann LeCun は、ACM Turing Award 授賞式でディープラーニング革命に関する講演を行いました。 2 人は、逆伝播、確率的勾配降下、および大規模な学習で成功しなかった方法について説明します。

  • 00:25:00 この講義では、Geoffrey Hinton と Yann LeCun が、より効率的なニューラル ネットワークの開発を含むディープ ラーニング革命について説明します。近年のコンピューティング能力の向上に伴い、ニューラル ネットワークはますます強力になり、現在ではコンピューター ビジョンのさまざまな分野で広く使用されています。

  • 00:30:00 Geoffrey Hinton と Yann LeCun は、深層学習の歴史とその現状について講演し、この分野の成功と課題を強調しました。また、コンピューター ビジョンの未来についても話し、より良い結果を達成するためのディープ ラーニングの重要性を強調しました。

  • 00:35:00  2018 ACM AM Turing Award Lecture で、Geoffrey Hinton はディープラーニング革命と人工知能にとってのその重要性について議論しています。彼は、ディープ ラーニングは特定のタスクを達成するのに非常に効果的ですが、ビジョンを実行するための最良の方法ではないと述べています。ヒントンは、脳内で複製された深層学習革命の 1 つの側面は、複製された装置の使用であると示唆しています。彼は、参加者に回転させた立方体の角を指さすことでこれを実演し、左上隅が正面右下隅よりも垂直に上になるようにします。ヒントンは、深層学習は特定の重みのセットを使用して目的の出力を近似するのに効果的ですが、オブジェクトの対称性を維持するのには効果的ではないと説明しています。彼は、将来、ニューラル ネットワークが異なる時間スケールを使用してオブジェクトを認識することを学習できるようになると予測しています。これは、脳内のシナプスがどのように変化するかに似ています。

  • 00:40:00 2018 ACM AM Turing Award Lecture で、Geoffrey Hinton はディープラーニング革命について議論しています。これは、新しいタイムスケールが学習プロセスに徐々に導入されたことによるものだと彼は考えています。彼は、過去の学習の記憶がニューラル ネットワークの重みにどのように格納されているか、また高速な重みを使用してこの記憶にアクセスする方法について説明しています。ヒントンはまた、ディープ ラーニングに対するビッグ データの影響と、コンピューター ハードウェアとソフトウェアの最近の進歩により、ディープ ラーニングが研究者にとってより利用しやすくなったことについても語っています。

  • 00:45:00 Geoffrey Hinton と Yann LeCun の講演では、ディープ ラーニングの革命、階層表現がどのように役立つか、Pennebaker の子育てネットワークがどのように機能するかについて説明しました。

  • 00:50:00 Geoffrey Hinton と Yann LeCun は、2018 ACM AM Turing Award のレクチャーで、深層学習と、その深層学習が生活のさまざまな側面に革命を起こす可能性について議論しました。画像セグメンテーションと自動運転車に関する彼らの研究は、最も注目すべきものでした。

  • 00:55:00 Geoffrey Hinton と Yann LeCun がディープラーニング革命について講演し、人間と動物がいかに効率的に短時間で学習できるかについて議論しました。また、人間や動物が世界を観察し予測することで概念を学習する方法についても議論しました。
Geoffrey Hinton and Yann LeCun, 2018 ACM A.M. Turing Award Lecture "The Deep Learning Revolution"
Geoffrey Hinton and Yann LeCun, 2018 ACM A.M. Turing Award Lecture "The Deep Learning Revolution"
  • 2019.06.23
  • www.youtube.com
We are pleased to announce that Geoffrey Hinton and Yann LeCun will deliver the Turing Lecture at FCRC. Hinton's talk, entitled, "The Deep Learning Revoluti...
 

このカナダの天才は現代の AI を作成しました



このカナダの天才は現代の AI を作成しました

AI のパイオニアである Geoff Hinton は、コンピューターが人間のように学習できるようにすることに 40 年近く取り組んできており、人工知能の分野に革命をもたらしました。ヒントンは、1950 年代に開発された脳を模倣するニューラル ネットワークであるフランク ローゼンブラットのパーセプトロンに触発されました。ヒントンの決意は、AI の分野にブレークスルーをもたらしました。 80 年代半ばに、ヒントンと彼の共同研究者は多層ニューラル ネットワーク、つまりディープ ニューラル ネットワークを作成し、さまざまな方法で機能し始めました。しかし、超高速チップとインターネット上で生成された大量のデータがヒントンのアルゴリズムに魔法のような後押しを与えた 2006 年頃まで、必要なデータと計算能力が不足していました。コンピューターは画像に含まれるものを識別し、音声を認識し、言語を翻訳することができました。 2012 年までに、カナダは AI 超大国となり、ニュー ヨーク タイムズの一面でニューラル ネットワークと機械学習が取り上げられました。

  • 00:00:00 このセクションでは、人間と同じようにコンピューターを学習させることに 40 年近く取り組んできた Geoff Hinton について学びます。他の誰もが絶望的だと考えていたこの追求は、人工知能の分野に革命をもたらし、Google、Amazon、Apple などの企業は、それが自社の未来であると信じています。ヒントンのインスピレーションは、1950 年代に脳を模倣するニューラル ネットワークであるパーセプトロンを開発したフランク ローゼンブラットから得たものです。ローゼンブラットのニューラル ネットワークは限られており、うまく機能しませんでしたが、脳は単なる大きなニューラル ネットワークであるため、ヒントンはニューラル ネットワークが機能すると信じていました。アイデアを追求するというヒントンの決意は、人工知能の分野にブレークスルーをもたらし、企業はそれが自社の将来であると信じています。

  • 00:05:00 このセクションでは、80 年代半ばにヒントンと彼の共同研究者が、単純なネットワークでは解決できない問題を解決できる、より複雑なニューラル ネットワークの作成にどのように取り組んだかについて説明しています。彼らは多層ニューラル ネットワーク、つまりディープ ニューラル ネットワークを作成し、さまざまな方法で機能し始めました。しかし、必要なデータと計算能力が不足していたため、限界に達しました。 90 年代から 2000 年代にかけて、ヒントンはまだこの技術を追い求めている数少ない人物の 1 人であり、のけ者のように扱われていました。 2006年頃まで、超高速チップの登場とインターネット上で生成された大量のデータにより、ヒントンのアルゴリズムは魔法のように後押しされました。コンピューターは、画像に含まれるものを識別し、音声を認識し、言語を翻訳することができました。 2012 年までに、ニュー ヨーク タイムズの一面にニューラル ネットワークと機械学習が登場し、カナダは AI 超大国になりました。
This Canadian Genius Created Modern AI
This Canadian Genius Created Modern AI
  • 2018.06.25
  • www.youtube.com
For nearly 40 years, Geoff Hinton has been trying to get computers to learn like people do, a quest almost everyone thought was crazy or at least hopeless - ...
 

Geoffrey Hinton: ディープラーニングの基礎




Geoffrey Hinton: ディープラーニングの基礎

人工知能のゴッドファーザーである Geoffrey Hinton が、ディープ ラーニングの基礎について概説します。このトークでは、Hinton がニューラル ネットワークの進歩を分析し、音声とオブジェクトの認識、画像のセグメンテーション、自然な書き言葉の読み取りまたは生成に適用されます。

Geoffrey Hinton が、深層学習の基礎、特に逆伝播アルゴリズムとその進化について説明します。 Hinton は、深層学習が初期の手書き認識にどのように影響し、最終的に 2012 年の ImageNet コンテストで優勝したかを説明しています。彼はまた、入力、出力、および中間で同じシンボルを使用する従来のシンボリック AI よりも、神経活動のベクトルを使用するディープ ラーニングの優位性を強調しています。機械翻訳システム、画像認識、および自然な推論のためのそれらの組み合わせの改善について、医療画像の解釈におけるディープ ラーニングの可能性とともに説明します。ヒントンは、真の自然言語処理を実現するために、人間の脳に匹敵するパラメータを持つニューラル ネットワークの必要性を強調して締めくくりました。

  • 00:00:00 このセクションでは、深層学習で使用される基本的なアルゴリズムであるバックプロパゲーションの概念についてヒントンが説明します。彼は、従うべきプログラムを段階的に書くことによってコンピューターをプログラミングする従来の方法と、学習アルゴリズムを備えたニューラルネットワークを介して学習する方法をコンピューターに伝える好ましい方法について説明しています。この方法では、重みの強さを変更することで適応する入力ラインと重みを持つ人工ニューロンを使用します。ヒントンはまた、進化の考え方に似た方法で機能する単純なアルゴリズムを使用して、これらの接続を適応させるプロセスについても説明しています。ネットワークは、良いことをするまでいじくり回すことができます。彼は、微積分を使用して同じプロセスをより効率的に行う方法を概説して、このセクションを締めくくります。

  • 00:05:00 このセクションでは、Geoffrey Hinton が、特にバックプロパゲーション アルゴリズムに関して、ディープ ラーニングが初期の段階で苦労したことについて説明します。最初は、バックプロパゲーションがうまく機能しないため、人々はバックプロパゲーションをあきらめていましたが、トロント、モントリオール、ニューヨークでは技術的な進歩がほとんどなく、多くのラベル データと多くの計算能力によって指数関数的に改善されました。スケーラブルにもしました。ディープ ラーニングが最初に影響を与えた実際の問題の 1 つは、手書き認識でした。学生のグループがヒントンのアルゴリズムを音声認識に適用しようとしましたが、当時は数百万のトレーニング例しかなく、統計的に実用的とは見なされませんでした.しかし、彼らはどの音素が話されているかを予測し、もっともらしい発話をつなぎ合わせることができたので、そのような音声認識システムは現在、さまざまなエンド ツー エンド システムで広く使用されています。

  • 00:10:00 このセクションでは、Geoffrey Hinton がディープラーニング ニューラル ネットを使用して 2012 年の ImageNet コンテストで優勝した方法について説明します。このシステムは、従来のコンピューター ビジョン システムのほぼ半分のエラー率で画像内の被写体を認識することができました。約 25% のエラー率で横ばいになりました。この成功は、人々が画像認識におけるディープ ラーニング ニューラル ネットワークの可能性を認識したため、大きな影響を与えました。 Hinton は、音声などのシーケンスを処理するために再帰型ネットがどのように使用されるかについても説明しています。隠れたニューロンは自分自身に接続し、システムが情報を蓄積し、バックプロパゲーションを通じて学習できるようにします。これらのアルゴリズムは、ある言語の文を思考にエンコードし、それを別の言語の文に翻訳することによって、機械翻訳に使用されました。

  • 00:15:00 このセクションでは、ジェフリー ヒントンがシンボリック AI の問題と、現在の形式のディープ ラーニングがその問題をどのように解決するかについて説明します。従来のシンボリック AI の見方では、入力と出力で使用されるのと同じ種類のシンボルが中間でも使用されると想定されていましたが、ディープ ラーニングの専門家はニューラル アクティビティのベクトルを使用してデータを処理していました。入力テキストは、ネットワークによって学習された特徴を組み込んだベクトルにエンコードされます。次に、デコーダーネットワークがこのベクトルを取得して思考を生成し、それが新しい言語に変換されます。興味深いことに、このようなシステムは、言語の知識をあまり取り入れなくてもうまく機能します。代わりに、Google 翻訳は言語の 32,000 フラグメントの固定アルファベットを使用し、バックプロパゲーションでネットワークをトレーニングします。このネットワークでは、ランダムな重みとデータ量から開始して重みを一貫して改善します。

  • 00:20:00 このセクションでは、Geoffrey Hinton が機械翻訳システムに加えられた改善点のいくつかについて説明します。たとえば、注意の追加や、単語全体ではなく単語の断片の使用などです。彼はまた、画像認識と言語生成の組み合わせと、これが機械の自然な推論にどのようにつながるかについても説明しています。これらのシステムの成功にもかかわらず、ヒントンは、真の自然言語処理を実現するには、人間の脳に匹敵する多くのパラメーターを持つニューラル ネットワークが必要になると示唆しています。

  • 00:25:00 このセクションでは、ジェフリー ヒントンが、ディープ ラーニング アルゴリズムが医療画像の解釈において人間のパフォーマンスを超える可能性について説明します。彼は、皮膚科医と同じくらい優れた皮膚がんを検出するためのシステムがすでに存在しており、より多くの画像でさらにトレーニングを行うことで、そのシステムのパフォーマンスが大幅に向上する可能性があると述べています。ヒントン氏はまた、医師が作成したラベルで訓練されたニューラル ネットワークは、医師の意見が一致しない場合に何が起こっているかをネットワークが把握できるため、医師自身よりも優れたパフォーマンスを発揮する場合があると指摘しています。最後に、彼は、分子が何かに結合するかどうかを予測するための競争に勝った学生についての話をします.研究分野。
Geoffrey Hinton: The Foundations of Deep Learning
Geoffrey Hinton: The Foundations of Deep Learning
  • 2018.02.07
  • www.youtube.com
Godfather of artificial intelligence Geoffrey Hinton gives an overview of the foundations of deep learning. In this talk, Hinton breaks down the advances of ...
 

ディープラーニングの英雄: Andrew Ng が Geoffrey Hinton にインタビュー




ディープラーニングの英雄: Andrew Ng が Geoffrey Hinton にインタビュー

深層学習の第一人者である Geoffrey Hinton は、Andrew Ng とのインタビューで、彼の旅とこの分野への貢献について話しました。彼は、単語埋め込みの起源、制限されたボルツマン マシンの開発、および高速ウェイトとカプセルに関する最近の研究について語っています。ヒントンは、深層学習の進歩における教師なし学習の重要な役割を指摘し、学習者に広く読んで、大規模なプロジェクトに取り組み、同じような興味を持つアドバイザーを見つけるようにアドバイスしています。ヒントンは、コンピュータが示すことによって学習するコンピューティングに大きな変化が起こっていると考えており、大学はこの新しいアプローチのために研究者を訓練する際に業界に追いつく必要があると警告しています.

  • 00:00:00 Geoffrey Hinton が AI と機械学習に興味を持った経緯について語っています。高校時代、友人からホログラムを使った脳のアイデアを紹介され、脳がどのように記憶を保存するかに興味を持つようになりました。彼は大学で生理学と物理学を学びましたが、脳の機能を説明するには心理学が不十分であることに気づき、心理学に切り替えました。大工になるために休暇を取った後、彼はエジンバラに行き、当時ニューラル ネットワークに懐疑的だった Longer Higgins と共に AI を研究しました。ヒントンは最終的に AI の博士号を取得し、カリフォルニアに行きました。カリフォルニアでは、脳の働きについて考えることが前向きなことと見なされていました。彼は、1986 年に公開されたバックプロパゲーション アルゴリズムで David Rumelhart と協力し、最終的にコミュニティがアルゴリズムを受け入れるのを助けました。

  • 00:05:00 このセクションでは、Hinton が backprop が単語の表現を学習できるようにした単語埋め込みの起源と、単語のトリプレットでモデルをトレーニングすることにより、プログラムがどのように学習できるかにスチュアート・サザーランドが感銘を受けたという事実について説明します国籍、世代などのセマンティクスの特徴。ヒントンは、単語埋め込みの開発が 2 つの異なる知識の見方 (特徴の束としての概念の心理学者の見方と、他の概念との関係としての概念の AI の見方) を組み合わせて、論文の受け入れ率を押し上げたと述べています。 90 年代初頭、Bengio は、開発者が同様のアプローチを使用してデータから単語の埋め込みを導出できることを示し、多くの人に感銘を与えました。その後、Hinton は、深層ニューラル ネットワークの復活の重要な要因となった制限付きボルツマン マシン (RBM) で行われた開発について話しました。

  • 00:10:00 このセクションでは、Geoffrey Hinton が、隠された機能の 1 つのレイヤーを使用して制限付きボルツマン マシンをトレーニングし、それらの学習した機能をデータとして使用して別のレイヤーをトレーニングするという彼の研究について話します。彼は、このアプローチがシグモイド信念ネットで推論を行う効率的な方法の開発につながったと説明しています。これは、以前の方法よりも大幅に改善されました。彼はまた、変分法に関する彼の研究と、ニューラル ネットワークでの整流線形単位 (ReLU) の使用の背後にある数学の開発についても説明しています。最後に、彼は 2014 年に Google で、ReLU の使用と、下のレイヤーにパターンをコピーする単位行列による初期化について講演し、深層ニューラル ネットワークのトレーニングを大幅に改善したことを指摘しています。

  • 00:15:00 Geoffrey Hinton は、深層ニューラル ネットワークの効率的なトレーニングを可能にする ID を使用してネットワークを初期化するというアイデアを追求しなかったことに対する後悔について語っています。彼は、バックプロパゲーションと脳の関係についての考えを共有し、バックプロパゲーションが学習に適したアルゴリズムである場合、脳はそれを実装する方法を見つけた可能性があると述べています。彼は、短期記憶を保持する高速な重みを使用して、深層学習で複数の時間スケールを処理するというアイデアを提案し、大学院時代に初めて提示しました。

  • 00:20:00 インタビューのこのセクションでは、Geoffrey Hinton が、再帰呼び出し中のニューロンの活動状態のメモリを格納するために高速重みを使用することを含む、高速重みと再帰呼び出しに関する彼の最近の研究について説明します。彼はまた、多次元エンティティをベクトルで表現し、さまざまなニューロンの活動を使用してその機能のさまざまな側面を表現するカプセルのアイデアについても語っています。ニューロンは、機能のさまざまな座標またはカプセルのサブセットを表す小さなバンドルにグループ化され、それぞれが、従来のニューラル ネットワークのように 1 つのスカラー プロパティではなく、多くの異なるプロパティを持つ機能の 1 つのインスタンスを表すことができます。これらのカプセルは、合意によるルーティングのシステムを介して情報をルーティングできます。これにより、限られたデータからのニューラル ネットワークのより適切なフィルタリングと一般化が可能になります。このアイデアに関する論文からの拒絶を経験しているにもかかわらず、Hinton は楽観的であり続け、カプセルの追求に固執しています.

  • 00:25:00 Geoffrey Hinton が、AI とディープ ラーニングに関する彼の考え方が数十年にわたってどのように進化してきたかについて説明します。彼は、最初は逆伝播と識別学習に興味を持ち、その後 90 年代初頭に教師なし学習に焦点を移した方法について語っています。ヒントンはまた、教師あり学習が過去 10 年間で非常にうまく機能したことについても語っていますが、教師なし学習はさらなる進歩のために不可欠であると考えています。彼は、教師なし学習の有望なアイデアとして、変分自動エンコーダーと生成的敵対ネットワークに言及しています。ヒントンはまた、深層学習を始めたい人にアドバイスを提供し、できるだけ多くの本を読み、経験を積むために大規模なプロジェクトに取り組むことを勧めています.

  • 00:30:00 このセクションでは、AI とディープ ラーニングの分野の研究者と学習者へのアドバイスを中心に会話を展開します。ヒントンは、創造的な研究者は文献を少し読んで、誰もが間違っていることを探し、それを正しく行う方法を見つけ出すことを提案しています。彼はまた、プログラミングを決して止めず、自分の直感を信じることを勧めています。彼は大学院生に、自分と同じような信念と関心を持つアドバイザーを見つけて、最も役立つアドバイスを得るように勧めています。博士号プログラムに参加するか、企業のトップ研究グループに参加するかという点に関して、Hinton 氏は現在、深層学習の訓練を受けた学者が不足していると述べていますが、学部が変化する環境に追いつくにつれて、それは一時的なものになると考えています。フィールド。

  • 00:35:00 ジェフリー・ヒントンは、コンピューターの使用に大きな変化が起こっていると説明しています。コンピューターをプログラミングする代わりに、コンピューターを見せて、コンピューターがそれを理解するようになりました。コンピューティングへのこの新しいアプローチは他とは異なり、重要であり、コンピューター サイエンス部門は、コンピューター サイエンスに影響を与えるプログラミングと同じくらい大きなアプローチを示すことを認識し、歓迎する必要があります。大企業は現在、この新しいアプローチについて人々を訓練していますが、ヒントンは、大学が追いつくまでそう長くはかからないと考えています。ヒントンはさらに、知性に必要な表現はクリーンアップされた論理の象徴的な表現であるという信念から、思考は神経活動の大きなベクトルに過ぎないという現在の見解への AI のパラダイム シフトを説明します。
Heroes of Deep Learning: Andrew Ng interviews Geoffrey Hinton
Heroes of Deep Learning: Andrew Ng interviews Geoffrey Hinton
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

ディープラーニングの英雄: Andrew Ng が Yann LeCun にインタビュー



ディープラーニングの英雄: Andrew Ng が Yann LeCun にインタビュー

Andrew Ng と Yann LeCun によるこのインタビューで、LeCun は AI への初期の関心とニューラル ネットワークの発見について語っています。また、畳み込みニューラル ネットワークに関する自身の研究と CNN の背後にある歴史についても説明しています。
LeCun は、90 年代半ばにニューラル ネットワークに関心がなかったにもかかわらず、この分野に固執し、最終的に CNN に関する彼の研究がコンピューター ビジョンの分野を引き継いだことについて語っています。また、AlexNet チームが 2012 年の ImageNet コンペティションで優勝したときのコンピューター ビジョンの決定的な瞬間についても説明し、AI と機械学習のキャリアを目指す人には、オープンソース プロジェクトに貢献したり、アルゴリズムを実装したりすることで、役に立つようになるようアドバイスしています。

  • 00:00:00 このセクションでは、Yann LeCun が人工知能への初期の関心と、ニューラル ネットワークの概念にどのように遭遇したかについて話します。彼は、パーセプトロンとオートマトンのネットワークに関する研究論文をどのように発見したかを説明し、複数のレイヤーでニューラル ネットワークをトレーニングする方法を研究するように促しました。これにより、彼はフランスの独立した研究所で同じことに興味を持っている人々と出会い、最終的にボルツマン マシンの研究にたどり着きました。

  • 00:05:00 このセクションでは、LeCun が、当時バックプロパゲーションに取り組んでいた Terry Zaleski とどのように出会ったか、また、会う前に 2 人が独自にそれを発明した方法について話します。彼はまた、AT&T Bell Labs 時代に畳み込みネットの作業をどのように開始したか、マウスで文字を描画して作成した小さなデータセットでそれらをテストした方法、およびこれが 5,000 のトレーニングで USPS データセットの作成につながった方法についても言及しています。サンプル。彼はこのデータセットで畳み込みネットをトレーニングし、当時使用されていた他の方法よりも優れた結果を達成しました。

  • 00:10:00 インタビューのこのセクションでは、Yann LeCun が畳み込みニューラル ネットワーク (CNN) の歴史について説明しています。彼は、Bell Labs で開発された商用ネットワークの最初のバージョンについて話します。このバージョンには個別のサブサンプリング レイヤーとプーリング レイヤーがなく、計算時間を短縮するためにネットワークを大幅に改善する必要がありました。 LeCun はまた、CNN で講演を行うことについての興味深い話を共有しています。そこで彼は Geoff Hinton から「すべての賢明なことをすれば、実際にうまくいく」と言われました。しかし、有望な結果にもかかわらず、CNN は、インターネット、標準化されたソフトウェア、およびハードウェア プラットフォームが不足しているため、AT&T 以外では広く採用されませんでした。

  • 00:15:00 このセクションでは、Yann LeCun が文字認識に関する彼の研究と、インターネット共有用にスキャンしたドキュメントをデジタルで保存および圧縮するプロジェクト「Digital Djvu」を開始した経緯について説明します。彼はまた、特にコンピューターの能力が高まるにつれて、ディープラーニング技術が最終的に有用になると常に信じていたことについても語っていますが、90年代半ばには関心がなかったため、誰もニューラルネットワークを研究していなかった時期が約7年間ありました. .この挫折にもかかわらず、LeCun はこの分野に固執し続け、畳み込みニューラル ネットワークに関する彼の研究はコンピューター ビジョンの分野を引き継ぎ、他の分野に大きく進出し始めました。

  • 00:20:00 ビデオのこのセクションでは、AlexNet チームが 2012 年の ImageNet コンペティションで大差をつけて優勝し、ほとんどのコミュニティを驚かせた、コンピュータ ビジョン コミュニティの決定的瞬間について Yann LeCun が説明しています。 LeCun は、企業研究がどのように行われるべきかについての彼のユニークな視点について議論し、オープンな研究に重点を置いて、彼が最も適切であると考える方法で Facebook AI Research (FAIR) を設定する多くの自由を与えられたと説明しました。大学とのコラボレーション。彼は、過去 4 年間の彼の出版物の大部分が、NYU の学生に関するものであるとさえ述べています。

  • 00:25:00 このセクションでは、Yann LeCun が、AI と機械学習の分野でキャリアを積もうとしている人に、オープンソース プロジェクトに貢献するか、アルゴリズムを実装して他の人が利用できるようにすることで、役に立つようになるようアドバイスしています。彼は、現在利用可能なツールとリソースにより、高校生であっても、ある程度のレベルの人が簡単に参加できると信じています。興味深く有益な貢献をすることで、個人は注目され、希望する企業に就職したり、博士号プログラムに受け入れられる可能性があります。
Heroes of Deep Learning: Andrew Ng interviews Yann LeCun
Heroes of Deep Learning: Andrew Ng interviews Yann LeCun
  • 2018.04.07
  • www.youtube.com
As part of the course https://www.coursera.org/learn/convolutional-neural-networks
 

ディープラーニングの英雄: Andrew Ng が Ian Goodfellow にインタビュー




ディープラーニングの英雄: Andrew Ng が Ian Goodfellow にインタビュー

Ian Goodfellow は Andrew Ng とのインタビューで、深層学習への情熱と、スタンフォード大学で勉強しているときにこの分野に興味を持った経緯について語っています。 Goodfellow は、敵対的生成ネットワーク (GAN) の彼の発明と、深層学習におけるその可能性について議論し、GAN の信頼性を高める必要性も強調しています。彼は、AI とディープ ラーニングに関する彼の考え方が、AI 関連のタスクでテクノロジを機能させることから、ディープ ラーニング モデルの可能性を最大限に探求することまで、何年にもわたってどのように進化してきたかを振り返ります。 Goodfellow はまた、AI に参加したい人へのアドバイスを共有し、最初から優れたコードを記述し、機械学習アルゴリズムにセキュリティを組み込むことが重要であると述べています。

  • 00:00:00 このセクションでは、Ian Goodfellow が、スタンフォード大学の学部のアドバイザーと Andrew Ng のインターネット AI クラスのおかげで、AI とディープ ラーニングの分野に興味を持つようになった経緯について説明します。彼は、彼と友人がスタンフォード大学で最初の GPU CUDA ベースのマシンの 1 つをどのように構築したか、そしてこれがどのようにして深層学習が将来進むべき道であるという彼の強い直感につながったかを説明しています。 Goodfellow は、GAN の発明と、生成モデルの研究中にどのように概念を思いついたかについて話します。最後に、彼は AI 研究へのコミットメントを再確認した個人的な経験を振り返ります。

  • 00:05:00 このセクションでは、Ian Goodfellow が敵対的生成ネットワーク (GAN) の可能性と、深層学習におけるその将来について説明します。彼は、GAN は現在さまざまなタスクに使用されていますが、信頼性が低いことが多く、それらを安定させることが彼の研究の主要な焦点であると説明しています。 Goodfellow は、GAN は現在重要ですが、信頼性を高めなければ、最終的には他の形式の生成モデルに取って代わられるだろうと考えています。彼はまた、深層学習に関する最初の教科書を共同執筆した経験についても説明し、この分野を習得する上で基礎となる数学の原則を理解することの重要性を強調しています。最後に、Goodfellow は、AI とディープ ラーニングに関する彼の考え方が、単に AI 関連のタスクで機能するようにすることから、ディープ ラーニング モデルの可能性を最大限に探求することまで、何年にもわたってどのように進化してきたかを振り返ります。

  • 00:10:00 このセクションでは、Ian Goodfellow がディープ ラーニングの進化と AI に存在する多数のパスについて説明します。彼は、AI に参加したい人へのアドバイスを共有し、優れたコードを書いて GitHub に置くことで注目を集めることができ、本を読みながらプロジェクトに取り組むことが役立つ可能性があると述べています。彼はまた、セキュリティを後で追加するのではなく、最初から機械学習アルゴリズムに組み込むことの重要性についても語っています。これらの対策は、アルゴリズムが安全であることを保証し、後で発生するセキュリティ上の懸念を防ぎます.
Heroes of Deep Learning: Andrew Ng interviews Ian Goodfellow
Heroes of Deep Learning: Andrew Ng interviews Ian Goodfellow
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

ディープラーニングの英雄: アンドリュー・ングがアンドレイ・カルパシーにインタビュー




ディープラーニングの英雄: アンドリュー・ングがアンドレイ・カルパシーにインタビュー

Andrej Karpathy は、Andrew Ng とのインタビューで、Geoff Hinton のクラスを通じてディープ ラーニングを紹介し、ImageNet 画像分類コンテストの人間のベンチマークになった経緯について説明しています。彼は、ソフトウェア ディープ ネットが彼のパフォーマンスを上回り、オンライン コースの作成を通じてそれについて他の人に教えることにしたときの驚くべき結果について語っています。 Karpathy はまた、AI の将来と、この分野が応用 AI と AGI という 2 つの軌道にどのように分かれるかについても説明します。彼は、深層学習の分野に参入したい人に、すべてをゼロから実装することで、スタック全体を完全に理解するようアドバイスしています。

  • 00:00:00 このセクションでは、Andrej Karpathy が、トロント大学の学部課程で Geoff Hinton のクラスを受講しているときに、ディープラーニングに最初に興味を持った経緯について話します。彼はまた、ImageNet 画像分類コンペティションの人間のベンチマークになった経緯についても説明し、ベンチマークが人間の能力とどのように比較されるかを理解するための Javascript インターフェイスを作成しました。彼は、1,000 のカテゴリから画像を分類するという課題と、ImageNet データセットの 3 分の 1 が犬であるという驚くべきことに気づき、犬種のトレーニングに異常に長い時間を費やすことになったと説明しています。

  • 00:05:00 このセクションでは、Andrej Karpathy が、ソフトウェアのディープ ネットが特定のタスクで彼のパフォーマンスを上回ったときの驚きについて語っています。彼は、テクノロジーがどのように変革をもたらしたかについて話し、オンライン コースの作成を通じて他の人にテクノロジーについて教えることにしました。テクノロジーを理解し、日々変化し続けるという事実が生徒たちを興奮させました。また、Karpathy は、ディープ ラーニングの分野がどのように急速に進化しているか、およびテクノロジがどのように一般化したかについても語っています。彼は、ImageNet だけでなく、微調整や転移学習にもうまく機能することに驚いています。彼はまた、教師なし学習が多くの研究者が望んでいた期待をまだ実現していないことに驚いています。

  • 00:10:00 このセクションでは、Karpathy が AI の将来について議論し、この分野は 2 つの軌道に分かれる可能性が高いと述べています。 1 つ目は応用 AI で、教師あり学習と場合によっては教師なし学習にニューラル ネットワークを使用します。もう 1 つは、完全な動的システムである単一のニューラル ネットワークの作成に焦点を当てた AGI です。彼は、AI をさまざまな部分に分解してから組み合わせるのは正しくないと感じており、代わりに単一のニューラル ネットワークをエージェント全体として使用して、重みを最適化し、インテリジェントな動作を取得できる目標を作成することを提唱しています。ディープ ラーニングの分野に参入したい人へのアドバイスについて尋ねられたとき、Karpathy は、TensorFlow のようなフレームワークで作業するだけでなく、すべてをゼロから実装することによって、スタック全体を完全に理解することを勧めています。
Heroes of Deep Learning: Andrew Ng interviews Andrej Karpathy
Heroes of Deep Learning: Andrew Ng interviews Andrej Karpathy
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

ディープラーニングの英雄: Andrew Ng が、Apple の AI リサーチ担当ディレクター、Ruslan Salakhutdinov にインタビュー




ディープラーニングの英雄: Andrew Ng が、Apple の AI リサーチ担当ディレクター、Ruslan Salakhutdinov にインタビュー

Apple の AI リサーチ ディレクターである Ruslan Salakhutdinov が、ディープラーニングの進化、生成モデルのトレーニングと教師なし学習における課題、ディープラーニング研究のエキサイティングな最前線について説明します。彼はまた、研究者にさまざまな方法を探求し、革新を恐れないように勧めています。
Salakhutdinov は、対話ベースのシステムとテキストを知的に読むことができるシステムを構築することの重要性と、より人間らしい学習能力を達成するという最終目標を強調しています。

  • 00:00:00 このセクションでは、Ruslan Salakhutdinov が深層学習をどのように始めたかについて説明します。まず、Jeff Hinton との偶然の出会いから始まり、制限のあるボルツマン マシンと教師付きトレーニングを使用する概念を紹介されました。ヒントンの助けと指導により、サラフトディノフは制限付きボルツマン マシンに関する最初の論文の 1 つを共同執筆することができ、ニューラル ネットワークとディープ ラーニングの復活を後押ししました。しかし、コンピューティング能力が向上するにつれて、研究者は、制限のあるボルツマン マシンを使用した事前トレーニングの必要がないことに気付き、従来の最適化手法を使用して深いモデルを直接トレーニングできるようになりました。

  • 00:05:00 このセクションでは、Ruslan Salakhutdinov が、ディープ ラーニングの進化と、コンピューターが遅かった初期の事前トレーニングの重要性について説明します。彼はまた、教師あり学習と比較した場合の生成モデルと教師なし学習のトレーニングの課題についても言及しています。変分オートエンコーダーやエネルギー モデルなどの手法を使用した生成モデリングは進歩していますが、教師なしモデルをトレーニングするためのより効率的でスケーラブルな方法を見つける必要があると彼は考えています。彼は、これが深層学習に関心のある人にとって探求すべき重要な分野であることを強調しています。

  • 00:10:00 このセクションでは、Apple の AI リサーチ ディレクターである Ruslan Salakhutdinov が、機械学習でラベル付けされていない大量のデータを利用する際の課題と、この分野に参入したい人へのアドバイスについて説明します。彼と彼のチームがニューラル ネットワークで非常に非凸型のシステムを最適化するという困難な問題にどのように取り組んだかの 1 つの例を挙げて、彼は研究者にさまざまな方法を試し、革新を恐れないように勧めています。 Salakhutdinov はまた、深層学習の分野で博士号を取得することと企業に入社することの長所と短所についても議論し、学界と産業界の両方が研究開発のためのエキサイティングな機会を提供していることを強調しています。

  • 00:15:00 このセクションでは、Ruslan Salakhutdinov が深層学習研究のエキサイティングな最前線、特に深層強化学習、推論、自然言語理解、少ない例からの学習などの分野について説明します。彼は、仮想世界での AI のトレーニングには多くの進歩があり、現在の課題は、これらのシステムのスケーリング、新しいアルゴリズムの開発、および AI エージェントの相互通信にあると述べています。さらに、彼は、対話ベースのシステムと、テキストを知的に読むことができるシステムを構築することの重要性を強調しています。最後に、彼はより人間らしい学習能力を達成するという目標に言及しています。
Heroes of Deep Learning: Andrew Ng interviews Director of AI Research at Apple, Ruslan Salakhutdinov
Heroes of Deep Learning: Andrew Ng interviews Director of AI Research at Apple, Ruslan Salakhutdinov
  • 2017.08.08
  • www.youtube.com
probability, machine learning, neural networks, data science, programming, statistics, math, mathematics, number theory, pi
 

ディープラーニングの英雄: Andrew Ng が Yoshua Bengio にインタビュー




ディープラーニングの英雄: Andrew Ng が Yoshua Bengio にインタビュー

Andrew Ng が Yoshua Bengio にインタビューし、深層学習に関連するさまざまなトピックについて話し合います。 Bengio は、どのようにしてディープ ラーニングを始めたのか、ニューラル ネットワークについての彼の考え方がどのように進化したのかを説明しています。彼はまた、一連の単語の単語埋め込みの開発と、オートエンコーダーのスタックを使用したディープ ラーニングへの貢献についても説明しています。さらに、ベンジオは教師なし学習の重要性と、深層学習と脳の関係を理解することへの関心を強調しています。
Bengio は、大きな課題に取り組むためには、深層学習の科学と適切な研究を理解する必要があることを強調しています。最後に、深層学習でキャリアを積むには数学の強力な基礎知識が必要であり、継続的な教育の重要性に焦点を当てています。

  • 00:00:00 このセクションでは、ヨシュア ベンジオが、1985 年にサイエンス フィクションへの愛と大学院での研究をきっかけに、どのようにしてディープ ラーニングを始めたのかについて説明します。人工知能とつながるかもしれません。 Bengio はまた、ニューラル ネットワークに関する彼の考え方がどのように進化したかについても考察しています。最初の実験から、バックプロップや深度などの特定の手法が非常にうまく機能する理由についての理論と確固たる正当化の開発に至るまでです。さらに、彼は ReLU 関数が、彼が最初に必要だと考えていた従来の滑らかな非線形性よりもうまく機能するという驚きについて語っています。 Bengio は、多くのニューロンの活性化全体に分散された情報の重要性と、それがニューラル ネットワークについて彼を興奮させた最初の洞察にどのようにつながるかを強調しています。

  • 00:05:00 このセクションでは、Yoshua Bengio が、ニューラル ネットワークを使用して次元の呪いに取り組み、多くの確率変数に対して効率的な共同分布を作成するという彼の初期の研究について説明します。彼はまた、一連の単語の単語埋め込みを作成する作業についても言及しています。これにより、同様の意味を持つ単語間での一般化が可能になります。 Bengio は、オートエンコーダーのスタックを使用したディープ ラーニングの開発やニューラル機械翻訳での注意の使用など、彼の研究グループからの他のいくつかの重要な発明やアイデアについて言及しています。彼はまた、深層学習と脳の関係を理解することへの関心と、脳によって実装できるバックプロパゲーションに似たシステムの開発に関する彼の研究についても語っています。

  • 00:10:00 このセクションでは、ヨシュア・ベンジオが、脳の働きに関するジェフ・ヒントンの考えと、それに対する一時コードの潜在的な用途からインスピレーションを得たことについて語っています。彼は、ラベル付けされたデータなしで世界を説明するメンタル モデルの構築を可能にするため、教師なし学習がいかに重要であるかについて説明しています。彼はまた、教師なし学習と強化学習の組み合わせについても話し、物事を探索して制御しようとすることで、互いに絡み合っていない根底にある概念をよりよく理解できるようにします。教師なし学習研究の問題点は、この問題に対処する方法が非常に多く、システムがうまく機能しているかどうかを測定するための適切な目的関数を構成するものについての適切な定義がないことです。最後に Yoshua は、現在のディープ ラーニングの状態は、彼が望んでいる状態にはまだほど遠いものであり、それを次のレベルに引き上げることに意欲的であると述べています。

  • 00:15:00 このセクションでは、Yoshua Bengio が、コンピューターがどのように世界を観察し、相互作用して世界がどのように機能するかを発見する方法の基本原理に焦点を当てた研究に対する彼の興奮について語っています。彼は、そのような研究がどのように世界がどのように機能するかをよりよく理解することにつながることを議論し、それが転移学習や共同国家問題などの大きな課題に取り組むのに役立つことを望んでいます. Bengio 氏は、小さな問題で実験を行うことで、研究サイクルが速くなり、理解が深まり、最終的にスケールアップできると指摘しています。彼は、深層学習で何が起こっているかを理解することの重要性と、深層学習の科学に関する考えを共有する必要性を強調しています。

  • 00:20:00 このセクションでは、深層学習の著名な人物である Yoshua Bengio 氏が、ベンチマークや競合他社を打ち負かすだけではなく、関心のある現象を理解し、適切な研究を行うことの重要性について説明しました。この分野への参入を希望する個人のために、彼は読書、コーディング、実験などの練習の必要性を強調しました. Bengio 氏は、コンピューター サイエンスと数学の強力なバックグラウンドが役立つ一方で、機械学習の予備知識がない個人でも、数か月以内に学習して熟練することができると述べています。

  • 00:25:00 この抜粋では、Andrew Ng と Yoshua Bengio が、深層学習のキャリアを追求する際に、代数、最適化、微積分などの数学の強力な基礎知識を持つことの重要性について説明しています。ベンジオは、現場で最新の状態を維持するために、継続的な教育と継続的な学習の必要性を強調しています。どちらも、自分の洞察と知識を他の人と共有する機会に感謝しています。
Heroes of Deep Learning: Andrew Ng interviews Yoshua Bengio
Heroes of Deep Learning: Andrew Ng interviews Yoshua Bengio
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics