Visuals to demonstrate how a neural network classifies a set of data. Thanks for watching!Support me on Patreon! https://patreon.com/vcubingxSource Code: htt...
Toward Singularity takes a look at how neuroscience is inspiring the development of artificial intelligence. Our amazing brain, one of the most complicated s...
00:00:00 このセクションでは、スタンフォード大学 CS230 のインストラクターである Andrew Ng がコースを紹介し、反転授業形式について説明します。このクラスでは、生徒は自宅で Coursera の deeplearning.ai コンテンツを視聴し、教室とディスカッション セクションの時間に、より深いディスカッションに参加します。 Ng は、共同講師の Kian Katanforosh (深層学習専門分野の共同作成者)、Swati Dubei (クラス コーディネーター)、Younes Mourri (コース アドバイザー兼ヘッド TA)、および Aarti Bagul と Abhijeet (共同ヘッド) で構成される教育チームを紹介します。 TA。 Ng 氏は、ディープ ラーニングの急激な人気について説明し、社会のデジタル化によってデータ収集が増加し、これまで以上に効果的なディープ ラーニング システムを構築する機会が学生に与えられたと述べています。
00:05:00 このセクションでは、Andrew Ng が、デジタル記録の増加がデータの急増につながったと説明していますが、従来の機械学習アルゴリズムは、より多くのデータが供給されても頭打ちになります。ただし、ニューラル ネットワークが大きくなるにつれて、そのパフォーマンスは向上し続け、ベース エラー率と呼ばれる理論上の限界に達します。 GPU コンピューティングとクラウド サービスの出現により、十分に大きな計算能力へのアクセスにより、より多くの人々が十分に大規模なニューラル ネットワークをトレーニングして、多くのアプリケーションで高レベルの精度を実現できるようになりました。ディープ ラーニングは AI の多くのツールの 1 つにすぎませんが、一貫して優れた結果をもたらすため、非常に人気があります。
00:10:00 このセクションでは、プランニング アルゴリズムや知識表現など、深層学習に加えて、研究者が AI で使用するさまざまなツールやテクノロジがあることを講師が説明します。しかし、ディープ ラーニングは、アルゴリズムの革新と巨額の投資だけでなく、膨大なデータ セットと計算能力の使用により、過去数年間で信じられないほど急速に普及しました。 CS230 の主な目標は、学生が深層学習アルゴリズムの専門家になり、それらを実際の問題を解決するために適用する方法を理解することです。 Google、Baidu、Landing AI で AI チームを率いて成功を収めた実務経験を持つ講師は、機械学習の実践的なノウハウの側面を学ぶことの重要性も強調しています。
00:20:00 このセクションでは、Andrew Ng が「Machine Learning Yearning」と呼ばれる彼の新しい本のドラフトについて説明します。これは、機械学習から体系的なエンジニアリング分野を作成するための最良の原則を収集する試みであると彼は述べています。 Ng はまた、学生が自分の時間にオンラインでビデオを見てクイズを完了し、TA、Kian、および彼自身とのより深い相互作用とディスカッションのための毎週のセッションに参加するコースの反転教室形式についても説明します。彼はさらに AI と機械学習の重要性について語り、電力が 1 世紀以上前にいくつかの分野を変えたように、AI がすべての業界を変えると信じていると述べています。
00:25:00 ビデオのこのセクションで、スタンフォード大学の CS230 ディープ ラーニング コースのインストラクターである Andrew Ng 氏は、学生が新たに発見したディープ ラーニング スキルを使用して、ヘルスケアなどの従来のテクノロジー セクター以外の業界を変革することへの期待を表明しています。土木工学、宇宙論。彼は、インターネットの台頭を研究することで学んだ貴重な教訓を共有しています。むしろ、インターネット企業を真に定義するのは、チームの編成と、広範な A/B テストなどのインターネット固有のプラクティスの組み込みです。
00:30:00 トランスクリプトのこのセクションでは、Andrew Ng が従来の企業とインターネットおよび AI 企業の違いについて説明しています。彼は、インターネットと AI の企業は意思決定の権限をエンジニアやエンジニアとプロダクト マネージャーに押し下げる傾向があると説明しています。これらの個人はテクノロジー、アルゴリズム、およびユーザーに最も近いからです。 Ng はまた、最新の機械学習とディープ ラーニングが可能にすることを行うためにチームを編成することの重要性についても言及しています。さらに、Ng は、AI 企業がどのようにデータを異なる方法で整理し、自動化の機会を見つけることに特化する傾向があるかについて説明します。最後に、彼は、機械学習の台頭により、機械学習エンジニアやリソース機械学習研究科学者などの新しい役割が生み出されたと述べています。
00:35:00 このセクションでは、Andrew Ng が、AI 時代においてより価値のある仕事を行うために効果的なチーム編成が重要であることを強調しています。彼は、ソフトウェア エンジニアリングの世界がアジャイル開発、スクラム プロセス、およびコード レビューを開発して、ソフトウェアを効果的に構築する高性能の産業用 AI チームを作成する方法に例えています。 Ng は、機械学習アルゴリズムを体系的に教えて導き出し、適切なプロセスで効果的に実装したいと考えています。最後に、Ng は、機械学習を学びたいと考えている人々が目標を達成するためにどのクラスを受講すべきかをガイドします。
00:40:00 このセクションでは、Andrew Ng が CS229、CS229A、および CS230 の違いについて説明します。 CS229 はこれらのクラスの中で最も数学的であり、アルゴリズムの数学的派生に焦点を当てています。 CS229A は応用機械学習であり、実用的な側面により多くの時間を費やし、機械学習への最も簡単な入口であるのに対し、CS230 はその中間であり、CS229A よりも数学的ですが、CS229 よりも数学的ではありません。 CS230 のユニークな点は、機械学習の最も難しいサブセットであるディープ ラーニングに焦点を当てていることです。 Andrew Ng は、数学だけに集中するのではなく、これらのアルゴリズムを適用するための実践的なノウハウを教えることに多くの時間を費やしたいと考えており、正確な期待値を設定しています。
00:45:00 このセクションでは、Andrew Ng が、AI と機械学習がバックグラウンドで消え、それを可能にする学習アルゴリズムについて考えることなく使用できる魔法のツールになるという概念を紹介します。彼は、ヘルスケア、製造、農業、および教育における機械学習の重要性について説明しています。そこでは、学習アルゴリズムを使用してコーディングの宿題に関する正確な個別指導とフィードバックを実現できます。 CS230 のコース形式には、Coursera での deeplearning.ai ビデオの視聴と、スタンフォード大学の Kian による追加の講義が含まれ、より深い知識と実践が求められます。このクラスは、ニューロン、層、ネットワークの構築、ネットワークの調整、および AI の産業応用について学生に教える 5 つのコースで構成されています。
For more information about Stanford's Artificial Intelligence professional and graduate programs visit: https://stanford.io/3eJW8yTAndrew Ng is an Adjunct Pr...
00:35:00 このセクションでは、インストラクターが顔認識で使用されるトリプレット損失関数について説明します。損失は、A と P の符号化ベクトル間の L2 距離を、A と N の符号化ベクトル間の L2 距離から差し引いて計算されます。A と N の符号化ベクトル間の距離を最大化し、差を最小化することが目的です。 A と P の間。真の損失関数には、負の損失を防ぐ以外の特定の役割を持つアルファが含まれています。インストラクターは、損失関数でアルファを使用すると、損失関数の特定の部分に重みが追加されると説明しています。目標は、顔の特徴を表すエンコーディングを見つけることであり、最適化アルゴリズムは、複数回のパスの後、損失関数を最小化することを目的としています。
01:05:00 このセクションでは、機械学習を使用しないアプローチと訓練されたニューラル ネットワークの間で、どのシステムが VAD (音声アクティビティ検出) に対してより堅牢であるかについて説明します。クラスの過半数が非 ML システムに投票しました。しかし、アメリカ訛りの発話で小規模なニューラル ネットワークをトレーニングすると、ニューラル ネットワークが特定のアメリカ訛りの特異性を検出する可能性が高くなり、イギリス訛りの発話の検出の堅牢性が低下することが判明しました。このクラスは、手作業でコーディングされたルールが十分に機能する場合、一般的にはデータをシフトするのにより堅牢であり、より一般化することが多いと結論付けていますが、そのようなルールがない場合は機械学習アルゴリズムが必要です.
00:55:00 このセクションでは、インストラクターが GAN モデルのジェネレーターのコスト関数について説明します。ジェネレーターがディスクリミネーターをだます現実的なサンプルを作成することが目標であり、コスト関数はこれを反映する必要があります。ただし、ゲームなのでDもGもバランスが取れるまで一緒に上達していく必要があります。ジェネレーターのコスト関数は、ディスクリミネーターが生成された画像を「1」に分類する必要があることを示しており、これは勾配の符号を反転することによって達成されます。インストラクターは、生成された例を与えられたときの D の出力の対数グラフについても説明します。
01:15:00 ビデオのこのセクションでは、スピーカーは、条件付き GAN の損失関数を改善するためのサイクル コストの使用、エッジまたは低解像度画像に基づいて画像を生成する機能、およびプライバシーを保護する医療データセットや、骨や歯の交換などのオブジェクトのパーソナライズされた製造に GAN が使用される可能性があります。スピーカーは、ラーメンを顔と背中に変換したり、エッジに基づいて猫を生成したりするなど、作成された楽しいアプリケーションも強調しています。
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
00:40:00 講演のこのセクションでは、講演者は AI モデルを使用して ACL 断裂を検出する放射線科医の有効性に関する研究について説明します。この研究では、放射線科医と一緒にモデルを使用すると、ACL 断裂検出のパフォーマンスと特異性が向上することがわかりました。ただし、自動化バイアスの懸念が生じ、スピーカーは、モデルに頼りすぎている場合に放射線科医に警告するために、反転した回答で試験に合格するなど、潜在的な解決策に対処します。また、講演者は、MURA データセットの操作や AI for Healthcare Bootcamp への参加など、学生が AI とヘルスケアに参加する 2 つの機会についても説明します。
00:45:00 このセクションでは、スピーカーは、ヘルスケアにおける AI モデルの開発と実装における医療専門家のアプリケーションと潜在的な補償について説明します。このトピックについては多くの作業が行われていますが、医療専門家の生活への潜在的な影響をめぐる倫理的懸念に対する直接的な解決策はありません。スピーカーは、特定の病状を検出する際の AI モデルの限界と、これらの限界をユーザーに伝えることの重要性についての質問にも答えます。このセクションの最後に、深層学習を使用して皮膚細胞の顕微鏡画像をセグメント化し、疾患を検出するケース スタディを紹介します。
00:55:00 このセクションでは、講演者はヘルスケア AI におけるデータ配布とデータ拡張に関連する問題について説明します。彼は、トレーニング データの分布が実際のアプリケーションの分布と一致することを保証することの重要性を強調し、回転、ズーム、ぼかし、対称などの拡張技術を提案しています。スピーカーはまた、対称反転が誤ったラベル付けにつながる可能性がある文字認識など、データ拡張がモデルを助けるのではなく害を及ぼす可能性がある場合について警告します.
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
00:05:00 このセクションでは、インストラクターは聴衆に、特定のフレーズを検出するための学習アルゴリズムを構築するタスクを持つスタートアップの CEO であると想像してもらいます。彼は、新しいプロジェクトに着手する前に既存の文献を読むことの重要性を強調し、研究論文を効率的に読む方法についてのヒントを提供します。彼は聴衆に、どの論文をより詳細に読むかを決める前に、表面レベルで複数の論文に目を通すようアドバイスしています。彼はまた、すべての論文が意味を成したり重要であるとは限らないため、無関係な情報を除外することが不可欠であると警告しています。
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
00:55:00 講義のこのセクションでは、教授は Y から X を生成する方法を紹介します。これは、再構成が常に正しいとは限らない場合でも役立つという仮定を使用して行われます。イラストと Menti コードを使用してプロセスを示し、サブピクセル畳み込みを使用して、上から下ではなく左から右にストライクを行って同じ操作を実行する方法を示しています。この手法では、入力をトリミングしてパディングして、目的の出力を取得します。教授は、このタイプの畳み込みは、視覚化アプリケーションでの再構成によく使用されると述べています。
01:00:00 このセクションでは、講師がサブピクセル畳み込みの概念を説明します。これには、ベクトル Y にゼロを挿入して、デコンボリューションのより効率的な計算を可能にすることが含まれます。重みを反転し、ストライドを 2 で割ってゼロを挿入することにより、デコンボリューション プロセスは本質的に畳み込みと同等になります。このプロセスは 2 次元の畳み込みに拡張でき、全体として、畳み込みの行列とベクトルの間の数学的操作をよりよく理解できます。
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
この講義では、Andrew Ng 教授が研究論文を効率的に読み、急速に進化する深層学習の分野についていく方法についてアドバイスを提供します。彼は、図や表に注意を払うだけでなく、序文と結論のセクションで研究を要約することの重要性を強調しています。 Ng はキャリアに関するアドバイスも共有しており、求職者は AI と機械学習の複数の分野で幅広く深い知識を持ち、成長の機会を最大化するために有名なブランドではなく個人と協力することに集中することを推奨しています。彼は、一貫して論文を読み、コースやプロジェクトを通じて水平および垂直の両方のスキルを構築して、機械学習の強力な基盤を構築することを提案しています。
00:20:00 このセクションでは、Andrew Ng 教授が、深層学習の研究についていく方法と理解する方法についてアドバイスを提供します。彼は、Web 検索を行って重要な論文に関するブログ投稿を探し、Twitter と ML Subreddit をチェックし、論文をオンラインで頻繁に共有している研究者をフォローすることを提案しています。 Ng はまた、アルゴリズムを深く理解するために、同僚やクラスメートとコミュニティを形成して興味深い論文を共有し、詳細なメモから数学を再導出することを推奨しています。 Ng 氏は、経験レベルと難易度によって 1 論文に費やす時間が異なる可能性があることを強調していますが、より多くの時間を費やすことで、ディープ ラーニングの概念をより深く理解することができます。
00:30:00 講義のこのセクションでは、講演者は、機械学習分野で就職する方法や博士号プログラムに参加する方法について説明し、重要な仕事をすることの重要性を強調します。採用担当者は、技術的なスキル、コーディング能力、および機械学習に関する有意義な実務経験を求めています。新しいスキルを学び続け、フィールドの急速な進化に遅れないようにする能力も高く評価されています。成功している AI および機械学習エンジニアは、機械学習のさまざまな分野について学び、それらの分野での作業を経験しており、さまざまな設定で機械学習アルゴリズムを適用する方法を深く理解しています。
00:35:00 このセクションでは、講師が求職者に望ましい「T 字型」のスキルについて説明します。これは、複数の AI および機械学習の分野を幅広く理解している一方で、少なくとも 1 つの特定の分野を深く理解していることを意味します。エリア。彼は、有意義なプロジェクトに取り組んだり、オープンソースに貢献したり、採用担当者に候補者の能力を納得させるための調査を行ったりするなど、実践的な経験を持つことの重要性を強調しています。講師は、実践的な経験を積まずに多くのクラスを受講したり、深く飛び込みすぎたり、深みのない小さなプロジェクトをやりすぎたりしないように警告しています。
00:40:00 講義のこのセクションでは、Ng 教授が、水平方向と垂直方向の部分を構築することを推奨することで、機械学習の強固な基盤を構築する方法についてアドバイスを提供します。彼は、10 個の小さなプロジェクトを完了しても、1 つまたは 2 つの大きなプロジェクトほど採用担当者に好印象を与えない可能性があると述べています。 AI と機械学習の基本的なスキルで構成される水平部分を構築するには、コースを受講し、研究論文を読み、コミュニティに参加することをお勧めします。より関連性の高い深いプロジェクトを行うことを含む垂直的な部分を構築するために、Ng は機械学習や AI に関連することに取り組み、これらの分野でのキャリアの成長を支援するようアドバイスしています。彼は続けて、個人的な満足以外に深い学習の仕事に対する短期的な報酬がないことが多いため、楽しむことと休憩を取ることの重要性を強調しています.
00:50:00 このセクションでは、講演者が深層学習愛好家にキャリアのアドバイスを提供し、企業のブランドではなく個人に焦点を当てるよう促します。スピーカーは、自分のマネージャーと彼らがやり取りするコア グループが彼らに最も影響を与えることを強調しています。彼らの勤勉さと教える意欲のレベルを考慮すると、個人的な評価と個人とのつながりが会社のブランドよりも重要になります。巨大企業が小さな AI チームに求人を送信するなど、与えられたシナリオの例が評価され、個人とそれが自分の成長にどのように影響するかに焦点が当てられます。企業のブランディングを優先して個人を無視するという失敗モードは、特定の人と仕事をすることに集中するのではなく、有名な企業からJavaベースのバックエンド支払いの仕事のオファーを受け入れた後、キャリアが頭打ちになった学生の個人的な例で強調されています小さなチームで。
00:55:00 このセクションでは、Andrew Ng が、理論的には良さそうに見えるローテーション プログラムを検討する際に注意を促しています。彼は、大きなブランド名を追いかけるのではなく、機械学習で重要な仕事をしている可能性のある小規模であまり知られていないチームと協力する機会を探すことを提案しています。彼は、業界で有名なブランド名だけに焦点を当てるよりも、学習体験を優先し、影響力のある仕事をすることの重要性を強調しています.
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
ディープ ラーニングの視覚化 2. ニューラル ネットワークが効果的なのはなぜですか?
ディープ ラーニングの視覚化 2. ニューラル ネットワークが効果的なのはなぜですか?
このビデオでは、ニューラル ネットワークの有効性を探り、softmax 関数、決定境界、および入力変換について詳しく説明します。このビデオでは、従来の argmax 関数の代わりに、シグノイド関数を使用して各出力に確率を割り当てる方法を説明しています。
次に、ソフトマックス関数を使用して類似のポイントをクラスター化し、トレーニング中にそれらを線形に分離できるようにする方法を示します。ただし、初期トレーニング領域の外に移動すると、ニューラル ネットワークは決定境界を直線的に拡張するため、分類が不正確になります。
このビデオでは、ニューラル ネットワークの最初のニューロンを決定境界の平面方程式に変換する方法についても説明し、ニューラル ネットワークによる手書き数字の変換を視覚化する対話型ツールを示します。
シンギュラリティに向けて - AI を刺激する神経科学
シンギュラリティに向けて - AI を刺激する神経科学このビデオでは、人工知能が一般的な知性に到達する可能性と、その過程で克服する必要があるさまざまな課題について説明しています。
また、ロボットが種と見なされる可能性と、このアプローチの長所と短所についても説明します。
2 つの間で転送できる情報の量は限られています。これは、標準的なコンピューターの全体的な能力を制限する非常に大きな要因です。対照的に、脳は超並列的に大規模に機能し、すべてのニューロンが常に最善を尽くしています。私たちが持っている現在の最高の AI でさえ、脳とは非常に異なっています。それは… 脳にインスパイアされたものだと言うかもしれませんが、脳をコピーしているわけではありません。脳内には大量のフィードバック接続があります。明らかに、私たちが感覚入力を処理するとき、それは脳の高次領域に到達し、私たちが見ている元の入力からさらに処理され、抽象化されます.しかし、それらの高域から知覚領域に戻る膨大な量のフィードバックもあります。そして、このフィードバックは私たちがどこを見るかを指示し、
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 1 - クラスの紹介とロジスティクス、Andrew Ng
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 1 - クラスの紹介とロジスティクス、Andrew Ng
スタンフォード大学の CS230 ディープ ラーニング コースのインストラクターである Andrew Ng 氏がコースを紹介し、反転授業形式について説明します。彼は、デジタル記録の増加によりディープ ラーニングが急速に普及し、より効果的なディープ ラーニング システムが可能になったことを強調しています。このコースの主な目標は、学生が深層学習アルゴリズムの専門家になり、それらを実際の問題を解決するために適用する方法を理解することです。 Ng は、効率的で効果的な機械学習システムを構築する上での実践的な知識の重要性を強調し、適切なプロセスで効果的に実装しながら、機械学習アルゴリズムを体系的に教えて導き出すことを望んでいます。このコースでは、Coursera のビデオと Jupyter Notebook のプログラミング課題を通じて、畳み込みニューラル ネットワークとシーケンス モデルについて説明します。
スタンフォード大学の CS230 ディープ ラーニング コースの最初の講義では、プログラミングの課題や学生のプロジェクトを通じて開発されるさまざまな実世界のアプリケーションを紹介します。これらのアプリケーションは、学生の興味に合わせてパーソナライズおよび設計できます。過去の学生プロジェクトの例は、自転車の価格予測から地震信号の検出まで多岐にわたります。最終的なプロジェクトは、コースの最も重要な側面として強調されており、TA チームとインストラクターを通じて個別の指導を受けることができます。グループ プロジェクトのチーム編成、Coursera でのクイズの実施、コースと他のクラスとの組み合わせなど、コースのロジスティクスについても説明します。
講義 2 - 深層学習の直感
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 2 - 深層学習の直感
講義の最初の部分では、画像分類、顔認識、画像スタイル転送など、深層学習のさまざまなアプリケーションに焦点を当てます。インストラクターは、深層学習モデルの開発におけるデータセットのサイズ、画像の解像度、損失関数などのさまざまな要因の重要性について説明します。深いネットワークを使用して画像をエンコードして有用な表現を作成するという概念についても説明し、顔認識で使用されるトリプレット損失関数に重点を置きます。さらに、講師は、画像分類に K-Means アルゴリズムを使用したクラスタリングと、画像からスタイルとコンテンツを抽出する方法について説明します。全体として、このセクションでは、成功する深層学習モデルの開発に関連するさまざまな手法と考慮事項を受講者に紹介します。
ビデオの 2 番目の部分では、画像の生成、音声認識、オブジェクト検出など、さまざまな深層学習のトピックについて説明します。講演者は、問題が発生したときに専門家に相談することの重要性と、ディープ ラーニング プロジェクトを成功させるための重要な要素である、戦略的なデータ取得パイプライン、アーキテクチャ検索、およびハイパーパラメータ チューニングを強調しています。このビデオでは、ディープ ラーニングで使用されるさまざまな損失関数についても説明します。オブジェクト検出損失関数には、大きなボックスよりも小さなボックスのエラーに大きなペナルティを課す平方根が含まれています。ビデオは、今後のモジュールと課題の要約で締めくくられます。これには、必須の TA プロジェクト メンターシップ セッションと、ニューラル スタイルの転送に焦点を当てた金曜日の TA セクションと、潜在的な GPU クレジットの AWS フォームへの記入が含まれます。
講義 3 - フルサイクルの深層学習プロジェクト
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 3 - フルサイクルの深層学習プロジェクトフルサイクルの深層学習プロジェクトに関するこの講義では、講師は、問題の選択、データ収集、モデル設計、テスト、展開、保守など、成功する機械学習アプリケーションを構築するためのすべての側面を考慮することの重要性を強調します。講師は、音声起動デバイスの作成例を通じて、深層学習プロジェクトに関連する主要なコンポーネントについて説明し、生徒がそれぞれの分野にプラスの影響と独自の貢献をもたらす可能性のある実行可能なプロジェクトに集中するよう奨励します。また、インストラクターは、データを迅速に収集し、プロセス全体で適切なメモを取り、開発中に反復することの重要性を強調し、音声アクティベーションと音声アクティビティ検出への具体的なアプローチについても説明します。
講義の第 2 部では、機械学習プロジェクトにおける監視と保守の重要性に焦点を当てます。特に、モデルが現実の世界で適切に機能することを確認するためにモデルを継続的に監視および更新する必要性について説明します。講師は、機械学習モデルの精度を損なう可能性があるデータ変更の問題に対処し、モデルが引き続き効果的に機能することを保証するために、継続的な監視、データ収集、およびモデルの再設計の必要性を強調します。この講義では、音声アクティビティ検出システムで非 ML システムとトレーニング済みニューラル ネットワークを使用した場合の影響についても説明し、手動でコーディングされたルールは一般にデータの変化に対してより堅牢であることを示唆しています。講師は、モデルを再トレーニングするためのデータを収集する際には、データのプライバシーに細心の注意を払い、ユーザーの同意を得る必要があると結論付けています。
この課題に対処するために、より単純なアルゴリズムを使用して、誰かが話しているかどうかを検出してから、オーディオ クリップを大規模なニューラル ネットワークに渡して分類します。このより単純なアルゴリズムは音声アクティビティ検出 (VAD) として知られており、携帯電話で使用されるものを含む多くの音声認識システムの標準コンポーネントです。
講義 4 - 敵対的攻撃 / GAN
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 4 - 敵対的攻撃 / GAN
このレクチャーでは、敵対的な例の概念を紹介します。これは、事前にトレーニングされたニューラル ネットワークを欺くためにわずかに変更された入力です。講義では、これらの攻撃がどのように機能するかの理論的基礎を説明し、ディープラーニングで敵対的な例を利用する悪意のあるアプリケーションについて説明します。講義では、本物のように見える画像を生成できるモデルをトレーニングする方法として、Generative Adversarial Networks (GAN) も紹介し、GAN モデルのジェネレーターのコスト関数について説明します。最後に、生成された例を与えられたときの D の出力の対数グラフについて説明して、講義を締めくくります。
この講義では、Generative Adversarial Networks (GAN) に関連するさまざまなトピックを取り上げます。これには、GAN をトレーニングするためのヒントとコツ、およびイメージからイメージへの変換における GAN のアプリケーションと、CycleGAN アーキテクチャを使用した対になっていない生成的な敵対的ネットワークが含まれます。 GAN の評価についても説明します。ヒューマン アノテーション、分類ネットワーク、インセプション スコア、フレシェ インセプション ディスタンスなどの方法は、生成された画像のリアリズムをチェックするための一般的な方法です。
講義 5 - AI + ヘルスケア
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 5 - AI + ヘルスケア
この講義では、ヘルスケアにおける AI アプリケーションの概要を説明します。彼は、説明、診断、予測、処方など、AI が答えることができる質問の種類を分類しています。次に、著者は、さまざまな医療問題への AI の適用を示す、彼の研究室からの 3 つのケース スタディを紹介します。 1 つの例は、深刻な不整脈の検出です。専門家が誤診した可能性がありますが、機械によって検出される可能性があります。もう 1 つの例は、畳み込みニューラル ネットワークを使用して、膝の MR 検査から異常を特定することです。具体的には、ACL 断裂と半月板断裂の可能性を特定します。最後に、講演者は、ヘルスケア AI におけるデータ分散とデータ拡張に関連する問題について説明します。
第 2 部では、ヘルスケア アプリケーションでのディープ ラーニングの実装に関連するさまざまなトピックについて説明します。自動運転車の音声認識の問題に対する企業のソリューションによって実証されているように、データ拡張の重要性が議論されています。追加するレイヤーの数やフリーズするレイヤーの決定など、ヘルスケア アプリケーションの転移学習に関連するハイパーパラメーターについても説明します。その後、講義は画像分析に移り、ラベル付きデータセットに境界を追加することの重要性が強調されます。医用画像解析におけるオブジェクト検出とセグメンテーションの利点と違いについて説明し、ゼロまたは 1 でラベル付けされた医用画像のバイナリ分類のトピックを紹介します。講義は、深層学習におけるデータの重要性とコースの今後の評価について議論することで締めくくられます。
講義 6 - 深層学習プロジェクトの戦略
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 6 - 深層学習プロジェクトの戦略
このビデオでは、スピーカーは、機械学習プロジェクトの成功を測定するための適切な指標を選択することの重要性について説明しています。選択した指標は、当面の問題と望ましい結果を反映する必要があります。講演者は、精度、精度、再現率、F1 スコアの例を示し、それぞれをいつ使用する必要があるかを説明します。また、検証セットとテスト セットの違いについても説明し、両方を使用することが重要である理由を説明しています。さらに、スピーカーは、学習アルゴリズムの有効性を測定するための比較のポイントとして、ベースライン モデルの必要性を強調しています。最後に、スピーカーは、バイナリ分類のしきい値の選択と、クラスの不均衡に対処する方法について、聴衆からのいくつかの質問に対処します。
講義 7 - ニューラル ネットワークの解釈可能性
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 7 - ニューラル ネットワークの解釈可能性この講義では、講師は、顕著性マップ、オクルージョン感度、クラス アクティベーション マップなど、ニューラル ネットワークを解釈して視覚化するためのいくつかの方法を紹介します。クラス アクティベーション マップは、ニューラル ネットワークの中間層を解釈するために使用されます。これは、出力を入力空間にマッピングし直して、意思決定プロセスにおいて入力のどの部分が最も識別力があったかを視覚化することによって行われます。教授はまた、畳み込みニューラル ネットワークで空間情報を維持する方法としてのグローバル平均プーリングと、画像セグメンテーションなどのタスクのために画像の高さと幅をアップサンプリングする方法としてのデコンボリューションについても説明しています。さらに、講義では、畳み込みフィルターにおける直交性の仮定と、サブピクセル畳み込みを視覚化アプリケーションでの再構成に使用する方法について説明します。
この講義では、サブピクセル畳み込み、2D デコンボリューション、アップサンプリング、アンプーリング、DeepViz ツールボックスや Deep Dream アルゴリズムなどのツールの使用など、ニューラル ネットワークを解釈および視覚化するためのさまざまな方法について説明します。講演者は、ネットワークの最初の層でフィルターを視覚化すると解釈が容易になることを説明していますが、深く掘り下げるほど、ネットワークを理解するのが難しくなります。スピーカーは、さまざまな層の活性化を調べることで、特定のニューロンが特定の機能にどのように反応するかを示します。ニューラル ネットワークの解釈には限界がありますが、視覚化技術は、セグメンテーション、再構築、敵対的ネットワークの生成などの洞察と潜在的なアプリケーションを提供できます。
講義 8 - キャリアアドバイス / 研究論文を読む
スタンフォード CS230: ディープラーニング | 2018年秋 |講義 8 - キャリアアドバイス / 研究論文を読むこの講義では、Andrew Ng 教授が研究論文を効率的に読み、急速に進化する深層学習の分野についていく方法についてアドバイスを提供します。彼は、図や表に注意を払うだけでなく、序文と結論のセクションで研究を要約することの重要性を強調しています。 Ng はキャリアに関するアドバイスも共有しており、求職者は AI と機械学習の複数の分野で幅広く深い知識を持ち、成長の機会を最大化するために有名なブランドではなく個人と協力することに集中することを推奨しています。彼は、一貫して論文を読み、コースやプロジェクトを通じて水平および垂直の両方のスキルを構築して、機械学習の強力な基盤を構築することを提案しています。