機械学習とニューラルネットワーク - ページ 6

 

人工知能の歴史 [ドキュメンタリー]



人工知能の歴史 [ドキュメンタリー]

人工知能の歴史のドキュメンタリーでは、SF 作家や映画産業によって生み出された「考える機械」の概念の初期の時代から、AI とディープ ラーニング プロセスの今日の進歩までを紹介します。 AI、機械が人間のように学習する能力、およびコンピューターの動作の背後にある原理。このビデオでは、コンピューターの限界、その発展の可能性、人工知能 (AI) の将来の可能性について探っています。科学者たちは、機械が新しいアイデアを考えて生み出すことができる可能性について議論しており、その目標は、経験によって学習し、概念を形成し、論理を実行できる、より一般的なコンピューター システムを作成することです。 AI への第一歩は、経験から学習できる小型のコンピューティング マシンで見ることができます。これは、迷路を解く電気制御マウスの例に示されています。

第 2 部では、思考、感情、および創造性の観点から、コンピューターの限界と可能性を探ります。コンピューターは論理演算や数学的計算に優れていますが、認識、パターン認識、一般化、ブロックの認識、言語の翻訳、単純なタスクの実行には苦労しています。初期の結果は圧倒的なものでしたが、SHRDLU や TENDRIL などのエキスパート システムやプログラムは、コンピューターが知識を使用してあいまいさと言語学習を解決する方法を示しました。しかし、事実に基づいた知識と、人々が時間の経過とともに獲得する経験の両方を含む常識的な知識を教えるという課題は残っています。ニューラル ネットワークは、最初は魅力的ですが、制限があり、小さなタスクにしか取り組むことができません。研究者は、完全に人工的なバージョンを構築する前に、自然が脳内で多くのマイクロマシンを構築および調整する方法を理解するようにコンピューターをトレーニングする必要があります。

第 3 部では、人工知能の歴史と未来に関連する幅広いトピックを取り上げます。 Cyc プロジェクトや AI における一般的な自然言語理解の可能性など、常識に基づいた汎用インテリジェンスを達成するための継続的な取り組みについて説明します。知性の正式なモデルの必要性や心理学の役割など、人間のような知性を達成するための課題も探究されています。インタビュー対象者は、心理学の分野に対するコンピューターの影響、非単調な推論によってもたらされる課題、および概念的なブレークスルーの必要性について議論します。批判はあるものの、インタビュー対象者は、AI の目標を、私たちが自分自身をよりよく理解するのに役立つ高貴なプロジェクトと見なしています。

  • 00:00:00 このセクションでは、「考える機械」のアイデアがまだ夢であり、SF 作家と映画業界だけが持っていた 1950 年代に戻ります。映画「The Thinking Machine」では、機械が実際に考えることができるかどうかについての議論が行われましたが、人工知能の分野はまだ初期段階にあり、研究者はまだ理解していなかったため、当時はまだあまりにも突飛な概念でした。機械に真に新しいアイデアを生み出す方法。今日、このドキュメンタリーは、私たちが当たり前だと思っているテクノロジーの進歩に貢献してきた AI とディープ ラーニング プロセスの進歩を思い出させてくれます。

  • 00:05:00 トランスクリプトのこのセクションでは、子供がアルファベットを教えられており、心理学者が脳がパターンを認識する方法について質問しています。次に会話は、初めてアルファベットを見せられることで、子供の頃と同じ学習プロセスを模倣するコンピューターの可能性に移ります。コンピューターはテストされており、完全ではありませんが、より多くの情報が提示されるほど正確に文字を識別することができます。機械が人間のように学習できる可能性が探究されていますが、機械の具体的な思考プロセスはまだ不明であり、コンピューターの有用性の全範囲が発見されつつあります。

  • 00:10:00 このセクションでは、サイモンとニューウェルという名前のカーネギー工科大学の教授のグループが、宣教師と人食い人種のパズルのような論理的な問題を理解しようとしている様子が示されています。彼らは、3 人の宣教師と人食い人種すべてに、一度に 2 人しか乗れないボートで川を渡らせるという問題に対処することで、彼らの進歩を表しています。教授間の会話は、バーバラという名前の学生の 1 人が、コンピューターが現在再現している問題の解決策を考え出したことを明らかにしています。さらに、教授はコンピューターに対してチェッカーをしている男性のデモンストレーションを示し、コンピューターにプログラムされた確率または合理性に基づいて学習するコンピューターの能力に注意を向けます。

  • 00:15:00 このセクションでは、ビデオはコンピューターがどのように機能するかという問題を探り、コンピューターが入力を受け取り、数学演算を使用して処理し、プログラミングを通じて結果を出力することを説明します。コンピューターと生きている神経系には類似点がありますが、神経生理学者は、類似点よりも多くの相違点があると考えています。ビデオはまた、人間は遺伝と経験の両方によってプログラムされているという考えにも触れており、孤立して育てられたアヒルの子がガチョウのシルエットを認識できなかったという実験を提供しています.全体として、このセクションでは、コンピューターがどのように機能するかの背後にある原理を簡単に説明し、機械と生物の両方でのプログラミングに関するいくつかのアイデアに飛び込みます。

  • 00:20:00 このセクションでは、2 人の男性が動物のプログラミングと本能の概念について議論します。ガチョウとタカを区別するアヒルの能力は本能の例であると主張する人もいれば、これまで考えられていたよりも多くの組み込みの知識を持って生まれた動物もいると示唆する人もいます.彼らはカエルで行われた研究を分析し、カエルの目の繊維は、動きや潜在的な獲物など、カエルの生存に関連する特定のことだけを脳に報告することを示唆しています.この理論は、まだ広く受け入れられていませんが、本能の存在を説明できます。

  • 00:25:00 このセクションでは、研究者が 5 歳の子供を対象に実験を行って、人間が生まれながらに特定の能力を持っていることを証明しています。子供は自分のグラスに研究者のグラスと同じ量の牛乳を入れるように言われますが、彼は同じ量だと思って縁までミルクを入れます。これは、私たちの周りの世界についてのいくつかの概念が私たちの心の中で先入観を持っており、私たちの周りの世界の概念を形成するために私たちの目に依存していることを示唆しています.このビデオは、私たちが目で見ているものが常に正確であるとは限らず、錯覚が私たちの脳に悪影響を及ぼす可能性があることを証明しています.

  • 00:30:00 このセクションでは、教授が別の男性に、先入観や規則に基づいて人間がどのように反応するようにプログラムされているかについて話します。男は、コンピューターが何か独創的なことができるかどうかを疑問視し、教授は、ハリソン・モースというプログラマーの助けを借りて、コンピューターによって書かれた戯曲を彼に見せます。聴衆は劇のプリントアウトに驚き、教授はこれは魔法ではなく、うまく設計されたプログラムの結果であると説明します。

  • 00:35:00 このセクションでは、MIT のスタッフ メンバーである Doug Ross が、プログラムを使用して、知的行動を構成するルールを示すプレイレットを作成した方法を説明しています。彼らは、インテリジェントな行動がルールに従う行動であることを強調し、コンピューターが創造的な仕事をする方法を示しています。彼らは、コンピューターが合理的な行動を決定するために使用するルールについて言及し、強盗の行動に影響を与える酩酊要因をプログラムしました.彼らは、これらのことを機械で行うことに黒魔術はないことを強調し、コンピューターが毎回異なる戯曲を書き、その創造性を実証していることを示しています。

  • 00:40:00 このセクションのビデオでは、コンピューターの限界とその発展の可能性を探っています。このアニメーションは、コンピューターのプログラミングに伴う試行錯誤のプロセスと、エラーの可能性を強調しています。次に、ビデオは、コンピューターを使用して人間の脳内の信号を研究する実験を示し、コンピューターが学習プロセスの理解を向上させる可能性を強調しています。次にビデオは、視聴者にリンカーン研究所と、世界最大かつ最も用途の広いコンピューターの 1 つであるその TX2 コンピューターを示します。ビデオは、TX2 などのコンピューターが学習プロセスの研究に使用されていること、およびコンピューターが科学的目的のために世界的に開発されていることを示唆しています。

  • 00:45:00 このセクションでは、機械が新しいアイデアを考えて生み出す可能性について、科学者が議論します。機械やコンピューター プログラムがインテリジェントに動作し、人間が知的作業の負担を軽減できるようになると信じている人もいれば、機械が真の創造的思考を行えるようになるかどうか疑問視する人もいます。コンピューターの未来は、さまざまな方法で機械を動かしたり、人間がコンピューターを操作するように新しいことを学習したりするなど、直接的および間接的な影響を与えると予測されています。第 2 次産業革命は、コンピュータが人間の心を支援する時代になると予想されており、人間の支援を受けて機械ができることの可能性は想像しがたいものです。

  • 00:50:00 このセクションでは、人工知能 (AI) の可能性と、将来の発展の可能性に焦点を当てています。目標は、経験によって学習し、概念を形成し、論理を実行できる、より一般的なコンピューター システムを作成することです。それは、感覚器官、大規模な汎用の柔軟なコンピューター プログラム、および出力デバイスで構成されます。進歩が見られる一方で、テクノロジーの影響を管理することについて懸念があります。しかし、ある科学者は、それを正しく処理すれば、より良い世界を作ることができると信じています。 AI への第一歩は、経験から学習できる小型のコンピューティング マシンで見ることができます。これは、迷路を解く電気制御マウスの例に示されています。

  • 00:55:00 このセクションでは、電話リレーとリード スイッチのシステムによって制御され、迷路をナビゲートするマウスのデモンストレーションを確認します。マウスは、新しい情報を追加し、変化に適応することができます。このデモンストレーションでは、マウスが古い古い情報を新しい迷路構成について学習しているものに置き換える様子を紹介しています。実際にマウスを動かすのは迷路の床の下にあるマシンですが、このデモンストレーションでは、実現可能なインテリジェントな動作の種類を垣間見ることができます。

  • 01:00:00 このセクションでは、ビデオで「思考」の定義と、それがコンピューターとどのように関係しているかを探ります。コンピューターは情報の保存と呼び出しに優れていますが、それだけでは真の思考はできません。ただし、コンピューターは、データを分析して最善の手を決定するチェスなどの論理演算を実行できます。この基本的な論理関数の表示により、一部のコンピューターはアマチュア チェス トーナメントで 1 位になりました。

  • 01:05:00 このセクションでは、コンピューターが論理演算を実行し、毎日何百万もの論理的決定を下すことができるが、視覚化と認識の能力が限られていることをビデオで説明します。コンピューターは絵を描いたり、デザインをシミュレートしたりできますが、パターンを認識して一般化することは苦手です。このビデオでは、異なる言語の単語間に 1 対 1 の対応がないため、コンピューターに言語を翻訳することを教えることの難しさも指摘しています。究極的には、コンピューターには、何かを考えたり、感じたり、配慮したりする能力が欠けています。

  • 01:10:00 このセクションでは、感情と創造性の観点からコンピューターの機能について説明します。コンピューターは実際に感情を感じることはできませんが、感情をシミュレートするようにプログラムすることはできます。同様に、創造性は人間だけの能力であると考えられがちですが、コンピューターはアニメーション映画や音楽を制作することさえできます。間違いを犯さずに実行できる数十億の数学演算を含め、コンピューターの有用性と効率性は否定できませんが、真に「考える」能力があるかどうかはまだ議論の余地があります.

  • 01:15:00 コンピューターがチェッカーのようなゲームをプレイし、複雑な問題を解決できることは、人工知能 (AI) の誕生につながりました。これは、マービン・ミンスキーとジョン・マッカーシーが率いる数学者グループによる探査のフロンティアとなり、MIT に AI の可能性を探求する部門を設立しました。ジム・スラグルのような学生は、微積分の問題を解決するプログラムを開発し、1960 年にはコンピューターが MIT 試験で A を取得することができ、平均的な学生と同様の成績を収めました。これは、コンピューターが知性を持つことができることを示し、機械が思考できる未来への希望を高めました。

  • 01:20:00 このセクションでは、ドキュメンタリーが人工知能の黎明期と、この分野の先駆者たちが脳の物理的な構造に関心を持っていなかった理由を探ります。彼らは心を象徴的な処理エンティティと見なし、脳は単に心が動くハードウェアにすぎませんでした。ドキュメンタリーは、自然のやり方をやみくもにコピーすることは必ずしも良い考えではなく、鳥の飛行方法に基づいた人工飛行の試みは惨事であったと主張しています.このドキュメンタリーは、MIT の科学者が世界と相互作用してブロックを積み重ねることができるコンピューターの精神を構築しようとしたときに生じた困難を強調しています。単純な作業のように見えて、ブロックを認識するのは実際には非常に複雑であると言われ、ブロックを離すとブロックがどうなるかについて、プログラムにはいくつかの奇妙なアイデアがありました。

  • 01:25:00 このセクションでは、ドキュメンタリーは、コンピューターに人間のように見て、動くように教えることの難しさを探っています。研究者たちは、視覚の計算問題が非常に巨大であることを発見したため、多くの人が、言語を知的に使用する機械の能力を測定する、チューリング テストとして知られる身体化されていない形の知性に焦点を当てることにしました。この目的のために作成された最初のコンピューター プログラムの 1 つは「Eliza」プログラムで、一連のトリックを使用して会話をシミュレートしましたが、おそらくチューリング テストに合格することはできませんでした。このドキュメンタリーは、人間の言語理解の複雑さが、人間のように意味と文脈を理解できる AI 言語モデルの開発をいかに困難にしたかを浮き彫りにしています。

  • 01:30:00 このセクションでは、コンピューターを使用して言語を翻訳する初期の試みについて説明します。この試みは、あいまいさと文脈の問題により深刻な問題に直面しました。コンピューターが人間の翻訳者に取って代わることができるという主張にもかかわらず、言語の複雑さと人間の共通の知識と理解の必要性により、この作業は予想よりもはるかに困難になりました.コンピューターが顔を認識できず、言語を学習できず、服を着るなどの簡単なタスクを実行できないということは、人々が簡単だと思っていることを AI が実行するのは実際には非常に難しいことを示しています。 AI の失敗は、資金の減少とこの分野の暗い見通しにつながりました。

  • 01:35:00 このセクションでは、当初の圧倒的な結果にもかかわらず、SHRDLU と呼ばれる Terry Winograd のプログラムが、コンピューターが知識を使用して曖昧さと言語学習を解決できることを示したことを確認します。ただし、ブロックのシミュレートされたミクロの世界に限定されていました。その後、エドワード・フェイゲンバウムと彼の同僚は、狭い分野の専門家が意思決定に使用するルールを捉えた TENDRIL と呼ばれるシステムを開発しました。彼らは、狭い領域での専門家の行動には、数百の知識しか必要としないことを発見しました。これは脆弱であることが証明された専門家システムの開発につながり、彼らの知識の分野の外で動作する柔軟性に欠けていました.

  • 01:40:00 このセクションでは、1970 年代の言語研究者が、コンピューターに子供のように単純な物語をたどらせようとしたときに直面した課題をドキュメンタリーで取り上げています。彼らは、問題はストーリーが語っていることではなく、あまりにも明白すぎて言及する価値がないために語られなかった膨大な数の事柄にあることを発見しました.研究者は、コンピューターが遭遇する可能性のあるさまざまな状況 (誕生日パーティーなど) に合わせてフレームまたはスクリプトを作成するというアイデアを開発しました。これには、誕生日パーティーで通常発生するすべてのことが含まれます。ただし、課題は、状況やコンテキストに固有ではない一般的な背景知識をどのように含めるかでした。この一般的な知識は、常識的な知識の問題を生み出し、単純な物語を解釈するようにコンピューターに教えることを困難にしました。

  • 01:45:00 このセクションの抜粋では、常識的な知識と、それを機械に教えることの難しさについて説明しています。常識知識とは、物を離すと落ちることを知っているなど、誰もが共有する直感的な知識です。しかし、それは単なる事実の知識ではなく、人が時間をかけて獲得するスキルや経験でもあります。科学者は長い間、機械に人間のように知識を学習して獲得する方法を教えることに関心を持ってきましたが、コンピューターは非常に低レベルの学習から始まったため、膨大な量の常識的な知識が与えられるまで機械学習は効果的ではありませんでした。 PYSCH プロジェクトは、1984 年にテキサスで常識知識を入力するために作成された、AI の究極のテストでした。しかし、批評家は、本当の常識は人間の体に依存しており、常識は事実だけでなく、子供たちが時間をかけて習得する経験やスキルからも成り立っていると主張しました.

  • 01:50:00 このセクションでは、ビデオは常識知識の概念と、それが世界の経験を通じてどのように獲得されるかを探りますが、言語を通じて常識を獲得した身体的経験のない患者の事例も紹介します.次に、ビデオは、人工の心を構築するには、まず人工の脳を構築する必要があるという議論を掘り下げます。何千もの方法で接続された数十億のニューロンで構成される人間の脳の複雑さは、1950 年代に科学者に人工脳を構築するというアイデアを追求するよう促し、後にニューラル ネットワークに進化したパーセプトロンの開発につながりました。ニューラル ネットワークの最新の知覚モデルは、コネクショニストと呼ばれる成長しつつある動きであり、心ではなく脳による機械学習に焦点を当てています。

  • 01:55:00 試行錯誤の末、このセクションのドキュメンタリーはニューラル ネットワークとその限界に焦点を当てています。ニューラル ネットワークは当初は魅力的でしたが、対象範囲が狭いタスクしか克服できず、研究者はニューラル ネットワークがどのように学習するかをまだ完全には理解していません。戦車のある写真とない写真を区別するように学習するニューラル ネットワークの例は、ネットが誤った結論に達する可能性を強調しています。常識と同じくらい精巧なものを捉える小さなニューラルネットワークの可能性は興味深いものですが、研究者は、この長期的な目標は今日の技術ではまだ達成できないことを認めています.さらに、数百個のニューロンを超えるニューラル ネットワークを作成しようとすると、長いトレーニング時間が必要になるため、裏目に出ることがよくあります。したがって、研究者は、完全に人工的なバージョンを構築する前に、自然が脳内で多くのマイクロマシンを構築および調整する方法を理解する必要があります.

  • 02:00:00 このセクションでは、トランスクリプトは人工知能の実用的なアプリケーションがこの用語をどのように使用したかについて説明しますが、それらは常識に基づいて汎用目的の知能を達成するという本来の探求からはほど遠いものです。しかし、AI の探求は放棄されておらず、1984 年に Doug Leonard によって開始された Cyc プロジェクトは現在も進行中です。このプロジェクトは、言語を理解し、人間が知っていることすべてを学ぶのに十分な知性を構築することを目的としています。 Cyc プロジェクトの AI エンティティである Psyche は、身体や世界の直接的な経験を持たないソフトウェアであるにもかかわらず、データベースの矛盾を分析し、興味深い新しい発見をして、世界を独自の方法で見ていることを示しています。

  • 02:05:00 このセクションでは、人工知能における一般的な自然言語理解の可能性と、シンボリック AI の終焉を防ぐためにこれを達成する必要性に焦点を当てて議論します。 Psyche プロジェクトは、一般的な自然言語理解のチューリング テストに合格することに成功した場合、高い見返りの可能性を持つリスクの高いプロジェクトとして言及されています。このような成功は、未知のものを学習するための機械学習プログラムの開発につながり、それによって現在想像を絶する方法で知性を増幅する可能性があります。人工知能の創始者の 1 人であるジョン マッカーシー博士は、この分野の歴史を振り返り、人工知能が社会に与える影響を予測しました。

  • 02:10:00 このセクションでは、人間と同じくらい知的なコンピューター プログラムを実現することの難しさについて説明しています。数学的定理の解決などの困難な問題の初期の進歩にもかかわらず、音声の認識などの常識的なタスクは、コンピューター インテリジェンスにとって困難であることが証明されています。スピーカーと彼の同僚は、人間の知性と同等の正式な知性モデルの開発に取り組んできましたが、この目標を達成するにはさまざまなアプローチがあります。心理学の分野もこれに果たす役割があり、コンピューター サイエンスは行動主義から離れ、認知に関する洞察を得るのに役立ちました。

  • 02:15:00 このセクションでは、心理学の分野におけるコンピューターの影響と、意識の概念が両方の分野でどのようにアプローチされてきたかについて、専門家が議論します。コンピューターは心の働きについて大きな洞察を提供してきましたが、コンピューターが本当に自意識を持つことができるかどうかという問題は、依然として哲学的な議論の対象となっています。さらに、意識は機械のようにその部分の単なる総和であるという考えは完全に正確ではありません。心は特定の方法で相互作用する特殊な部分の複雑なシステムだからです。

  • 02:20:00 このセクションでは、人間の生理学と心理学についてさらに多くのことが発見されているため、人間は私たちの存在の機械的側面を超越する何かを持っているという見解の後退について、インタビュー対象者が議論します。それにもかかわらず、人間の意識には、コンピュータ プログラムの機械では実現されていない側面がまだあります。 AI について楽観的なインタビュー対象者は、コンピューターのブルート フォースを適用できる問題のコレクションはかなり限定的であり、人工知能の中心的な問題は、知的行動に必要な世界に関する知識を表現することであると語っています。このためのツールとして数理論理が追求され、1970 年代後半には、何人かの人々が非単調推論と呼ばれるものを形式化する方法を発見し、常識領域における数理論理の力を大幅に拡張しました。

  • 02:25:00 このセクションでは、インタビュー対象者は、非単調な推論と、それがコンピューターにおける人間のような思考にどのように挑戦をもたらすかについて説明します.通常の論理は、より多くの前提を追加してより多くの結論を引き出すことによって機能しますが、人間の推論には常にその性質があるとは限りません。たとえば、「鳥」という用語には、飛ぶことができるという組み込みの前提があり、追加のコンテキストによって、そこから導き出される結論が変わる可能性があります。非単調推論は、この種の思考を形式化し、コンピューターにコンテキストの認識を導入するための数学的ツールとして使用できます。ただし、コンテキストに関する課題は、説明できない例外が常に存在することです。したがって、反対の証拠がない限り、仮定が行われるシステムが必要です。

  • 02:30:00 このセクションでは、AI のパイオニアであるジョン マッカーシーが、AI の歴史と、人間が人工知能を開発するのにこれほど時間がかかった理由について説明します。彼は、ライプニッツが命題計算法を発明できなかったことに見られるように、自分自身の精神的プロセスを観察する能力が限られているために進歩が妨げられたと説明し、命題計算法は代わりに 150 年後にブールによって発明されました。彼はまた、AI の未来には概念的なブレークスルーが必要であり、真の人間のような知性を機械で実現するには数十年から数百年かかる可能性があることも認めています。人間の知性を複製することは不可能であるという批判にもかかわらず、McCarthy は AI の目標を、自分自身をよりよく理解するための崇高なプロジェクトと見なしています。
The History of Artificial Intelligence [Documentary]
The History of Artificial Intelligence [Documentary]
  • 2020.03.26
  • www.youtube.com
Visit Our Parent Company EarthOne For Sustainable Living Made Simple ➤https://earthone.io/ This video is the culmination of documentaries that cover the hist...
 

人工知能の誕生



人工知能の誕生

このビデオでは、現代の人工知能 (AI) の誕生と、AI の「黄金時代」である 60 年代から 70 年代初頭にかけての楽観主義について説明しています。しかし、この分野は、70 年代半ばの最初の AI の冬など、直面する問題の難しさと計算性能の制限など、大きな課題に直面していました。

エキスパート システムは、この分野の転機となり、一般的なインテリジェンスの開発から狭いドメイン固有の AI に焦点を移し、ビジネス効率の向上に役立ちました。しかし、エキスパート システムを取り巻く誇大宣伝により、特に 1987 年の市場暴落後は資金が減少しました。このビデオでは、AI を理解して定義することの難しさを認識し、基本的な構成要素からより高度なアーキテクチャまで AI について学ぶためのリソースとして Brilliant を推奨しています。

  • 00:00:00 このセクションでは、「人工知能」という用語が最初に造られた 1956 年のダートマス夏の研究プロジェクトで、現代の人工知能が正式に誕生したことについて学びます。この会議は、機械がシミュレートできる知能のすべての機能を説明することで、人間の学習をシミュレートすることを目的としていました。 7つの側面には、言語、ニューラルネットワーク、抽象化、自己改善、ランダム性と創造性を使用するためのコンピューターのプログラミングが含まれていました.会議後の期間は、コンピューティングと AI の理論とアルゴリズムが実装され始めた AI の「黄金時代」として知られており、検索、セマンティック ネット、マイクロワールドなどの推論が含まれていました。これらのアルゴリズムは画期的であり、この分野に楽観主義を吹き込み、マービン・ミンスキーのような人々に、人工知能の作成は一世代で実質的に解決できると信じ込ませました。

  • 00:05:00 このセクションでは、人工知能の誕生と、それが 60 年代から 70 年代初頭にかけてどのように多くの楽観主義と誇大宣伝を生み出したかをビデオで探ります。これにより、主に政府から AI の研究と実装に多額の資金が提供され、多くの研究機関が今日の AI 研究の最前線に立っています。しかし、70 年代半ばに、最初の AI の冬が始まりました。これは、彼らが直面した問題の難しさを認識できなかったことと、この時期にコンピューター サイエンスの分野がまだ定義されていたという事実とが相まっていたためです。ブレークスルーが限られた計算性能で行われたという事実や、モラベックのパラドックス (カーネギー メロン大学の AI とロボット工学の研究者であるハンス モラベックによって仮定された理論) など、5 つの問題が挙げられました。

  • 00:10:00 このセクションでは、エキスパート システムが、一般的なインテリジェンスの開発から狭いドメイン固有の AI に焦点を移すことによって、AI の分野で重要な転換点をどのようにマークしたかについて学びます。特定の分野の専門家の知識に基づくエキスパート システムは、デジタル機器企業が年間約 4,000 万ドルを節約した XCON ロジスティクス エキスパート システムに見られるように、目に見える現実世界の影響を与え、ビジネスの効率を向上させるのに役立ちました。さらに、エキスパート システムの台頭によりコネクショニズムが復活し、情報を学習して処理するための実行可能な方法として登場しました。 AI をトレーニングする方法であるホップフィールド ネットとバックプロパゲーションは、この時期に普及し、洗練され、ディープ ラーニングへの道が開かれました。しかし、エキスパート システムへの期待が制御不能になり、脆弱で条件付きロジックに基づくシステムに亀裂が入り始めると、1987 年の世界市場の暴落が一因となり、AI への資金は再び減少しました。

  • 00:15:00 このセクションでは、特に過去 100 年間に行き来したハイプ サイクルによる、人工知能 (AI) の定義と理解の課題について議事録で説明しています。このビデオは、ディープ ラーニングから人工知能まで、AI の流行語の盛衰によって生じた混乱を認めています。希望は、深層学習システムにおけるドメイン固有の専門知識など、AI の現在の実用的なアプリケーションから誇大広告を切り離すことです。このビデオでは、個人が頭脳を研ぎ澄まし、基本的な構成要素からより高度なアーキテクチャまで AI について学ぶためのリソースとして Brilliant を推奨しています。
The Birth of Artificial Intelligence
The Birth of Artificial Intelligence
  • 2020.04.23
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

教師あり機械学習の説明




教師あり機械学習の説明

ビデオでは、教師あり学習にはラベル付きデータセットが含まれ、入力変数から出力変数へのマッピング関数を学習することを目的としていることが説明されています。ラベル付けされたデータセットはトレーニング セットとテスト セットに分割され、モデルはトレーニング セットでトレーニングされ、テスト セットで評価されて精度が測定されます。
ビデオでは、モデルが複雑すぎてトレーニング セットに近づきすぎて、新しいデータのパフォーマンスが低下する場合にオーバーフィッティングが発生する可能性があることを指摘しています。一方、モデルが単純すぎてデータの複雑さを捉えることができない場合には、アンダーフィッティングが発生します。このビデオでは、アヤメのデータセットの例を示し、デシジョン ツリー アルゴリズムを使用して、測定値に基づいて新しいアヤメの花の種を予測するモデルをトレーニングするプロセスについて説明します。

  • 00:00:00 このセクションでは、過去のデータに基づいて予測を行うために使用できる機械学習の定義と目的をビデオで説明しています。このビデオでは、変数間の関係を測定し、最適な線を作成し、その線を使用して新しいデータを予測する回帰の例を示します。ビデオでは、このアイデアを拡張して分類の問題を説明します。これには、ラベル データの追加と、新しいデータの出力ラベルを分類するための決定境界の作成が含まれます。このビデオでは、このモデルの精度を調べ、機械学習アルゴリズムがモデルの精度を最大化しようとしていることを説明しています。このビデオでは、決定木は、エキスパート システムと同様に、条件付きステートメント ベースのアプローチを使用する一種の機械学習アルゴリズムであると述べています。

  • 00:05:00 このセクションでは、サポート ベクター マシンや、より高次元の空間に追加の変数を追加する方法など、機械学習に使用できるさまざまな種類のアルゴリズムについて詳しく説明します。このビデオでは、人工知能、ビッグデータ、データ サイエンスの交差点についても触れていますが、データ サイエンスと統計は単純化のために同じものと見なされています。このビデオでは、学習モデルの 2 つの主要なモードである回帰と分類で構成される教師あり学習について説明し、パターン認識問題の本質的な統計数学を機械学習と呼びます。このビデオは、教師なし学習と深層学習についての言及で締めくくられています。これについては、今後のビデオで取り上げる予定です。また、これらの概念の背後にある数学と科学について詳しく知りたい人向けの Brilliant.org の推奨事項についても説明します。
Supervised Machine Learning Explained
Supervised Machine Learning Explained
  • 2020.05.07
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

教師なし機械学習の説明



教師なし機械学習の説明

ビデオでは、教師なし機械学習について説明しています。教師なし機械学習は、ラベル付けされていない非構造化データを処理し、主に非構造化データから構造を導出するために使用されます。アソシエーションとクラスタリングの 2 つのタイプに分けられます。クラスタリングでは、K-means クラスタリングなどのアルゴリズムを使用して、決定空間を個別のカテゴリまたはクラスターに分割します。

アソシエーションの問題は、データ セットの特徴間の相関関係を特定します。意味のあるアソシエーションを抽出するには、次元削減によって列の複雑さを軽減する必要があります。このプロセスには、データ ポイントを表すために必要な特徴の数を最小限に抑え、意味のある結果と関連付けを達成すると同時に、適合不足または過剰適合を防止することが含まれます。ビデオの最後の部分では、楽しく相互に関連した数学と科学の学習を提供し、未来学コンテンツを表示するためのプレミアム サブスクリプションで 20% 割引を提供するプラットフォームである Brilliant で数学と科学を学習するという概念を紹介しました。この動画では、Patreon または YouTube メンバーシップでのチャンネルのサポートも求め、コメントで今後のトピックに関する提案を歓迎しました。

  • 00:00:00 このセクションでは、ラベル付けされておらず、構造化されていないデータ用の教師なし機械学習について学びます。これは、現実世界のほとんどの問題を代表するものであり、ビッグデータと人工知能の分野が交差する中で発生します。教師なし学習は、主に非構造化データから構造を導出するために使用されます。このタイプの学習は、関連付けとクラスタリングという 2 つの主要なタイプに分類されます。クラスタリングには、K-means クラスタリングなどのアルゴリズムの使用が含まれます。この場合の目標は、多数のデータ ポイントを含む決定空間を、指定された数の個別のカテゴリまたはクラスターに分割することです。これは、最初に重心を追加してから、重心を更新しながらデータ ポイントを新しいクラスターに繰り返し再割り当てすることによって行われます。

  • 00:05:00 このセクションでは、教師なし学習におけるクラスタリングからアソシエーションに焦点を移します。関連問題は、類似したデータ ポイントをグループ化するクラスタリングとは異なり、データ セットの特徴間の相関関係を識別します。意味のある関連付けを抽出するには、データ ポイントを一意に表す機能の数を最小限に抑える次元削減によって、データ セット内の列の複雑さを軽減する必要があります。特徴抽出は、最適な数の特徴を選択して、データ セットの適合不足または過剰適合を回避することによって実行できます。次元削減は、高次元のデータを低次元の多様体で表すことができる多様体学習によって実現されます。データセットの低次元表現には、問題を表現し、意味のある結果と関連付けを生成するために必要な削減された機能セットが含まれています。特徴エンジニアリングは、次元削減、特徴選択、および抽出を含む機械学習のサブフィールドです。

  • 00:10:00 ビデオのこの最後のセグメントでは、チャンネルで議論されている概念をより深く理解するために、数学と科学を学ぶという概念を紹介します。 Brilliant は、数学と科学の学習を刺激的で相互接続し、オフライン学習を提供するプラットフォームです。さらに、ユーザーは提供されたリンクにアクセスして、未来学について学び、プレミアム サブスクリプションで 20% 割引を受けることができます。最後に、視聴者は Patreon または YouTube メンバーシップでチャンネルをサポートし、今後のトピックに関する提案をコメントに残してください。
Unsupervised Machine Learning Explained
Unsupervised Machine Learning Explained
  • 2020.05.14
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

機械学習とは (機械学習の説明)



機械学習とは (機械学習の説明)

機械学習は、コンピューターが明示的にプログラムされていなくても学習できるようにする研究分野です。これには、アルゴリズムを使用して、データセットの決定空間に決定境界を形成することが含まれます。この機械学習の理解は、2 番目に広く使用されており、Tom Mitchell 博士によって確立されています。

機械学習は、コンピューティング能力とストレージの増加により、より大きくより良いデータを可能にし、ディープ ラーニングの台頭に起因する可能性があります。それが実行するタスクはしばしば分離され、ドメイン固有であるため、弱い人工知能として分類されます。機械学習にはさまざまなアプローチとモデルが含まれており、抽象化と単純化のために現実世界の問題の出力を 100% 正確に予測することはできませんが、幅広いアプリケーションで引き続き使用できます。 Brilliant は、機械学習やその他の STEM トピックについて学習するためのリソースの 1 つとして言及されています。

  • 00:00:00 このセクションでは、機械学習の意味と定義、および機械学習と人工知能との関係に焦点を当てています。機械学習は、コンピューターに明示的にプログラムしなくても学習する能力を与える研究分野です。これには、アルゴリズムを使用して、データセットの決定空間に決定境界を形成することが含まれます。モデルを形成するプロセスはトレーニングと呼ばれ、トレーニングされたモデルがトレーニング データで優れた精度を示すと、それを推論に使用して新しいデータ出力を予測できます。このプロセスは、カーネギー メロン大学のトム ミッチェル博士によって確立された、2 番目に広く使用されている機械学習の定義を定義します。

  • 00:05:00 このセクションでは、ビデオは機械学習の 5 つの主要な部族 (シンボリスト、コネクショニスト、進化論者、ベイジアン、アナロジザー) に焦点を当てて、機械学習と人工知能の台頭を探ります。さらに、AI の開発が、AI の黎明期に、より一般的で強力な AI を作成しようとすることから、さまざまな分野のドメイン固有の専門知識を獲得することに重点を置いた方法に移行したことを説明します。機械学習の台頭は、コンピューティング パワーとストレージの増加により、より大きくより優れたデータとディープ ラーニングの台頭が可能になったことに起因する可能性があります。さらに、このビデオでは、データが業界の大きなボトルネックとなっているために、AI のブレークスルーがどれだけ可能になったかについても触れています。

  • 00:10:00 このセクションでは、機械学習は人工知能の一種ですが、実行するタスクがしばしば分離され、ドメイン固有であるため、弱い AI に分類されることを説明しています。機械学習には、複雑なルールや決定木から進化に基づくアプローチなど、さまざまなアプローチが含まれており、そのすべてが、私たちの脳がやろうとしているのと同じように生命の複雑さをモデル化することを目的としています。抽象化と単純化により、モデルが現実世界の問題の出力を 100% 正確に予測することはできないことは認められていますが、機械学習モデルは依然として幅広いアプリケーションで役立ちます。このビデオは、視聴者が、さまざまな STEM トピックをカバーするコースと毎日の課題を提供するプラットフォームである Brilliant など、より多くを学ぶために追加のリソースを探すことを奨励しています。
What Is Machine Learning (Machine Learning Explained)
What Is Machine Learning (Machine Learning Explained)
  • 2020.05.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

ディープ ラーニングの説明 (およびディープ ラーニングが人気の理由)



ディープ ラーニングの説明 (およびディープ ラーニングが人気の理由)

このビデオでは、ディープ ラーニングが人気を博しているのは、データから直接特徴を学習でき、ニューラル ネットワークを使用してデータ セットの基礎となる特徴を学習できることにあると説明しています。ディープ ラーニングの台頭は、ビッグ データ、処理能力の向上、合理化されたソフトウェア インターフェイスに起因する可能性があります。

  • 00:00:00 このセクションでは、機械学習のコネクショニスト部族の成功により、ディープラーニングが人気を博した人工知能のサブフィールドであることをビデオで説明しています。深層学習システムは、データから特徴を直接学習し、ニューラル ネットワークを使用してデータ セット内の基礎となる特徴を学習できます。ディープ ラーニングの重要な要素は、手動で設計するのではなく、汎用の学習手順を使用してデータから特徴のレイヤーを学習することです。このビデオでは、入力画像内の顔を検出するニューラル ネットワークの例も示しています。低レベルの特徴から始めて、中レベルの特徴を識別し、最後に高レベルの特徴を発見して、さまざまな顔の構造を識別します。ビデオは最終的に、深層学習の真の誕生は 2012 年に行われた ImageNet コンペティションであり、勝利したアルゴリズムのエラー率は 16% であり、最も近い競合他社よりもほぼ 10% 優れていました。

  • 00:05:00 このセクションでは、ビッグデータの普及、コンピューティング能力の向上、TensorFlow などの合理化されたソフトウェア インターフェイス、ディープ ラーニングの処理能力などの要因によって、ディープ ラーニングの台頭がどのようにもたらされるかについて説明します。非構造化データ。このビデオでは、60 年代の単層パーセプトロン ネットワークから、数十層から数百層の最新のディープ ネットワークまで、ニューラル ネットワークの歴史的発展にも触れています。さらに、このビデオでは、深層学習の分野を深く掘り下げることに関心のある人にとって、優れた学習リソースとして Brilliant.org を推奨しています。
Deep Learning Explained (& Why Deep Learning Is So Popular)
Deep Learning Explained (& Why Deep Learning Is So Popular)
  • 2020.08.01
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

脳から AI へ (ニューラル ネットワークとは)




脳から AI へ (ニューラル ネットワークとは)

このビデオでは、人工ニューラル ネットワークの主要な要素である人工ニューロンの構成要素と、それが生物学的ニューロンの構造にどのように基づいているかについて説明しています。

また、あらゆる種類の入力に適用できるレイヤーごとのプロセスで、ニューラル ネットワークが大量のデータからどのように表現を導き出すかについても説明します。このビデオでは、blilliant.org にアクセスして、ディープ ラーニング アルゴリズムの基本的な構成要素について学習することをお勧めしています。

  • 00:00:00 このセクションのビデオでは、人工ニューラル ネットワークの主要コンポーネントである人工ニューロンの基本について説明します。人工ニューロンの構造は生物学的ニューロンに似ており、3 つの主要なコンポーネントがあります: 細胞体または核、他のニューロンに接続する樹状突起またはアーム、および細胞との間で情報を伝達する軸索またはロングテールです。体。ビデオは、深層学習ニューラル ネットワーク アーキテクチャの基本構造が、Santiago Ramon y Cajal の最初のニューロンの図から導き出された方法を示しています。この図は、樹状突起を入力、細胞体を処理中枢、軸索を出力として表しています。さらに、ニューロン間の接続またはシナプスがモデル化され、接続の強さが線の太さに関連付けられました。

  • 00:05:00 このセクションのビデオでは、膨大な量のデータから表現を導き出す際にニューラル ネットワークがどのように機能するかについて説明します。画像認識のピクセル値から、音声認識のための音声周波数、患者の病歴を予測するための患者の病歴まで、あらゆるタイプの入力に変換できるレイヤーごとのプロセスでこれがどのように発生するかを説明します。がんの可能性。このビデオでは、この分野についてさらに学ぶために、brilliant.org にアクセスすることを検討する必要があることも述べています。これは、脳を鋭く創造的に保ち、ディープ ラーニング アルゴリズムの基本的な構成要素を理解するためのプラットフォームです。
From The Brain To AI (What Are Neural Networks)
From The Brain To AI (What Are Neural Networks)
  • 2020.08.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

ニューラル ネットワークを作成する方法 » ウィキ便利ニューラル ネットワークの説明



ニューラル ネットワークを作成する方法 » ウィキ便利ニューラル ネットワークの説明

このビデオでは、ニューラル ネットワークがパターン認識機能をどのように形成するかを、関連する構造と数学について説明しています。画像を例として使用し、入力層、出力層ノードについて説明し、隠れ層の概念を紹介します。

次に、アクティベーション関数と、それらが入力信号を出力信号に変換する方法について詳しく説明します。双曲線正接関数と調整された線形単位レイヤーについて説明し、構築されたニューラル ネットワークには、あいまいでない値を確保するためにかなりの人間工学が必要であることが明らかになりました。ビデオでは、Brilliant.org で詳細を確認することをお勧めします。

  • 00:00:00 このセクションでは、ニューラル ネットワークの構造と数学についてさらに説明し、パターン認識機能がどのように形成されるかを確認することで、前回の続きからビデオを続けます。この複雑なトピックをよりよく理解するために、画像を直感的な例として使用します。入力層は画像を構成するピクセルとして定義され、出力層ノードは 4 つの異なるタイプの構造に対して任意に設定されます。次にビデオでは、入力値を再マップし、未加工のノード値に境界を追加するために適用されるアクティベーション関数を持つことができる隠れ層のアイデアを紹介します。非表示層ノードへの入力がランダムな入力画像によってどのように影響を受けるかを示すために、重みも組み込まれています。

  • 00:05:00 このセクションのビデオでは、アクティベーション関数が入力信号を出力信号に変換する仕組みについて説明しています。この出力信号は、ニューラル ネットワークの次の層で理解できます。例として双曲線正接関数を使用します。この関数は、X 軸のすべての値をマイナス 1 から 1 の間の Y 値にマップします。ノードを追加することで、受容野はより複雑になり、たとえば、3番目の隠れ層では、ネットワークは逆十字のようなパターンを認識し始めます。最後に、調整された線形ユニット レイヤーが導入されます。これは、負の値を調整し、正の値を同じに保ち、テストの準備が整った完成したニューラル ネットワークにつながります。

  • 00:10:00 このセクションでは、前のセクションで作成したニューラル ネットワークを詳細に分析して、入力画像のパターンを識別する方法を理解します。構築されたネットワークは完全ではなく、あいまいでない値を確保するにはかなりの人間工学が必要であることが明らかになりました。シリーズの次のビデオでは、勾配降下法とバックプロパゲーション、学習をディープ ラーニングに組み込む方法、およびネットワークが独自の表現を構築する方法について説明します。
How To Make A Neural Network | Neural Networks Explained
How To Make A Neural Network | Neural Networks Explained
  • 2020.09.26
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

コンピューターはどのように学習するか |ニューラル ネットワークの説明 (勾配降下とバックプロパゲーション)



コンピューターはどのように学習するか |ニューラル ネットワークの説明 (勾配降下とバックプロパゲーション)

このビデオでは、ニューラル ネットワークが隠れ層の重みを変更して学習し、ネットワークが重みを決定できるようにする方法について説明します。ニューラル ネットワークのエラー率を最小限に抑えるためにコスト関数の概念が導入され、ネットワークのパラメーターを調整する上で不可欠なプロセスとしてバックプロパゲーションが説明されます。

表現、評価、最適化を含む、機械学習の 3 つの主要コンポーネントは、コネクショニズムの部族でカバーされています。ビデオはまた、ネットワークが常に完全に抽象化されたレイヤーに配置されているとは限らないことにも注意しています。深層学習の目標は、ネットワークが独自に重みを学習して調整することです。

  • 00:00:00 このセクションでは、ニューラル ネットワークが実際に学習する方法に焦点を当てます。最初のステップは、以前に手動で設定した隠れ層の重みを変更してネットワークを調整し、ネットワーク自体がそれらを決定できるようにすることです。 181 の潜在的な重みがあるため、出力決定空間に対するそれぞれの影響を視覚化するのは困難な作業になります。物事を単純化するために、12 個の重みを持つ単純な数値が使用され、出力ノード方程式は決定境界でプロットされます。ここで、P は赤で Q より大きく、青で Q より小さくなります。ネットワークの加重値を変更すると、決定境界の傾きが変わります。シグモイド関数のような活性化関数が非線形性を追加するために適用されるまで、重みの微調整によるすべての変更は、直線を伴う線形出力になることが観察されます。深層学習を実現するための目標は、学習プロセスと重みの調整をネットワーク自体で行うことです。

  • 00:05:00 このセクションのビデオでは、コスト関数の概念と、それがニューラル ネットワークのエラー率を最小限に抑えるのにどのように役立つかを説明しています。このビデオでは、ニューラル ネットワーク パラメーターの値を調整する際に不可欠なバックプロパゲーションのプロセスについても説明しています。勾配降下は、移動する方向を決定する方法であり、バックプロパゲーションは実際にパラメーターをその値に調整して、ネットワークが目的の結果を生成できるようにします。目標は、加重値をグラウンド トゥルースに近づけて、コスト関数値を最小化することです。このプロセスは、重みが期待どおりの結果を生成するポイントになるまで、ネットワークをトレーニングしながら繰り返されます。

  • 00:10:00 このセクションでは、表現、評価、最適化を含む、コネクショニズムの部族における機械学習の 3 つの主要コンポーネントについて学びます。表現は、表現空間を定義するニューラル ネット関数を使用して実現され、評価は、コスト関数または効用関数を取得するために使用される、出力でのノードの二乗誤差を計算することによって行われます。最後に、最適化は、表現モジュールの空間を検索することによって達成されます。これは、勾配降下法と逆伝播によって達成されます。人工ニューラル ネットワークがどのように機能するかについて多くの一般化を行ってきましたが、まだカバーしていないことがたくさんあります。そのようなことの 1 つは、ネットワークが常に完全な抽象化レイヤーで構成されているとは限らないことです。
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
  • 2020.10.25
  • www.youtube.com
This video was made possible by Surfshark. Sign up with this link and enter the promo code 'Futurology' to get 83% off and an extra month free of your VPN pl...
 

ニューラル ネットワークのしくみ |ニューラル ネットワークの説明



ニューラル ネットワークのしくみ |ニューラル ネットワークの説明

このビデオでは、特定のしきい値に達したときにノードをジャンプ スタートしてアクティブ化するニューラル ネットワークのバイアス パラメーターと、パラメーターとハイパーパラメーターの違いについて説明しています。ハイパーパラメーターには最適化手法による微調整が必要です。

学習率についても説明し、オーバーフィッティングまたはアンダーフィッティングを回避しながら最適なレートを見つけるという課題が強調されています。特徴エンジニアリングはニューラル ネットワークに見られるもう 1 つのサブフィールドであり、アナリストは問題を正確に説明する入力特徴を決定する必要があります。このビデオでは、理論上の人工ニューラル ネットワークには完全な抽象化層が含まれますが、使用されるネットワークの種類が最も重要なハイパーパラメーターを選択することによって選択されるため、実際にははるかにランダムであることに注意してください。

  • 00:00:00 このセクションでは、深層学習に関する過去のビデオでは取り上げられなかったいくつかの概念について説明します。ニューラル ネットワークのバイアス パラメーターについて説明します。これは、表現を学習するために調整する必要があるもう 1 つのパラメーターです。バイアス パラメータの目的は、特定のしきい値に達したときにノードをジャンプ スタートして強力にアクティブ化することです。このビデオでは、バイアスが線形方程式の Y 切片であり、重みが勾配であることを説明しています。パラメータとハイパーパラメータの概念についても説明します。ここで、ハイパーパラメータはモデルの外部にある構成であり、その値はデータから推定することはできません。この議論は、ハイパーパラメータの調整と最適化が深層学習のサブフィールド全体であり、さまざまなパラメータの最適な値を見つけるためにさまざまな手法が必要であることを強調しています。ハイパーパラメータである学習率についても説明されており、学習率の値は、ニューラル ネットワークが構築する表現に大きな影響を与えます。

  • 00:05:00 このセクションの動画では、ニューラル ネットワークで理想的な学習率と特徴量エンジニアリングを見つけるという課題について説明しています。最適な学習率を見つけるには、ニューラル ネットワークが適切に機能することを確認するために多くの作業が必要です。学習率が不適切であると、オーバーフィッティングまたはアンダーフィッティングが発生し、計算能力と時間の消費が増加する可能性があります。一方、機能エンジニアリングは、アナリストが解決しようとしている問題を正確に説明する入力機能を決定する必要があるサブフィールドです。信号を強化してノイズを除去する機能をキャプチャすることが不可欠です。機能が少ない場合はアンダーフィッティングが発生する可能性があり、オーバーフィッティングはモデルが特殊化しすぎて新しいデータに対応できない場合に発生する可能性があるためです。

  • 00:10:00 このセクションの動画では、人工ニューラル ネットワークの理論的概念には完全な抽象化レイヤーが含まれているものの、実際にははるかにランダムであることを説明しています。最も重要なハイパーパラメータを選択することによって選択される、特定の問題に使用されるネットワークのタイプが、これが存在する大きな理由です。フィードフォワード ニューラル ネットワークは、理解しやすいため、通常、深層学習の学習に選択されます。しかし、畳み込みネットワークや再帰型ネットワークなど、さまざまな問題により適した多くのタイプのニューラル ネットワークが存在するようになりました。このビデオは、個人が頭脳を研ぎ澄まし、学際的な問題に対する創造的な解決策を考えるよう促すことで締めくくられています。
How Neural Networks Work | Neural Networks Explained
How Neural Networks Work | Neural Networks Explained
  • 2020.11.21
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....