機械学習とニューラルネットワーク - ページ 64

 

ベイジアン ハイパーパラメータの最適化



ベイジアン ハイパーパラメータの最適化

皆さん、こんにちは。私の名前はアーロンです。今日はベイジアン ハイパーパラメーター最適化について説明します。私が共有する情報は、トロント大学のロジャー・グロス教授の研究に基づいています。私はこのトピックには比較的慣れていませんが、ハイパーパラメータ調整のための自動手法の重要性を強調することが不可欠であると考えています。最近、言語モデリングに関する DeepMind の論文を見つけました。この論文では、慎重なハイパーパラメータ調整の重要性が示されています。彼らの結果は、単にハイパーパラメータの最適化により多くの労力を費やしたという理由だけで、他の最先端のモデルよりも優れたパフォーマンスを示しました。研究者として、さまざまなモデルを正確に評価および比較するには、ハイパーパラメータ調整に習熟することが重要です。

不十分なハイパーパラメータ調整の落とし穴: ハイパーパラメータ調整は人間に固有のスキルではありません。適切なチューニングを行わないと、ベースライン結果より実際には優れていないモデルを誤って公開してしまう可能性があります。これを回避するには、ハイパーパラメータの最適化に時間と労力を投資する必要があります。さらに、このスキルを習得することによってのみ最高のパフォーマンスを達成できます。まず、広い心でハイパーパラメータ調整に取り組むことが重要です。パラメーター値について先入観を持って判断するのではなく、あらゆる可能性を検討することをお勧めします。私は経験から、パラメーター空間を時期尚早に制限すると、時間が無駄になり、非効率なモデルが作成される可能性があることを学びました。

グリッド検索の問題: ハイパーパラメータ最適化の一般的なアプローチであるグリッド検索は推奨されません。プロセスの実用性を考慮すると、その欠陥が明らかになります。現実世界のモデルには多くのハイパーパラメータがあり、そのうちのいくつかは他のパラメータよりも影響力が大きくなります。グリッド検索を使用すると、関連するハイパーパラメータの部分空間に同じ点の重複が生成される可能性があります。これらの重複は無関係なパラメータの点でのみ異なるため、冗長な作業が発生します。したがって、どのパラメータが無関係であるかを判断する場合、グリッド検索は非常に非効率になる可能性があります。一方、ランダム検索は簡単な代替手段を提供します。ハイパーパラメータ値をランダムに選択することで、研究者はこの冗長性を軽減し、最適化プロセスを改善できます。高度な方法は存在しますが、通常はランダム検索に比べてわずかな改善しか得られません。したがって、ランダム検索により多くの時間を投資すると、同等の結果が得られる可能性があります。

ハイパーパラメータを効果的に最適化するためのヒント: ランダム検索の使用に加えて、ハイパーパラメータを効果的に最適化するための戦略が他にもいくつかあります。 1 つのアプローチは、事前の知識やその他の手順に基づいて決定または設定できるハイパーパラメーターを排除することです。パラメータの数を減らすことで、最適化プロセスがより管理しやすくなります。出版された論文の大部分は正しく調整されていないことが多いことも注目に値します。正確なチューニングを実現するには、多数の実験を行う必要があり、時間がかかる場合があります。したがって、研究者は可能な限り最高の結果を達成するために多大な時間を費やす準備をしておく必要があります。

ベイジアン ハイパーパラメータ推定: 次に、ハイパーパラメータ調整のためのベイジアン パラメータ推定のトピックを詳しく掘り下げてみましょう。ハイパーパラメータには、モデル サイズ、正則化、学習率、トレーニング期間など、モデル自体の一部として学習できないすべての変数が含まれます。通常、検証セットはパラメータの選択に使用され、パラメータのパフォーマンスはそれに応じて評価されます。ただし、このプロセスには勾配がないため、バックプロパゲーションを使用して解決される主な学習問題とは異なります。さらに、各実験の評価には計算コストがかかるため、ハイパーパラメータの組み合わせを戦略的に選択することが不可欠です。

ツールとしてのベイジアン回帰: ベイジアン回帰は、ハイパーパラメータ空間のさまざまな領域に関連する予想されるパフォーマンスと不確実性を定量化するのに役立つ便利なツールです。確率分布を可能な関数に当てはめることにより、ベイジアン回帰は、単に単一の線をデータに当てはめる場合と比較して、より微妙なアプローチを提供します。最初は観測がないため、標本関数は分散しているように見えます。しかし、より多くの観察が行われると、関数の分布は狭くなり、確実性の増加を反映します。

ハイパーパラメータ最適化のもう 1 つの重要な側面は、できるだけ多くのハイパーパラメータを削除する必要があることです。事前知識に基づいて、または別の手順を通じてハイパーパラメータの値を決定する方法がある場合は、それに応じて設定することをお勧めします。ハイパーパラメータが増えるほど、それらを効果的に最適化することが難しくなります。ハイパーパラメータの数を減らすことで、最適化プロセスが簡素化され、管理しやすくなります。

この分野で出版された論文のほとんどが正しく調整されていないことにも注目してください。適切な調整を達成するには、研究者が通常行うよりもはるかに多くの実験を実施する必要があります。本当にパターンを観察し、特定のパラメーター値をサポートする証拠を収集したい場合は、チューニング プロセスに多大な時間を投資する準備をしてください。

さて、Roger Gross によるスライドに戻りましょう。プレゼンテーションの焦点は、ハイパーパラメータを調整するためのベイジアン ハイパーパラメータ推定です。ハイパーパラメータは、モデルの一部として学習できないすべての変数を指し、モデルのサイズ、正則化、学習率、トレーニング期間など、選択したモデルを記述します。最適なモデルのパフォーマンスを達成するには、適切なハイパーパラメーターを選択することが重要です。

ハイパーパラメータ調整のための従来のアプローチであるグリッド検索は、非効率であるため推奨されません。グリッド検索では、ハイパーパラメータの組み合わせが重複して評価されることが多く、各ハイパーパラメータの関連性が考慮されません。代わりに、ハイパーパラメータ空間をより効果的に探索することをお勧めします。ランダム検索はグリッド検索の簡単な代替手段ですが、さらに高度な方法も利用できます。これについては後で説明します。

講演者は、広い心で始めて、考えられるハイパーパラメータ値の全範囲を検討することの重要性を強調しています。ハイパーパラメータの範囲について事前に判断すると、次善の結果が得られ、時間の無駄が生じる可能性があります。グリッド検索は作業が重複し、関連するハイパーパラメータを正確に特定できないため、ハイパーパラメータ検索方法としては避けることが重要です。ハイパーパラメータをランダムに選択することは、適切なベースラインを提供するため、合理的な代替手段となります。

ただし、ベイジアン回帰などのより高度な方法を使用すると、さらに優れた結果が得られます。ベイジアン回帰により、ハイパーパラメータ空間をモデル化し、各ハイパーパラメータ設定に関連する予想されるパフォーマンスと不確実性を推定できます。回帰モデルでは、個々の点に焦点を当てるのではなく、考えられるすべてのハイパーパラメータ値が考慮されるため、より多くの情報に基づいた意思決定が可能になります。

探索する次のハイパーパラメータのセットを選択するために、発表者は取得関数の概念を導入します。取得関数は、期待されるパフォーマンスの向上とハイパーパラメーター空間の不確実性を定量化します。探索と活用のバランスをとり、適切である可能性が高いが未探索のハイパーパラメータ設定を見つけることを目指します。

講演者は、スライドでは 1 次元の例を示していますが、ハイパーパラメータ空間は通常ははるかに高次元であるため、視覚化が困難であることを強調しました。ベイジアン回帰は、ガウス プロセスなどの手法を使用して高次元空間に適用できます。さまざまなモデリング手法が存在するため、計算コストや当面の特定の問題などを考慮して選択する必要があります。

さまざまなハイパーパラメータ最適化手法のパフォーマンスを評価するために実験が行われ、最小限の実験で最高のパフォーマンスを達成する手法が最も効果的であると考えられます。人間の専門家の推測とランダム検索に対して比較が行われ、高度な手法がこれらのベースラインを常に上回っています。

結論として、ベイジアン ハイパーパラメータ最適化は、ハイパーパラメータ空間を効果的に探索することでモデルのパフォーマンスを向上させるための強力なアプローチを提供します。これにより、グリッド検索の落とし穴を回避し、研究者が期待されるパフォーマンスと不確実性の推定に基づいて、より多くの情報に基づいた意思決定を行うことができるようになります。ただし、適切なハイパーパラメータ最適化方法を選択する際には、計算コスト、ハイパーパラメータの関連性、研究の全体的な目標を慎重に考慮することが不可欠です。

このプレゼンテーションは Roger Gross の洞察に基づいており、ハイパーパラメーターの最適化の重要性とベイズ手法の利点について貴重なガイダンスを提供していることに注意してください。メソッドとその実装をより詳細に理解するには、元の論文を参照するか、この分野でのさらなる研究を参照することをお勧めします。

Bayesian Hyperparameter Optimization
Bayesian Hyperparameter Optimization
  • 2017.08.17
  • www.youtube.com
#hangoutsonair, Hangouts On Air, #hoa
 

GAN



GAN

画像生成に敵対的生成ネットワーク (GAN) を使用する場合は、いくつかの考慮事項があります。この文脈において、GAN には長所と短所の両方があります。重要な利点の 1 つは、GAN では、複雑な損失関数を必要とせずに、生成された分布がターゲットの分布と同様になるように自然に強制されることです。これは、ジェネレーターとディスクリミネーターの間のミニマックス ゲームを通じて実現されます。 GAN は、基礎となる分布を学習することで、リアルな画像をエンコードする優れた方法を提供します。ただし、実際には、システムをトレーニングするときに追加の損失が必要になることがよくあります。

さまざまな目的に使用されるさまざまな種類の GAN があります。条件付き GAN を使用すると、条件付き確率分布に基づいてデータを生成できます。これは、単一の確率分布から生成する代わりに、生成器を特定の情報に基づいて条件付けできることを意味します。 Pix2Pix や CycleGAN などの他の GAN バリアントは、画像間の変換タスクに重点を置いています。これらのモデルは画像をあるドメインから別のドメインに変換し、スタイル転送や画像合成などのタスクを可能にします。

GAN のトレーニングは難しい場合がありますが、トレーニング プロセスの改善に役立つヒントがいくつかあります。 GAN では収束するまでに複数回の反復が必要になることが多いため、簡単に諦めないことが重要です。画像入力を -1 から 1 の間で正規化することは多くの場合有益であり、ラベル スムージングを適用してトレーニングの安定性を向上させることができます。ジェネレーターへの入力として均一に分布したノイズの代わりにガウス ノイズを使用することも役立つ場合があります。 GAN のトレーニングに利用できるヒントは他にもたくさんあり、GitHub リポジトリなどのリソースは包括的なリストを提供します。

GAN の実際の使用法を説明するために、CycleGAN を使用した画像間の変換の例を見てみましょう。このモデルは、明示的にペアになったトレーニング サンプルを必要とせずに、あるドメインから別のドメインに画像を変換することを目的としています。代わりに、各ドメインからのイメージのプールが使用され、目標は 2 つの変換を学習することです。1 つはドメイン X からドメイン Y へ、もう 1 つはドメイン Y からドメイン X へです。サイクル整合性項は、順方向の適用を確実にするために導入されています。画像を逆方向に変換すると、元の画像が返されます。このモデルは、GAN 損失やサイクル一貫性損失などの複数の損失を組み合わせて、ジェネレーターとディスクリミネーターをトレーニングします。

結果の評価はさまざまな方法で行うことができます。人間の評価者に実際の画像と生成された画像を区別するよう依頼する Mechanical Turk 研究を実施することができます。さらに、Intersection over Union (IoU) などの特定の評価指標を使用して、元のマップと比較した、生成されたセグメンテーション マップの精度を測定できます。

GAN は有望な結果を示していますが、GAN のトレーニングには依然として課題がある可能性があることは注目に値します。発生する可能性のある問題の 1 つは、ジェネレーターが限定的なバリエーションを生成するモード崩壊と色の保存の問題です。研究者は、より良い画像生成結果を得るために GAN モデルの探索と改善を続けています。

GAN のトレーニングを改善するために検討されているもう 1 つのアプローチは、プログレッシブ グロースと呼ばれます。従来の GAN トレーニングでは、ジェネレーターとディスクリミネーターは、トレーニング プロセス全体を通じて同じ解像度の画像上で同時にトレーニングされます。ただし、漸進的な成長には別のアプローチが必要です。

漸進的成長では、トレーニングは低解像度の画像から開始され、時間の経過とともに徐々に解像度が増加します。このアプローチの背後にある考え方は、モデルが最初に基本構造を学習し、その後、解像度が増加するにつれて徐々に詳細を洗練できるようにすることです。これはトレーニングプロセスを安定させるのに役立ち、より良い結果につながる可能性があります。

プログレッシブ GAN のトレーニング中に複数の解像度が使用され、解像度が増加するにつれて、ジェネレーター ネットワークとディスクリミネーター ネットワークの両方に新しいレイヤーが追加されます。モデルは階層的な方法でトレーニングされます。最初に低解像度のレイヤーがトレーニングされ、次に高解像度のレイヤーが追加されてトレーニングされます。

低解像度の画像から開始することで、モデルは全体的な構造を学習し、大まかな詳細を生成できます。解像度が増加するにつれて、モデルはより詳細なディテールをキャプチャし、よりリアルな画像を生成することに集中できます。この段階的なトレーニング プロセスは、GAN トレーニングでよくある課題であるトレーニングの不安定性やモードの崩壊を回避するのに役立ちます。

漸進的な成長は、顔、風景、オブジェクトなどのさまざまな領域にわたって高品質の画像を生成するのに効果的であることが示されています。これにより、より現実的なテクスチャ、より鮮明な詳細、および全体的な視覚品質が向上した画像を生成できます。

漸進的な成長に加えて、GAN トレーニングを改善するために使用できるテクニックやトリックが他にもあります。そのような手法の 1 つは、重み正規化、スペクトル正規化、勾配ペナルティなどの正則化手法の使用であり、これはトレーニングを安定させ、モード崩壊を防ぐのに役立ちます。

もう 1 つの重要な考慮事項は、損失関数の選択です。敵対的損失は GAN トレーニングの重要な要素ですが、多くの場合、学習プロセスをガイドするために追加の損失関数で補完されます。これらの追加の損失には、特定のタスクおよび必要な出力に応じて、知覚損失、特徴一致損失、または再構成損失が含まれる場合があります。

さらに、ネットワーク アーキテクチャ、活性化関数、最適化アルゴリズムなどのアーキテクチャ上の選択も、GAN のトレーニングに影響を与える可能性があります。最適な結果を得るには、多くの場合、これらの選択を実験して微調整する必要があります。

全体として、GAN のトレーニングは複雑でやりがいのあるタスクであり、さまざまな要素を慎重に考慮する必要があります。 GAN はリアルな画像の生成において目覚ましい成功を収めていますが、安定した高品質の結果を達成することは依然として活発な研究分野です。トレーニング技術、正則化方法、損失関数の進歩により、GAN が達成できる限界が押し広げられ続けています。

 

高速畳み込みアルゴリズム



高速畳み込みアルゴリズム

私の名前はタナーです。ダンからディープラーニングと実践セミナーで講演するように頼まれました。しかし、私はディープラーニングについての知識があまりないことにすぐに気づきました。それにもかかわらず、私はこのトピックの実践的な側面に焦点を当てることにしました。そこで、私は講演のタイトルを「どうやって心配をやめて CDNN を愛するようになったのか」または「どうやって畳み込みを速くできるのか?」としました。物事の実践的な側面を強調したかったのです。

まず最初に、参加者が次回のディープラーニングの集まりで共有できる楽しい事実を紹介しました。 comnet は実際には畳み込みを実行しないことが判明しました。彼らは相関関係を実行します。これは微妙な違いであり、議論に大きな影響を与えるものではありません。

次に、講演全体で使用するいくつかの表記法を紹介しました。一般的な畳み込みでは、一緒に処理される画像の数を表すバッチ サイズ (n) があります。カーネル サイズもありますが、簡単にするために正方形であると仮定します。さらに、入力のサイズとカーネルのサイズに応じて出力の幅と高さが決まります。さらに、入力チャンネル (c) と出力チャンネル (d) があります。

次に、最も簡単な実装である単純な畳み込みアルゴリズムについて説明しました。このアルゴリズムは、7 つのネストされた for ループで構成されます。最初の 4 つのループは並列化できますが、残りのループ (5 ~ 7) は同じ出力値を変更するため、課題が生じます。 GPU を使用する場合でも、メモリ アクセスが伴うため、これらのループの並列化は簡単ではありません。

概念を説明するために、3x3 畳み込みを伴う 4x4 入力の小さな例を示し、その結果 2x2 出力が得られます。各出力要素には 9 回の乗算が必要で、4 つの出力値すべてを計算するには 36 回の乗算が必要です。

次に、畳み込み計算を行列形式で表すテプリッツ行列形式の問題を紹介しました。この形式は、重みの共有と、選択的な重みの相互作用による多くのゼロの存在によって達成されるパラメータの節約を示しています。ただし、この行列表現では、入力と出力が大きくなるとメモリの課題が生じます。

これに対処するために、カーネルの代わりに入力がレプリケートされる、Cafe で使用される代替アプローチについて説明しました。入力の行列表現を作成すると、行列乗算を使用して畳み込み計算を効率的に実行できます。このアプローチの利点は、計算を並列化し、最適化されたハードウェアを利用できる CuBLAS のようなライブラリにアウトソーシングできることです。

また、計算をより小さなチャンクに分割し、計算とデータ転送の間のオーバーラップを可能にするストリーミング技術も強調しました。このアプローチは、メモリ制限を軽減し、全体的なパフォーマンスを向上させるのに役立ちます。

次に、1980 年代の論文を再検討することで、コンピューター ビジョンの進歩について説明しました。研究者らは、信号処理技術、特にアルゴリズムによる強度低減からインスピレーションを得て、畳み込みの速度を向上させることができました。

最小限のフィルタリング理論の概念について説明しました。これは、フィルタ サイズ (k) と出力幅 (w) による 1D 畳み込みが、わずか w + k - 1 回の乗算で達成できることを示しています。この乗算の削減は、計算を再構成し、乗算の代わりに追加の加算を可能にする中間値を導入することによって実現できます。

Weiner-Grassmann アルゴリズムの例を示しました。これは、乗算を最小限に抑えるために 1D 畳み込みをどのように構成できるかを示しています。このアルゴリズムを適用すると、特定の畳み込みに必要な乗算の数を減らすことができます。

これらの概念は 2D 畳み込みにも拡張でき、最小 1D 畳み込みを最小 2D 畳み込み内に入れ子にすることができます。このネストを実証し、さまざまな入力およびカーネル サイズに特定の行列がどのように必要になるかを説明しました。

3 × 3 の畳み込みと 4 × 4 の入力があるこの特定のシナリオでは、アルゴリズム削減アプローチの行列は次のようになります。

マトリックス:

[ 1 0 -1 0 1 0 -1 0 ]
[ 0 1 1 0 0 -1 -1 0 ]
[ 0 1 -1 0 0 -1 1 0 ]
[ 0 0 0 1 -1 -1 1 0 ]

G行列:

[1 0 0 -1]
[0 1 -1 0]
[-1 0 0 1]
[0 -1 1 0]

B行列:

[ 1 0 -1 0 ]
[ 0 1 1 0 ]
[ 0 1 -1 0 ]
[ 0 0 0 1 ]

これらの行列を使用すると、行列の乗算と加算を使用して出力を計算できます。このように計算を再配置することで、必要な乗算の数が減ります。

したがって、アルゴリズムの強度削減アプローチにより、より少ない乗算を使用して畳み込みを実行できるようになり、大幅な速度の向上につながる可能性があります。畳み込み演算の特性を利用し、信号処理の技術を適用することで、より高速で効率的な計算を実現できます。

これらの手法は、深層学習と畳み込みニューラル ネットワークの広大な分野の一端を垣間見ただけであることは注目に値します。畳み込みの速度と効率を向上させるために、GPU や TPU などの特殊なハードウェアの使用、並列化技術の実装、さまざまなアルゴリズム アプローチの検討など、他にも多くの最適化と進歩が行われています。

結論として、ディープ ラーニングと畳み込みニューラル ネットワークはコンピューター ビジョンの分野に革命をもたらし、幅広いアプリケーションにとって不可欠なツールとなっています。アルゴリズムの強度削減など、基礎となる原理や手法を理解することは、深層学習モデルの最適化とパフォーマンスの向上に役立ち、将来さらにエキサイティングな進歩を可能にすることができます。

Fast Convolution Algorithms
Fast Convolution Algorithms
  • 2017.08.17
  • www.youtube.com
#hangoutsonair, Hangouts On Air, #hoa
 

深層強化学習



深層強化学習

始める前に、ここで 1 年以内にディープラーニングに積極的に取り組んでいる人を確認するための簡単なアンケートを行ってみましょう。このカテゴリーに該当する場合は手を挙げてください。では、ディープラーニングに取り組んでから 6 か月未満の人はどうでしょうか?素晴らしい!最後に、皆さんの中で、1 年以上という長期にわたってディープラーニングを使用している人は誰ですか?素晴らしいですね、ここにも経験豊富な人材が何人かいます。

さて、まずは私自身の旅のちょっとした話をしたいと思います。私は約 1 週間ディープラーニングに取り組んでいますが、ちょうどダニエルがこのグループを始めた頃でした。彼がみんなに自分の作品を発表するよう勧めたのを覚えています。その時点では私には発表できるものがあまりなかったのですが、とにかく参加することにしました。今日まで遡って、わずか 1 週間で大きな進歩があったと胸を張って言えます。この間に私の経験と達成したことを共有したいと思います。これは、ディープラーニングを初めて使用する人にとっても、PyTorch に興味がある人にとっても興味深いものとなるでしょう。

それで、私はここ一週間何をしていたのでしょうか?まず、簡単な CIFAR-10 の例を使用してディープ ラーニングの基本を理解することから始めました。知らない人のために説明すると、CIFAR-10 は 10 の異なるクラスの画像で構成されるデータセットです。深層学習への簡単な入門書として機能します。目標は、画像のクラスを予測するためにニューラル ネットワークをトレーニングすることです。プロセスを説明し、実際に何を行っているかを強調するために、いくつかのコードを紹介します。

コードを見てみましょう。まず最初に言及したいのは、その簡潔さです。このファイルにはわずか 140 行の Python コードが含まれています。これは、CIFAR-10 のトレーニングに必要なすべてをカバーしていることを考えると、非常に印象的です。以前は低レベルの C と CUDA を使って作業していたので、PyTorch に出会ったのは驚きでした。コードの構造は単純です。いくつかの基本的なデータ変換、トレイン セット、トレイン ローダーがあり、これらはトーチ ビジョン モジュールによって便利に提供されます。このモジュールを使用すると、CIFAR-10 データセットを簡単にダウンロードできます。畳み込み層と全結合層で構成されるネットワークを定義します。 PyTorch はバックプロパゲーションを処理し、組み込みのオプティマイザーを提供します。わずか数行のコードで、CIFAR-10 でモデルのトレーニングを開始できます。

次に、強化学習とその深層学習への応用について説明したいと思います。強化学習には、報酬を最大化するためのアクションを実行する対話型環境とエージェントが関与するため、従来の分類タスクや回帰タスクとは異なります。ラベル付けされたトレーニング データを持つ代わりに、環境内での行動に基づいて報酬シグナルを受け取ります。この概念を実証するために、Cartpole 環境を使用した DQN (ディープ Q ネットワーク) の例を見てみましょう。

Cartpole 環境は、カート上でバランスのとれたポールをシミュレートし、目標はポールをできるだけ長く直立状態に保つことです。ポールのバランスが保たれている場合は報酬を受け取り、ポールが落ちるとペナルティを受け取ります。これは古典的な強化学習の問題です。コードでは、リプレイ メモリを使用して過去のエクスペリエンスを保存し、トレーニング中にそれらのサンプルを保存します。これは、逆伝播プロセスを混乱させる可能性がある相関観測の問題を克服するのに役立ちます。私たちのネットワーク アーキテクチャは CIFAR-10 の例と同様に定義されていますが、ここでは状態と行動のペアが与えられた場合の将来の報酬を予測することに焦点を当てています。推定される報酬に基づいてアクションを選択し、それに応じてモデルを更新します。

最後に、私が昨日取り組んだ簡単な例を共有したいと思います。プレイヤーが報酬に向かってナビゲートするシンプルな環境を作成しました。プレーヤーはゴールまでの距離に応じて報酬を受け取ります。

この例では、プレイヤーが報酬に向かってナビゲートするグリッドベースの環境を作成しました。プレイヤーの目的は、障害物やペナルティを回避しながらゴール位置に到達し、高額な報酬を受け取ることです。プレイヤーの現在位置は、グリッド上の座標 (x, y) で表されます。

これを実装するために、2D 配列を使用して環境を表現しました。配列内の各セルはグリッド上の位置に対応し、そのセルのタイプ (障害物、報酬、ペナルティ、空きスペースなど) を示す値を保持します。最初に、プレイヤーは環境内にランダムに配置され、ゴール位置は特定の座標に設定されます。

次に、プレーヤーの現在位置を入力として受け取り、ゴールに到達するために取るべき最適なアクション (つまり、上下左右に移動する) を予測するニューラル ネットワークを定義しました。ネットワークは、Q 学習アルゴリズムの変形を使用してトレーニングされます。Q 値は、特定の状態での各アクションに対して期待される報酬を表します。

トレーニング中、プレイヤーはアクションを実行して環境を探索し、その位置に基づいて即座に報酬を受け取ります。これらの報酬は、Q 値を更新し、ネットワークの予測を改善するために使用されます。トレーニング プロセスは、プレーヤーが一貫して目標位置に到達し、高い報酬を受け取るまで継続されます。

トレーニングが完了したら、学習したポリシーを使用してプレーヤーに環境をナビゲートさせることで、トレーニングされたネットワークをテストできます。プレーヤーはネットワークの予測を使用して各ステップで最適なアクションを選択し、徐々に目標に近づいていきます。

この例では、カスタム環境での深層強化学習の適用を示します。これは、ニューラル ネットワークが複雑な空間を移動し、報酬とペナルティに基づいて意思決定を行い、特定の目標を達成する方法をどのように学習できるかを示しています。

 

解釈可能な表現の学習



解釈可能な表現の学習

こんにちは、私の名前は Arun です。このプレゼンテーションでは、ディープ ネットワークにおける解釈可能な表現の学習のトピックについて説明します。ディープ ニューラル ネットワークは、コンピューター ビジョン、ロボット工学、自然言語処理などのさまざまな分野で大きな成功を収めていることが証明されています。ただし、それらの欠点の 1 つは、解釈可能性が欠如していることです。単純なモデルとは異なり、ディープ ネットワークは、そのアクティベーションを調べるだけでは簡単に理解できません。これは、ネットワークが実際に何を学習しているのかについて洞察を得たい場合に課題を引き起こします。

多くの場合、深いネットワークの中間表現は意味がないか、解釈可能ではありません。畳み込み層の重みを視覚化し、トレーニング後にある程度の理解を得ることができますが、ほとんどの場合、これらのネットワークはブラック ボックス近似器として扱われます。しかし、解釈可能性を重視する場合はどうなるでしょうか?

このプレゼンテーションでは、解釈可能な表現を生成するために深いネットワークを構築するアプローチに焦点を当てます。問題領域に関する事前の知識をネットワーク構造に組み込むことで、より優れた解釈可能性を実現でき、多くの場合、一般化とデータ効率の向上につながります。

解釈可能性を高めるために深いネットワークを構築するにはさまざまな方法があります。このアイデアを検討した 5 ~ 6 つの論文について説明します。最初のアプローチでは、特定の操作をネットワーク アーキテクチャに明示的に導入します。たとえば、畳み込みニューラル ネットワーク (CNN) は、画像パッチに対するローカル操作を使用することで画像解析に成功しています。畳み込み層を含めることにより、パラメーター空間を削減し、意味のある表現を取得できます。ただし、ネットワークは明示的にトレーニングされていない機能を学習する可能性があることに注意することが重要です。

もう 1 つのアプローチは、データの変換をネットワーク構造に組み込むことです。たとえば、剛体変換を使用して、シーン内のオブジェクトを修正して位置合わせすることができます。これらの変換を明示的にモデル化することで、データの基礎となる構造を理解するネットワークの能力を向上させることができます。さらに、ダイナミクスと物理ベースのモデリングをディープネットワークに統合すると、解釈可能性も向上します。 OpenGL を使用したレンダリングなどの手法を使用することで、現実的なインタラクションをシミュレートし、物理世界に対するネットワークの理解を向上させることができます。

さらに、より解釈しやすい表現を促進するためのトレーニング プロセスの構築に関する作業についても説明します。これには、中間表現に意味を割り当て、データの特定の属性やプロパティを予測するためにネットワークを明示的にトレーニングすることが含まれます。このような構造をトレーニング プロセスに組み込むことで、ネットワークがより意味のある表現を学習するように導くことができます。

これらの概念を説明するために、いくつかの例を示します。ある論文では、シーン内のオブジェクトに関する高レベルの情報をエンコードすることを目的としたカプセル ネットワークに焦点を当てています。オブジェクトを認識し、オブジェクトのプロパティを予測するカプセルの出力を組み合わせることで、より正確で解釈可能な結果を生成できます。

別の最近の論文では、入力データを正規表現にワープすることを学習する空間変換ネット アーキテクチャが紹介されています。変換パラメータを予測して入力に適用することで、ネットワークは変動を修正し、データを調整して処理と分類を容易にします。

最後に、シーン ダイナミクスのモデリングに関する私自身の取り組みについて説明します。物理事前分布を明示的に組み込み、回転と平行移動を使用して剛体の動きをモデル化することで、オブジェクトの相互作用を正確に予測するネットワークの能力を向上させることができます。

結論として、深いネットワークを構築して解釈可能な表現を生成することで、ネットワークの仕組みについて貴重な洞察を得ることができ、さまざまなタスクにおけるパフォーマンスを向上させることができます。事前知識の組み込み、特定の操作の使用、ダイナミクスと変換の統合はすべて、解釈可能性を高め、一般化とデータ効率の向上につながる戦略です。

Learning Interpretable Representations
Learning Interpretable Representations
  • 2017.08.17
  • www.youtube.com
#hangoutsonair, Hangouts On Air, #hoa
 

リカレント ニューラル ネットワーク



リカレント ニューラル ネットワーク

著者はリカレント ニューラル ネットワーク (RNN) と長短期記憶 (LSTM) ネットワークの複雑な仕組みを掘り下げ、その重要性と機能を明らかにします。 RNN は、有向非巡回グラフとして表現できる従来のニューラル ネットワークとは異なり、グラフ構造内にサイクルを持ちます。この周期的な性質により、データを処理するときに入力の時間的シーケンスを考慮する必要があります。著者の主な焦点は、複数のタイム ステップにわたる入力を効果的に処理する時系列 RNN にあります。

この概念を説明するために、著者は「ビルボを探せ」という魅力的な問題の例を提示します。このシナリオでは、通常のニューラル ネットワークでは、木による部分的な遮蔽のため、3 番目と 4 番目の画像でビルボの位置を特定することが困難になります。しかし、人間は時間情報を利用して、ビルボが木の後ろにいる可能性が高いと推測することができます。リカレント ニューラル ネットワークは、固有のメモリ機能を備えており、この問題の解決策を提供します。著者は、リカレント ニューラル ネットワークが時間の経過とともにどのように展開され、情報が 1 つのタイム ステップから次のタイム ステップに受け渡されるかを説明します。この機能により、ネットワークはビルボの位置情報を保持できるようになります。

リカレント ニューラル ネットワークのトレーニングには、時間の経過に伴う勾配の逆伝播が含まれます。ただし、このプロセスは、特にネットワークが多数のタイム ステップにわたって展開される場合、勾配の爆発または消滅という課題につながる可能性があります。この問題に対処するために、著者は LSTM ネットワークを紹介します。 LSTM ネットワークは、勾配の爆発または消滅の問題を軽減するように特別に設計されています。これらは、ゲートと呼ばれる特殊な内部構造を採用しており、情報の流れを効果的に制御し、ネットワークのメモリを更新します。著者は、LSTM の 4 つの基本的なゲート、つまりフォーゲット ゲート、入力ゲート、ブロック入力、および出力ゲートについてさらに説明します。これらのゲートは連携して、ネットワークのメモリ内の情報を選択的に忘れたり記憶したりします。

さらに、著者は LSTM の一般的に使用されるバリエーションについてもいくつか言及しています。これらには、LSTM が以前の繰り返し状態を入力として考慮できるようにする明示的な繰り返し状態の組み込みや、ゲートが意思決定時に現在のセル状態を考慮できるようにするピーホールの利用が含まれます。

ギアを変えて、著者は LSTM の詳細な説明を開始し、特に水の検出と追跡におけるその有用性を強調します。水は簡単に区別できるため、リカレント ネットワークは水の検出に不可欠ではありませんが、追跡問題は LSTM によって提供される時間情報から大きな恩恵を受けます。 LSTM の反復的な性質により、時間の経過に伴う情報の集約と保持が可能になり、動的な反射や屈折を伴う水などの物体を追跡するのに非常に貴重であることがわかります。

著者は続けて、検出および追跡タスクのコンテキストでさまざまなネットワークのパフォーマンスを比較する研究結果を紹介します。この調査結果は、再帰のない通常の畳み込みニューラル ネットワーク (CNN) は、再帰 LSTM ネットワークと比較して水の検出と追跡の精度が低いことを示しています。著者はまた、複数のフレームを同時に考慮するが再帰性がない別のネットワークについても言及しています。このネットワークは通常の CNN よりも優れていますが、LSTM によって達成される精度にはまだ達していません。

この主題を拡張して、著者は、LSTM におけるセル状態または再発状態の初期化についての追加の洞察を提供します。通常、これらの状態はゼロに初期化されます。ただし、代替オプションには、トレーニング データからの平均セル状態を使用して初期化することや、初期化の目的でドメイン固有の知識を活用することが含まれます。

その後、テキストは別の実例に移り、ダニエルの作品と彼の作品「re3」を詳しく掘り下げます。この研究は、ビデオ内のオブジェクト追跡を中心に展開しています。著者は、2 つの内部 LSTM レイヤを特徴とする、採用されたネットワーク アーキテクチャについて説明します。以前および現在のタイム ステップでオブジェクトを囲む画像クロップを組み込むことにより、ネットワークは時間の経過に伴うオブジェクトの動きを効果的に追跡します。著者は、LSTM が外観の変化、オクルージョン、照明の変化を処理する優れた機能を備えており、オブジェクト追跡の強力なツールとなっていると強調しています。

議論の結論として、著者は、LSTM ベースのネットワークのパフォーマンスは、特定のタスクの特定の要件に依存することに注意します。これらのネットワークは、さまざまな外観を持つオブジェクトに関係する問題には有益であることが証明されていますが、他の場合にはより単純なネットワーク アーキテクチャで十分な場合があります。

要約すると、このテキストはリカレント ニューラル ネットワーク、特に LSTM ネットワークの包括的な調査を提供します。水の検出と追跡、および物体追跡タスクにおけるアプリケーションに光を当てながら、その目的、メカニズム、利点を解明します。さらに、著者は PyTorch を使用して LSTM を実装することの利便性を強調し、他のフレームワークと比較して PyTorch が簡単であることを強調しています。

Recurrent Neural Networks
Recurrent Neural Networks
  • 2017.08.17
  • www.youtube.com
#hangoutsonair, Hangouts On Air, #hoa
 

分散型深層学習



分散型深層学習

今日は私たちの旅の最後のプレゼンテーションであり、分散ディープラーニングの魅力的な世界を掘り下げていきたいと思います。このトピックは私の好奇心をそそりましたが、これまで詳しく調べたことがないことを告白しなければなりません。ただし、分散ディープラーニングにはトレーニングプロセスを高速化する計り知れない可能性があるため、分散ディープラーニングのトレードオフと実際的な影響について議論する価値があると私は考えています。私はシステムについてある程度の知識を持ち、かなりの量のコードを書いてきましたが、この分野の専門家ではないことに留意してください。したがって、現実世界の分散システムに関しては、私が完全に理解できない複雑さがあるかもしれません。そうは言っても、分散ディープラーニングの探索に着手しましょう。

分散ディープラーニングについて話すとき、私たちの主な目的は速度と効率を向上させることです。ただし、トレーニングを高速化するために最適化するときに考慮する、関連しつつも異なる要因がいくつかあります。これらの要素には、トレーニング時間の最小化、スループットの最大化、同時実行性の最大化、データ転送の最小化、バッチ サイズの最大化、待ち時間の最小化が含まれます。これらの各側面は、より高速で効率的な深層学習モデルの実現に貢献します。

トレーニング時間の最小化とバッチ サイズの最大化は、密接に絡み合っている概念です。バッチ サイズを増やすと学習率が向上し、最終的にトレーニングがスピードアップします。この点を説明するために、単一の GPU と、たとえば 100 枚の画像という適度なバッチ サイズから始めることを想像してみましょう。バッチ サイズをたとえば 200 枚の画像にスケールアップしようとすると、GPU メモリの制限に遭遇します。解決策は、複数のマシンまたは GPU を活用することにあります。ネットワーク パラメーターを複数の GPU に分散し、それぞれが 100 のバッチ サイズで処理することで、前方パスと後方パスを並列化できます。その後、勾配を同期し、それに応じてモデルを更新します。たとえば、Facebook は 256 個の GPU に対応できるカスタム ハードウェアを開発し、ResNet-50 モデルで ImageNet をわずか 1 時間でトレーニングできるようにしました。このような極端なスケーラビリティはほとんどのアプリケーションには必要ありませんが、関連する原則とトレードオフを理解することは、この分野での将来の取り組みやインターンシップに役立つ可能性があります。

次に、効率の最適化の概念を段階的に見てみましょう。潜在的な落とし穴について説明し、正確さと速度を達成するための推奨事項を提供します。

  1. 損失関数の正規化: 合計バッチ サイズに関する損失関数を正規化することが重要です。複数のマシンまたは GPU にネットワークをレプリケートする場合、勾配の合計または平均化により異なる結果が生成されます。損失関数が正しく正規化されていることを確認することで、さまざまなバッチ サイズ間で一貫性が維持され、正確かつ効率的なトレーニングが容易になります。

  2. データのシャッフル: 複数のワーカーまたはマシンにデータを分散する場合、シャッフルが不可欠になります。シャッフルしないと、ミニバッチが長期間にわたって相関することになり、トレーニングの効果が低下する可能性があります。各エポックの開始時にデータをシャッフルすることで、ランダム性を確保し、同様のパターンが連続するミニバッチに影響を与えるのを防ぎます。

  3. バッチ正規化: バッチ正規化は、分散設定において特有の課題を引き起こします。これらの課題に対処するには、通常は GPU のバッチのサイズに制限されたミニバッチ全体でバッチ正規化統計を実行することをお勧めします。このアプローチにより、ワークロードの分散から得られる利点を犠牲にすることなく並列処理が可能になります。研究者はこの問題を広範囲に調査しているため、より詳細に理解するには、研究結果を参照することをお勧めします。

  4. エラーの処理と進捗状況の監視: 分散ディープラーニングを追求する際には、堅牢なエラー処理メカニズムと進捗状況監視システムを導入することが不可欠です。分散システムの複雑さと規模が増大すると、エラーやボトルネックが発生する可能性があります。信頼性の高いエラー処理および監視ツールを実装することで、潜在的な問題を軽減し、スムーズな運用を確保できます。

  5. システム固有の考慮事項: すべての分散システムには独自の特徴があります。

分散ディープラーニングにおけるシステム固有の考慮事項を引き続き調べてみましょう。

a.通信オーバーヘッド: 異なるマシンまたは GPU 間の通信は、分散ディープラーニングにおける重要な要素です。データ転送と同期にかかる時間は、全体的なトレーニング速度に影響を与える可能性があります。通信パターンを最適化し、不必要なデータの移動を最小限に抑えることが重要です。勾配圧縮、勾配量子化、勾配スパース化などの技術は、通信オーバーヘッドを削減し、効率を向上させるのに役立ちます。

b.ネットワーク アーキテクチャ: ネットワーク アーキテクチャの選択は、分散ディープラーニングのパフォーマンスにも影響を与える可能性があります。一部のアーキテクチャは本質的に分散トレーニングにより適していますが、他のアーキテクチャでは効率的な並列化を実現するために変更や追加の技術が必要になる場合があります。最適な結果を得るには、選択したアーキテクチャの特性と分散トレーニングとの互換性を理解することが重要です。

c.データのパーティショニングと負荷分散: 複数のワーカーにデータを分散する場合、ワークロードのバランスを均等にする方法でデータを分割することが重要です。データの分散が不均一であると、負荷の不均衡が生じ、トレーニングが遅くなる可能性があります。データ並列処理、モデル並列処理、ハイブリッド並列処理などの手法を使用して、ワークロードを効果的に分散し、負荷分散を実現できます。

d.フォールト トレランス: 分散システムは障害が発生しやすいため、堅牢性を確保するためにフォールト トレランス メカニズムを組み込むことが重要です。チェックポイント設定や自動回復などの技術は、障害を適切に処理し、大きな中断を伴うことなくトレーニングを再開するのに役立ちます。

e.スケーラビリティ: 分散システムのサイズが大きくなるにつれて、スケーラビリティが重要な要素になります。システムは、パフォーマンスを大幅に低下させることなく、増加するマシンまたは GPU を効率的に処理できる必要があります。スケーラビリティを確保するには、慎重なシステム設計、リソース割り当て、通信の最適化が必要です。

f.同期と一貫性: 分散ディープラーニングでは、一貫性を維持するために、さまざまなワーカー間でモデルと勾配を同期することが不可欠です。同期トレーニング、非同期トレーニング、遅延更新などの手法を使用して、収束速度と一貫性のバランスを取ることができます。同期方法の選択は、トレーニング タスクの特定の要件とシステム アーキテクチャによって異なります。

g.リソース管理: 分散ディープラーニングでは、利用可能なリソースを効果的に利用するために、効率的なリソース管理が重要です。これには、GPU メモリの管理、GPU 使用率の最適化、ワークロードに基づいたリソースの動的割り当てが含まれます。モデルの並列処理や勾配累積などの手法は、GPU メモリの制限を克服し、リソース使用率を最大化するのに役立ちます。

結論として、分散ディープラーニングは、トレーニングを高速化し、効率を向上させる重要な機会を提供します。ただし、最適な結果を達成するために対処する必要がある課題も存在します。バッチ サイズ、正規化、シャッフル、通信オーバーヘッド、システム固有の考慮事項、フォールト トレランス、スケーラビリティ、同期、リソース管理などの要素を考慮することで、分散ディープ ラーニングの複雑さを乗り越え、その可能性を最大限に引き出すことができます。

Distributed Deep Learning
Distributed Deep Learning
  • 2017.08.17
  • www.youtube.com
#hangoutsonair, Hangouts On Air, #hoa
 

コグニティブ コンピューティングと人工知能の概要



コグニティブ コンピューティングと人工知能の概要

私はソーパー博士です。コグニティブ コンピューティングと人工知能 (AI) に関するこの包括的なシリーズの最初のビデオに皆さんをお迎えできることを嬉しく思います。このシリーズは、これらのエキサイティングな分野についてさらに学びたいと考えている人々に知識と洞察を提供することを目的としています。 AI やコグニティブ コンピューティング システムに関する予備知識があるかどうかに関係なく、このシリーズでは基礎をカバーし、強力な基盤を構築します。

私たちの多くは SF 小説や大ヒット映画で人工知能に触れたことがあると思いますが、このビデオ シリーズはフィクションではなく現実に焦点を当てます。私たちの旅は、コグニティブ コンピューティングと人工知能の本質を掘り下げていきます。それらの定義、現在利用可能なさまざまなタイプのシステム、その機能、現実世界への応用、そしてそれらが私たちの生活のさまざまな側面に与える変革的な影響について探っていきます。

このシリーズの魅力的な側面の 1 つは、Python と Jupyter Notebook を利用して、議論する AI およびコグニティブ システムを構築する方法も学べることです。この実践体験は、実践に取り組むこのシリーズの最も楽しい部分の 1 つであることは間違いありません。

それでは、教育的な冒険に出かけましょう!

この最初のレッスンは人工知能とコグニティブ コンピューティングへの入門として機能するため、これらの用語を定義することが重要です。人工知能とは、簡単に言えば、機械が発揮する知能を指します。これには、環境を認識し、目標を達成するために行動を起こし、意思決定を行う人工装置が含まれます。人工知能システムの特徴は、明示的な指示を必要とせずに独立して学習できることです。代わりに、問題を解決したりタスクを実行したりするための最も効果的なアプローチを自律的に決定できます。

一方、コグニティブ コンピューティングとは、従来は人間の認知に限定されていたタスクを実行したり、サービスを提供したりする AI システムを指します。すべてのコグニティブ コンピューティング システムは人工知能とみなされますが、すべての AI システムが認知機能を備えているわけではありません。コグニティブ コンピューティングには、異常検出、感情分析、言語翻訳、自然言語処理、音声認識と合成、画像とビデオの認識など、幅広いアプリケーションが含まれます。

このシリーズ全体を通じて、さまざまなコグニティブ コンピューティング システムの基盤として機能する 4 つの異なるタイプの人工知能モデルを調査し、実装していきます。

まず、システムが探査と悪用のジレンマに対処するのに役立つ比較的単純な AI モデルであるトンプソン サンプリングについて詳しく説明します。これらのシステムは、期待される報酬を最大化するアクションを選択することを自律的に学習できます。

次に、強化学習の範疇に入る Q 学習について詳しく説明します。 Q 学習には、状態と可能なアクションによって特徴付けられる環境で動作するエージェントが含まれます。これらのシステムは、特定の状態における意思決定を導く最適なポリシーを自動的に識別できます。

私たちが取り上げる 3 番目のモデルは、人工ニューラル ネットワークを中心としたディープ ラーニングです。これらのネットワークは、人間の脳と同様、相互接続されたノードまたはニューロンで構成されています。ディープ ニューラル ネットワークは、音声認識、機械翻訳、医療診断などに関連するシステムを含む、数多くの興味深い AI および認知システムの基礎として機能します。彼らは、ビデオ ゲームのプレイ、アートワークの生成、音楽の作曲などのタスクでも能力を実証しました。

最後に、ディープ畳み込みニューラル ネットワークについて説明します。これらのネットワークは、畳み込みとして知られる特殊な数学的演算を採用しており、画像やビデオからの視覚情報の処理に優れています。

さて、AI とコグニティブ コンピューティングは世界にどのような革命をもたらすのでしょうか?可能性はほぼ無限大です! 2030 年までに、これらのテクノロジーは世界経済に約 16 兆ドル貢献すると予想されます。企業、政府、個人にとっての潜在的なメリットは膨大です。

エネルギー分野では、AI とコグニティブ コンピューティングがエネルギー消費と分配を最適化し、世界のエネルギー使用量を効果的に削減します。ヘルスケアでは、これらのテクノロジーは、新薬やワクチンの設計、病気の診断、個別化された医療の提供に役立ちます。輸送と物流では、AI を活用した自動運転車が事故や交通渋滞を大幅に削減するとともに、電子商取引の配送に革命をもたらします。教育は、AI とコグニティブ コンピューティングによって促進される、パーソナライズされ最適化されたトレーニング エクスペリエンスから恩恵を受けることができます。犯罪を減らし、公共の安全を高め、詐欺や個人情報の盗難と戦う AI の能力によって、安全性とセキュリティが強化されます。雇用部門は AI を活用して候補者とポジションの間で最適な条件を特定し、仕事の満足度を高めます。スマート ホームとホーム ロボットは、タスクを自動化し、デバイスを監視し、住み込みのロボット アシスタントを提供して、高齢者や障害のある人の自立した生活を促進します。 AI とコグニティブ コンピューティングは、体験を推奨し、人々が新しい友達や社交サークルを見つけるのを支援することで、エンターテインメントと社交化にも革命を起こすでしょう。環境への取り組みは、AI によって可能になる廃棄物処理、リサイクル、汚染削減の改善によって恩恵を受けるでしょう。ビジネスにおいて、AI はプロセスを自動化し、利益を最適化し、イノベーションを促進し、意思決定を強化します。

AI とコグニティブ コンピューティングは今後も無数の革新的なアプリケーションを発表し続けるため、これらの例はほんの表面をなぞっただけです。これらは、意思決定を強化し、人間の知性を強化し、認知リソースを他のタスクに解放する可能性を秘めています。近い将来、コグニティブ マシンと AI は私たちの生活にシームレスに統合され、スマートフォン、インターネット、電気と同じくらい不可欠なものになるでしょう。それらなしでどうやってやっていたのだろうと不思議に思うでしょう。

次のレッスンでは、このシリーズ全体で Python と組み合わせて使用され、以前に説明した AI モデルを構築および実装する強力なツールである Jupyter Notebooks について説明します。 Jupyter Notebook や Python に詳しくない場合でも、この取り組みが進むにつれて、これらのツールで重要な経験を積むことができるのでご安心ください。

コグニティブ コンピューティングと人工知能に関するこの入門レッスンが有益で魅力的であると感じていただければ幸いです。次回まで、楽しい一日を!

Introduction to Cognitive Computing & Artificial Intelligence
Introduction to Cognitive Computing & Artificial Intelligence
  • 2020.03.24
  • www.youtube.com
In this first video in the series, Dr. Soper introduces the concepts of artificial intelligence (AI) and cognitive computing. Topics discussed include the re...
 

AI ツールキット - Jupyter Notebook の操作



AI ツールキット - Jupyter Notebook の操作

私はソーパー博士です。今日は人工知能ツールキットをご紹介できることを光栄に思います。私たちの主な焦点は、Jupyter Notebooks と呼ばれる非常に便利でユーザーフレンドリーなテクノロジーです。

具体的な内容に入る前に、このレッスンで何を学ぶことができるのかを確認しておきましょう。

このビデオを最後まで見ると、次のことが明確に理解できるようになります。

  1. AI ツールキットを持つことの重要性。
  2. Jupyter Notebook の定義と目的。
  3. AI およびコグニティブ コンピューティング プロジェクトに Jupyter Notebook を使用する利点。
  4. Google Cloud と Microsoft Cloud で Jupyter Notebook を無料で作成する方法。
  5. Jupyter Notebook を効果的に活用して AI およびコグニティブ コンピューティング プロジェクトを開発および実行する方法。

このレッスン全体を通じて、人工ニューラル ネットワークを構築、トレーニング、テストする実践的な旅に乗り出します。プロセスがいかに簡単かに驚くでしょう。

まずは、AI ツールキットがなぜ不可欠なのかについて説明しましょう。

コグニティブ コンピューティングと人工知能に関するこのビデオ シリーズは、理論や概念を超えています。さまざまな種類の AI モデルの構築方法を学びます。

人工知能またはコグニティブ コンピューティング モデルを構築するには、一連のツールが必要です。これらのツールには、CPU、メモリ、ファイル用のストレージなどの計算リソースが含まれます。 AI プロジェクトに取り組むことができる開発環境も必要です。最後に、目的のアクションをコンピューターに伝えるための一連の命令が必要です。

ツールに関しては、次のビデオからこのシリーズを通して Python プログラミング言語を学習します。

計算リソースと開発環境に関しては、クラウドでホストされている Jupyter Notebook を AI プロジェクトとコグニティブ コンピューティング プロジェクトの両方に提供できます。

ここで、Jupyter Notebook とは何なのかを見てみましょう。

Jupyter Notebook は、順序付けられたセルのコレクションで構成される対話型の Web ベースの環境です。 Jupyter Notebook 内の各セルには、テキスト、プログラミング コード、数式、画像、またはその他のメディア要素を含めることができます。

この多用途性により、すべてのメモ、コード、図、視覚化、AI およびコグニティブ コンピューティング モデルからの出力を 1 か所に保管できます。

Jupyter Notebook はカーネルを利用してプログラミング コードを実行し、プロジェクトの現在の状態を維持します。 Jupyter Notebook の最も印象的な機能の 1 つは、一度に 1 つのセルを実行できることです。ノートブック サーバーは、メモリ内のプロジェクトの現在の状態を自動的に追跡します。

この機能を使用すると、1 つのセルにコードを記述して実行し、結果を観察できます。その後、後続のセルに追加のコードを記述し、前のセルの結果にアクセスして利用できます。この段階的なアプローチにより、変更を加えるたびにすべてを再実行することなく、プロジェクトを段階的に構築および改良することができます。

Jupyter Notebook のもう 1 つの注目すべき点は、Julia、Python、R などの複数のプログラミング言語をサポートしていることです。「Jupyter」という名前は、実際にはこれら 3 つの言語の組み合わせに由来しています。

ここで、なぜ Jupyter Notebook が他の開発プラットフォームよりも好ましいのか不思議に思うかもしれません。

代替アプローチも利用可能ですが、Jupyter Notebook は AI およびコグニティブ コンピューティング プロジェクトに多くの利点をもたらします。

  1. Jupyter Notebook は Web ブラウザで直接実行されるため、特殊なソフトウェアをインストールしたり構成したりする必要はありません。インターネット接続がある限り、場所に関係なく、任意のデバイスとオペレーティング システムからプロジェクトに取り組むことができます。
  2. Jupyter Notebook は完全に無料です。 Google や Microsoft などの大手テクノロジー企業は、自社のクラウド プラットフォーム上で Jupyter Notebook を無償で惜しみなく提供しています。これにより、高価なソフトウェアに投資することなく、最先端の AI および機械学習モデルに取り組むことができます。
  3. Jupyter Notebook はユーザーフレンドリーで、習得が簡単です。インターフェイスはシンプルで直感的であるため、複雑な開発環境をセットアップする時間と労力を節約できます。コードの作成と AI モデルの実験にすぐに集中できます。
  4. Jupyter Notebook はコラボレーションと知識の共有を促進します。ノートブックを同僚、共同作業者、またはより広範な AI コミュニティと簡単に共有できます。これにより、共同開発が促進され、アイデアやベスト プラクティスの交換が促進されます。
  5. Jupyter Notebooks はリッチ メディア統合をサポートしています。画像、ビデオ、インタラクティブな視覚エフェクト、説明テキストをコードと一緒に含めることができます。これにより、AI モデルの伝達と文書化が容易になり、作業の全体的な理解と再現性が向上します。
  6. Jupyter Notebook を使用すると、インタラクティブなデータ探索と視覚化が可能になります。 Matplotlib や Seaborn などの組み込みライブラリを使用すると、洞察力に富んだ視覚化をノートブックで直接生成できます。これにより、データをより深く理解し、モデル開発プロセス中により多くの情報に基づいた意思決定を行うことができます。
  7. Jupyter Notebook は、AI と機械学習用の Python ライブラリの広大なエコシステムへのアクセスを提供します。 Python は、そのシンプルさと広範なライブラリ サポートにより、多くの AI 実践者にとって最適な言語となっています。 Jupyter Notebook を使用すると、TensorFlow、PyTorch、scikit-learn などのライブラリを簡単にインポートして利用できます。
  8. Jupyter Notebook は優れたドキュメント機能を提供します。ノートブックのセル内に詳細な説明、指示、コメントを含めることができます。これは、自分の思考プロセスを追跡し、他の人と洞察を共有し、後で作業を再検討して修正するのに役立ちます。

Jupyter Notebook を使用する利点を理解したところで、Google Cloud と Microsoft Cloud で Jupyter Notebook を無料で作成する方法について説明します。

Google Cloud と Microsoft Cloud はどちらも、クラウド プラットフォームの一部として Jupyter Notebook サービスを提供しています。これらのサービスは、Jupyter Notebook を作成して実行するための事前構成された環境を提供します。

Google Cloud では、Google のインフラストラクチャ上で実行される無料の Jupyter Notebook 環境である Google Colab (Colaboratory の略) を使用できます。機械学習計算を高速化するための GPU および TPU へのアクセスを提供します。

Google Colab で Jupyter Notebook を作成するには、Google Colab Web サイト (colab.research.google.com) にアクセスし、Google アカウントでサインインして、新しいノートブックを開始するだけです。空のノートブックを作成するか、Google ドライブまたは GitHub から既存のノートブックを開くかを選択できます。

同様に、Microsoft Cloud では、Microsoft が提供する無料の Jupyter Notebook サービスである Azure Notebooks を使用できます。 Azure Notebooks は、データ サイエンスと機械学習のプロジェクトに共同作業環境を提供します。

Azure Notebooks で Jupyter Notebook を作成するには、Microsoft アカウントを使用して Azure Notebooks Web サイト (notebooks.azure.com) にサインインします。そこから、デフォルトで Jupyter Notebook が含まれる新しいプロジェクトを作成できます。

Google Colab と Azure Notebook はどちらも、AI モデルの実行に必要な計算リソースを備えた使い慣れた Jupyter Notebook インターフェイスを提供します。追加のライブラリをインストールしたり、データセットをアップロードしたり、他のユーザーとシームレスに共同作業したりできます。

このレッスンの次のパートでは、実際の例を取り上げ、Jupyter Notebook を効果的に利用して AI およびコグニティブ コンピューティング プロジェクトを開発および実行する方法を示します。

引き続きご期待ください。AI と Jupyter Notebook の世界への旅を続けましょう。

Your AI Toolkit - Working with Jupyter Notebooks
Your AI Toolkit - Working with Jupyter Notebooks
  • 2020.03.27
  • www.youtube.com
Dr. Soper introduces Jupyter Notebooks, and discusses why they provide a useful foundation for creating and working on artificial intelligence and cognitive ...
 

Python の基礎 - パート 01


Python の基礎 - パート 01

私はソーパー博士です。今日は、Python プログラミング言語の基礎に関する 3 つの包括的なレッスンのうちの最初のレッスンを紹介できることを光栄に思います。数本のビデオで Python プログラミングのすべての詳細をカバーすることは不可能ですが、これら 3 つのレッスンが終了するまでに、Python プログラミングを理解し、開始するのに十分な知識を獲得していることになります。

これらのレッスンを通じて、対話型プログラミングとデータ探索のための強力なツールである Jupyter Notebooks を利用します。 Jupyter Notebook に慣れていない場合は、Python プログラミングに入る前に、このシリーズの前のビデオを見てこの環境に慣れておくことを強くお勧めします。

まず、このレッスンで学習する内容の概要を説明します。このビデオを終えると、Python の次の側面に関する知識が得られるでしょう。

  1. テキストの表示: print() 関数を使用して画面上にテキストを表示する方法を学びます。 Python のテキストは、プログラミング コマンドと区別するために一重引用符で囲まれています。

  2. 変数: 変数は、コンピューターのメモリ内の記憶場所に記号的に名前が付けられています。これらは、必要に応じて変更できる値を保持します。変数を作成し、テキスト、整数、浮動小数点数のいずれであっても値を割り当てる方法を検討します。

  3. 算術演算子: Python は、変数に対して数学演算を実行するためのさまざまな算術演算子を提供します。加算、減算、乗算、除算、べき乗、および剰余演算について説明します。

  4. 比較演算子: 比較演算子を使用すると、2 つの値を比較し、それらの関係を判断できます。 「等しい」、「等しくない」、「以上」、「未満」、「以上」、「以下」などの演算子について学習します。

レッスン全体を通じて、これらの Python のスキルと機能の理解を確実にするために、例とデモンストレーションを利用します。 Python でテキストを表示する方法について説明することから始めましょう。テキスト行を表示するには、print() 関数を使用します。表示したいテキストは、引数として一重引用符で囲んで print() 関数に渡します。さらに、「\n」記号を使用して改行を含めることもできます。シャープ記号 (#) で示されるコメントは人間による使用のみを目的としており、コード セクションの説明に役立ちます。 Python はコードの実行時にコメントを無視します。

これらの手法を実証するために、Jupyter Notebook 内のコード セルを考えてみましょう。コード セルは print() 関数を使用して、「こんにちは、私の名前はダンです!」というテキストを表示します。画面上。別の例では、「\n」を使用して 1 回の print() 関数呼び出しで複数行のテキストを表示します。

変数の話に移ります。変数は、コンピュータのメモリ内の名前付きの保存場所です。変数には任意の型のデータを保持できます。 Python で新しい変数を作成するには、等号の左側に名前を入力し、右側に値を入力して値を割り当てます。コード セルでは、値「Delicious Nachos」を持つ「product_name」、値 33 を持つ「quantity_Sold」、値 12.99 を持つ「unit_price」などの変数を宣言できます。次に、print() 関数と連結を使用して、これらの変数の値を出力できます。

あるいは、format() 関数を使用して、変数値のプレースホルダーを使用して同じ結果を得ることができます。これにより、必要な出力テキストを定義し、中かっこ内の変数の位置を示すことができるため、プロセスが簡素化されます。算術演算子を示すために、加算には「+」、減算には「-」、乗算には「*」、除算には「/」、累乗には「**」、剰余演算には「%」などの記号を使用します。これらの演算子は、変数に対して数学的計算を実行します。

皆様が素晴らしい一日をお過ごしのことを願っております。私の名前はソーパー博士です。今日は、Python プログラミング言語の基礎に関する 3 つのレッスン シリーズの第 1 回目を紹介できることを光栄に思います。ここで、ほんの数本のビデオで Python プログラミングのすべての詳細を説明することはできないことに注意してください。ただし、これら 3 つのレッスンを完了するまでに、Python プロジェクトを理解し、作業を開始するのに十分な知識を習得していることになります。

これらのレッスンでは、Jupyter Notebook を使用してすべての例を実行します。 Jupyter Notebook に慣れていない場合は、Python プログラミングの世界に飛び込む前に、このシリーズの前のビデオを視聴することを強くお勧めします。さっそく、このレッスンで学習する内容の概要を見てみましょう。

このビデオを最後まで見ると、Python の次の側面を十分に理解できるようになります。

  1. テキストの表示
  2. 変数
  3. 算術演算子
  4. 比較演算子

Python プログラミング言語の概念と機能を理解するのに役立つ豊富な例とデモンストレーションを使用して、これらの各トピックを詳しく説明します。まずは Python でテキストを表示する方法を学びましょう。 Python でテキスト行を表示するには、print() 関数を使用します。表示したいテキストは、一重引用符で囲まれた引数として print() 関数に渡されます。 Python では、テキストのリテラル文字列を一重引用符で囲むのが通例です。これは、Python がテキスト文字列と他のテキストベースのプログラミング コマンドを区別するのに役立ちます。

以下の例では、print() 関数の前にシャープ記号 (#) で始まる行があることがわかります。この行をコメントと呼びます。コメントは人間による使用のみを目的としています。これらは、コードの特定のセクションの目的を理解するのに役立ち、他の人がコードを理解しやすくなります。 Python はコメントを実行不可能なステートメントとしてみなし、無視します。したがって、コードの機能には影響しません。テキスト出力に改行を含める場合は、エスケープ シーケンス \n (改行) を使用できます。これにより、その位置に改行が挿入されます。

それでは、これらのテクニックのデモンストレーションを見てみましょう。このノートブックの最初のコード セルには、print() 関数を使用して画面上にテキスト行を表示する簡単な例があります。実行ボタンをクリックすると、「こんにちは、私の名前はダンです!」というテキストが表示されます。と表示されます。次のコード セルでは、\n 改行記号を使用して、print() 関数を 1 回呼び出すだけで複数行のテキストを表示します。コードを実行すると、Python は両方のテキスト行を画面に出力します。テキストの表示については説明したので、Python の変数に移りましょう。

変数は、コンピューターのメモリ内にある、記号的に名前が付けられた保存場所です。各変数には名前と値があり、必要に応じて変更できます。変数は、プログラム内のデータを追跡するのに非常に役立ちます。たとえば、変数を使用して、コンサートで販売されたチケットの数を保存できます。追加のチケットが販売されるたびに、正しいカウントを反映するように変数の値を更新できます。

Python では、変数はテキスト、整数、浮動小数点 (小数点を伴う数値) など、あらゆるタイプのデータを保持できます。新しい変数を作成するには、名前と値を割り当てるだけです。概念をよりよく理解するために、いくつかの例を見てみましょう。最初の例では、「x」という名前の変数を宣言し、値 33 を割り当てます。2 番目の例では、「current_price」という名前の変数を宣言し、値 42.99 を割り当てます。

変数に割り当てる値には、数値、テキスト、またはその他の有効なデータ型を使用できることに注意してください。変数に値を割り当てたら、print() 関数を使用してその値を画面に表示できます。 3 番目の例では、print() 関数を使用して変数「x」の値を表示します。 4 番目の例では、変数「current_price」に対して同じことを行います。

変数を出力すると、その値を表示し、必要に応じて操作できることがわかります。変数を直接出力する以外に、変数をテキスト出力に組み込む方法もあります。 format() 関数を使用すると、テキストと変数値を組み合わせるプロセスが簡素化されます。この場合、目的の出力テキストを定義し、中括弧 {} をプレースホルダーとして使用して変数の位置を示します。 format() 関数内で、変数を希望の順序で指定します。

これが実際に動作する例を見てみましょう。

5 番目の例には、「product_name」という名前の変数があり、その値は「Delicious Nachos」です。商品名を含むメッセージを表示したい。 「私は {} が大好きです!」というテキストを定義します。希望の出力として、変数値のプレースホルダーとして {} を使用します。 format() 関数内で、変数「product_name」を提供します。コードを実行すると、Python はプレースホルダーを変数の値に置き換え、「I love Delicious Nachos!」という結果を出力します。この方法により、特に複数の変数やより複雑なメッセージを扱う場合に、より柔軟で動的なテキスト出力が可能になります。変数について説明したので、Python の算術演算子に移りましょう。

Python には、変数に対して数学的演算を実行できるさまざまな算術演算子が用意されています。

最も一般的に使用される算術演算子は次のとおりです。

  • 追加: +
  • 減算: -
  • 乗算: *
  • 分割: /
  • べき乗: **
  • モジュロ: %

これらの演算子を数値変数とともに使用して計算を実行できます。

次の例では、2 つの変数「a」と「b」を使用して、これらの算術演算子のいくつかを示します。

まず、「a」という名前の変数を宣言し、値 5 を割り当てます。次に、「b」という名前の別の変数を宣言し、それに式「a + 2」を割り当てます。式「a + 2」は、「a」の値 (5) を 2 に加算し、その結果「b」の値は 7 になります。その後、print() 関数を使用して「a」の値を表示できます。と画面上の「b」。

コードを実行すると、Python は式を評価し、「a」と「b」の値 (それぞれ 5 と 7) を表示します。

加算に加えて、減算演算子 (-) を使用して値を減算し、乗算演算子 (*) を使用して値を乗算し、除算演算子 (/) を使用して値を除算し、累乗演算子 (**) を使用して値を 1 乗算することができます。べき乗、および除算演算の剰余を計算するためのモジュロ演算子 (%) を使用します。これらの算術演算子をさまざまな方法で組み合わせて使用し、複雑な計算を実行できます。

最後に、Python の比較演算子について簡単に説明します。比較演算子を使用すると、2 つの値を比較し、それらの関係を判断できます。

最も一般的に使用される比較演算子は次のとおりです。

  • 以下に等しい: ==
  • 等しくない: !=
  • 次より大きい: >
  • 以下: <
  • 以上: >=
  • 以下: <=

これらの演算子を使用すると、比較の結果を示す True または False のブール値が返されます。

たとえば、式 a == b は、「a」の値が「b」の値と等しい場合は True を返し、それ以外の場合は False を返します。次の例では、異なる比較演算子を使用して 2 つの変数「a」と「b」の値を比較します。 print() 関数を使用して、これらの比較の結果を画面に表示します。コードを実行すると、Python は各比較式を評価し、対応するブール値を表示します。出力には、各比較の結果 (True または False) が表示されていることがわかります。

比較演算子は、変数間の関係に基づいてコードのさまざまな部分を条件付きで実行する場合に便利です。

これで、Python プログラミングの基礎に関する最初のレッスンは終了です。このレッスンでは、以下について説明しました。

  • print()関数を使用してテキストを表示する
  • 変数の宣言と使用
  • 算術演算子を使用した数学的計算の実行
  • 比較演算子を使用した値の比較

このレッスンで Python プログラミングのしっかりした基礎が得られたことを願っています。次のレッスンでは、文字列、整数、浮動小数点数などのデータ型について詳しく説明します。

取り上げられているトピックについてご質問がある場合、またはさらに詳しい説明が必要な場合は、お気軽にお問い合わせください。ご視聴いただきありがとうございました。また次のレッスンでお会いしましょう。

Python Fundamentals - Part 01
Python Fundamentals - Part 01
  • 2020.04.02
  • www.youtube.com
Dr. Soper discusses several fundamentals of the Python programming language, including how to display text, how to declare and use variables, all of Python's...