Dmitriy Gizlyk / プロファイル
- 情報
10+ 年
経験
|
0
製品
|
0
デモバージョン
|
134
ジョブ
|
0
シグナル
|
0
購読者
|
![ニューラルネットワークが簡単に(第41回):階層モデル](https://c.mql5.com/2/54/NN_Simple_Part_41_Hierarchical_Models_Avatars.png)
この記事では、複雑な機械学習問題を解決するための効果的なアプローチを提供する階層的訓練モデルについて説明します。階層モデルはいくつかのレベルで構成され、それぞれがタスクの異なる側面を担当します。
![ニューラルネットワークが簡単に(第40回):大量のデータでGo-Exploreを使用する](https://c.mql5.com/2/54/neural_networks_go_explore_040_avatar.png)
この記事では、長い訓練期間に対するGo-Exploreアルゴリズムの使用について説明します。訓練時間が長くなるにつれて、ランダムな行動選択戦略が有益なパスにつながらない可能性があるためです。
![ニューラルネットワークが簡単に(第39回):Go-Explore、探検への異なるアプローチ](https://c.mql5.com/2/54/NN_39_Go_Explore_Avatar.png)
強化学習モデルにおける環境の研究を続けます。この記事では、モデルの訓練段階で効果的に環境を探索することができる、もうひとつのアルゴリズム「Go-Explore」を見ていきます。
![ニューラルネットワークが簡単に(第38回):不一致による自己監視型探索](https://c.mql5.com/2/54/self_supervised_exploration_via_disagreement_038_avatar.png)
強化学習における重要な問題のひとつは、環境探索です。前回までに、「内因性好奇心」に基づく研究方法について見てきました。今日は別のアルゴリズムを見てみましょう。不一致による探求です。
![ニューラルネットワークが簡単に(第37回):スパースアテンション(Sparse Attention)](https://c.mql5.com/2/53/Avatar_NN_part_37_Sparse_Attention.png)
前回は、アテンションメカニズムをアーキテクチャーに用いたリレーショナルモデルについて説明しました。これらのモデルの特徴の1つは、コンピューティングリソースを集中的に利用することです。今回は、セルフアテンションブロック内部の演算回数を減らす仕組みの1つについて考えてみたいと思います。これにより、モデルの一般的なパフォーマンスが向上します。
![ニューラルネットワークが簡単に(第36回):関係強化学習](https://c.mql5.com/2/52/Neural_Networks_Made_036_avatar.png)
前回の記事で説明した強化学習モデルでは、元のデータ内のさまざまなオブジェクトを識別できる畳み込みネットワークのさまざまなバリアントを使用しました。畳み込みネットワークの主な利点は、場所に関係なくオブジェクトを識別できることです。同時に、畳み込みネットワークは、オブジェクトやノイズのさまざまな変形がある場合、常にうまく機能するとは限りません。これらは、関係モデルが解決できる問題です。
![ニューラルネットワークが簡単に(第35回):ICM(Intrinsic Curiosity Module、内発的好奇心モジュール)](https://c.mql5.com/2/50/Neural_Networks_Made_035_avatar.png)
強化学習アルゴリズムの研究を続けます。これまで検討してきたすべてのアルゴリズムでは、あるシステム状態から別の状態への遷移ごとに、エージェントがそれぞれの行動を評価できるようにするための報酬方策を作成する必要がありました。しかし、この方法はかなり人工的なものです。実際には、行動と報酬の間には、ある程度の時間差があります。今回は、行動から報酬までの様々な時間の遅れを扱うことができるモデル訓練アルゴリズムに触れてみましょう。
![ニューラルネットワークが簡単に(第34部):FQF(Fully Parameterized Quantile Function、完全にパラメータ化された分位数関数)](https://c.mql5.com/2/50/Neural_Networks_Made_Easy_quantile-parameterized_avatar.png)
分散型Q学習アルゴリズムの研究を続けます。以前の記事では、分散型の分位数Q学習アルゴリズムについて検討しました。最初のアルゴリズムでは、与えられた範囲の値の確率を訓練しました。2番目のアルゴリズムでは、特定の確率で範囲を訓練しました。それらの両方で、1つの分布のアプリオリな知識を使用し、別の分布を訓練しました。この記事では、モデルが両方の分布で訓練できるようにするアルゴリズムを検討します。
![ニューラルネットワークが簡単に(第33部):分散型Q学習における分位点回帰](https://c.mql5.com/2/50/Neural_Networks_Made_Easy_q-learning_avatar.png)
分散型Q学習の研究を続けます。今日は、この方法を反対側から見てみましょう。価格予測問題を解決するために、分位点回帰を利用する可能性を検討します。
![ニューラルネットワークが簡単に(第32部):分散型Q学習](https://c.mql5.com/2/50/Neural_networks_are_simple-32_Avatar.png)
この連載で前回Q学習法を紹介しました。この手法は、各行動の報酬を平均化するものです。2017年には、報酬分布関数を研究する際に、より大きな成果を示す2つの研究が発表されました。そのような技術を使って、私たちの問題を解決する可能性を考えてみましょう。
![Abdulrahman F Abdulrahman F](https://c.mql5.com/avatar/2021/8/61112558-99B2.jpg)
![ニューラルネットワークが簡単に(第31部):進化的アルゴリズム](https://c.mql5.com/2/50/Neural_networks_made_easy_021__1.png)
前回の記事では、非勾配最適化手法の調査を開始しました。遺伝的アルゴリズムについて学びました。今日は、このトピックを継続し、進化的アルゴリズムの別のクラスを検討します。
![ニューラルネットワークが簡単に(第30部):遺伝的アルゴリズム](https://c.mql5.com/2/49/Neural_networks_made_easy_024.png)
今日はちょっと変わった学習法を紹介したいと思います。ダーウィンの進化論からの借用と言えます。先に述べた手法よりも制御性は劣るでしょうが、非差別的なモデルの訓練が可能です。
![ニューラルネットワークが簡単に(第29部):Advantage Actor-Criticアルゴリズム](https://c.mql5.com/2/48/Neural_networks_made_easy_022__1.png)
本連載のこれまでの記事で、2つの強化学習アルゴリズムを見てきました。それぞれに長所と短所があります。このような場合ではよくあることですが、次に、2つの方法の良いところを組み合わせてアルゴリズムにすることが考え出されます。そうすれば、それぞれの欠点が補われることになります。今回は、そのような手法の1つを紹介します。
![Darius Sadauskas Darius Sadauskas](https://c.mql5.com/avatar/avatar_na2_micro.png)
![xuebutayan xuebutayan](https://c.mql5.com/avatar/avatar_na2_micro.png)
![ニューラルネットワークが簡単に(第28部):方策勾配アルゴリズム](https://c.mql5.com/2/48/Neural_networks_made_easy_021__1.png)
強化学習法の研究を続けます。前回は、Deep Q-Learning手法に触れました。この手法では、特定の状況下でとった行動に応じて、これから得られる報酬を予測するようにモデルを訓練します。そして、方策と期待される報酬に応じた行動がとられます。ただし、Q関数を近似的に求めることは必ずしも可能ではありません。その近似が望ましい結果を生み出さないこともあります。このような場合、効用関数ではなく、行動の直接的な方針(戦略)に対して、近似的な手法が適用されます。その1つが方策勾配です。
![ニューラルネットワークが簡単に(第27部):DQN (Deep Q-Learning)](https://c.mql5.com/2/48/Neural_networks_made_easy.png)
強化学習の研究を続けます。今回は、「Deep Q-Learning」という手法に触れてみましょう。この手法を用いることで、DeepMindチームはアタリ社のコンピューターゲームのプレイで人間を凌駕するモデルを作成することができました。取引上の問題を解決するための技術の可能性を評価するのに役立つと思います。
![ニューラルネットワークが簡単に(第26部):強化学習](https://c.mql5.com/2/48/Networks_easy_26.png)
機械学習の手法の研究を続けます。今回からは、もう1つの大きなテーマである「強化学習」を始めます。この方法では、モデルは問題を解決するためのある種の戦略を設定することができます。この強化学習の特性は、取引戦略を構築する上で新たな地平を切り開くものと期待されます。
![ニューラルネットワークが簡単に(第25部):転移学習の実践](https://c.mql5.com/2/48/Neural_networks_made_easy_025.png)
前々回、前回と、ニューラルネットワークのモデルを作成・編集するためのツールを開発しました。いよいよ転移学習技術の利用可能性を実例で評価することになります。
![ニューラルネットワークが簡単に(第24部):転移学習用ツールの改善](https://c.mql5.com/2/48/Neural_networks_made_easy_024.png)
前回の記事では、ニューラルネットワークのアーキテクチャを作成および編集するためのツールを作成しました。今日はこのツールでの作業を続けて、より使いやすくします。これは、私たちのトピックから一歩離れていると思われるかもしれませんが、うまく整理されたワークスペースは、結果を達成する上で重要な役割を果たすと思われないでしょうか。
![ニューラルネットワークが簡単に(第23部):転移学習用ツールの構築](https://c.mql5.com/2/48/Neural_networks_made_easy_023.png)
転移学習については当連載ですでに何度も言及していますが、これはただの言及でした。この記事では、このギャップを埋めて、転移学習の詳しい調査を提案します。
![ニューラルネットワークが簡単に(第22部):回帰モデルの教師なし学習](https://c.mql5.com/2/48/Neural_networks_made_easy_022.png)
モデルと教師なし学習アルゴリズムの研究を続けます。今回は、回帰モデルの学習に適用した場合のオートエンコーダの特徴について提案します。