![MQL5の圏論(第20回):セルフアテンションとTransformerへの回り道](https://c.mql5.com/2/58/Category-Theory-p20_600x314.jpg)
MQL5の圏論(第20回):セルフアテンションとTransformerへの回り道
ちょっと寄り道して、chatGPTのアルゴリズムの一部について考えてみたいとおもいます。自然変換から借用した類似点や概念はあるのでしょうか。シグナルクラス形式のコードを用いて、これらの疑問やその他の質問に楽しく答えようと思います。
![知っておくべきMQL5ウィザードのテクニック(第07回):樹状図](https://c.mql5.com/2/59/Dendrograms_600x314.jpg)
知っておくべきMQL5ウィザードのテクニック(第07回):樹状図
分析や予測を目的としたデータの分類は、機械学習の中でも非常に多様な分野であり、数多くのアプローチや手法があります。この作品では、そのようなアプローチのひとつである「凝集型階層分類」を取り上げます。
![知っておくべきMQL5ウィザードのテクニック(第04回):線形判別分析](https://c.mql5.com/2/50/linear_discriminant_analysis_600x314.jpg)
知っておくべきMQL5ウィザードのテクニック(第04回):線形判別分析
今日のトレーダーは哲学者であり、ほとんどの場合、新しいアイデアを探して試し、変更するか破棄するかを選択します。これは、かなりの労力を要する探索的プロセスです。この連載では、MQL5ウィザードがこの取り組みにおけるトレーダーの主力であるべきであることを示しています。
![MQL5における圏論(第12回):順序](https://c.mql5.com/2/56/Category-Theory-p12_600x314.jpg)
MQL5における圏論(第12回):順序
この記事は、MQL5でのグラフの圏論実装に従う連載の一部であり、順序について詳しく説明します。2つの主要な順序タイプを検討することで、順序理論の概念が取引の意思決定に情報を提供する上で、モノイド集合をどのようにサポートできるかを検証します。
![時系列マイニングのためのデータラベル(第6回):ONNXを使用したEAへの応用とテスト](https://c.mql5.com/2/64/Data_label_for_time_series_mining_wPart_6v_Apply_and_Test_in_EA_Using_ONNX_600x314.jpg)
時系列マイニングのためのデータラベル(第6回):ONNXを使用したEAへの応用とテスト
この連載では、ほとんどの人工知能モデルに適合するデータを作成できる、時系列のラベル付け方法をいくつかご紹介します。ニーズに応じて的を絞ったデータのラベル付けをおこなうことで、訓練済みの人工知能モデルをより期待通りの設計に近づけ、モデルの精度を向上させ、さらにはモデルの質的飛躍を助けることができます。
![ニューラルネットワークが簡単に(第31部):進化的アルゴリズム](https://c.mql5.com/2/50/Neural_Networks_are_Simple-_Part_31_600x314.jpg)
ニューラルネットワークが簡単に(第31部):進化的アルゴリズム
前回の記事では、非勾配最適化手法の調査を開始しました。遺伝的アルゴリズムについて学びました。今日は、このトピックを継続し、進化的アルゴリズムの別のクラスを検討します。
![ニューラルネットワークが簡単に (第42回):先延ばしのモデル、理由と解決策](https://c.mql5.com/2/54/NN_Simple_Part_42_procrastination_600x314.jpg)
ニューラルネットワークが簡単に (第42回):先延ばしのモデル、理由と解決策
強化学習の文脈では、モデルの先延ばしにはいくつかの理由があります。この記事では、モデルの先延ばしの原因として考えられることと、それを克服するための方法について考察しています。
![MQL5でONNXモデルをアンサンブルする方法の例](https://c.mql5.com/2/53/Example_of_ONNX-models_ensemble_in_MQL5_600x314.jpg)
MQL5でONNXモデルをアンサンブルする方法の例
ONNX (Open Neural Network eXchange)は、ニューラルネットワークを表現するために構築されたオープンフォーマットです。この記事では、1つのエキスパートアドバイザー(EA)で2つのONNXモデルを同時に使用する方法を示します。
![Pythonを使用したEA用ディープラーニングONNXモデルの季節性フィルタと期間](https://c.mql5.com/2/73/Seasonality_Filtering_and_time_period_for_Deep_Learning_ONNX_models_600x314.jpg)
Pythonを使用したEA用ディープラーニングONNXモデルの季節性フィルタと期間
Pythonでディープラーニングのモデルを作成する際、季節性から恩恵を受けることはできるのでしょうか。ONNXモデルのデータをフィルタすることでより良い結果が得られるのでしょうか。どの期間を使用するべきでしょうか。この記事では、これらすべてを取り上げます。
![ニューラルネットワークの実験(第7回):指標の受け渡し](https://c.mql5.com/2/59/Experiments_with_neural_networks_7_600x314.jpg)
ニューラルネットワークの実験(第7回):指標の受け渡し
指標をパーセプトロンに渡す例。この記事では、一般的な概念について説明し、最も単純な既製のエキスパートアドバイザー(EA)と、それに続く最適化とフォワードテストの結果を紹介します。
![ニューラルネットワークが簡単に(第35回):ICM(Intrinsic Curiosity Module、内発的好奇心モジュール)](https://c.mql5.com/2/50/Neural_Networks_Made_035_600x314.jpg)
ニューラルネットワークが簡単に(第35回):ICM(Intrinsic Curiosity Module、内発的好奇心モジュール)
強化学習アルゴリズムの研究を続けます。これまで検討してきたすべてのアルゴリズムでは、あるシステム状態から別の状態への遷移ごとに、エージェントがそれぞれの行動を評価できるようにするための報酬方策を作成する必要がありました。しかし、この方法はかなり人工的なものです。実際には、行動と報酬の間には、ある程度の時間差があります。今回は、行動から報酬までの様々な時間の遅れを扱うことができるモデル訓練アルゴリズムに触れてみましょう。
![ニューラルネットワークが簡単に(第52回):楽観論と分布補正の研究](https://c.mql5.com/2/57/optimistic-actor-critic_600x314.jpg)
ニューラルネットワークが簡単に(第52回):楽観論と分布補正の研究
経験再現バッファに基づいてモデルが訓練されるにつれて、現在のActor方策は保存されている例からどんどん離れていき、モデル全体としての訓練効率が低下します。今回は、強化学習アルゴリズムにおけるサンプルの利用効率を向上させるアルゴリズムについて見ていきます。
![float16およびfloat8形式のONNXモデルを扱う](https://c.mql5.com/2/71/onnx-float_600x314.jpg)
float16およびfloat8形式のONNXモデルを扱う
機械学習モデルの表現に使用されるデータ形式は、その有効性に決定的な役割を果たします。近年、深層学習モデルを扱うために特別に設計された新しい型のデータがいくつか登場しています。この記事では、現代のモデルで広く採用されるようになった2つの新しいデータ形式に焦点を当てます。
![ニューラルネットワークが簡単に(第56回):核型ノルムを研究の推進力に](https://c.mql5.com/2/57/nuclear_norm_utilization_600x314.jpg)
ニューラルネットワークが簡単に(第56回):核型ノルムを研究の推進力に
強化学習における環境の研究は喫緊の課題です。いくつかのアプローチについてすでに見てきました。この記事では、核型ノルムの最大化に基づくもう一つの方法について見てみましょう。これにより、エージェントは新規性と多様性の高い環境状態を特定することができます。
![MLモデルとストラテジーテスターの統合(第3回):CSVファイルの管理(II)](https://c.mql5.com/2/51/Perceptron_Multicamadas_e_o-Algoritmo_Backpropagation_Parte_3_02_600x314.jpg)
MLモデルとストラテジーテスターの統合(第3回):CSVファイルの管理(II)
この記事では、MQL5でCSVファイルを効率的に管理するクラスを作成するための完全ガイドを提供します。データを開き、読み書きし、変換するメソッドの実装を見ていきます。また、情報を保存しアクセスするためにこれらを使用する方法についても検討します。さらに、このようなクラスを使用する際の制限や最も重要な点についても説明します。MQL5でCSVファイルを処理する方法を学びたい人にとって、この記事は貴重なリソースとなるでしょう。
![ニューラルネットワークが簡単に(第20部):オートエンコーダ](https://c.mql5.com/2/49/Neural_Networks_Easy_012_600x314.jpg)
ニューラルネットワークが簡単に(第20部):オートエンコーダ
教師なし学習アルゴリズムの研究を続けます。読者の中には、最近の記事とニューラルネットワークの話題の関連性について疑問を持つ人もいるかもしれません。この新しい記事では、ニューラルネットワークの研究に戻ります。
![母集団最適化アルゴリズム:ハーモニーサーチ(HS)](https://c.mql5.com/2/51/Harmony_Search_600x314.jpg)
母集団最適化アルゴリズム:ハーモニーサーチ(HS)
今回は、完璧な音のハーモニーを見つける過程に着想を得た、最も強力な最適化アルゴリズムであるハーモニーサーチ(HS)を研究し、検証してみます。私たちの評価でトップになるのはどのアルゴリズムでしょうか。
![データサイエンスと機械学習(第17回):木の中のお金?外国為替取引におけるランダムフォレストの芸術と科学](https://c.mql5.com/2/63/midjourney_image_13765_54_491_3_600x314.jpg)
データサイエンスと機械学習(第17回):木の中のお金?外国為替取引におけるランダムフォレストの芸術と科学
金融情勢を解読する際の芸術性と正確性の融合についてガイドします。アルゴリズム錬金術の秘密を発見してください。ランダムフォレストがデータを予測能力に変換する方法を明らかにし、株式市場の複雑な地形をナビゲートするための独自の視点を提供します。金融の魔術の核心に触れ、市場の動向を形作り、収益の機会を開拓するランダムフォレストの役割を解き明かす旅にご参加ください。
![ニューラルネットワークの実験(第2回):スマートなニューラルネットワークの最適化](https://c.mql5.com/2/51/neural_network_experiments_p2_600x314.jpg)
ニューラルネットワークの実験(第2回):スマートなニューラルネットワークの最適化
この記事では、実験と非標準的なアプローチを使用して、収益性の高い取引システムを開発し、ニューラルネットワークがトレーダーに役立つかどうかを確認します。ニューラルネットワークを取引に活用するための自給自足ツールとしてMetaTrader 5を使用します。
![MQL5の圏論(第3回)](https://c.mql5.com/2/52/Category-Theory-part-3_600x314.jpg)
MQL5の圏論(第3回)
圏論は数学の一分野であり、多様な広がりを見せていますが、MQL5コミュニティでは今のところ比較的知られていません。この連載では、その概念のいくつかを紹介して考察することで、トレーダーの戦略開発におけるこの注目すべき分野の利用を促進することを目的としたオープンなライブラリを確立することを目指しています。
![ニューラルネットワークが簡単に(第65回):Distance Weighted Supervised Learning (DWSL)](https://c.mql5.com/2/61/Neural_Networks_Made_Easy_kPart_659_DWSL_600x314.jpg)
ニューラルネットワークが簡単に(第65回):Distance Weighted Supervised Learning (DWSL)
この記事では、教師あり学習法と強化学習法の交差点で構築された興味深いアルゴリズムに触れます。
![ニューラルネットワークが簡単に(第49回):Soft Actor-Critic](https://c.mql5.com/2/56/Neural_Networks_are_Easy_Part_49_600x314.jpg)
ニューラルネットワークが簡単に(第49回):Soft Actor-Critic
連続行動空間の問題を解決するための強化学習アルゴリズムについての議論を続けます。この記事では、Soft Actor-Critic (SAC)アルゴリズムについて説明します。SACの主な利点は、期待される報酬を最大化するだけでなく、行動のエントロピー(多様性)を最大化する最適な方策を見つけられることです。
![ニューラルネットワークが簡単に(第61回):オフライン強化学習における楽観論の問題](https://c.mql5.com/2/59/NN_easy_61_SPLT_V2__600x314.jpg)
ニューラルネットワークが簡単に(第61回):オフライン強化学習における楽観論の問題
オフライン訓練では、訓練サンプルデータに基づいてエージェントの方策を最適化します。その結果、エージェントは自分の行動に自信を持つことができます。しかし、そのような楽観論は必ずしも正当化されるとは限らず、模型の操作中にリスクを増大させる可能性があります。今日は、こうしたリスクを軽減するための方法の1つを紹介しましょう。
![ニューラルネットワークが簡単に(第28部):方策勾配アルゴリズム](https://c.mql5.com/2/49/Neural_Networks_Easy_020_600x314.jpg)
ニューラルネットワークが簡単に(第28部):方策勾配アルゴリズム
強化学習法の研究を続けます。前回は、Deep Q-Learning手法に触れました。この手法では、特定の状況下でとった行動に応じて、これから得られる報酬を予測するようにモデルを訓練します。そして、方策と期待される報酬に応じた行動がとられます。ただし、Q関数を近似的に求めることは必ずしも可能ではありません。その近似が望ましい結果を生み出さないこともあります。このような場合、効用関数ではなく、行動の直接的な方針(戦略)に対して、近似的な手法が適用されます。その1つが方策勾配です。
![MQL5の圏論(第5回)等化子](https://c.mql5.com/2/53/Category-Theory-p5_600x314.jpg)
MQL5の圏論(第5回)等化子
圏論は、数学の多様かつ拡大を続ける分野であり、最近になってMQL5コミュニティである程度取り上げられるようになりました。この連載では、その概念と原理のいくつかを探索して考察することで、トレーダーの戦略開発におけるこの注目すべき分野の利用を促進することを目的としたオープンなライブラリを確立することを目指しています。
![ニューラルネットワークが簡単に(第44回):ダイナミクスを意識したスキルの習得](https://c.mql5.com/2/55/Neural_Networks_are_Just_a_Part_600x314.jpg)
ニューラルネットワークが簡単に(第44回):ダイナミクスを意識したスキルの習得
前回は、様々なスキルを学習するアルゴリズムを提供するDIAYN法を紹介しました。習得したスキルはさまざまな仕事に活用できます。しかし、そのようなスキルは予測不可能なこともあり、使いこなすのは難しくなります。この記事では、予測可能なスキルを学習するアルゴリズムについて見ていきます。
![母集団最適化アルゴリズム:Shuffled Frog-Leaping (SFL) アルゴリズム](https://c.mql5.com/2/58/Shuffled_Frog_Leaping_SFL_600x314.jpg)
母集団最適化アルゴリズム:Shuffled Frog-Leaping (SFL) アルゴリズム
本稿では、Shuffled Frog-Leaping (SFL)アルゴリズムの詳細な説明と、最適化問題を解く上でのその能力を紹介します。SFLアルゴリズムは、自然環境におけるカエルの行動から着想を得ており、関数最適化への新しいアプローチを提供します。SFLアルゴリズムは、効率的で柔軟なツールであり、様々な種類のデータを処理し、最適解を得ることができます。
![ニューラルネットワークが簡単に(第19部):MQL5を使用したアソシエーションルール](https://c.mql5.com/2/49/Neural_Networks_Easy_011_600x314.jpg)
ニューラルネットワークが簡単に(第19部):MQL5を使用したアソシエーションルール
アソシエーションルールの検討を続けます。前回の記事では、このタイプの問題の理論的側面について説明しました。この記事では、MQL5を使用したFPGrowthメソッドの実装を紹介します。また、実装したソリューションを実際のデータを使用してテストします。
![ニューラルネットワークが簡単に(第23部):転移学習用ツールの構築](https://c.mql5.com/2/49/Neural_Networks_Easy_015_600x314.jpg)
ニューラルネットワークが簡単に(第23部):転移学習用ツールの構築
転移学習については当連載ですでに何度も言及していますが、これはただの言及でした。この記事では、このギャップを埋めて、転移学習の詳しい調査を提案します。
![データサイエンスと機械学習—ニューラルネットワーク(第02回):フィードフォワードNNアーキテクチャの設計](https://c.mql5.com/2/49/feed_forward_nn_architectures_design_600x314.jpg)
データサイエンスと機械学習—ニューラルネットワーク(第02回):フィードフォワードNNアーキテクチャの設計
フィードフォワード(予測制御)ニューラルネットワークについて説明する前に、少し説明しておくことがあって、設計もその1つです。入力、隠れ層の数、および各ネットワークのノードに対する柔軟なニューラルネットワークを構築および設計する方法を見てみましょう。
![ニューラルネットワークが簡単に(第34部):FQF(Fully Parameterized Quantile Function、完全にパラメータ化された分位数関数)](https://c.mql5.com/2/50/Neural_Networks_Made_Easy_quantile-parameterized_600x314.jpg)
ニューラルネットワークが簡単に(第34部):FQF(Fully Parameterized Quantile Function、完全にパラメータ化された分位数関数)
分散型Q学習アルゴリズムの研究を続けます。以前の記事では、分散型の分位数Q学習アルゴリズムについて検討しました。最初のアルゴリズムでは、与えられた範囲の値の確率を訓練しました。2番目のアルゴリズムでは、特定の確率で範囲を訓練しました。それらの両方で、1つの分布のアプリオリな知識を使用し、別の分布を訓練しました。この記事では、モデルが両方の分布で訓練できるようにするアルゴリズムを検討します。
![ニューラルネットワークが簡単に(第41回):階層モデル](https://c.mql5.com/2/54/NN_Simple_Part_41_Hierarchical_Models_600x314.jpg)
ニューラルネットワークが簡単に(第41回):階層モデル
この記事では、複雑な機械学習問題を解決するための効果的なアプローチを提供する階層的訓練モデルについて説明します。階層モデルはいくつかのレベルで構成され、それぞれがタスクの異なる側面を担当します。
![母集団最適化アルゴリズム:細菌採餌最適化(BFO)](https://c.mql5.com/2/51/bacterial-optimization_600x314.jpg)
母集団最適化アルゴリズム:細菌採餌最適化(BFO)
大腸菌の採餌戦略は、科学者にBFO最適化アルゴリズムの作成を促しました。このアルゴリズムには、最適化に対する独自のアイデアと有望なアプローチが含まれており、さらに研究する価値があります。
![母集団最適化アルゴリズム:Mind Evolutionary Computation (MEC)アルゴリズム](https://c.mql5.com/2/58/Mind-Evolutionary-Computation_600x314.jpg)
母集団最適化アルゴリズム:Mind Evolutionary Computation (MEC)アルゴリズム
この記事では、Simple Mind Evolutionary Computation(Simple MEC, SMEC)アルゴリズムと呼ばれる、MECファミリーのアルゴリズムを考察します。このアルゴリズムは、そのアイデアの美しさと実装の容易さで際立っています。
![ニューラルネットワークが簡単に(第40回):大量のデータでGo-Exploreを使用する](https://c.mql5.com/2/54/neural_networks_go_explore_040_600x314.jpg)
ニューラルネットワークが簡単に(第40回):大量のデータでGo-Exploreを使用する
この記事では、長い訓練期間に対するGo-Exploreアルゴリズムの使用について説明します。訓練時間が長くなるにつれて、ランダムな行動選択戦略が有益なパスにつながらない可能性があるためです。
![母集団最適化アルゴリズム:ネルダー–ミード法、またはシンプレックス(NM)検索法](https://c.mql5.com/2/61/NeldervMead_method_3_600x314.jpg)
母集団最適化アルゴリズム:ネルダー–ミード法、またはシンプレックス(NM)検索法
この記事では、ネルダー–ミード法の完全な探求を提示し、最適解を達成するために各反復でシンプレックス(関数パラメータ空間)がどのように修正され、再配置されるかを説明し、この方法がどのように改善されるかを説明します。
![知っておくべきMQL5ウィザードのテクニック(第18回):固有ベクトルによるニューラルアーキテクチャの探索](https://c.mql5.com/2/77/MQL5_Wizard_Techniques_you_should_know_5Part_187_600x314.jpg)
知っておくべきMQL5ウィザードのテクニック(第18回):固有ベクトルによるニューラルアーキテクチャの探索
ニューラルアーキテクチャー探索は、理想的なニューラルネットワーク設定を決定するための自動化されたアプローチで、多くのオプションや大規模なテストデータセットに直面したときにプラスになります。固有ベクトルをペアにすることで、この過程がさらに効率的になることを検証します。
![母集団最適化アルゴリズム:モンキーアルゴリズム(MA)](https://c.mql5.com/2/52/monkey_600x314.jpg)
母集団最適化アルゴリズム:モンキーアルゴリズム(MA)
今回は、最適化アルゴリズムであるモンキーアルゴリズム(MA、Monkey Algorithm)について考えてみたいと思います。この動物が難関を乗り越え、最もアクセスしにくい木のてっぺんまで到達する能力が、MAアルゴリズムのアイデアの基礎となりました。