トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3236

 
とはいえ、カスタムパイプラインを作成し、それをONNXに変換するというトピックは非常に興味深く、重要であり、フォーラムで1つ、あるいはいくつかの記事を書く価値があります。
 

私の理解が正しければ、ONNXを使った作業のスキームは次のように単純化されます:

MQL5_Input_Data -> ONNX -> MQL5_TS:

MQL5_Input_Data - データ収集

ONNX - モデル(重み係数を持つニューラルネットワーク)

MQL5_TS - ハンドラーとトレーディングシステム。


ONNX モデルがどのように実行されるのか、MT5 で直接実行されるのか、この目的のために Python を使用する必要があるのかは不明です。

 
Andrey Dik #:

私の理解が正しければ、ONNXを使うスキームは単純化すると次のようになる:

MQL5_Input_Data→ONNX→MQL5_TS:

ー MQL5_Input_Data ー 受信データ

ーモデル(ー重み係数をー(ーONNX)

ーMQL5_TS - ハンドラーおよびー取引システム。


ONNX モデルがどのように実行されるのか、MT5 が直接実行するのか、それとも Python を使用するのかは不明です。

MT5が実行します。ー出力はーbotのーexe。リソースとしてファイルされます。
 
Andrey Dik #:

私の理解が正しければ、ONNXを使うスキームは単純化すると次のようになる:

MQL5_Input_Data→ONNX→MQL5_TS:

MQL5_Input_Data-受信データ

ONNX - モデル(重み係数を持つニューラルネットワーク)

MQL5_TS - ハンドラーとトレーディングシステム。


ONNXモデルがどのように実行されるのか、MT5で直接実行されるのか、それともPythonを使用すべきなのかは不明です。

私の理解は以下の通りです。Onnx - モデルが生成するのは
シグナル(大雑把に言えば、数字または数字の集合)を生成し、MT5端末自体が取引を行う。
OrderSend()関数を通して
 
Andrey Dik #:

ONNXモデルがどのように実行されるのか、MT5で直接実行されるのか、それともPythonが関与する必要があるのかは不明である。

どうやら、MT5に含まれているMicrosoftのonnxruntimeを介して 実行されているようだ。モデルを実行するために、ターミナルのルートにいくつかのDLLを追加する必要が一瞬あった。

GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
  • microsoft
  • github.com
ONNX Runtime is a cross-platform inference and training machine-learning accelerator . ONNX Runtime inference can enable faster customer experiences and lower costs, supporting models from deep learning frameworks such as PyTorch and TensorFlow/Keras as well as classical machine learning libraries such as scikit-learn, LightGBM, XGBoost, etc...
 
Maxim Dmitrievsky #:
MT5ではそうなっている。その後、どのようにボット本体に縫い込まれるのか - レナトが書いていたと思うが、覚えていない。出力は単なるボットのexeです。

ONNXを使ったEAがただのexeだったら、主催者はONNXが使われていることをどうやって知るのだろう?

それとも「心配するな、バレるから!」なのか?)

 
Andrey Dik #:

ONNXを使ったEAが単なるexeだとしたら、主催者はONNXが使われていることをどうやって知るのだろうか?

あるいは、「心配するな、バレるから!」))))

いいえ、モデルはリソースとして追加されます。別のファイルとして追加することもできます。すべてマニュアルに記載されています。
 
Andrey Dik #:

ONNXを使ったEAが単なるexeだとしたら、主催者はONNXが使われていることをどうやって知るのだろうか?

それとも、「心配するな、バレるから!」))?

🤷‍♂️
 
Aleksey Nikolayev #:
ーいや、ー、ーモデルはー、ーモデルはーモデルはーーモデルはーーーーーーーーモデルーーーーーーーリソースーーーーーー

リソースとしてのモデルはEAのexeに組み込まれ、exeはオーガナイザーに送られます。)

 
Andrey Dik #:

リソースとしてのモデルはEAのexeに組み込まれ、exeはオーガナイザーに送られる。)

))

いいえ、onnxの起動に関するメッセージはいくつかあります。そして、彼らは、エクセシュニクではなく、モデルを受け入れ、そして、彼らはすべてのために同じテンプレートでモデルを実行します。

理由: