ONNX Runtime is a cross-platform inference and training machine-learning accelerator . ONNX Runtime inference can enable faster customer experiences and lower costs, supporting models from deep learning frameworks such as PyTorch and TensorFlow/Keras as well as classical machine learning libraries such as scikit-learn, LightGBM, XGBoost, etc...
私の理解が正しければ、ONNXを使った作業のスキームは次のように単純化されます:
MQL5_Input_Data -> ONNX -> MQL5_TS:
MQL5_Input_Data - データ収集
ONNX - モデル(重み係数を持つニューラルネットワーク)
MQL5_TS - ハンドラーとトレーディングシステム。
ONNX モデルがどのように実行されるのか、MT5 で直接実行されるのか、この目的のために Python を使用する必要があるのかは不明です。
私の理解が正しければ、ONNXを使うスキームは単純化すると次のようになる:
MQL5_Input_Data→ONNX→MQL5_TS:
ー MQL5_Input_Data ー 受信データ
ーモデル(ー重み係数をー(ーONNX)
ーMQL5_TS - ハンドラーおよびー取引システム。
ONNX モデルがどのように実行されるのか、MT5 が直接実行するのか、それとも Python を使用するのかは不明です。
私の理解が正しければ、ONNXを使うスキームは単純化すると次のようになる:
MQL5_Input_Data→ONNX→MQL5_TS:
MQL5_Input_Data-受信データ
ONNX - モデル(重み係数を持つニューラルネットワーク)
MQL5_TS - ハンドラーとトレーディングシステム。
ONNXモデルがどのように実行されるのか、MT5で直接実行されるのか、それともPythonを使用すべきなのかは不明です。
ONNXモデルがどのように実行されるのか、MT5で直接実行されるのか、それともPythonが関与する必要があるのかは不明である。
どうやら、MT5に含まれているMicrosoftのonnxruntimeを介して 実行されているようだ。モデルを実行するために、ターミナルのルートにいくつかのDLLを追加する必要が一瞬あった。
MT5ではそうなっている。その後、どのようにボット本体に縫い込まれるのか - レナトが書いていたと思うが、覚えていない。出力は単なるボットのexeです。
ONNXを使ったEAがただのexeだったら、主催者はONNXが使われていることをどうやって知るのだろう?
それとも「心配するな、バレるから!」なのか?)
ONNXを使ったEAが単なるexeだとしたら、主催者はONNXが使われていることをどうやって知るのだろうか?
あるいは、「心配するな、バレるから!」))))
ONNXを使ったEAが単なるexeだとしたら、主催者はONNXが使われていることをどうやって知るのだろうか?
それとも、「心配するな、バレるから!」))?
ーいや、ー、ーモデルはー、ーモデルはーモデルはーーモデルはーーーーーーーーモデルーーーーーーーリソースーーーーーー
リソースとしてのモデルはEAのexeに組み込まれ、exeはオーガナイザーに送られます。)
リソースとしてのモデルはEAのexeに組み込まれ、exeはオーガナイザーに送られる。)
))
いいえ、onnxの起動に関するメッセージはいくつかあります。そして、彼らは、エクセシュニクではなく、モデルを受け入れ、そして、彼らはすべてのために同じテンプレートでモデルを実行します。