Предупреждение: TensorFlow 2.10 был последним выпуском TensorFlow, который поддерживал GPU в родной Windows.
Начиная с TensorFlow 2.11 , вам нужно будет установить TensorFlow в WSL2 или установить tensorflow-cpu и,
при желании, попробовать TensorFlow-DirectML-Plugin.
Pythonで相互非互換の地獄に対処し、タスクのために別々の環境を作るという旅の始まりにまだいる人だ。
パッケージによってはターゲットビルドにコンパイラが必要なものもあります。
まったく同感だ!大変な作業です。この点に関して2つの質問がある:
1.GPUで作成したモデルをONNXに変換できますか?
2.MQL5 Expert AdvisorでONNXのモデル予測を取得するのにPythonは必要ないのですよね?計算はonnxruntime環境で行われるのでしょうか?
まったく同感だ!大変な作業だ。質問が2つある:
1.GPUで作成したモデルをONNXに変換できますか?
2.MQL5 Expert AdvisorでONNXのモデル予測を取得するには、Pythonは 不要ですよね?計算はonnxruntime環境で行うのでしょうか?
理論的にはそうでしょう。しかし、実際には、Pythonで学習されたモデルだけが適しており、パッケージ、ユーティリティ、コンパイラ(バージョン番号を考慮する)のある独自の環境でのみ適していることが判明するかもしれません。少なくとも、私はレナートのヒントをそう理解した。
まったく同感だ!大変な仕事だ。質問が2つある:
1.GPUで作成したモデルをONNXに変換できますか?
2.MQL5 Expert AdvisorでONNXのモデル予測を取得するには、Pythonは不要ですよね?計算はonnxruntime環境で行うのでしょうか?
1.はい、既存のオペセット内でONNXに変換できるソースエンジンに依存します。
2.モデルを実行するのにPythonは必要ありません。必要なのはEX5ファイルとターミナルだけです。ONNXランタイムライブラリさえも、すぐに必要ではなくなります。
2.モデルを実行するのにPythonは必要ない。必要なのはEX5ファイルとターミナルだけだ。ONNXランタイム・ライブラリもすぐに不要になる。
それから、これは半導体で動くのだろうか?
1.はい、既存のオペセットの中でONNXに変換できるソースエンジンに依存します。
2.モデルを実行するのにPythonは必要ありません。必要なのはEX5ファイルとターミナルだけです。ONNXランタイムライブラリさえも、すぐに必要ではなくなります。
1.そして、opset=14がある?PyTorch(1.12.1)とTF(2.10)を使っています。
2.非常に重要で、これがこの統合の最大の利点になるでしょう。素晴らしい
最も興味深いのは、Rで作られたONNXモデルが動くかどうかだ。
サポートされているONNXのバージョンとオペセットのリストがあれば便利です。
最も興味深いのは、Rで作られたONNXモデルが動くかどうかだ。
私たちはこの質問をさらに悪化させることもできる。Rで作ら れたONNXモデルはlinuxで動くのか?
最も興味深いのは、Rで作られたONNXモデルが動くかどうかだ。
サポートされているONNXのバージョンとオプセットのリストがあれば、無理もないだろう。
二つ目の質問
生じて生年月日から生年月は生年月日。
念のため、アーカイブにプロジェクトを掲載しておく。