トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1016

 
サンサニッチ・フォメンコ

私がこの表を持ってきたのは、予測因子を改めて検討し、ACFに関するAlexanderの考えを発展させたものとして、リンクを張ったのです。

マンモスのように古い。フーリエなどの分解や自己回帰係数とその値、フィルターと比べてどうなのでしょうか?

どれもうまくいかない。

 
マキシム・ドミトリエフスキー

マンモスのように古い。フーリエ法などの分解や自己回帰係数とその値、フィルターと比べてどうなのか

どれもうまくいかない。

このスレッドに新鮮さを。

では、何を試したのでしょうか?

具体的には?何のために?

 
サンサニッチ・フォメンコ

この支店のために新鮮な

では、何を試したのでしょうか?

具体的には?どのターゲットに?

係数と一緒に自己回帰(acfとの差はない)分解もいろいろと試してみました。

よく相関する系列で動作します(2行目をフィクスチャとし、例えば機器間のVARを構築し、それを予測因子とし、モデルを訓練します)。相関関係が壊れない限りは、うまくいきますよ。

1番目の機器では、他の多くの予測因子と同じように、オーバーフィットで動作します。対象となるものが自動的に選択されます。

 
イワン・ネグレシュニー

ありがとうございます。私は、メンバーシップに興味があるわけではありません。

"メンバーシップ "が正しいです))どんなメンバーシップも、通常はカジュアルな知人および/または偶然の結果であり、その文化や儀式と彼らの "kuklusklan "を即興でいくつかの上級者がいる、私はわずか数ヶ月そこにいた、スーパー貴重な情報が巻き取られるまでのことです。しかし、エコシステムが少なくとも比較的閉じているという事実は、このような議論やアルゴリズム基盤のスペアパーツの交換には大きなプラスです。このようなハズレでは長続きしないと思うので、Geksをそれほどひどく辱めないような同様のグループを探さなければなりません。

このグループはMoDモデルの統一的な表現を検討していると書かれていましたが、これらは私が見てみたいモデルです。

はい、そのような思考は大声で、そこだけでなく、私はエリートトレーダーで、方法でそれについて聞いたスポークリコール、多分ここで似たようなことを聞いた、私はあなたがモデルを共有するためのフォーマットを確立したい場合は、プライベートで議論することを提案、私もこの主題についての考えを持って、実際にはすべてのコーダーは知っているフルスタックC++のDLL-GALLパターンのように、生データを受け取って予測を出力し、シャープのペイトンからプラグインするコードを数行書くなど、標準の 問題だけです。誰がどこを気にする。

彼らの、ささやかな開発を示すために準備として比較のために、私はバイナリまたはテキスト形式とソースコードの形でシリアライズモデルを訓練した。

出口戦略の仕組みを利用するのが本筋です。

 

ゼンヤ

このグループでは、MoDモデルの統一的な表現が検討されていると書かれていましたが、私はそれを希望しています。

はい、そのような考えは声に出して、そこだけでなく、私はそれについて聞いたところで、エリートトレーダーで私は覚えている、多分ここで私は似たようなことを聞いた、私はあなたが望むなら、プライベートで議論することを提案する我々はモデル交換のフォーマットを調整できる方法、私もこの主題についての考えを持って、実際にすべてのコーダーは知っている。フルスタックC++のDLL-GALLパターンのように、生データを受け取って予測を出力し、シャープのペイトンからプラグインするコードを数行書くなど、標準の 問題だけです。誰がどこを気にする。

例えばPMMLがあります。

https://ru.wikipedia.org/wiki/Язык_разметки_прогнозного_моделирования

R用のライブラリ(pmmlとも呼ばれる)があり、ほとんどの一般的なモデルをこの形式に変換することができます。

することができます。
1) 通常通りRでモデルを学習させる
2)モデルをpmmlに変換する
3) pmml モデルを xml ファイルに保存し、共有する。

しばらく前に、mmlモデルを含むxmlファイルを読み込むことができるmql用のスクリプトを作りたいと思いました。この場合、数行のコードで、rから学習したgbmによって行われた予測をEAに埋め込むことができます(リソースとしてスクリプトとmmlを含む)。でも、なかなか実行に移せません。


xmlファイルにはneuronkaやforest branchの重みが規定されているため、モデル自体を秘密にしたい場合には適さない。

モデルの配置を完全に秘密にするためには、あるデータサイエンティスト・コンテストのアイデアを利用することができます。そこから、このファイルを使って予測値を補間し、既存の予測値の隣にある予測値を得ることができるのです。

 
Dr.トレーダー

例えば、PMMLがあります。

https://ru.wikipedia.org/wiki/Язык_разметки_прогнозного_моделирования

R用のライブラリ(pmmlとも呼ばれる)があり、ほとんどの一般的なモデルをこの形式に変換することができます。

このようにすることができます。
1) 通常通りRでモデルを学習させる
2)モデルをpmmlに変換する
3) pmml モデルを xml ファイルとして保存し、共有する。

以前、mmlモデルを含むxmlファイルを読み込むことができるmqlスクリプトを作成し、EAに組み込むことができました(スクリプトとリソースとしてのmmlを含む)。でも、なかなか実行に移せません。

xmlファイルにはニューロニックやフォレストブランチの重みが規定されているため、モデル自体を秘密にしたい場合には適しません。

残念ながら、ここでは秘密厳守が大前提です)))取引所から生データを取って予測を出すC++モデルによって難読化された取引所プロトコルについてです。そのため、入力と出力の記述のあるモデルを取り、例えば1ヶ月間、あるいは設計通りの期間、修正(再トレーニングなど)せずに使い、結論(買う、借りる、など)を導き出すことが可能です。

ファイルだけのフォルダであったことが望ましく、詳細を理解するためのバイナリが異なるのは費用対効果が悪い。

モデルデバイスを完全に秘匿するには、データサイエンティスト・コンテストのアイデアを利用することができます。そこから、このファイルを使って予測値を補間し、既存の予測値の隣にある予測値を得ることができるのです。

この場合、「モデル」とは、生データを予測に変換する一式を意味します。まず第一に、それはサインです。numeraiは、彼らのコイン(NMR)を販売するための学生コンテストを開催しており、実際の市場とは何らかの関係があるはずはありません。もし、別のコンペティションのことであれば、教えてください。

 
非定常系列に対するMOの使用:複合モデル について、どなたか教えてください。プロセスの状態に対応し、モデルパラメータが依存するいくつかの追加パラメータが導入されます。このパラメータも予測される。このアプローチは、記事の中で温度予測に使われています。確かにこのようなモデルの複雑化はオーバーフィッティングにつながるが、少なくとも非定常性にはどうにか対処できる。
 

はい。

彼らのやり方にメリットがないわけではありません。私は自分のモデルで何十万ものランダムなインスタンスを予測することを試みました。そして、ブラックボックスの予測は、座標で最も近い点を探し、その結果を予測そのものとして使用しました。このプロトタイプはうまくいきましたが、実際に改良することができました。3つの最も近い点を見つけ、その平均結果を三角測量するのです。しかし、これは計算量が多く、openclウィジェットでも予測に数秒かかることがあります。

 
Aleksey Nikolayev:
プロセスの状態に対応し、モデルパラメータが依存する追加パラメータをいくつか導入している。このパラメータも予測される。

RNN(リカレント・ニューラル・ネットワーク)のメモリと非常によく似ている

予測因子ともう1つの値(メモリ)がモデルに投入される。このモデルは予測において2つの数値、つまりターゲットそのものと、次の予測で予測因子とともに使用される新しいメモリ値を生成する。そのため、リカレントネットワークと呼ばれ、その出力が次回の入力として使われ、毎回輪になっていく。

FXのRNNは非常に過食気味でヤバい、教科書通りにやってもダメだし、プットトレードもダメだし。
しかし、数個のパラメータしか持たないモデルで、大規模な隠れ層を持つ通常のニューロン並みの精度を実現しているのですから、今でも驚かされます。

 
Dr.トレーダー

これはRNN(リカレントニューラルネットワーク)におけるメモリと非常によく似ている

予測値と別の値(メモリ)がモデルの入力に供給される。このモデルは予測値として、ターゲットそのものと、次の予測で予測子とともに使用される新しいメモリ値の2つの数値を出力する。だから再帰的ネットワークなんです。その出力が次の回に入力として使われるというように、毎回輪になっていくんです。

FXのRNNは非常に過食気味で、やばいです、教科書通りに全部やってもダメで、プットトレードをします。
しかし、数個のパラメータしか持たないモデルで、大規模な隠れ層を持つ通常のニューロン並みの精度を実現しているのですから、今でも驚かされます。

ありがとうございます。本当にそのように見えますね。

理由: