トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2014

 
elibrarius:

これは皆さんに質問です。
私もネットワークから一方向の信号の束を受け取ります。ここと同じぐらいです。

100回、200回と連敗することもあるんですよ。そのためには、保証金の0.5%といった微小なロットで取引を行うしかない。
何百もの連続したシグナルをトレードしないアイディアを持っている人はいますか?
最初の1枚をトレードして、開いた1枚が閉じるまでトレードしない?最適解ではないような気がします。

選択肢は?

非常にノイズの多いデータ(signstarget)、例えばインクリメントでトレーニングしているため、信号が非常にノイズになるのです。シグナルのノイズを減らすために、サインとターゲット、あるいは最終的なシグナルそのものを滑らかにすることもできますが、それはあまり役に立ちませんし、利益を全く奪えません。

 
elibrarius:

これは皆さんに質問です。
私もネットワークから一方向の信号の束を受け取ります。ここと同じぐらいです。

100回、200回と連敗することもあるんですよ。そのためには、保証金の0.5%といった微小なロットで取引を行うしかない。
何百もの連続したシグナルをトレードしないアイディアを持っている人はいますか?
最初の1枚をトレードして、開いた1枚が閉じるまでトレードしない?最適解ではないような気がします。

どのような選択肢があるのでしょうか?

オープニングとエスコート、クロージングは別のロジックです。私はこっちの方が好きです。ストップは保険です。そうでなければ、ストップで開くだけで、オープンオーダーの数を制限するのがよいでしょう。

 
elibrarius:

これは皆さんに質問です。
私もネットワークから一方向の信号の束を受け取ります。ここと同じぐらいです。

100回、200回と連敗することもあるんですよ。そのためには、保証金の0.5%といった微小なロットで取引を行うしかない。
何百もの連続したシグナルをトレードしないアイディアを持っている人はいますか?
最初の1枚をトレードして、開いた1枚が閉じるまでトレードしない?最適解ではないような気がします。

どのような選択肢があるのでしょうか?

なぜ全く交換しないのか、それは小口径の銃でロシアンルーレットをするようなものだ :)

 
指標を見てください)は2020年でしか機能しません。
 
マキシム・ドミトリエフスキー

テストはうまくいったか?

 
mytarmailS:

どうだ、テストはうまくいったか?

相変わらずです...週の初めには、「プレトレーニング」の後、よく効きます。そして、土砂降りになる。もう一度作り直したので、明日テストしてみます :D

トレーディングロボットによっては、トレーダーでの計算が正しくない場合があります...一連のアップデートの後、間違った方法で取引を開始します。

また、torchでリカレントネットを扱っています。

黄色 - 週の初め、最初の1~3日間


 

反復(繰り返し?)ネットワークを使って次元を減らすことを試された方はいらっしゃいますか?

記事

動画で 見る


Лекция 6 | Нейросетевые технологии
Лекция 6 | Нейросетевые технологии
  • 2018.10.14
  • www.youtube.com
Дата: 08.10.2018 Лектор: Дорофеев Евгений Александрович Лекции в формате PDF - https://goo.gl/Xwzg4a
 
Aleksey Vyazmikin:

反復(繰り返し?)ネットワークを使って次元を減らすことを試された方はいらっしゃいますか?

記事

動画で 見る


再帰的オートエンコーダを使用。

 
マキシム・ドミトリエフスキー

再帰的オートエンコーダを使用。

入力ニューロンの数と同じ数の出力ニューロンが一度に評価される仕組みが理解できないのですが...。

もし、似たようなもので、使用に適したものがあれば、ぜひ教えてください。

予測変数のサンプル数が3000に迫る勢いなのですが、似たような領域を記述しているため、高度に圧縮される懸念があります。

 
Aleksey Vyazmikin:

入力ニューロンと同じ数の出力ニューロンに対して、モデルの品質推定が一度に行われることが理解できないのですが......。

もし、似たようなもので、アプリケーションに適したものがあれば、教えてください。

予測変数のサンプルが3000個に迫っているのですが、似たような領域を記述しているため、高度に圧縮される懸念がありました。

入力と出力はすべてフィックスで、隠れ層のニューロンは少なくなっています。出力の誤差を最小にすることで、単純に情報を圧縮しているのです。インプットとアウトプットがイコールであること(理想)。そして、学習後にNSの2番目の部分が捨てられ、隠れ層のニューロン数に等しい圧縮された特徴量が出力されることになる

リカレントレイヤーを追加することができるなど。

google オートエンコーダーとその亜種。