トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2115

 
Aleksey Vyazmikin:

オーバーサンプリングではまだ何も得られませんが、「トドメ」は少し結果を改善しました。つまり、データの中に何かがあるということで、要はきちんと掘り下げることが大事なのです。

サンプルに量子化設定の異なるモデルを適用した場合のヒストグラム。


クラス間の境界をよりよくする。データも同様で、クラス分けを明確にし、例が重ならないようにする必要があります。

その方法まで知っている...ちょっと賢いけどまだやっていない
 
マキシム・ドミトリエフスキー

というのは、クラス間の境界をよりよくするためです。このように、クラス分けを明確にし、例が重ならないようにデータを作成することも必要です。

その方法まで知って いる...ちょっと賢いけど、まだやっていない

どうなんでしょうね?私たちの分野では、通常、クラスは均等に 混在していると言えます。

 
マキシム・ドミトリエフスキー

というのは、クラス間の境界をよりよくするためです。また、データも同様に、クラス分けが明確で、例が重複しないように作成する必要があります。

そして、その方法さえも知っている...ちょっと賢いけど、まだやっていない。
Maxim Dmitrievsky:
ラベルサンプリングにクラスタリングを追加。同じ属性でクラスター化し、クラスターでサンプリングする。クラスは分離されるが、新しいデータがどうなるかはわからない。理論的には改善されるはずです。

ということで、今週はこのアイデアをここで取り上げてみました :)

ただ、私は主要なクラスの数を減らすことを提案します。

 
Aleksey Vyazmikin:

そこで、今週はこのアイデアをここで取り上げてみました :)

ただ、私は主要なクラスの数を減らすことを提案します。

見ていない
 
Maxim Dmitrievsky:
私は見ていません。

これを自動的に行う方法/ツールはありますか?

 
Aleksey Vyazmikin:

これを自動的に行う方法/ツールはありますか?

どうでしょう、見てみないとわかりませんね。今週末にでも見てみようかな。
 
Maxim Dmitrievsky:
どうでしょう。今週末にでも見てみようかな。

見つかったら教えてください、そうでなければバイクを作り始めます :)

エリブラリウスは、クラスタリングの代わりに枝分かれした木を作り、葉から情報を取って多数決を行うというアイデアを提案した。

 

現在の先物-2018年にトレーニングが完了しました。可愛すぎる。

そして、こちらは前回の先物と同じパターンです。こっちの方が悲しいけど、我慢できる。

トレーニングの終了がさらに近くなったら、先物を見てみよう。そして、そこが悩みどころです。

そして、何が起こっているのか理解できません。トレーニングの終わりに近づけば近づくほど、結果が良くなるはずなのに、その逆になっているのです。異常なことです

 

答えは、トレンドそのものにあるようだ - MOのない現在の先物

最後

然も

え、これってMO!?

 
いや、割合で言えば学習型があり、MOなしだと40%~45%が利益を出し、MOありだと60%~65%が利益を出すということです。しかし、利益と損失が同じでなければ、取引の指標にはならない。
理由: