トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 4

 
アレクセイ・ブルナコフ

NSは非常によくやった。

ランダムフォレストは、変数の集合が相互作用するこのようなタスクに対応できませんでした。そして、各予測変数の個別有意性は意図的にゼロとした。

NSが何かでうまくいったという根拠は見当たりません。

過学習は、科学、特にモデル構築において世界的な悪である。

そのため、3セット分の誤差が必要です。

  • ラーニングセットガラケーの理解する方法(OOB、テスト、検証)で十分です。
  • は、日付の点で、トレーニングセットの外にあるセットです。
  • もうひとつは、日付という意味で外側にあるセット、トレーニングセットです。

最後の2セットは、ターミナルに到着すると混じりっけなしで、バーの後ろにあるベースが登場する。

3セットとも同じ程度の誤差があるはずです。同時に、モデルを学習するときに取る予測変数のセットも固定しなければなりません。

 
アレクセイ・ブルナコフ


ランダムフォレストは、変数の集合が相互作用するような問題を扱えませんでした。そして、各予測変数の個別有意性は意図的にゼロとした。

予測因子間の相互作用を考慮するあなたのアイデアは、統計学の革命です。今までは、予測因子間の相互作用は悪だと思っていました。予測因子自体が通常非定常であるだけでなく、これらの非定常ランダムプロセス間の関係も説明しようとしているのです。

機械学習では、相互作用する変数を取り除くことが必須とされている。さらに、非常に効果的なアルゴリズムが利用できる。例えば、主成分法では、相互作用を除去し、相互作用する予測変数の集合を独立した予測変数の集合に変換できる。

 
サンサニッチ・フォメンコ

NSが何かに対処したという証拠は何もない。

過学習は、科学、特にモデル構築において世界的な悪である。

そのため、3セット分の誤差が必要です。

  • ラーニングセットガラケーの理解する方法(OOB、テスト、検証)で十分です。
  • は、日付の点で、トレーニングセットの外にあるセットです。
  • もうひとつは、日付という意味で外側にあるセット、トレーニングセットです。

最後の2組は、ターミナルに到着すると混じりけのない、バーの後ろのベース。

3セットとも同じ程度の誤差があるはずです。つまり、モデルを学習する際に取る予測変数のセットを固定する必要があります。

こう言ってはどうだろう。これは課題の一部ではないにもかかわらず。学習したモデルを実行する検証用サンプルを並べ、出力の予測精度を測定してみる。

しかし、繰り返しになりますが、これは必要ありません。なお、検証は推論されたパターンを元に再度書きました。

ファイル:
 

データに埋め込まれたパターン。

Количество по полю input_19 output
input_1 input_3 input_5 input_7 input_9 input_11 0 1 сумма предикторов четность
1 1 1 1 1 1 143 6 ИСТИНА
1 1 1 1 1 2 100 7 ЛОЖЬ
1 1 1 1 2 1 121 7 ЛОЖЬ
1 1 1 1 2 2 119 8 ИСТИНА
1 1 1 2 1 1 114 7 ЛОЖЬ
1 1 1 2 1 2 124 8 ИСТИНА
1 1 1 2 2 1 105 8 ИСТИНА
1 1 1 2 2 2 102 9 ЛОЖЬ
1 1 2 1 1 1 101 7 ЛОЖЬ
1 1 2 1 1 2 131 8 ИСТИНА
1 1 2 1 2 1 122 8 ИСТИНА
1 1 2 1 2 2 114 9 ЛОЖЬ
1 1 2 2 1 1 111 8 ИСТИНА
1 1 2 2 1 2 98 9 ЛОЖЬ
1 1 2 2 2 1 123 9 ЛОЖЬ
1 1 2 2 2 2 112 10 ИСТИНА
1 2 1 1 1 1 128 7 ЛОЖЬ
1 2 1 1 1 2 114 8 ИСТИНА
1 2 1 1 2 1 111 8 ИСТИНА
1 2 1 1 2 2 126 9 ЛОЖЬ
1 2 1 2 1 1 143 8 ИСТИНА
1 2 1 2 1 2 95 9 ЛОЖЬ
1 2 1 2 2 1 108 9 ЛОЖЬ
1 2 1 2 2 2 117 10 ИСТИНА
1 2 2 1 1 1 112 8 ИСТИНА
1 2 2 1 1 2 132 9 ЛОЖЬ
1 2 2 1 2 1 92 9 ЛОЖЬ
1 2 2 1 2 2 134 10 ИСТИНА
1 2 2 2 1 1 110 9 ЛОЖЬ
1 2 2 2 1 2 114 10 ИСТИНА
1 2 2 2 2 1 120 10 ИСТИНА
1 2 2 2 2 2 108 11 ЛОЖЬ
2 1 1 1 1 1 109 7 ЛОЖЬ
2 1 1 1 1 2 133 8 ИСТИНА
2 1 1 1 2 1 99 8 ИСТИНА
2 1 1 1 2 2 115 9 ЛОЖЬ
2 1 1 2 1 1 123 8 ИСТИНА
2 1 1 2 1 2 116 9 ЛОЖЬ
2 1 1 2 2 1 131 9 ЛОЖЬ
2 1 1 2 2 2 119 10 ИСТИНА
2 1 2 1 1 1 96 8 ИСТИНА
2 1 2 1 1 2 120 9 ЛОЖЬ
2 1 2 1 2 1 111 9 ЛОЖЬ
2 1 2 1 2 2 99 10 ИСТИНА
2 1 2 2 1 1 132 9 ЛОЖЬ
2 1 2 2 1 2 110 10 ИСТИНА
2 1 2 2 2 1 93 10 ИСТИНА
2 1 2 2 2 2 106 11 ЛОЖЬ
2 2 1 1 1 1 100 8 ИСТИНА
2 2 1 1 1 2 127 9 ЛОЖЬ
2 2 1 1 2 1 127 9 ЛОЖЬ
2 2 1 1 2 2 101 10 ИСТИНА
2 2 1 2 1 1 119 9 ЛОЖЬ
2 2 1 2 1 2 120 10 ИСТИНА
2 2 1 2 2 1 99 10 ИСТИНА
2 2 1 2 2 2 106 11 ЛОЖЬ
2 2 2 1 1 1 133 9 ЛОЖЬ
2 2 2 1 1 2 97 10 ИСТИНА
2 2 2 1 2 1 100 10 ИСТИНА
2 2 2 1 2 2 116 11 ЛОЖЬ
2 2 2 2 1 1 119 10 ИСТИНА
2 2 2 2 1 2 118 11 ЛОЖЬ
2 2 2 2 2 1 102 11 ЛОЖЬ
2 2 2 2 2 2 128 12 ИСТИНА
 
サンサニッチ・フォメンコ

NSが何かに対処したという確証はないですね。

Neuronkaはこの問題を解決し、Rattleからのコードでログをアタッチメントしました。最大反復回数を増やし、中間層をバイパスして入力の出力から直接出力に向かうコネクションを削除しました(skip=TRUE)。この2つの制約がすべてを台無しにしてしまうからです。

新しいファイルで検証を行ったところ、どちらの場合もエラーはほぼ0%でした(2番目のファイルからの検証では1つだけエラーがありました)。

しかし、NSはブラックボックスのようなものなので、解答のロジックを知るすべはない。ウェイトを見て、各入力に対する平均絶対 値を決め、図を描くことができる。そして人は、1、3、5、7、9、11が他よりも重要であることを知ることになるのです。しかし、残りの入力もなぜか使われており、重みがゼロのものはどこにもない。つまり、最初は学習が行われ、その後、重要なインプットを決定する可能性があることがわかったのです。

ファイル:
 
Dr.トレーダー

Neuronkaはこの問題を解決し、Rattleからのコードでログをアタッチメントしました。neuronを呼び出す際に、コードにいくつかの変更があります。最大反復回数を増やし、中間層をバイパスして入力から出力へ直行する接続を削除しました(skip=TRUE)。この2つの制約がすべてを台無しにしてしまうからです。

新しいファイルで検証を行ったところ、どちらの場合もエラーはほぼ0%でした(2番目のファイルからの検証では1つだけエラーがあります)。

しかし、NSはブラックボックスのようなものなので、解答のロジックを知るすべはない。ウェイトを見て、各入力に対する平均絶対 値を決め、図を描くことができる。そして人は、1、3、5、7、9、11が他よりも重要であることを知ることになるのです。しかし、残りの入力もなぜか使われており、重みがゼロのものはどこにもない。つまり、まず学習し、次に重要なインプットを見極めるという逆方向の学習です。

そうなんです。それ以外の入力はノイズです。それが多くの手法の欠点で、ノイズの変数が完全に取り除かれるわけではないのです。

より長く、より小さなステップで教えることが必要なのかもしれません。

しかし、全体としてはブラボーです。NSは難しい問題を解決してくれました。
 
SanSanych Fomenko:

NSが何かに対処したという証拠は何もない。

過学習は、科学、特にモデル構築において世界的な悪である。

そのため、3セット分の誤差が必要です。

  • ラーニングセットガラケーの理解する方法(OOB、テスト、検証)で十分です。
  • は、日付の点で、トレーニングセットの外にあるセットです。
  • もうひとつは、日付という意味で外側にあるセット、トレーニングセットです。

最後の2組は、ターミナルに到着すると混じりけのない、バーの後ろのベース。

3セットとも同じ程度の誤差があるはずです。その際、モデルを学習する際に取る予測変数のセットを固定する必要があります。

当たり前を証明する必要があるのか?学習中に矛盾するデータを持つ入力の重みが減少した、つまり矛盾するデータの入力がブロックされたと言える。

この場合、学習したネットワークは 他の目的に使用されないので、再学習の問題はありません。

問題は、そのような手法に価値があるかどうかです。ちょっと重砲じゃないですか。

 
ドミトリー・フェドセーエフ

そのような方法が適切かどうかが問題である。大砲がちょっと重くないですか?

別の方法を試すことができます。しかし、私はこの救済策は問題に合っていると思います。
 
アレクセイ・ブルナコフ
別の方法を試すことができます。しかし、私はこの救済策は問題に合っていると思います。
仕事をし、そしてうまくやる。でも、もっと効果的でシンプルなものはないかと、いつも考えています。
 
ドミトリー・フェドセーエフ
仕事をし、そしてうまくやる。でも、もっと効果的でシンプルなものはないかと、いつも考えています。
やってみないと、わからない。通常のインクルージョンと例外は通用しない。他に何があるのでしょうか?
理由: