トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 460

 
ミハイル・マルキュカイツ

叩いているのか......。具体的な例を挙げると...。それなら話を続けられるが、そうでなければ......。

間違いと思われることを見つけてレシェトフに伝えたとしても、彼には何の反論もない。彼は逆にそれを間違いだと認識していないので、自分の主張が弱いか間違っていることになる。だから、彼は黙っている。


スタジオで口論!

 
いつも口先ばかりで、裏付けがない。
 
ヴィザード_。

ミシェイク、なぜ何も言わないの?お兄さんを応援してあげてください)))

何をヤラセてるんだ、商売になるのか? 少なくとも、みんな面白いことをやっている。

良いものを書く

 
マキシム・ドミトリエフスキー

https://sites.google.com/site/libvmr/

これは非常に古いバージョンで、Wizardの意見に100%賛成で、使わない方がいいと思います。このモデルは再トレーニングを行い、最後にアウトサンプル・データに対する推定精度を表示する際にも、誤差を伴って表示され、大幅に過大評価されます。私はこのフォーラムのスレッドで、学習後のinfoのモデルが新しいデータで90%の精度を示した例を紹介しましたが、このデータを式に追加し、少なくともExcelの式を使って結果を計算すると、予測は完全にランダムで50%の精度しか出ませんでした。

ユーリは、それを私の頭に浮かべ、いくつかのモデルの委員会を加え、すべてを加速してjPredictionと名付け、まさにこのモデルのためにウェブサイトを作りました。サイトはなくなりました。最新版とソースはMikhailに尋ねてください。
このモデルはうまくいったと思いますが、遅さを考慮すると、Rにはもっと生産的なことがあります。

 
Dr.トレーダー

これは非常に古いバージョンで、Wizardの意見に100%賛成で、使わない方がいいと思います。このモデルは再トレーニングを行い、最後にサンプル外のデータに対する推定精度を表示する際にも、誤差を伴って表示され、大幅に過大評価されてしまうのです。このフォーラムのスレッドでも、学習後のinfoのモデルが新しいデータで90%の精度を示し、このデータを数式に追加して、少なくともExcelの数式で結果を計算したところ、完全にランダムで50%の精度しか予測できなかったという例を掲載しました。

ユーリはその後、それを思い浮かべ、いくつかのモデルの委員会を加え、すべてを加速してjPredictionと名付け、このモデルのためのウェブサイトを作成しました。サイトはなくなりました。最新版とソースはマイケルに尋ねてください。
このモデルでもいいのですが、遅さを考慮すると、Rにはもっと生産的なものがあります。

持っている、それも再教育されていると思う、ただ、説明のリンクは
 
ヴィザード_。

では、なぜ叫ぶのですか?彼はバカじゃない。ウィザードは、面白い時でも常にポイントを押さえています)))
ガラケーは捨てろ、時間の無駄だ。昨日声を上げた道具とその組み合わせの可能性。
ミシェイクに時間を費やすのは無駄だ、彼はあることを暗に書いていて、オスのレスは3番目だ...。


はい......小声です。) 他の投稿が見つからず、モデレーターか何かによって削除されました。
 

大丈夫だ...ただ、少しご無沙汰してしまいましたが...。

本当にgoogleに記載されているのは古いバージョンなんですね...。しかし!!!!!!!!!!

JPredictionが再教育され、正しく動作していないことを合理的に証明するために、実験をしてみましょう。やはり、何事も比較して学ぶものです。これこそ、私がやりたかったことです。

データセットがあって、それを学習させて、このモデルをしばらく動かして、その結果を見てみましょう...。

私はJPredictionでデータセットを訓練し、あなたは同じデータセットをあなたのAIで訓練し、間隔を選び、どちらのモデルがより長く、より良く働くか見る......。

私のデータセットをあなたのAIで訓練してくださいと言ったのは、そういう意味なんです。

それで......。というのは、みんながどういう基準で予測者がオーバートレーニングだと判断したのかが不明なんですよね?どこから持ってきたんだ、ウィザード。オプティマイザーが機能していないという具体的な根拠はあるのでしょうか?そうなんですか?例を挙げると......。

同じように、私があなたのデータセットを学習させ、どのモデルがより効果的であるかをあなた自身で確認することができます。あなたが訓練したものと、私がオプティマイザーで訓練したものと......。

 
ヴィザード_。

いや、レシェトフは、既知の公式に従って正規化を厳密に固定してはならないことを理解していない。を作るべきでした。
ディスコネクトスイッチまた、ランダムブレイクダウンも疑問で、せめてフラグを立てるべきでしたが、無効化した方が良いなど...。

そうそう、故障のことも書きましたよ。ですから、通常のデータについては大丈夫ですが、特にFXについては、何らかのロールフォワードを行うべきでした。せめて、日付が変わる前にトレーニング、日付が変わってからテストと、時間によって2つに分けてくれればいいのに。

ノーマライゼーションの何が問題なのか?ニューロニックでは、入力がどのような範囲であっても、正しく初期化された重みはすべてを消化する。ノーマライゼーションは邪魔にはならないが、全く役には立たない。
直感的には、入力に正負の数値が含まれる場合は、0をシフトしない方が良いと思うのですが。そして,Rは予測変数のスケールを0-1ではなく,sd(x) = 1にするように言っています.

 
ヴィザード_。

いや、レシェトフは、既知の公式で正規化を厳密に行うべきでないことを理解していなかったのだ。を作るべきでした。
ディスコネクトスイッチランダムブレイクダウンも問題で、せめてフラグを立てるべきでしたが、OFFにした方が良いなど......。


ランダムブレイクダウンについては、議論してもいいと思っています。

AIで予測をする場合は、過去から未来にかけてのデータの並びが重要であり、予測をすることになるのです。

しかし、分類となると、データの並びは全く関係ありません。なぜなら、分割する領域があり、見つかった法則がもうしばらく有効であることを期待して、それが最もうまくいく超平面を見つけるからです。

ちょうど、予測モデルを作ったときに見つけた法則のように......。

 

言うまでもなく、このモデルでは、学習しやすい例を捨てて、最も学習しにくい例を意図的に教えていることが、説明からわかります。まあ、それは私だけの話ですが...。を説明文から読み取ると...。というのは

トレーニングサンプルとテストサンプルに分けた場合、最も近い2つの値が異なるサンプルに該当する感じです。つまり、同じベクトルが2つあったとしても、1つはトレーニング用、もう1つはテスト用と、異なるサンプルに到達する......ということです。それで...