トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1453

 
ゴビッチ

顔は同じように見えるが、問答は...。同上グラウンドホッグ・デイみたいだ)))

ZZはまた80%か・・・。

素直でない人は、何かの陰謀か、自分のタワーに問題があるのではと疑ってしまう。

これは同じことについての3回目か4回目の「波」のようですが、2/3以上の投稿が読まれていないので、確かなことは言えません。

どうしたんだお前ら

つまり、これは常連さんたちの意見がすでに出来上がっていて、みんながそれぞれの方向に向かっていて、それぞれの方向が正しいということを示しているに過ぎないんです。ZZも間違えずに使えば正しいのですが、使っている人はきっと何か間違えているのでしょう。もちろんIMHOです。そして、正しく使い始めると、思いっきり間違った結果が出て、世の中はなんだか間違った色に着地してしまう。ZZを使うことに大きなメリットは感じられないからです。出力側でも入力側でもない。
そして、同じことについて、私は同意しないと上記の私はすでに以来、過去100投稿で、これらは、声と取ることができる唯一のアイデアであることを書いている。変身せずに、まっすぐ。では、この100で声を上げたアイデアの中で、私以外に試せそうな例を挙げてみてください。
さて、ここで役に立つのは誰でしょう?それでいい.一方、私が声を上げたことは、根本的に立証されている。開発では、最適化というか、その整理の方法を新たに考案しました......。
 
マキシム・ドミトリエフスキー

英語といえば、ヌバットの皆さんは何をやっているのか知りませんが、科学者たちは今でもボラティリティをモデル化するために分数ブラウン運動の研究をしているんですよ。これ以上正確な相場の動きを表現する方法は、まだ世の中に存在しないのです。ブラック・アンド・ショールズから新しい研究まで。

https://tpq.io/p/rough_volatility_with_python.html

https://www.quantstart.com/articles/derivatives-pricing-ii-volatility-is-rough#ref-gatheral

今のところ、キャンドルの色の予測やジグザグなど、幼稚園のお遊戯会のような話ばかりですね。

Rにはyuima パッケージがあり、分数ブラウン、レビー飛行など、このようなものがすべて揃っています。それに関する本が あり、少なくとも書誌の関係で役に立つかもしれません。

The YUIMA Project
The YUIMA Project
  • yuimaproject.com
The YUIMA Software performs various central statistical analyses such as quasi maximum likelihood estimation, adaptive Bayes estimation, structural change point analysis, hypotheses testing, asynchronous covariance estimation, lead-lag estimation, LASSO model selection, and so...
 
ゴビッチ

わら

ZZについては、私は議論しない、95%を取得するのは簡単ですが、それは無駄 です、私はASRが直接依存している過去の混合のない、純粋な将来の価格変動の素晴らしい65%の品質の予測を意味します。

先輩の男については、ブランチの荒野のどこかで彼らはSBでテストすることを提案し、価格の代わりにSBを取るとacuracieとすべての残りの部分はどうなるかを見て、それは明らかに55%以上であれば明らかにどこかに、SBは50%よりもはるかに多くを予測できないので、混乱ですが、ZZとその価格は、SBが同様に "クール "と予測している、それは何を意味するのでしょう。SBがトレードできるようになったこと?

1.簡単なものであれば、数字で具体的な例を挙げてみてください。

2.アドバイス(「取る」「見る」)は必要ない、自分でやって、具体的な例で自分の主張を証明してください。そして、「お兄さんたち」への言及・・・。シンプルに「ある人がそう言った」と書けばいいのに。

賢いおしゃべりな人が多すぎる。

 
mytarmailS:

ウラジミールさん、こんにちは

私が送ったスクリプトはどうですか、実験してみましたか? もしかして、アイデアや回帰の方法を開発したのでは?

プライベートメッセージで

 
アンドレイ・ディク

2層にして、各層のニューロン数を1個に減らしてみてください。

白い縦線の前 - サンプル、後 - OOS

ニューロンの数が多ければ多いほど、調整の確率が高くなる(自由度が高くなる)ので、ニューロンが少なくともある程度賢明な結果を出せる限り、ニューロンの数を減らしてみる。

つまり、入力や粗いメッシュの情報が鮮明であればあるほど良いということです。

男、その通りです。
 
イワン・ブトコ
そうなんですか?


結果は改善されたのですか?
 
アレクセイ・ニコラエフ

Rにはyuima パッケージがあり、分数ブラウン、レビー飛行など、このようなものをすべて備えています。それに関する本が あり、少なくとも参考文献があるので役に立つかもしれません。

ありがとうございます!最後の方に前代未聞のモデルがあるんですね!読んでみます。

 
マキシム・ドミトリエフスキー

ありがとうございます。最後に聞いたことのないモデルもあり、読んでみようと思います

いろいろなものが入っています。例:複合ポアソン過程、アレクサンダーがTPブランチから発明し、決して発明しない)

 
アンドレイ・ディク


は改善されたのでしょうか?

残高のばらつき(ノコギリ波振幅)が若干大きくなり、取引回数が減りましたが、フォワードではかなり長い間安定した状態を繰り返しています。そして、2層に20、50、1000のニューロンを入れると、学習済み周期は揃っているのに、すぐに底に落ちたり、カオスになったりします。また、10ニューロン×30層でも試してみましたが、同じでした。2つの層に3つのニューロンを配置しました - stable))) 。)

リアルに載せてくれ、チェックする

 
アンドレイ・ディク

2層にして、各層のニューロン数を1個に減らしてみてください。

白い縦線の前 - サンプル、後 - OOS

ニューロンの数が多ければ多いほど、調整の確率が高くなる(自由度が高くなる)ので、ニューロンが少なくともある程度賢明な結果を出せる限り、ニューロンの数を減らしてみる。

つまり、入力の情報が明確で、メッシュが荒いほど良いということです。

美しすぎて、よだれが出そうで疲れます。

これは何時代に間に合うのか? 秘密の技術は何なのか?

理由: