トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 613

 
ウラジミール・ペレヴェンコ

びっくりした。1時間以上カウントされるモデルってどんなの?

長くても1〜2分程度が目安です。

88-50-20-2ネットワーク、88予測変数の86400行の学習データ。+ 検証データ、テスト区間は+28800(ただし、高速にカウントされる)。

 
ヴィザード_。

先生、恥ずかしくて聞けません。モデルの値段はいくらぐらいがいいのでしょうか?
確かに小銭は入ってきませんね。もしかしたら、(価格-品質)という公式があるのかもしれませんね。)


まあ明らかに2コペックではないな、トリックスター......子供じゃないんだから、そのくらい理解しろよ......。

多次元データ空間における汎化モデルの探索は、迅速かつ最適なタスクではなく、過学習効果を低減するためにモデル構築の要件を高め、より厳格なルールを設けることで、そのようなモデルの探索に要する時間を増加させることになる。だから、データはしっかり振っておかないと......。

なぜ、AWSとReshetnyで同じファイルが異なる時間で処理されるのか?AWSは2~5分、Reshetovは3時間、彼のモデルはAWSのモデルの2倍の性能/なぜ?

 
エリブラリウス

88-50-20-2ネットワーク、88予測変数の86,400行の学習データ。検証用データおよびテストプロット1件につき+28,800円(ただし、すぐにカウントされます。)


こんなセットがあれば、レシェトフは永遠にカウントされ続けるでしょう :-)

FXの秘密を教えてあげよう。データのαは、ごく短い区間でしかありえません。私のデータでは、このパラメータを50行以上増やすことはまだできていません。つまり、100列、50行あるんです。これは市場の約2週間分をカバーしています。つまり、トレーニングの間隔を広げ始めると、モデルの品質が75%を割り込み、CBの品質が自己責任で作業できないような状態になってしまうのです。だから、この何千枚ものレコードをどうしたいのか、理解できないのです。許容範囲のトレーニング品質で市場全体のモデルを構築することはできません。トレーニングエリアが広ければ広いほど、モデルは悪くなります。そして、そのような分野で良い結果を示したとしても、それは一般化という概念とは関係ない......。わかるよね......。

なぜ、性能の良いモデルを延々と作れないか、わかりますか?なぜなら、そのようなデータ...の入力...そのようなモデルを作ることができるものは、原理的に自然界には存在しないのです......。そんなデータはない。そうでなければ、とっくに一般的に使われているはずだ。公開されているデータということで......インサイダーとかじゃなくて......。それで...なぜこんなにたくさん並ぶのでしょうか?

 
ミハイル・マルキュカイツ

こんなセットがあれば、レシェトフは永遠にカウントされ続けるでしょう :-)

FXの秘密を教えてあげよう。データのαは、ごく短い区間でしかありえません。私のデータでは、このパラメータを50行以上増やすことはまだできていません。つまり、100列、50行 あるんです。

そんなモデルは作れない、サンプリング長は特徴数の最低5倍は必要、サンプリングより特徴数が多い、次元の呪い

FXの秘密を明かすのではなく、無知を晒す。

 
ミハイル・マルキュカイツ
では、この何千枚ものレコードをどうしたいのかが理解できないのですが?許容できるレベルのトレーニング品質で、市場全体にわたるモデルを構築することはできないでしょう。そして、そのような分野で良い結果を示したとしても、それは一般化という概念とは関係ない......。わかるよね......。

M1で、60日しかない。ですから、市場全体では全くなく、ここ3ヶ月のものです。

持続時間が2倍になると、モデルが構築されなくなる......。もちろん期間を最適化するのですが、まだそこまで至っていません。まずはレイヤー数を把握したいですね。

最低でも10モデル作ると、計算に8〜10時間かかります((

計算式は3つで、最小 値と最大値を求め、それを数え、その間に2-3、外側に2-3です。そして、その中から最適なモデルを選び、すでに計算されている場合は、それをアンサンブルするのです。

PS ふむ、これは隠れ層が2層の場合と、1層の場合とで同じ量になりますね。

一般的には、24時間で機種が決まります。

 
エリブラリウス

一般的には、24時間で機種が決まります。


マイニングフリークじゃないんだから、値段は普通のカードの3倍はするでしょ(笑)。

マイナーフリークのせいで普通のカードは全部3倍くらいに値上げされてる。

 
エリブラリウス

M1で、60日しかない。ですから、市場全体では全くなく、ここ3ヶ月のものです。

持続時間を2倍にすると、モデルが作られなくなった......。もちろん、デュレーションの最適化も必要ですが、まだそこまで手が回っていません。まずはレイヤー数を把握したいですね。

最低でも10モデル作ると、計算に8〜10時間かかります((

計算式は3つで、最小 値と最大値を求め、それを数え、その間に2-3、外側に2-3です。そして、その中から最適なモデルを選び、すでに計算されている場合は、それをアンサンブルするのです。

PS うーん、これは隠しレイヤーを2枚にした場合と、1枚にした場合の同量ですね。

一般的には、24時間で機種が決まります。

できれば、そのようなデータを使ってフラクタル解析の原理に基づくモデルを構築してみるのがよいでしょう。複数のタイムフレームを使用してエントリーする場合。マキシムは、世界のフラクタルに関する良いビデオを見せてくれました。
一般的には、i7 3-4Ghzとssdの専用サーバーを 月々7-8ドルで提案することができます。カウントもOKだし、パソコンも忙しくなくなる。
 

入力(と,場合によっては出力)には,ある深さの引用分布,あるいは分布のモーメントを与えることができる,という考えを持っています

そうすれば、ある程度平滑化され、確率的な画像が得られ、おそらく、重要な特定の変種を限定的に得ることができるでしょう。でも、まだやっていない。そのためには、分散分析を汲み上げる必要があるんだ。

フラクタルが考慮されると、異なるtf間の分布の関係mb.しかし、このテーマは真剣に取り組まないと、図を描くには

 
ミハイル・マルキュカイツ

多次元データ空間で一般化可能なモデルを見つけることは、最適化の観点からは簡単なことではありません。過学習の影響を減らすために、モデル構築のための要件とルールがますます厳しくなり、その結果、モデルを見つけるのに要する時間が長くなっています。だから、データはしっかり振っておかないと......。

なぜ、AWSとReshetnyで同じファイルが異なる時間で処理されるのか?AWSは2-5分、Reshetovは3時間、彼のモデルはAWSのモデルより2倍優れている/なぜ?

レシェトフのモデルはベンチマークではありません。たとえば、予測変数のセットの検索は、さまざまなバリエーションを試すことによって行われます。モデルは予測変数のランダムなセットを取り、それを学習し、その結果を記憶します。これをループで膨大な回数繰り返し、最も良い結果を最終的なモデルとして使用する。この処理は、最初に特別なアルゴリズムで予測変数の選択を 行い、その特定の集合に対して一度だけレシェトフモデルを学習させると、著しく高速化することができます。そして、AWSに匹敵するスピードでレシェトフモデルのクオリティを手に入れることができます。このようなモデルでは、「コスト」は大きく下がりますが、「品質」は変わりません。

 
アレクセイ・テレンテフ
そのようなデータでフラクタル解析の原理に基づいたモデルを作ってみたらどうかと思うのです。複数のタイムフレームを入力する場合。マキシムは、世界のフラクタルに関する良いビデオを見せてくれました。
一般的には、i7 3-4Ghzとssdの専用サーバーを 月々7-8ドルで提案することができます。カウントもOKだし、パソコンも忙しくなくなる。
TFを数枚と、使っています)ただ、1分1秒を争う分析をしています。サーバーは必要ありません、ありがとうございます
理由: