トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 741

 
ミハイル・マルキュカイツ

ただ、質問が初心者レベルなんですよね......。

ムキになるのはそこまでだ。つまり、私...ムース、2週間ぶりの登場...。でも、めげずにTSに取り組み続けています。

もちろん未経験なので、わからないことは興味津々で聞いています。

 
Aleksey Vyazmikin:

もちろん、経験がないからこそ、わからないことを聞いてみたいという気持ちもあります。

ニューラルネットワーク 技術や機械学習について、自分で理解してみる。それから、私たちは話をします ...

 
ミハイル・マルキュカイツ

ニューラルネットワーク技術や機械学習について、自分で理解してみる。では、話を...。

この件に関しては、先生やメンターが必要だ...。

 
しない んです。

バラツキが小さいので、30回のラーン観測と30回のテストで90%の精度が出れば、選択の余地がなければチャンスと言えますが、95%以上の市場はノイズなので、少なくとも誤差と同等のモジュロでの予測を得るためには、数千倍のポイントが必要です。


PS:中心極限定理は統計学とその子孫のMOの基本で、力学でいうF=maみたいなもので、あなたはそれを軽視しているのでは...。

この非定常確率変数の極限定理の実行はどこで見たのですか?

 

仕事が見つからない?あなたの時間を、あなたの力で掛け算しよう
(普遍的なヒント集です)。


;)))))

 
よくわからない んです。

ここにも「非定常性問題」についての異端が......。

リターンはボラティリティで直線化すると定常的でほぼガウシアンであり、それだけで定常的でない価格そのものは計算には関与しないのです。

GARCHを勉強して、ここでまた「非定常性問題」なんて異端なことを書き込まないでね...。を返品することができます。リターンの非定常性のニュアンスを説明しようとするGARCHモデルは何百とありますが、これらの人々はみなそのような器用さを持ってはいません。

 
SanSanych Fomenko:

...

なぜ?

なぜなら、理論的に薬ができると、その薬の効果を正当化するために多大な労力を費やすことになるからです。

ただ、何でもかんでもひとくくりにしてしまうところが、私たちの違うところです。このスレッドを見てください。99%がペルセプトロンについてで、データマイニングについてはほとんど何も書かれていません。

また、ここで医薬品メーカーを見たことがありますか?消費者だけあって、ランダムフォレストを 飲むのをやめて、アークヒガルヒを飲むようになったんですね。

 

勉強しようと思っても、何度もやり直したこともあるんです。しかし、その都度、統計学や計量経済学の 用語の壁にぶつかり、手が付けられないでいた。

でも、とにかく大事なことがわかりました。有馬とGarchは、時系列の内部状態をモデル化することに多くの時間を費やしており、そこから価格が導かれるのである。つまり、世界では何十ものグローバルなプロセスが進行しており、価格はそれらの何らかの組み合わせで決まるのです。ですから、時系列そのものをモデル化するのではなく、これらの隠れたプロセスをモデル化し、これらのプロセスの相互作用をモデル化して、必要な時系列を得ようとする方がよいのです。

GarchやArimは、これらの隠れたプロセス(季節性、トレンドなど)についてのアイデアを内蔵していますが、数十年前にこれらのモデルに入れられた数式に制限されています。こうした市場内部の状況を表すような指標を独自に作ってみることもできますし、garchに比べると制約も少ないです。しかし、間違えやすいのも事実で、非常に複雑な作業でもあります。

 
価格は 定価ではありません。


リターンは定常的で、ボラティリティで直線化するとほぼガウシアンになる、これだけで、定常的でない価格そのものは計算に加わらない。

ボラティリティを履歴で補正するのか、新しいティックの到着で補正するのか。 例えばmuvを半期分後ろにずらして、基本相場から差し引けば、残差でほぼガウシアンが得られることは明らかです。しかし、最も興味深い場所、つまり右端でボラティリティがどうなっているかを知るためには、マブ期間の未来の半分を知る必要がある。どこで手に入るのでしょうか?


 
Dr.トレーダー

勉強しようと思っても、何度かやり直したこともあるんです。しかし、その都度、統計学や計量経済学の 用語の壁にぶつかり、手が付けられないでいた。

でも、とにかく大事なことがわかりました。有馬とGarchは、時系列の内部状態をモデル化することに多くの時間を費やしており、そこから価格が導かれるのである。つまり、世界では何十ものグローバルなプロセスが進行しており、価格はそれらの何らかの組み合わせで決まるのです。ですから、時系列そのものをモデル化するのではなく、これらの隠れたプロセスをモデル化し、これらのプロセスの相互作用をモデル化して、必要な時系列を得ようとする方がよいのです。

GarchやArimは、これらの隠れたプロセス(季節性、トレンドなど)についてのアイデアを内蔵していますが、数十年前にこれらのモデルに入れられた数式に制限されています。こうした市場内部の状況を表すような指標を独自に作ってみることもできますし、garchに比べると制約も少ないです。でも、それも間違えやすい、とても複雑な作業なんです。

GARCHとMOは競合するものではなく、完全に補完し合うもので、私が今やっているのは、古いMO-トレンドとGARCHを組み合わせて、エントリーポイントを決定しようとするものです。以前、1年間のトレードで必要な金額を出してくれたEAがあると書きました。RFと適応型ウィザード(リファインジュリク)の両方で構成されていました。しかし、そのペアリングでは非定常性の問題を解決することはできませんでした。

世界的に見ると、私は2つのタイプのモデルを区別しています。

  • 時系列の統計的特性を考慮したもの - これがGARCHで、極めて発展した傾向であり、基本的には共和分と並ぶ一般的な線である。膨大な数の出版物例えば、出版物のレベルの特徴として。S&P500指数に含まれる全銘柄、すなわち500銘柄について、さまざまなGARCHモデルを調査している。MOで同様のものがあるかは知らない。
  • 昔のTAのように機械的にパターンを探すような分類。

このスレのみんなはなぜかMOにしがみついてるよね。根拠は?分類の基本は、対象変数とその予測変数の間にある何らかの関係である。

さて、まず、相互の情報で起こったように、関係についての推測は、ここで即座に禁じ手となる

第二に、予測変数が目的変数に 影響を与える ような場合、その 影響が 時間とともに変化しないことを誰が証明したのでしょうか。実際のExpert Advisorをベースに何度も書いていますが、事前に見つけた27の予測変数の中からバーごとに選択され、5~15個が残され、このリストは27の予測変数の中で常に変化しています。すなわち、予測変数が目的変数に及ぼす影響度は 時間的に、しかもかなり速く変化 する。


そこで、Expert Advisorの考え方は次のようになります。

  • 分類を利用して、高いバーの価格の将来の方向性を予測します。
  • を使い、擬似静態時系列を用いて、適切なエントリー方向を予測するGARCH