トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1002

 
Alexander_K2 です。

そこで、(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])のリターンの列は定常系列であるという意見があります。

1つのろうそくのretourneeは(クローズオープン)/オープン、それはNSに置くための正味の価格ではないファックは明らかだ、次のretourneeは非常に悪い前のもの(別のウィンドウで)予測され、それはスプレッドには十分ではありませんが、それは得るためにすべてがあるように思われます。

 
Alexander_K2 です。

要するに、CLOSE[i]-OPEN[i]という値は、インクリメントの合計にほかならないのである。

このような値の連続は、極限的には正規分布になるはずである。

さて、帰国者のシーケンス(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])は定常系列であるという意見があるようですが、どうでしょうか?

NSの入力でそのようなことを試された方はいらっしゃいますか、そしてその結果はどうでしたか?

Close[i]はOpen[i+1]に置き換えることができ、FXでは90%以上のケースでその通りです。あるいは、1~2pipsの違いだけかもしれません。そうすると、計算式の時系列は1つだけになり、より便利です。

このような変換は、ARIMAモデルで使用される。そして、それは本当に定常性を達成するために役立ちますが、もっと多くの変換があり、それは唯一の式ではありません。

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMAはもう時代遅れで、金融市場では何かを与えても、それは銀行の預金利息以上のものではありません。論文によるとGARCHの方がはるかに優れており、さらにARIMAに様々な付加を加えたものである。
 
Alexander_K2 です。

このような値の連続は、極限的には正規分布に近づくはずである。

正規分布の傾向にある価格は見たことがない。昔からラプラスに似ていて、コシのある尻尾を持った利き腕がいた。

 

それが私の理論的な推論でした。

実際には、もちろん、最初の帰国者はガウスを持っていませんし、これまで誰もそれを得ることに成功していませんし、これからも成功しないでしょう、残念ですが...。

しかし、私は(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])のシーケンス、つまり実際には2番目の戻りについて話して いたのです。

さて、これまでこの2回目のリターンにあまり注目していなかったのですが、そうすべきでした。

 

そしてコルモゴロフは、一般に、B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])]に特に注意を向け、この関数がかなり確定的でなければ何も予測しないようにしたようですな。

NSの仕事に一定の条件をつけるのは意味があるのかも?

例えば、セカンドリターンやB(k)を探索する、BPの不安定な部分をスキップするとか?

 

こんにちは。

達人の皆様、もうスーパーボットはお作りになりましたか?

実際に試してみたいですね。

 
Alexander_K2 です。

そしてコルモゴロフは、一般に、B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])]に特に注意を向け、この関数がかなり確定的でなければ何も予測しないようにしたようですな。

NSの仕事に一定の条件をつけるのは意味があるのかも?

例えば、セカンドリターンやB(k)を探ってBPの不安定な部分をスキップする、とか?

だから、(シグマの2乗)という限界があるんです。

この限界を決定することが、今回の問題の最初の解決策です。

この論文で解決すべき問題

内挿問題については、以下の点のみを考慮します。

によってx(/)を評価する場合。

-x{t + i)Jx{t + 2)1 ...,x(t + n)です。

x(t - l), x(t~2), ...。, x(t - ha).

この場合、数学的期待値の最小値をoj (ha)と表記します。

期待

a2 = MI0-<?)

ここで、Qは線形形式である。

Q = axx {t + i) + atx {t + 2)+ ....+apx {t + n) +

+ a-ix(t - l)-tex-a-2%(t - 2)+ ...-a-nx(t - ha)

として、一定の実数係数を持つ。

haが増加しても、a2 (i)の値は増加しない。したがって、存在するのは

限界

l im a} (ハ) = o?(5)

プ~>o

2つ目の問題は、[a]を決定することです。以下の提案

の解法が報告されています。

私のノート(*)で証明しています*。に関連する概念に依存しています。

を定常ランダム過程のスペクトル理論に応用した。

定常ランダム過程のスペクトル理論は

によって構築されたA。Я.時 間軸の引数 t が連続的に変化する場合のヒンシュク(2 ) 。

argument t (2 ) .

よくわからないのですが、すでに行われた予測の信頼性を分析的に推定するつもりなのか、そもそも予測をするつもりなのか。最初の2、3ページには、予測の信頼性を推定するための記事と書かれています。予想自体はA.J.Hinchinに 掲載されています。

そして、記事から基本的な文章を丁寧にコピーしていない。

Not: B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

また、その方が正しいと思います。

トレーディング、自動売買システム、テスト戦略に関するフォーラム

トレーディングにおける機械学習:理論と実践(Trading and Beyond)

トレーダー博士 2018.07.06 02:37

Close[i]はOpen[i+1]に置き換えることができ、FXでは90%以上のケースでそれが当てはまります。あるいはほんの数pipsの差。そうすると、計算式の時系列が1つだけになり、より便利です。

このような変換は、ARIMAモデルで使用される。そして、それは定常性を達成するのに役立ちますが、そこにはもっと多くの変換があり、それだけが唯一の式ではありません。

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMAはすでに時代遅れで、金融市場では、どちらかというと、銀行の預金利息以上のものは出せない。論文によるとGARCHの方がはるかに優れており、さらにARIMAに様々な付加を加えたものである。

PS.

はい、そして私の投稿からの 質問に対する返信ありがとうございました https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
こんにちは、ミーシャです。ご推察の通り、私は携帯電話からこれをやっています :-)
そうですね、最近はデータの前処理が前面に出てくるようになりましたね。もちろん、最適化アルゴリズム自体は重要ですが、良いトレーニングサンプルは最後の手段ではありません。レシェトフのオプティマイザーを褒めたり批判したりしていましたが、ところで、データをうまく前処理すると良いモデルができるんですね。いずれにせよ、10回の最適化で、少なくとも半分のモデルが動作するようになります。結局、彼の場合はそう簡単に実行できない。そして、JPredictionは常に関連性を持っていると思います。ここで重要なのは、データの前処理を適切に行うことであり、この分野で今、競争が始まっているのです。
 
やはり、別のスレッドで・・・。今やっているのは、少なくとも2つの前処理をすでに実装しています。1つ目は、ゴミのような予測因子を取り除くことです。2つ目は、トレーニング用のサンプルをより見やすくするもので、2つ目のポイントに注目したいと思います。
代表性演習の後、同じデータセットで学習の質は15%向上しました。主な目的は、学習の質を同じレベルに保ちながら、学習期間を長くすることです。例:25の例で、80%の一般化可能性から、あなたの一般化可能性まで得ることができました。40例で代表性を処理することで、モデルの品質を90%にすることができました。より長いサンプルで、学習品質を維持しながら学習できるモデルがベストだと思います。
 
Gramazeka1:
こんにちは、ミーシャです。ご推察の通り、私は携帯電話からこれをやっています :-)
そうですね、最近はデータの前処理が前面に出てくるようになりましたね。もちろん、最適化アルゴリズム自体は重要ですが、良いトレーニングサンプルは最後の手段ではありません。レシェトフのオプティマイザーを褒めたり批判したりしていましたが、ところで、データをうまく前処理すると良いモデルができるんですね。いずれにせよ、10回の最適化で、少なくとも半分のモデルが動作するようになります。結局、彼の場合はそう簡単に実行できない。そして、JPredictionは常に関連性を持っていると思います。ここで重要なのは、データを適切に前処理することであり、この分野で今、競争が始まっているのです。

ミーシャさん、こんにちは。

そう、すべてのニューラルネットワーキングの努力と、ツールそのものへのささやかな期待を考え直すときが来たのです。森も草原も、インプットデータが準備されていなければ、何の役にも立たない。

そして、そうです。競争がなく、問題があり、全般的にダブつきがあります。

データを用意する方法がわかっている場合は、先に進んでください。人類はあなたに感謝するでしょう。

理由: