市場分析で質的な飛躍を遂げるには?オプションがあります。 - ページ 6

 
SergNF:
レシェトフ
... "もしかしたら、誰かが役に立つかもしれないし、誰かがもっといい方法を教えてくれるかもしれない?"
"このジャンルの古典 "では、ニューラルネットワークの 入力として「タイムラグ」を使うこと、つまり本質的に「時間パターン」を認識することを提案しています(現在のArtificialIntelligence.mq4にあるものです)。IMHO、時にはそれは認識することが面白いことが判明AND....と言うのは、「状況パターン」、つまり、最後のバーでいくつかの「指標」(引用符で囲む!!)の値を入力する(例えば、フーリエスペクトルや「何と呼ばれても」、また「アービトラージ」.

両方試しました。そして、1週間以上と言うのは、コンピューターがうなりを上げていたのです。時間パターン、ロシア語では、動的な指標の値は、ほとんどの場合、最後のバーで異なる指標の値のセットと比較して、より有益な結果を与える。また、最適化の時点では、これらの非常に一時的なパターンをMT4で高速化することが重要です。そして、さまざまな指標を選ぶことで、クリロフの寓話「クヴァルテット」と同じようなものが得られる。

ウェーブレットについては......これは詐欺だ。任意の関数をフーリエ級数分解して復元すると、まさにこのレベルでの関数ヒストグラムの積分が0であるため、ゼロ調和レベルに関してウェーブレットの定義に該当することになる。ウェーブレット演算子は、彼らの「発明」がフーリエ変換よりも多くの情報を含むとされていることを発明しただけです。 クソロビイストは嘘をついています。
 
皆さん、ここにいる人たちは、本当に賢く振る舞う必要があるのでしょうか? レシェトフ 何でもかんでも主義主張で批判する人がいるのは理解しています。私があなたのシステムに関して言ったことをよく読んでください、批判は一言もありません。実は昨日、怠けずに履歴を調べてみたんです。正直、5つのパラメータ(+iACの 現在のバーに対する4つのシフト)を持っているので、最適化にはあまり時間をかけませんでした。明確な結果は出ていない。しかし、何も実現できないと主張するのは間違いです。少なくとも、すべての入力パラメータについて完全な最適化を行い、その結果得られた6次元曲面を解析する必要があります。どんな思いで4ウェイトにしたのかわかりませんが、私も自分の時と同じように、純粋なフリップのサポートを無効にしようと思いました。しかし、全景を見ることはできなかった。ここでも、完全な最適化のためのパラメータがたくさんあります。遺伝学を用いても、どのパラメータを最適化するかに大きく依存するため、客観的な結果を得ることはできません。これは、あなたの専門家の例を見るだけでもわかることです。
 
getch:
少なくとも、すべての入力パラメータについて完全な最適化を行い、得られた6次元曲面を分析する必要があります。
そうしなければならないんだ、フェディア。そうしなければならないのです。そうでなければ、空虚な言葉になってしまいます。あるパラメータを別のパラメータで履歴に残し、第3の仲介会社から見積もりと契約仕様書を入手しました。

ゾーシチェンコが言ったように、もし女性がコートの半分を絵の具の入ったバケツに入れたら驚くだろうね。それに、あるもののために設計されたシステムが、別のもので実行され、その結果を見ることができたら、私は驚きますね。
 
私の研究でも、タイムパターンを使った方が効果的であることが分かっています。ただ、価格ではなく、指標値の変化を入力するのは理解できない。結局、指標値によるパターン認識(間違っていることが多い)はあっても、価格によるパターン認識はないのです。ニューラルネットワークの 活用は、価格を通して行うのが一番効果的なんでしょうね。もし、相場の時系列の自己相似性を信じるなら、最小の時間枠を使ったほうがいい。なぜなら、システムはより多くのシグナルを出し、効果のないウェイトのセットがずっと多くなるからです。
 
ウェーブレットを使うと、あるデータの圧縮率が大幅に向上することを考えると、「ウェーブレットは詐欺だ」というのは、大胆な発言です。
 
getch:
私の研究でも、タイムパターンを使った方が効果的であることが分かっています。ただ、価格ではなく、指標値の変化を入力するのは理解できない。結局、指標値によるパターン認識(間違っていることが多い)はあっても、価格によるパターン認識はないのです。ニューラルネットワークの活用は、価格を通して行うのが一番効果的なんでしょうね。もし、相場の時系列の自己相似性を信じるなら、最小の時間枠を使ったほうがいい。なぜなら、システムはより多くの信号を与え、効果のない重み付け係数のセットがはるかに多く存在することになるからです。
さて、iAC()をすべて対応するshift Close[]に置き換えることを禁止する人はいないでしょう。
 
getch:
ウェーブレットを使うと、あるデータの圧縮率が大幅に向上することを考えると、「ウェーブレットは詐欺だ」というのは、大胆な発言です。
まさにこの圧縮を使ったときの画質の低下を考えれば、「冗長」な情報はどこに行ったのかがわかるはずだ。

同じデータをフーリエ変換して、高調波の一部を小振幅で切り取って、レベル0に相対化して再構成すれば、ウェーブレットと呼ばれるものが得られるのに、なぜわざわざウェーブレットなどの工夫をするのだろうか。
 
少し余談ですが、もし相場の変動が完全にランダムなプロセスであれば、利益を生むシステムを作ることは不可能です(そうでなければ擬似ランダム性が存在します)。しかし、儲かる仕組みを作るためのタスクはない。なぜなら、ランダムな挙動であっても、有限の時間間隔では、収益性の高い安定したシステムを作ることが可能だからです。そして、この有限の時間間隔は、分単位でも、年単位でも、数十年単位でもいい。
 
getch:
余談ですが、もし気配値の変化が完全にランダムなプロセスであれば、利益を生むシステムを作ることはできません(そうでなければ、擬似ランダム性が存在します)。
擬似ランダムとランダムは別のカテゴリーです。株式市場では、相場はマーケットメーカーが動かしており、その行動はランダムではありません。為替などの市場も、pipsを動かすときにサイコロや小銭を投げるわけではありません。
 
そう、ある情報を長期間失うことの重大性を議論することができるのです。なぜなら、それ以外の情報の捉え方は人それぞれ違うからです。値(情報量)/(認知度)を見なければならないのです。そのような研究には出会ったことがありません。