Neuromongers, don't pass by :) 必要なアドバイス - ページ 5

 
Figar0:


.......

興味深い表現ですが、なぜ「ランダム」入力なのか、端的に説明してください。

この言葉は、次のような意味を持っています。信頼できる大規模なサンプルでは、どの指標も無作為の「オフバランス」入力で得られる結果に匹敵する結果を示している。ニューロネットが、制作者が説明しようとしたことを「理解できない」場合も含みます(これは通常、制作者の問題ですが、同時につまずきにもなります)。

ランダムな増分を表すデータでニューラルネットワークを学習させる実験が示唆するところである。このようなシリーズのMOは0である。このようなランダムなデータで学習させたネットワークは、その結果が0に近いほど、よく学習していると言えます。したがって、一連のNAに対して完全に学習されたネットワークは、0という完全に平坦な直線を与えることになる。

その逆も然り。もし結果が正の領域で0以外の事実を示した場合、これは1つのことを意味する。ネットワークが見つけた何らかの規則性が利用されている一方で、MOを負の領域に引き込む重み、つまりスプレッドも存在するのである。

 
Figar0:


1) うーん、ワーキングNSの改善方法ですが、とにかくこの問題には何年も悩まされています。 いくつかの改善点はありますが、小銭やくずのようなもので、自分のグリッドを熟知していることを考慮すると、それはそれで問題です。質的な飛躍は、トレーニングシステムの改善方法がわかってからです。 だから、その方向で考えるようにとアドバイスしているのです。

そして、入力(ニューラルネットワークの超秘伝)をあちこち変えては小銭を、アーキテクチャをいじってはパンくずを......。

2)Z.U.さん、例えば昨年3月だけのOOSのフルテストを掲載していただけませんか?私のと比べてどうなのか、試してみます。

3) Z.U.2 フォローアップで)つまり、あなたによると、NS型は関係ないのですね。どんな内容なのでしょうか?原理的にはそうなのですが、一般的に持っていても形にならないのが、有能なNSの秘密なんですよね...。

1) はい、トレーニングシステムによって大きく異なります。でも、改善できることはあまりないでしょう。

インプットについて - うーん、おそらくこれはMOを+にシフトさせるための主要な塩の一つなのでしょう。入力は、少なくともそれを記述する理論によって駆動されます。

2)見ていて面白いGBPJPYのようなペアでもお願いします。

3)私もNSの種類は関係ないと思っていますが、Andreiはこの場合NSが特別な役割を果たすことはないと主張しています。私のバージョンは、理論的に理由のあるインプット、インプットとアウトプットの間の理論的に理由のあるリンクと理論的に記述されたリンクという要素の組み合わせです。理にかなった(とはいえ、dhz)出力。アンドレイの意見も聞いてみたい。

 
Figar0:

これだけ期間が長く、再トレーニングの回数も多いテストの作成スピードから判断して、すべてDLL自体の中で自動化されています。

EAで。

ネットワーク内部の学習パラメータや重みの数、学習を停止する基準(エポック数、テストサンプルでの許容誤差に達するか)などを教えてください。

35ニューロン 60スケール古典的な意味でのトレーニングはなく、ANCですぐに最適な結果を得ることができます。

面白い表現ですが、なぜ「ランダム」入力が2文字になったのか、説明していただけますか。

普及のスピードで排出する」という表現に相当する。
Figar0:

だから、この方向で考えてみたらどうかとアドバイスしているのです。

残念ながら無いものは改善されませんが、ネットワークの適正をチェックするのは貴重なアイデアです、まだ持っていないのに。その確率は極めて小さいが、存在するのだ。

Z.U.さん、例えば3月過ぎのOOSテストの全容を掲載していただけませんか?私のと比べてどうなのか、試してみます。

明日からもう。

(フォローアップ)つまり、NSの種類は関係ないとのことですね。どんな内容なのでしょうか?しかし、ここに有能なNSの秘密がある、一般的に持っていても私は定式化できない...。

同意見です :) .
 
Figar0:

Z.O.S. 例えば、昨年3月だけのフルOOSテストを掲載していただけませんか?私のと比べてどうなのか、試してみます。

郵送にしました。
 
TheXpert:
個人的なメッセージに入れました。


はいありがとうございます、調べました。非公開なのが残念、今更ここで相談しても...。

トライアルバルーンとして、ほんの少し、あまり具体的でなく:15M TFですべての取引が1H TFで開かれるため、アルゴリズムに何らかのエラーがあるのでしょうか?計算上では、より大きなTFのデータの参加に過ぎないかもしれませんが...。

そして、改善点として真っ先に思い浮かぶのは、もしかしたら答えを探すべきところかもしれません。

- 実際に反転したシステム(一部のトレードを除く)を手に入れたら、弱い信号のフィルタとして、ニューラルネットワークの反応にExpert Advisorの閾値を「弄る」ことができます。トレーニング期間では明らかに良いもの(NSの「パワー」で反転したシステムが本当に最大になる)でも、新しいデータではシグナルを解釈するのに多少異なるアプローチが必要になるのです。

- 利益が出ている取引の割合(普通)と最終結果(改善したい)という矛盾。 数年前、私はk-nearest neighboursに基づいてExpert Advisorを作成したことがあります。残りの25%の案件は、75%の成功案件の利益をすべて飲み込んでしまうほど太っ腹なものでした。こちらもいくつかアイデアはあるのですが、正直なところ、この問題はあまり解決していないんです。とはいえ、その根っこがどこに伸びているのかは理解しています。

一般的に、私は「エコー」を除いて、あなたのシステムについてのすべてを得たが、私はまだそれに慣れていない、しかし、それは時間の無駄である)と一つのこと。

joo : 理論に基づいた入力


私たちが解決しようとしている応用問題の文脈の中で、どのような理論が入力を正当化したのか。特にこの目的は、私がhttps://www.mql5.com/ru/forum/114902 で質問したものです。しかし、私が成功したと言うには、またしてもできません。正確には、成功したのですが、やりすぎで、実際には使いにくいです。

 
Figar0:

トライアルバルーンとして、ほんの少し、あまり具体的でなく:15M TFですべての取引が1H TFで開かれるため、アルゴリズムに何らかのエラーがあるのでしょうか?おそらく、より大きなTFのデータの計算に参加しているだけなのでしょうが......。

それは、仕事の仕様です。

学習期間では明らかに良いもの(NSの「パワー」での反転システムは確かに最大値を出す)でも、新しいデータでの信号の解釈には少し違ったアプローチが必要です。

まあ、どんなシステムにもこだわりがあるんだろうけど。閉じているときと開いているときの間にわずかな隙間があるので、それを使って遊ぶことはできますが、ほとんど意味はありません。その理由を説明しようと思います。

学習期間中は、どんな適切な取引戦略も問題なく機能します。フォワードでは、いずれも失敗します。つまり、未知のデータに基づいて取引を行うだけなので、粗雑なものでも洗練されたものと同じように失敗するのです。そう、完全に透明化するために、取引戦略は上にあり、テールだけに依存する。Neuronicsは、取引戦略に一切依存しません。

あなたのシステムについては、「エコー」以外は基本的にすべて理解できましたが、その仕組みについてはまだ最後まで消化できていません。

もし、本当にそうなら、プライベートへようこそ、そこでもっと本質的な話ができますよ。

他のニューロリストの声が聞こえないのが残念です。

ユーロチーフ


 
Figar0:


私たちが解決しようとしている応用問題の文脈の中で、どのような理論が入力を正当化できるのだろうか?特にhttps://www.mql5.com/ru/forum/114902 でこの目的を問いかけました。しかし、またしても成功したとは言えません。正確には、成功したのですが、やりすぎで、実際には使いにくいです。

オーバーフロー・パターンの理論と第二のタイプのTS。いや、もちろんノーベル賞級ではありません。ここには根本的な発見もなければ、数学的な演繹もない。むしろ、ニューラルネットワークや他の解析ツールで解析するための入力データを選択し、コンパイルするために使用できる、何らかの考慮事項のセットである。

なぜそうなるのかを明らかにするためには、まだまだ膨大な量の理論・実験が必要です。

 
TheXpert:
....

ユーロチーフ

Andreyさん、EAにMMを付けてくれませんか、例えばダムマーチンとか。非常に興味深く拝見しました。早いと言われるのは承知しています。そう、早い話が、とても気になるのです。
 

だいたいのことはわかります。

EFは約4.5、つまり、ユーロチーフに25%の最大ドローダウンでこの時間(10.2001から今日まで)100 *(1.2^4.5 - 1)=〜130%を獲得することができます。

真剣な会話を始めるには、少なくとも20人以上のFSが必要です。

 

ニューラルネットワークの再トレーニングの問題にはどのように対処しているのでしょうか?テストサンプルはどのように形成するのですか?

これは、私個人にとっても重要な問いかけです。今、トレーニングサンプルのサイズに関する記事を読んでいて、いつも初期トレーニングの停止に使っているテストサンプルの形成方法について実験をしてみたいと思っています。

質問理由:OoSの結果とテストサンプルの結果を拝見しました。どうやら、テストセグメントではうまく学習してパターンを近似しているが、検証セグメントでは失敗することがあるようだ。テストサンプルを別の方法で形成することに意味があるのかもしれない...。