ハイブリッドニューラルネットワーク - ページ 4

 
joo >> :

に、デントラフ

MQL4

to IlyaA

はい、そうです。あと、いろいろな作家の本が200~300冊くらい。でも、この本を読むより、自分でNNやGAをマスターする方が早いと思いました。そして、その結果、こうなった。もっと早く

マスタリングとは、専門用語に精通することではなく、実践的な活用を意味します。


では、ヘイキンP.330, chapter 4.19 私はこのことをよく理解している。すぐにコツがつかめるはずです。
 
joo >> :

これについてもアドバイスしたいと思います。各時代の優秀な個体(私はこれを「エポックジーンプール」またはGEと呼んでいます)を入れる追加の集団を作ります。交配する際は、現在の個体群とGEから個体を採取する。これにより、ff起動の回数を激減させることができます。この方法は、エリート選抜と混同してはいけない。


クロッシングの真相に迫ろう。私は、このパーセプトロンが他のパーセプトロンよりどの程度優れているかを反映した確率で選んでいます。従って、各組に参加する確率は、一番いい人が80%、一番悪い人が20%となる。それが彼らの生き方です。補足的な母集団の方法とはどういう意味か。
 
IlyaA >> :
>>ありがとうございました。>> 非常に詳しい。基本的にはそうですが、すでにパラメータを変えて何度かアルゴリズムを実行しているのであれば、その結果を使えばよいでしょう。だから200...よし、このままでいい。続いて、次のポイント。ローソク足と指標の組み合わせで儲かる "フェイク "を、目ではなくパーセプトロンで探せばいいのです。線形分離可能なグループを構築させてくれる。検索条件 利益⇒最大任意に停止する。そして、ウェイトの分析、「フェイント」の特定を行います。それから、通常のインジケーターとトレーディングシステム。かなり複雑ですが、それは一見したところです。音階をあやつることは、(少なくとも私にとっては)とても興味深いことです。質問 :) ローソク足+インジケータ(オプション)で5年分の履歴を各個体に通しているのですが、各個体で200個になりました。これは膨大な資源消費であり、しかも、いつ止まるかわからない。問題を再定式化するか、さもなければ、この設計の最も重要な特性である「機械による "fink "の検出」を維持するようにしよう。

5年間、どのようなTFで?M1なら、そう、長い時間。W1なら、非常に速い。

ネットワークの奇才を作り、歴史的瞬間(儲かる現象)をすべてネットワークに教えようとする必要はないのです。そのほとんどは二度と起こらない、少なくとも99%は。

私は1000~3000本の履歴が最適と考えています。動作中の誤差が規定値以上になった場合に再トレーニングを行うこと。事例(バー)の数だけ、さまざまな意見がありますが、おそらく今は、この問題に反対する人もいるのではないでしょうか。

 
joo >> :

5年間、どのようなTFで?M1なら、そう、長い時間。W1なら、非常に速い。

ネットワークの奇才を作り、歴史的瞬間(儲かる現象)をすべてネットワークに教えようとする必要はないのです。そのほとんどは二度と起こらない、少なくとも99%は。

私は、1000~3000本の履歴が最適と考えています。動作中のエラーが一定レベル以上になると再トレーニングを行うこと。例(バー)の数だけ、さまざまな見解がありますが、おそらく今はこの問題に反対している人たちもいるでしょう。


では......始めますね。なぜ、たくさんのバーを提案するのか?なぜなら(自問自答)正しく指摘されているように、ほとんどのフェネックは使い捨てで、ネットは「ノータッチ」でいいからです。そして、それはいつものように、チョコレートがテストされている間隔に、他のすべてで判明するでしょう - 栄養のためのフィード。私が提案するのは、使い捨ての瞬間を統合することが最良のフィルターになるということです。グリッドは、繰り返されるフィンクを分離する可能性が高くなります。あなたのアイデアは?
 
gumgum >> :

昨日は10-15-10-1のグリッドを書きました。

>> 続き...


パーセプトロンが過剰に学習(過学習、コギング)していないか確認しましたか?
 
IlyaA >> :


続いて、ヘイキンP。330, chapter 4,19 私はこのものをよく所有している。すぐにコツがつかめるはずです。

まだ読む時間がない、多分読む。ありがとうございます。

IlyaA さんが書き込みました(a)>>。

クロッシングの本質を解き明かそう。私は、このパーセプトロンが他のパーセプトロンよりどの程度優れているかを反映した確率で選んでいます。従って、各組に参加する確率は、一番いい人が80%、一番悪い人が20%となる。それが彼らの生き方です。母集団を補足するあなたの方法の意味は。

その親から生まれた子供が、新しい集団に導入されるのです。残された者は、愛を経験することなく無念の死を遂げる。 :)

ここがポイント!死者の中にまともな標本があったのかどうかはわからない。だから、彼らが変人に見えたとしても、新しい強い世代を生み出すことができたのです。

ショウジョウバエから白鳥を繁殖させるかのように、GAの問題に取り組んでください。

アルゴリズムはこうだ。

1 ランダムな個体(ほとんどが不細工)からなる母集団を作る。

2 適応性を判断した。

3、集団を遺伝子プールに複製した

4 母集団と遺伝子プールから個体を掛け合わせる(あちらとこちらから選択すること)。

5 新しい個体を新しい集団に配置する

6 各個体のフィットネスを決定する

7 古い集団と新しい集団から最も優れた個体を取り出し、遺伝子プールにある個体よりも優れていれば遺伝子プールに入れる(入れ替える)

8 旧母集団を新母集団の個体で置き換えた。

9 p4と繰り返す

というように、遺伝子プールの中のベストより優れたものが現れなくなるまで。

 
やばい、私が記事を書いている間に、3つも書いている!ちょっと落ち着けよ)
 
joo >> :

まだ読む時間がない、多分読む。ありがとうございます。

その親から生まれた子供が、新しい集団に導入されるのです。残りは愛を経験することなく無残に死んでいく。 :)

ここがやっかいなんです!もしかしたら、死んだ人たちの中に立派な人がいたかもしれない。だから、見た目が醜くても、新しい強い世代を生んでいるのかもしれない。

ショウジョウバエから白鳥を繁殖させるかのように、GAの問題に取り組んでください。

アルゴリズムはこうだ。

1 ランダムな個体(ほとんどが不細工)からなる母集団を作る。

2 適応性を判断した。

3、集団を遺伝子プールに複製した

4 母集団と遺伝子プールから個体を掛け合わせる(あちらとこちらから選択すること)。

5 新しい個体を新しい集団に配置する

6 各個体のフィットネスを決定する

7 古い集団と新しい集団から最も優れた個体を取り出し、遺伝子プールにある個体よりも優れていれば遺伝子プールに入れる(入れ替える)

8 旧母集団を新母集団の個体で置き換えた。

9はp4と繰り返す。

といった具合に、遺伝子プールの中でベストな状態以上のものが出てこなくなる。




わかりました、待ちます :)これは光線追跡と非常によく似ています。光線探索アルゴリズムと確率的交差の性能を比較しました。確率的交差の方が良い(個体数が少ない)結果になりました。しかし、使えば高い確率で効果があります。実験をする必要があります。どう見るか。例えば、XORで言うと?
 
IlyaA >> :


では、始めますね。なぜ、私はたくさんのバーを提案しているのでしょうか?なぜなら(自問自答)正しく指摘されているように、ほとんどのフェニックは使い捨てで、ネットはそれを「暗記」することができるからです。そして、それはいつものように、チョコレートがテストされている間隔に、他のすべてで判明するでしょう - 栄養のためのフィード。私が提案するのは、使い捨ての瞬間を統合することが最良のフィルターになるということです。グリッドは、繰り返されるフィンクを分離する可能性が高くなります。あなたのアイデアは?

NNを脳で考えるように。これをどのように「統合」するのか。あなたが絵画について知っていると想像してください。もしかしたら、本当にそうなのかもしれません。

まあ、有名な巨匠の特徴的な技(儲け話)を知っているのでしょう。今度はフォトショップで有名な巨匠たちの作品を1つのレイヤーに貼り付けてください。知られたアーティストの仕掛けをご存知ですか?そうでしょうか。NNNもそうです。

 
joo >> :

NNを脳で考えるように。これをどのように「統合」するのか。あなたが絵画について知っていると想像してください。実際にそうなのかもしれませんね。

有名な名人(儲かるチップ)の特徴的なテクニックを知っているわけです。今度はフォトショップで有名な巨匠たちの作品を1つのレイヤーに貼り付けてください。あなたが知っている有名作家のトリックを一つでも見つけることができるでしょうか?そうでしょうか。NNNもそうです。


積分ノイズとは?(再度、質問して答えました :) 間隔 [-1; 1] 上に一様に分布する確率変数 m(t) があります。これに対応して期待値=0となる。それは素晴らしいことです。また、複素数配置の信号s(t)も持っています。信号とノイズの振幅が同程度の値であること。問題は、s(t)+m(t)を無制限に繰り返すことができることを条件に、s(t)+m(t)からs(t)を抽出することである。干渉は毎回新しくなり、信号曲線は前回の曲線とは全く異なるものになります。方法は意外と簡単で、信号s(t)+m(t)を1000回繰り返したときの平均値を求めます。この場合、数学的期待値が0であった外乱を積分して除去している。信号s(t)+m(t)を何度も平均化できれば、干渉はより少なくなります。ここでもう一度、私の考えを詳しく説明します。

ネットワークが一度にすべての特徴を発見できないようにするため(これを抽象化効果と呼ぶ)、ニューロン数を減らし、ネットワークの汎化能力を高め、パーセプトロンが大量の材料を学習できないようにするのである。たった1つの、しかしデータの中で最も収益性の高いものを見つけることに、ネットワークの狙いを定めます。いかがでしょうか?