Neuromongers, don't pass by :) 必要なアドバイス - ページ 9

 
Figar0:

ここでは、ポイントごとに解説しています。

セルゲイさん、ありがとうございます!ポイントを押さえていますね。

2) 入力の前処理 (この質問は非常にシンプルでオープンなものです。この場合、何がどのように行われているかが分かれば、議論することができます)

特に変わったことはありません。いくつかのレベルがあり、それぞれ別々にHodrick-Prescottフィルターで処理され、覗き見することはありません。

3)NSの数理

多くの実験により、ネットワークのパラメータは、ある限度内であれば結果に無視できない影響を与えることが分かっています。少なすぎるとオーバートレーニングになり、多すぎると過飽和になる。

エコーネットワークの話題では、おしゃべりができるようになりました。まだ予定があるので、コードは掲載しません。

4)NS運用の「組織的」な問題。

トレーニング/再訓練の方法/時期

ちなみに、私は変更しようとしたことはありません。

期間/間隔

本格的な調査もしなかった。影響もあると思いますし、もしかしたらツールによって時期が違うかもしれません。

Expert Advisor-interpreterの仕事のロジックは、ネット出力

本格的な研究もありませんが、私が変えたところでは、大きな影響はないと思います、が...。は、もう一度確認する必要があります。

, MM.

追加する意味が全くわからない。潜在的な収益性は、FSで簡単に推定できる。

- なぜ "エコー "なのか?すでに経験されているようですが、そのメリットとデメリットを教えてください。

ひとつは、ネットワークのパラメータを変更する余地が少なくなったことです。例えば隠れ層が入力層より小さければ、それはもうデータ圧縮で、ネットワークが機能しない可能性が高いなどと考える必要はない。他のネットワークが持っているような小さなものをいくつも考慮する必要はないのです。

簡単に言うと、私は今ネットワークを扱っていて、ニューロンや接続(一定の数、一定のタイプ)を投げているだけなんです。

適応させる。使っています。中身はどうでもいいので、基本的には便利なブラックボックスをもらっています。

MLPで解かれる問題は、事実上すべてエコーネットワークで解かれます。


次に、トポロジーと入出力比に基づいた最適なソリューションを常に得ることができます。

第三に、MLPを使っていること、収束がないことなどから、ネットワークの適応時間(あえて「学習」という言葉を避けています)が精度よく予測されることです。


今のところ、デメリットは1つだけです。フィットネス関数による制限です。つまり、理論的にはFFのRMS誤差が最小になる解を求めることなどが使えるだけなのです。もちろん、遺伝的学習で回避することも可能ですが、その場合はエコーネットワークの美しさが失われてしまいます。

いや、もうひとつあるのですが、私の考えでは(間違っているかもしれませんが)学習時間は3乗的に増加するので(学習というより微分行列の形成)、例えば1000個のニューロンを持つネットワークの学習には相当な時間がかかると思います。


そもそも、どうやって掘り起こしたのですか?

私の友人gpwrからの 同じフォーラム :) のおかげで、私は彼に非常に感謝したいです:)

2ndタイプのTCは、イミフで全然ダメです。

タイプ2の方が、作業や結果の分析がしやすいと思います。例えば、今回検討しているプロジェクトのTCは、もともとタイプ2に完全に適合していました。

a)本当に 入出力は改善されないのでしょうか?

もちろん、そんなことはありません。

b) 前処理:どのように見えるか?例えば、入力値の分布を分析したのでしょうか?

正規化は何らかの形で行われているが、データ分布の本格的な解析は行われていない。

 
renegate:

ネットワーク入力に供給する惰性物質の脱揮(論文にある)を行ったか?

面白いですね。使ってみた感想を教えてください。結果、改善点、特徴、落とし穴は?

インダクタをゲージレスにしてみるのもいいかもしれませんね。

えー、ここにも疑問があるのですが、やはり短いキャラクター設定も聞いてみたいですね。
 

従来は、分析されたデータ領域(パターン)を青い長方形で、予測されたデータ領域を赤い長方形で表現することにしよう。現在の実装では、赤色領域の垂直方向のサイズは、青色領域のサイズにスケールファクターを通して依存します(領域のサイズではなく、青色領域のデータコンテンツに依存すべきです)。ここでは、その矛盾が見られる2つの例を紹介します。

и

赤い長方形のサイズは、青い長方形のサイズよりも、最初の画面では小さく、2番目の画面では大きくなっていることがわかります。

信号の規格化は、垂直方向のサイズに対する相対的なものです。

ですから、サンプル数ではなく、トレーニングサンプル全体の大きさで正規化するべきだと思います。グリッドの予測能力を低下させるようです。

しかし、もう1度トレーニングサンプルを実行して、最大値と最小値を取得する必要があります。

現在の実装では、各パターンが値1と値-1を持つため、最大値と最小値の領域で信号分布が大きくシフトしている(これは悪いことだ)ことがわかる。

まずは、このような変化から始めるべきだと私は考えています。

 
そんな説明ではありませんよ :) .今となっては、そう思う。
 
TheXpert:
そんな説明ではありませんよ :) .今は納得していますね。

いいえ、その逆ではありません。言葉で説明するのは難しい、写真なら簡単だ、と言っているのです。話し手にとっても、聞き手にとっても。;)

PS 利益を得るための学習に関する予測領域については......それは変わらず、取り組んでいるところです。

 

以下のアルゴリズムで価格を実験してみました。

1) Closeから一連の最初の差分(FDD)を取得する

2) FFDモジュールの移動平均を 計算する(25の周期をとった)

3) FFDを移動平均で割る

より定常性の高いFFDを得ることができる。累積和を使った擬似的な価格系列に戻ることができる。


RRRは使っていないようですね。価格シリーズにトレンド除去を使用していますか?それとも、単純に価格シリーズを所定の範囲に正規化するのでしょうか?

 

renegate:

価格シリーズにトレンド削除を使用していますか?

詳しくはこちらもご覧ください。

それとも、単純に価格帯を所定の範囲に正規化するのでしょうか?

現時点では、正規化はパターン記述の中で行われる。

ここで、パターンのセット全体で正規化を行います。これは、それほど難しいことではないはずです。

デボラチレーションを付けてみたいのですが、こちらはもっと複雑になりそうです。考えてみます。

 

そのためには、価格系列がトレンド成分、循環成分、ノイズ成分から構成されているという公理を受け入れる必要がある。

価格系列からトレンド成分を差し引いたものです。3つの方法が思い浮かびます。

1) 主成分分析(AGCまたはPCA)を行い、第1主成分をゼロにする。

2) 価格シリーズからムービングを引く。その周期は目で見て、あるいは最適化やスペクトル解析によって選択することができる

3) 価格系列全体の線形回帰を 求め、価格から差し引く。

その後、周期成分とノイズ成分のみを含む系列が得られます。ある範囲に正規化するのが便利である。

 
実はこれが私が求めているメインコンポーネントなのです :)
 
renegate:

以下のアルゴリズムで価格を実験してみました。

1) Closeから一連の最初の差分(FDR)を取得します。

なぜこのステップなのか、トリックのない質問