Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
ただ、AleshenkaとKoldun(ここでニューラルネットワークでの取引に成功しているのは、この2人だけのようです)が
その証拠は?
アレクサンダー_K.
入力データの準備に非常に時間がかかる。
MOの初心者でも「インプットのゴミはアウトプットのゴミ」と言うような、ある意味スタンダードなものですね。
私は、自分の投稿で、意図的に、彼らのフィードバックを刺激しているのです :)))残念ながら、そのことは秘密にしておいてください...。
))) 面白い
何か証拠があるのですか?
彼らはほとんど書き込みを削除してしまうので、ネット上でやりとりするだけでいいんです。
彼らはほとんど書き込みを削除してしまうので、ネット上でやりとりするだけでいいんです。
ああ、なるほど、それなら納得です...。
彼らはほとんど書き込みを削除してしまうので、ネット上でやりとりするだけでいいんです。
彼らは恥をかかないように自分の投稿を削除し、あなたは彼らについての神話を維持します。
彼らは恥をかかないように削除している)、あなたは彼らに関する神話を支持しているのです。
そうかもしれない、マックス - 議論の余地なし :))
レシェトフは?そうそう、彼はMSUAに詳しいんですよ、一度言ってました。
予測因子を列挙し、モデルを作り、さらに複雑化するモデルからモデルを作るという考え方は、非常に正しいと思います。
でも、予測因子ではなく、環境か何かでトレーディングシステムの解を探すのは間違いなのかも...。
しかし、モデルを重ねて作ったり、スタックしたりするのは、イマドキ、やりすぎです。なぜなら、もし彼らが本当にくだらないことを学んでいるのなら、それは何の役にも立たないからです。数パーセントの改善で何の意味もありません。
エラーはなく、ただ一貫したパターンがないだけです )
ところで、レシェトフのソフトをいじるとき、プログラムのライブラリのサブディレクトリの名前から、あるいは、どこで出くわしたかというと
http://www.gmdh.net/gmdh.htm
ということなので、同じなのでしょう。そこには、Javaのライブラリだけでなく、彼のプログラムもある。
そして、変換された特徴量に対して繰り返し学習させるSVMとMLPの2つの分類器のタンデムを持っています。だから、すべてがうまくいくのに時間がかかるのです。
しかし、モデルを重ねて作ったりするのは、イマドキ、やりすぎだと思います。なぜなら、もし彼らが本当にくだらないことを学んでいるのなら、それは何の役にも立たないからです。
原始的なものから複雑なものを作るのではなく、精子から派生した自然の原理です))、さらに言えば、アイデアから派生したものです))。そして今、私たちは大人になった)
だから、モデルを複雑にすることは悪いことではないのです。さらに、複雑にしたことを外部と内部の基準でチェックし、サンプルの内部と外部の誤差を測定し、複雑にすることで誤差が大きくなれば、アルゴリズムは停止します・・・。まだ使ってはいませんが、この方法はとても魅力的です。
原始的なものからより複雑なものを作るのではなく、それは自然界の原理そのものであり、私たちは精子の子孫である)) 、さらに言えば思考の子孫である......) 。
つまり、モデルを複雑にすることは悪いことではなく、さらに、その複雑さを外部基準、内部基準でチェックする、つまり、サンプルの内部と外部の誤差を測定する...要するに、自分では適用していないのですが、この方法はとても魅力的なのです。
通常の属性行列を用い、各反復で全属性から新しい複合属性を追加し、再トレーニングし、この属性をKolmogorov多項式によってより複雑なものに変更し、5回再トレーニングする...誤差が減少するまで。
しかし、実際には、ノイズの多いデータではそうはいきません。
しかし、非常に高速なニューラルネットワークか線形モデルが必要で、そうでない場合は1年待たなければなりません。
また,もっと簡単な方法として,カーネル化した SVMやディープNNを使っても同じ結果が得られます(ニューラルネットワークに層を追加するだけで,変形形質と全く同じ結果を得ることができます),つまり奇跡が起こるのです
GMDHはディープNNの最初のアナログであると書かれている
通常の属性行列を用い、反復ごとにすべての属性から新しい複合属性を追加し、再トレーニングを行い、この属性をKolmogorov多項式によってより複雑なものに変更し、5回再トレーニングする...誤差が減少するまで。
しかし、実際には、ノイズの多いデータではそうはいきません。
しかし、非常に高速なニューラルネットワークか線形モデルが必要で、そうでない場合は1年待たなければなりません。
また、もっと簡単な方法として、カーネル化した SVMやディープNNを使っても同じ結果が得られる(ニューラルネットワークに層を追加するだけで、変換された特徴と全く同じ結果が得られる)ので、奇跡が起こるのです。
GMDHはディープNNの最初のアナログであると書かれています。
多分そう、私は議論しないか、または多分そうではありません)))私はちょうどGMDHを使用したスーパーロボットのトレーダーは、試験で多項式を適用しなかったが、フーリエシリーズ(高調波)とフーリエスペクトル解析は、それが周期関数用に設計されているので、金融市場には適用できないことを知っているように追加しますそれにもかかわらず、それは働いて、同様に)だから、地獄を知って、我々はすべてを試してみる必要があります...。
にもかかわらず、その人には効果があった、と。
続きはあるのでしょうか?
私は、トレーディングシステムが肯定的な結果のみをもたらす場合、永久的な損失が発生することを観察してきました。