トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 611

 

これについては、誰も意見を交わしていない。

レイヤー数選択時のお見積もりです。

3層のネットワーク(numLayers=3:1入力、1隠れ家、1出力)で、ほとんどの場合において十分である。Tsybenkoの定理によれば、隠れ層が1つのネットワークは、任意の連続多次元関数を任意の精度で近似することが可能である。隠れ層が2層のネットワークは、任意の離散多次元関数を近似することが可能である。

バー解析は連続関数なのか離散関数なのか、どちらなんでしょうね。

例えば、FXの場合、隠れ層は1層で十分なのか、2層必要なのか?

前回のテストでの簡単なモデルを紹介します。

88-14-2は、バリエーションより優れていることが証明された。88-50-20-2、88-32-7-2(これが非常に近い:1-2%)、88-25-7-2、88-32-2

 
エリブラリウス

と、モデルの属性や構造が判明してしまうのです。

私は何度も読み返しましたが、理解できません。なぜ皆さんは、何百種類もあるモデルのうちの1つ、ニューラルネットワークに固執するのでしょうか。ニューラルネットワークは、他のモデルと異なり、内部構造を非常によく理解する必要があり、単純でもないのです。

モデルの性能がそのタイプに大きく依存することを、どこで誰が証明したのでしょうか?

NSの結果は?この結果には何か意味があるのか、解釈はあるのか。

 

引用元:https://www.mql5.com/ru/code/9002、画像を添付しています。

3つ目の選択肢である「ディスクリート」は、隙間や空洞のある図形です。
棒グラフに置き換えると、例えば小刻みな動きでは買うべきで、最大値の25%では買うべきでない、40%では買うべきでない、60%では買うべきでない、80%ではまた買うべきということになります。
FXではありえないことだと思うのですが・・・。であり、これは連続関数である。とはいえ、私たちはひとつの特性だけでなく、たくさんの特性を持っていて、それらがどんな力を生み出しているのか、想像もつかないのですが......。
それについてどう思いますか?

Ценовой прогноз с использованием нейронных сетей
Ценовой прогноз с использованием нейронных сетей
  • 投票: 21
  • 2016.06.14
  • Vladimir
  • www.mql5.com
История версий: 06/26/2009 - добавлен новый индикатор BPNN Predictor со Smoothing.mq4, в котором цены сглаживались перед прогнозированием с использованием EMA. 08/20/2009 - в коде исправлен расчет функции активации нейронов, чтобы предотвратить арифметическое исключение; обновлены BPNN.cpp и BPNN.dll 08/21/2009 - добавлено очищение памяти после...
 
サンサニッチ・フォメンコ

私は何度も読み返しましたが、理解できません。なぜ皆さんは、何百種類もあるモデルのうちの1つ、ニューラルネットワークに固執するのでしょうか。ニューラルネットワークは、他のモデルと異なり、内部構造を非常によく理解する必要があり、単純でもないのです。

モデルの性能がそのタイプに大きく依存することを、どこで誰が証明したのでしょうか?

NSの結果は?この結果には何か意味があるのか、解釈はあるのか。

1種類を徹底的に研究し、それが終わったら別のものを見る。私は、物事の上で跳ね回るのは好きではありません。
 
マキシム・ドミトリエフスキー

http://www.valuesimplex.com/articles/JPM.pdf

 
エリブラリウス

これについては、誰も意見を交わしていない。

バー解析は連続関数なのか離散関数なのか、どちらなんでしょうね。

例えば、FXの場合、隠れ層は1層で十分なのか、2層必要なのか?

前回のテストでの簡単なモデルを紹介します。

88-14-2は、バリアントより良いことがわかった。88-50-20-2、88-32-7-2(こちらは1~2%と非常に僅差)、88-25-7-2、88-32-2


例えば、点が曲線に沿って分布しているのではなく、他の点のグループによって区切られたグループに分布している場合、すべての点を1番目の直線で結ぶことは不可能なので、離散f関数となりますよね?

つまり、線上の散乱プロットそのものを見て、第2層が必要かどうかを考える必要がある。

しかし、あまりに非現実的な話なので、どうしたら理解できるのだろう...あとでググってみよう )

あと、回帰は常に連続であるべきで、分類は連続である必要はない...はずだが、よくわからない。

 
D:

何の冗談だ、この文書を読め、バシリーも推薦している。


ありがとうございます!とっておきました!ゆっくり読みます!必要なら削除してください :)))

とか、自分の書き込みをきれいにする人、あなた?:D

 
マキシム・ドミトリエフスキー

裏山をしたわけでもないでしょう。

フォーラムでは知られていないことをたくさんやっています)。

何か、そのうちわかるかもしれません。

 
ユーリイ・アサウレンコ

フォーラムが知らないことをたくさんしています)。

いずれ何かがわかるかもしれません。

Wienerに乗り換えました。あの本、いつ終わるんだろう :) 彼も基本的に予測をやろうとしていた。

 
マキシム・ドミトリエフスキー

Wienerに乗り換えました。あの本はいつ終わるんだろう :) 彼も基本的に予測を立てようとしていた。

彼は努力したのではなく、練習したのです))気に入っていただけたようで、何よりです。もっと読むべき) 実際、多くの時間が節約できます。車輪を再発明する必要がないのです。
理由: