トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 606

 
エリブラリウス
だから、神経細胞の数を過大評価することも有害なのです。一般化せず、ノイズと一緒に記憶されることになる。

まあ、正規化・早期停止のどちらかですが...それは無理でしょう :)) パッケージすら面倒だと感じているのですが...。

ググったらこんな記事が...全部書いてある http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...
 

トレーディングにおける機械学習。 理論と実践(トレーディングとそれ 以外)

理論派 !!!

練習はいつあるのですか?

繰り返しになりますが、ニコライ さんが引用を気に しなければいいのですが。私も完全に同意見です。

単純な近似値では対応できないのでしょうか?))

От теории к практике
От теории к практике
  • 2018.01.22
  • www.mql5.com
Добрый вечер, уважаемые трейдеры! Решил было на какое-то время покинуть форум, и сразу как-то скучно стало:)))) А просто читать, увы - неинтересно...
 
マキシム・ドミトリエフスキー

...

NSは特徴量を取得せず、特徴量は入力に供給される。ダウンサンプリングするか、すべての組み合わせをノッチアップする(ニューロン数の増加に伴い)

なるほど、自分で符号を抽出して、それをNSの入力に与えているのですね。すでに看板があるのなら、なぜNSが必要なのでしょうか?

どうやら読んでいる本が、違うようです(笑)。

 
ユーリイ・アサウレンコ
どうやら、本の読み方が、違うようです(笑)。

神経細胞が増えれば、オーバートレーニングになる。ニューロンの数が少ないと、近似度が悪くなる。ノームニューロンは大丈夫ですが、やはり非定常性があるので、市場全般ではうまくいきません。

 
ユーリイ・アサウレンコ

なるほど、自分でサインを抽出して、それをNSに送り込むわけですね。すでに看板があるのなら、なぜNSが必要なのでしょうか?

どうやら、本の読み方が、違うようです(笑)。


何をどのように供給しているのか、もっと詳しく説明し、回路図を書いてください...推測は難しいので

いつものように、入力にゴミを入れて、出力にゴミを出すという方法をとりました。

 
ヴィザード_。

learningCurve パッケージ, R, 学習曲線.


うん、いいよ、ありがとう)多分、後で使うことになると思う。

 
マキシム・ドミトリエフスキー

さて、何をどのように供給しているのかを詳しく説明し、回路図を描いてください...推測するのは難しいですから

いつものように古典的な方法をとった...入力でゴミを送り、出力でゴミを出す

スキームがある方ですね)。(Heikinはこれだけ持っている。マニュアルを書き直そうか?)
 
ユーリイ・アサウレンコ
(スキームから来たのか)(ハイキンが全部持っている)

この人は、1,000ページもあるような、たくさんのことを書いているんですよ。

NSを学ばないということは、コンボリューション、つまりデータ圧縮があるということです...NSの入力と出力の数はほぼ同じですが...。それしか選択肢がないのかもしれません。

が、MLPは教師ありきの手法なので、それをコンボリューションとして使うのはおかしい。

 
マキシム・ドミトリエフスキー

この人は、1,000ページもあるような、たくさんのことを書いているんですよ。

NSを学ばないということは、コンボリューション、つまりデータ圧縮があるということです...NSの入力と出力の数はほぼ同じですが...。この選択肢しかありえない。

まずはレイヤーから始めました)

私が何を持ち、どのように教えるかについては、詳しく、しかも複数回に分けてお話ししました。

 
ユーリイ・アサウレンコ

レイヤーからスタートしました)。

私が持っているもの、そしてそれをどのように教えているかについては、これまでにも何度も詳しくお話ししています。


何でもいいから15~20回投入+モンテカルロで特に何もせず追加...そして価格はそのまま投入

というのは、詳しくありません(笑)

すべてにおいて、レイヤーでクリアしています。

理由: