トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 630

 
ユーリイ・アサウレンコ
断言はしませんが、これらはイリュージョンであるように思います。ただ、一般的な理由です。
なぜかというと、Vladimir Perervenkoは彼の記事の中でいくつかの情報を持っており、彼らは何百もの入力に非常に高速に学ぶことができます。
 
マキシム・ドミトリエフスキー
ウラジミール・ペレヴェンコの記事には、何百もの入力に対して非常に高速にトレーニングされた情報が掲載されていますが、なぜでしょうか?

記事を読んでないので反論しません。写真しか見たことがない)。

MLPなら、例えば10〜15分で完璧に学習させれば、完璧に機能する。しかし、それはデータがきちんと分類され、セットが分離されている場合です。

逆に、例えば市場(あるいは学習サンプル)に分離可能な集合がない場合、永遠に好きなものを学習させても、結果は出ないでしょう。

 
マキシム・ドミトリエフスキー
なぜ、ウラジミール・ペレヴェンコは、彼の記事で情報を持っている、彼らは数百の入力に非常に高速に学習する

全てはアーキテクチャとデータ量に依存します。
パターン認識用ネットワークがGPUで1週間学習。そして、3次元のテンソルを持つレイヤーが何十層とあります。

 
アレクセイ・テレンテフ

すべてはアーキテクチャとデータ量に依存します。
パターン認識のためのネットワークは、GPUで学習すると1週間かかります。3次元のテンソルを使ったレイヤーが何十層とある。

そこで、より単純なもの、例えばボルツマンネット+MLPを説明した。

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
ユーリイ・アサウレンコ

記事を読んでないので反論しません。写真しか見たことがない)。

MLPなら、例えば10〜15分で完璧に学習させれば、完璧に機能する。しかし、それはデータがきちんと分類され、セットが分離されている場合です。

もし、市場(あるいは学習用サンプル)に分離可能な集合が存在しないのであれば、永遠に好きなものを学習させても、結果は出ないでしょう。

科学的知見」のために、単純に実験をしてみよう。
データ、次元、MLPアーキテクチャ、出力データを選択しましょう。
そして、誰もが自分のツールで自分のテストをすることになります。

炎上が少なくなる。
ところで、このような伝統を作り、それぞれの新しい建築を全世界でテストすることができます。=)

 
アレクセイ・テレンテフ

科学的知見」のために、とりあえず実験してみよう。
データ、次元、MLPアーキテクチャ、出力を選択しましょう。
そして、誰もが自分のツールで自分のテストをすることになります。

炎上が少なくなる。
ところで、このような伝統を作り、それぞれの新しい建築を全世界でテストすることができます。=)

(弱すぎるのではと心配になる)。抽象的な問題を解決しても意味がないと思っています。意見交換も全然炎上しないし。この炎から多くのものを得ました。と違う方向に行ってしまった)それに、フラミングがなければ、ポカポカしていたかもしれませんね。
 

NSの最初の結果をお伝えします。アーキテクチャはgodで説明したとおりで、何も変えていません。

プラトーはかなり均等で、NSは1000パスですでによく学習しており、結果はそれ以上向上していない。

先月から15分ほど勉強しています。私はトレーニングに~0.65$を費やしました。 私の月間取引件数は~300件です。

過去2ヶ月の結果は、悪くはないが、悪すぎるというわけでもない。

隠れ層をもう一つ増やして、もっとエラーがないか探してみる :) そして、もっと長い期間訓練してみる。

 

マキシム・ドミトリエフスキー
なぜ、ウラジミール・ペレヴェンコは、彼の記事で情報を持っている、彼らは入力の数百に非常に高速に学習する


すべての記事には、あなたが再現して、あなたのハードウェアに特化した学習時間に関する実際のデータを得ることができるデータセットとスクリプトが含まれています。2つの隠れ層を持つDNNの学習時間は最大で1分です。

グッドラック

 
アレクセイ・テレンテフ

科学的知見」のために、とりあえず実験してみよう。
データ、次元、MLPアーキテクチャ、出力を選択しましょう。
そして、誰もが自分のツールで自分のテストをすることになります。

炎上が少なくなる。
ところで、このような伝統を作り、それぞれの新しい建築を全世界でテストすることができます。=)

例を挙げてください。でスタートします。
 
マキシム・ドミトリエフスキー

NSの最初の結果をお伝えします。アーキテクチャはgodで説明したとおりで、何も変えていません。

プラトーはかなり均等で、NSは1000パスですでによく学習しており、結果はそれ以上向上していない。

先月から15分ほど勉強しています。私はトレーニングに~0.65$を費やしました。 私の月間取引件数は~300件です。

過去2ヶ月の結果は、悪くはないが、悪すぎるというわけでもない。

隠れ層をもう一つ増やして、もっとエラーがないか探してみる :) そして、もっと長い期間訓練してみる。

シグモイドで処理される2層目の入力に3つのニューロンがあるのか?2層目の重みは-1から1まで、例えば0.1刻みで選択しますが、どのように調整するのですか?

私のネットワークでは、2層目の処理後にディール数が 減少し、結果もあまり改善されませんでした。これは、9つの入力と1つの出力ニューロンを持つパーセプトロンをフィッティングし、さらに別の独立したパーセプトロンを取り、最初のものの設定を保存して再度フィッティングする、などとは異なる。

理由: