トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 627

 
アレクセイ・テレンテフ

なぜ、最初の投稿を削除したのか不思議でした。そのスキームをブログで紹介した。=)

ええ、ちょうどフォーラム:Dで彼自身の投稿を検索するのに疲れてしまったので、少なくともリンクは与えることができるようになります。
 
マキシム・ドミトリエフスキー
フォーラムで自分の投稿を検索するのに疲れたので、せめてリンクだけでも。
だから、違う人に同じことを繰り返さないように、記事を書いたのですが...。
 
ミハイル・マルキュカイツ

ここではまだ記事にしたくないが、結果が面白ければ後日記事にすればいい

ダラダラと1週間の休憩を挟みながらゆっくりやってます :)

 
マキシム・ドミトリエフスキー

まだここで記事にはしたくないが、結果が面白ければ後回しでもいいのだが......。

ダラダラと1週間の休憩を挟みながらゆっくりやってます :)

私の場合は、編集をしながら1ヶ月くらいかけて書きました...。を発売するまでの間、「..........................」と言いながら
 
マキシム・ドミトリエフスキー

は、新しいネットワーク図をスケッチし、これが最初の記述です。後日、続編があります(希望)。

フォーラムでアイデアを探すのにうんざりしているので、記念にブログを作りました

https://rationatrix.blogspot.ru/2018/01/blog-post.html

暖かいものと柔らかいものを混同している。正味の結果データを提出することは、欠陥のある行為である。

ネットが混乱するだけで、同じパターンがある場合は上昇し、別の場合は下降する理由がわからなくなるのです。

これは、過去の実績の値がデータに混ざってしまったためです。これは、以前の取引の結果と株式の両方を指します。

グリッド本体にフィットネス関数を挿入しようとしているのですね。しかし、何が良いのか悪いのかを知ることは外国の知識であり、グリッドメカニズムとは関係ない。

もし、ストーリーをMLPから再帰的メッシュに移行させたいのであれば。

しかし、あなたの仮説は(IMHO)kotopedoです。

ZS そうそう、ついでに再教育にも問題があると書いてありましたね。現代のNSサイエンスは、この問題をとっくの昔に解決している。

最も単純で明快、かつ効率的な方法はクロスバリデーション です(ググってみてください)。

 
ニコライ・デムコ

暖かいものと柔らかいものを混同している。ネットの結果データを送り込むのは悪しき習慣である。

グリッドが混乱するだけで、同じパターンがある場合は上昇し、別の場合は下降する理由を理解することができません。

これは、過去の実績の値がデータに混ざってしまったためです。これは、以前の取引の結果と株式の両方を指します。

グリッド本体にフィットネス関数を挿入しようとしているのですね。しかし、何が良いのか悪いのかを知ることは外国の知識であり、グリッドメカニズムとは関係ない。

もし、ストーリーをMLPから再帰的メッシュに移行させたいのであれば。

しかし、あなたの仮説は(IMHO)コトポエである。

あなたにとってのニューラルネットワークは、「ペルセプトロン」という1つの定義で成り立っているようですね。IMHOは、これが目に見える氷山の一角に過ぎないという事実にさえ気づいていないのです。

そして、オーバートレーニングはまだ誰にも負けていない。国防総省のことをあまり理解していないのでは?
 
ニコライ・デムコ

暖かいものと柔らかいものを混同している。ネットの結果データを送り込むのは悪しき習慣である。

グリッドが混乱するだけで、同じパターンがある場合は上昇し、別の場合は下降する理由を理解することができません。

これは、過去の実績の値がデータに混ざってしまったためです。これは、以前の取引の結果と株式の両方を指します。

グリッド本体にフィットネス関数を挿入しようとしているのですね。しかし、何が良いのか悪いのかを知ることは外国の知識であり、グリッドメカニズムとは関係ない。

もし、ストーリーをMLPから再帰的メッシュに移行させたいのであれば。

しかし、あなたの仮説は(IMHO)コトポスです。

バックアップされたグリッドのアナログをやってみたい。リカレントネットは、残念ながら環境という概念がなく、反応もしない。補強を施したネットが行う。どのようにするかというと、まず思いつくのは、外でのパフォーマンスが不満足な場合、eq.Sphereを経由してキックする、などです。

コトペックかな、自分ではわからないけど、イマイチ...楽しいし :) 使いやすいし、時間もかからないしね。

 
ニコライ・デムコ

そうそう、ついでにオーバートレーニングの問題も書いてましたよね。現代のNSサイエンスは、この問題をとっくの昔に解決している。

最もシンプルでわかりやすく効果的な方法は、クロスバリデーション です(ググってみてください)。

クロスバリデーションもフィッティングですが、もっと微妙なんです。

再帰もまた繰り返され、時には学べないこともある。

ネットワークの出力を入力に送ることはできないと言いながら、再帰を使えと言うなんて......。:) そして、その出力を食べるだけなのです。

最も単純なケースは,自分自身を食べてしまう通常のMLPである.

 
マキシム・ドミトリエフスキー

私はそれについてすべて知っている、クロスバリデーションはまた、適切であるが、より洗練されています。

再帰もまた繰り返され、時には学べないこともある。

ネットワークの出力を入力に送ることができないと言いながら、再帰を使えと言うなんて......。:) そして、その出力を食べるだけなのです。

リカレントは基本的にMLPが自分を食べてしまうことです。

いや、私が言いたかったのは、市場のデータとネットワークのアウトプットを混同してはいけないということです。

つまり、ネットワークは相場を処理し、あなたは過去の取引が成功したか否かのデータを入力します。

そして、一般的には、ネットワークがうまくいったかどうか、これは別の単位になります(以前はGAでfitness-functionと呼んでいましたが、NSではerror functionと呼びますが、考え方は同じです)。

バックプロップ方式でネットワークを学習させた場合、データの一部にエラーが発生することが判明した場合、バタリーオイルが発生します。私の言っていることが理解できるでしょうか。

 
アレクセイ・テレンテフ

あなたのためのすべてのニューラルネットワークによる判断は、1つの定義で構成されています - Perseptron。IMHOは、これが目に見える氷山の一角に過ぎず、それすらも小さなものだということに気づいていないのです。

そして、誰も再研修に負けたことがないのです。あなたはMoDの領域についてほとんど理解していない。

マキシムから提示された具体的なネットワークの話をしたのです。

3つのセンテンスを理解できなければ・・・。あのね、なんで私が言わなきゃいけないのよ))

理由: