トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 605 1...598599600601602603604605606607608609610611612...3399 新しいコメント Maxim Dmitrievsky 2018.01.24 18:42 #6041 エリブラリウス ネットワークのニューロン数を自動的に決定したい。それを計算するための数式は?インレイヤーは入力層の半分の大きさで、最大2層までとどこかで読みましたが、これ以上は意味がありません。MLP用 Maxim Dmitrievsky 2018.01.24 18:43 #6042 彼はもう教壇に立つことはなく、カモをたくさん集めて証券会社を開きました。本気で教育投資をしたいのならゲルヒクに行くか、そのままペレペルキンに行くべきでしょう。ペレペルキンはもう教えない、十分なカモを集めてDcを開いたのだ。 Yuriy Asaulenko 2018.01.24 19:45 #6043 マキシム・ドミトリエフスキーインレイヤーは入力層の半分の大きさで、最大2層までとどこかで読んだが、これ以上は意味がない。MLP用 まったくもってナンセンス。少ないか多いか、ニューロンかレイヤーか、それはすべてタスクによります。Heikin(持っていると思います)は、どのように、そしてなぜそうなるのかを説明しています。 Maxim Dmitrievsky 2018.01.24 19:53 #6044 ユーリイ・アサウレンコ まったくもってナンセンス。少ないかもしれないし、多いかもしれない。それはタスクによります。ハイキン(あると思います)は、方法と理由を説明しています。私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。 Yuriy Asaulenko 2018.01.24 20:05 #6045 マキシム・ドミトリエフスキー私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。第2層は通常、入力層より大きくなります。これは、特徴の抽出を始めるからで、「はい/いいえ」の分類であっても、そのような特徴がたくさんある可能性があるからです。ハイキンは確かに持っていて、私のよりずっといい) Forester 2018.01.24 20:05 #6046 ユーリイ・アサウレンコ まったくもってナンセンス。ニューロンやレイヤーの数は、少ないかもしれないし、多いかもしれない - それはタスクに依存する。ヘイキン(持っていると思います)は、方法と理由を説明しています。入力数÷2などのバリエーションを見たことがある。 最適なバリアントを自動的に計算する方法は? Yuriy Asaulenko 2018.01.24 20:08 #6047 エリブラリウス入力数 / 2のオプションなどを見たことがあります。 最適な選択肢を自動的に計算する方法は? 間違っているかもしれませんが、私見ですが......ありえません。一般的な考察に基づいて選択され、学習結果に応じてニューロンを層に追加・削除し、さらには追加の層を追加・削除する。 Maxim Dmitrievsky 2018.01.24 20:11 #6048 ユーリイ・アサウレンコ第2層は、特徴の抽出を始めるので、通常、入力層より大きくなります。そのような特徴は、たとえ「はい/いいえ」の分類であっても、たくさんあることがあります。ハイキンは間違いなく持っているし、私のよりずっとよく書けている)経験則では、この[隠れ]層のサイズは、入力層のサイズと ... の間のどこかである。と出力層のサイズ・・・・・・。隠れノード数の算出には、一般的に、(入力数+出力数)×2/3これは最も一般的な推奨事項です...が、一般的に決定する方法があります、あなたはgoogleを読む必要がありますが、それはそこに複雑ですNSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせをダウンサンプリングするか、ノッチする(ニューロン数を増やしていく)。 Forester 2018.01.24 20:18 #6049 レイヤー数の選択について、引用します。3層のネットワーク(numLayers=3:1入力、1隠れ家、1出力)で、ほとんどの場合において十分である。Tsybenkoの定理によれば、隠れ層が1つのネットワークは、任意の連続多次元関数を任意の精度で近似することが可能である。隠れ層が2層のネットワークは、任意の離散多次元関数を近似することが可能である。棒グラフ解析は連続関数か離散関数のどちらを指すのだろう。 Forester 2018.01.24 20:25 #6050 マキシム・ドミトリエフスキー NSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせを小型化するか、ノッチをつけるか(ニューロン数の増加とともに)。 だから、神経細胞数の過大評価もよくない。一般化するのではなく、ノイズと一緒に記憶していくことになる。 1...598599600601602603604605606607608609610611612...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ネットワークのニューロン数を自動的に決定したい。それを計算するための数式は?
インレイヤーは入力層の半分の大きさで、最大2層までとどこかで読みましたが、これ以上は意味がありません。
MLP用
本気で教育投資をしたいのならゲルヒクに行くか、そのままペレペルキンに行くべきでしょう。
ペレペルキンはもう教えない、十分なカモを集めてDcを開いたのだ。
インレイヤーは入力層の半分の大きさで、最大2層までとどこかで読んだが、これ以上は意味がない。
MLP用
まったくもってナンセンス。少ないかもしれないし、多いかもしれない。それはタスクによります。ハイキン(あると思います)は、方法と理由を説明しています。
私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。
私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。
第2層は通常、入力層より大きくなります。これは、特徴の抽出を始めるからで、「はい/いいえ」の分類であっても、そのような特徴がたくさんある可能性があるからです。
ハイキンは確かに持っていて、私のよりずっといい)
まったくもってナンセンス。ニューロンやレイヤーの数は、少ないかもしれないし、多いかもしれない - それはタスクに依存する。ヘイキン(持っていると思います)は、方法と理由を説明しています。
入力数÷2などのバリエーションを見たことがある。
最適なバリアントを自動的に計算する方法は?
入力数 / 2のオプションなどを見たことがあります。
最適な選択肢を自動的に計算する方法は?
第2層は、特徴の抽出を始めるので、通常、入力層より大きくなります。そのような特徴は、たとえ「はい/いいえ」の分類であっても、たくさんあることがあります。
ハイキンは間違いなく持っているし、私のよりずっとよく書けている)
経験則では、この[隠れ]層のサイズは、入力層のサイズと ... の間のどこかである。と出力層のサイズ・・・・・・。
隠れノード数の算出には、一般的に、(入力数+出力数)×2/3
これは最も一般的な推奨事項です...が、一般的に決定する方法があります、あなたはgoogleを読む必要がありますが、それはそこに複雑です
NSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせをダウンサンプリングするか、ノッチする(ニューロン数を増やしていく)。
レイヤー数の選択について、引用します。
3層のネットワーク(numLayers=3:1入力、1隠れ家、1出力)で、ほとんどの場合において十分である。Tsybenkoの定理によれば、隠れ層が1つのネットワークは、任意の連続多次元関数を任意の精度で近似することが可能である。隠れ層が2層のネットワークは、任意の離散多次元関数を近似することが可能である。
棒グラフ解析は連続関数か離散関数のどちらを指すのだろう。
NSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせを小型化するか、ノッチをつけるか(ニューロン数の増加とともに)。