トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1512 1...150515061507150815091510151115121513151415151516151715181519...3399 新しいコメント Maxim Dmitrievsky 2019.07.06 08:32 #15111 ケシャ・ルートフ 実際、私は時々マックス・デニセンコが羨ましくなります。彼の従属的な立場は、時々、仕事でうんざりして神経チックになり、午前3時に家に帰っても妻や子供との時間はなく、ただ寝て気絶し、また8時に起き、その繰り返しで...という感じです。 よし、繁殖はしないほうがいいし、まだ女も作らないほうがいい。まずは一人前に成長することだ。大人になったら、もう無意味なことを書く必要はないでしょう。しかし、手段を選ばず物事を変えようとすると、刑務所や精神病院に入ることになる可能性が高くなります。 あなたの場合、とてもわかりやすいからです。そうそう、まだ自分用のアイドルは作らないでね、とか、さーにっちはヒマになっちゃうから。 Andrey Dik 2019.07.07 11:02 #15112 複数シンボルにまたがるグリッドの 同時学習、すなわち複数シンボルで同じグリッドパラメータ(重み)を使用する場合について教えてください。 Кеша Рутов 2019.07.07 11:14 #15113 アンドレイ・ディク あるグリッドのパラメータ(重み)を複数のシンボルで同時に学習させることを何というか? 私はそれを "ドローダウン学習" と呼びます。"ドローダウン学習" の重要性については、Pereverenko または Denisenko による、高度な OOP (>5 inheritance depth) で、90%の精度とテストでの利益とドローダウンの比率が同じ(等)、またはテストなしで古き良き時代のように、すべて Lern で、純粋指数である martin との記事をお待ちください))) Andrey Dik 2019.07.07 11:17 #15114 ケシャ・ルートフ 私はそれを "ドローダウン学習 "と呼びます。"ドローダウン学習 "の重要性については、ペレヴェレンコやデニセンコによる、高度なOOP(少なくとも5の継承深度)、90%の精度とテストでの利益とドローダウンの同じ(等しい)比率、またはテストなしで古き良き時代のように、すべてLernで、純粋指数であるマルティンとの記事を待ってください))))。 が、肝心なのは? Кеша Рутов 2019.07.07 11:30 #15115 アンドレイ・ディク: が、ビジネスでは? ビジネスでは通常、前処理されたBPの「束」が入力され、各BPの将来のプロパティのベクトルが出力される、というような形になるはずです。しかし、そのためには同期されたシリーズが必要で、トレーディングセンターからそれを入手することはできません。 Maxim Dmitrievsky 2019.07.07 11:54 #15116 アンドレイ・ディク 複数のシンボルで同時にメッシュ学習する、つまり、複数のシンボルで同じメッシュパラメータ(重み)を使用する場合とは? トランスファーラーニング mb Кеша Рутов 2019.07.07 12:17 #15117 マキシム・ドミトリエフスキー トランスファー・ラーニング mb. すぐにでも「ドローダウン学習」の記事を書かなければならない。 転移学習とは、あるデータセットやアルゴリズムで学習した選択された(通常は最初の1-2層)ニューロン/層を、別のグリッドで予備部品として使用することで、例えば、写真のスタイリングに使用することである。 Andrey Dik 2019.07.07 12:30 #15118 ケシャ・ルートフ ビジネスでは通常、このように、何らかの前処理を施したBPの「束」と、出力時の各BPの将来のプロパティのベクトルであるべきです。しかし、これには同期した行が必要で、DCから得ることはできません。自分で構築しなければなりません。少し同期を外すと、テスター用のグレイルを得ることができますが、本物は失敗します。 シンクロシリーズを使いたかったら、少なくとも私はTPに接続していないので、問題はないと思います。 Andrey Dik 2019.07.07 12:32 #15119 マキシム・ドミトリエフスキー トランスファー・ラーニング mb. この活動のポイントは、安定したパターン(とでも呼ぼうか)を特定することであり、それは異なるBP上で機能するから安定するのであって、この分野での私の臆病な実験は、原理的には可能であることを示しているのだが...。となり、結果としてロバスト性が高まる(適合度が低下する)。 Maxim Dmitrievsky 2019.07.07 13:30 #15120 ケシャ・ルートフ すぐにでも「ドローダウン学習」の記事を書かなければならない。 転移学習とは、あるデータセットやアルゴリズムで学習した選択された(通常は最初の1-2層)ニューロン/層を、別のグリッドで予備部品として使用することであり、例えば、画像の様式化に使用される。 鼻糞も出ない(笑) 1...150515061507150815091510151115121513151415151516151715181519...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
実際、私は時々マックス・デニセンコが羨ましくなります。彼の従属的な立場は、時々、仕事でうんざりして神経チックになり、午前3時に家に帰っても妻や子供との時間はなく、ただ寝て気絶し、また8時に起き、その繰り返しで...という感じです。
よし、繁殖はしないほうがいいし、まだ女も作らないほうがいい。まずは一人前に成長することだ。大人になったら、もう無意味なことを書く必要はないでしょう。しかし、手段を選ばず物事を変えようとすると、刑務所や精神病院に入ることになる可能性が高くなります。 あなたの場合、とてもわかりやすいからです。そうそう、まだ自分用のアイドルは作らないでね、とか、さーにっちはヒマになっちゃうから。
あるグリッドのパラメータ(重み)を複数のシンボルで同時に学習させることを何というか?
私はそれを "ドローダウン学習" と呼びます。"ドローダウン学習" の重要性については、Pereverenko または Denisenko による、高度な OOP (>5 inheritance depth) で、90%の精度とテストでの利益とドローダウンの比率が同じ(等)、またはテストなしで古き良き時代のように、すべて Lern で、純粋指数である martin との記事をお待ちください)))
私はそれを "ドローダウン学習 "と呼びます。"ドローダウン学習 "の重要性については、ペレヴェレンコやデニセンコによる、高度なOOP(少なくとも5の継承深度)、90%の精度とテストでの利益とドローダウンの同じ(等しい)比率、またはテストなしで古き良き時代のように、すべてLernで、純粋指数であるマルティンとの記事を待ってください))))。
が、肝心なのは?
が、ビジネスでは?
ビジネスでは通常、前処理されたBPの「束」が入力され、各BPの将来のプロパティのベクトルが出力される、というような形になるはずです。しかし、そのためには同期されたシリーズが必要で、トレーディングセンターからそれを入手することはできません。
複数のシンボルで同時にメッシュ学習する、つまり、複数のシンボルで同じメッシュパラメータ(重み)を使用する場合とは?
トランスファーラーニング mb
トランスファー・ラーニング mb.
すぐにでも「ドローダウン学習」の記事を書かなければならない。
転移学習とは、あるデータセットやアルゴリズムで学習した選択された(通常は最初の1-2層)ニューロン/層を、別のグリッドで予備部品として使用することで、例えば、写真のスタイリングに使用することである。
ビジネスでは通常、このように、何らかの前処理を施したBPの「束」と、出力時の各BPの将来のプロパティのベクトルであるべきです。しかし、これには同期した行が必要で、DCから得ることはできません。自分で構築しなければなりません。少し同期を外すと、テスター用のグレイルを得ることができますが、本物は失敗します。
シンクロシリーズを使いたかったら、少なくとも私はTPに接続していないので、問題はないと思います。
トランスファー・ラーニング mb.
この活動のポイントは、安定したパターン(とでも呼ぼうか)を特定することであり、それは異なるBP上で機能するから安定するのであって、この分野での私の臆病な実験は、原理的には可能であることを示しているのだが...。となり、結果としてロバスト性が高まる(適合度が低下する)。
すぐにでも「ドローダウン学習」の記事を書かなければならない。
転移学習とは、あるデータセットやアルゴリズムで学習した選択された(通常は最初の1-2層)ニューロン/層を、別のグリッドで予備部品として使用することであり、例えば、画像の様式化に使用される。
鼻糞も出ない(笑)