トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2019 1...201220132014201520162017201820192020202120222023202420252026...3399 新しいコメント Mikhail Mishanin 2020.10.13 12:52 #20181 Aleksey Vyazmikin: 直にできる。 さて、そこで、状況のパラドックスですが、メールボックスに入れない)サイトが不具合です。うまくいったら、マキシムさんに手紙を出します。 Farkhat Guzairov 2020.10.13 12:54 #20182 マキシム・ドミトリエフスキー: 複雑なことではなく、ただ理解すればいいのです。電力はまったく必要ありません。ビデオカードがなくても、ノートパソコンで数分でLSTMの学習ができるんです。パワーについては神話です。))、まあ...。論破された発言... Обучение закончено... ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 =========== eta: 0.0100, alpha: 0.0050 max_long_result: 0.9986, max_short_result: 0.9996 min_long_result: 0.9979, min_short_result: 0.9950 MQLで同じ操作をすると、10分以上かかります。ホストがプロセッサのコアを増やしたり、プロセッサそのものを増やしたりすれば、速度は上がるだろう ))) 。 Maxim Dmitrievsky 2020.10.13 13:19 #20183 Farkhat Guzairov: ))、まあ...。という主張が物議を醸している。 MQLで同じ操作をすると10分以上かかります。ホストのCPUのコア数やプロセッサ自体の数が多ければ高速化できる)))。 30秒で2700エポックというのは速すぎる Aleksey Vyazmikin 2020.10.13 17:58 #20184 dr.mr.mom: 。 さて、そこで状況的パラドックスですが、メールボックスに入れない)ホームページが不具合です。晴れたらMaksimと一緒に手紙を書きますね。 手紙を書いたのですが、メッセージは届きましたか? Farkhat Guzairov 2020.10.13 18:03 #20185 マキシム・ドミトリエフスキー: 30秒で2700エポックというのは速すぎる。 データが足りない、配列の深さが400エポックとかなのに、深層履歴でロードすると、スレッドのあるC++でも暴れる ))) 、でも一番悲しいのは、結局よく訓練されたシステムができないこと、30000エポックのマイルストーンがあるのに、訓練をやめてしまう、でも、訓練したクソではないことがわかる、なぜそうなるのか...。この現象は衝突のせいだと思います。つまり、あるケースではこのモデルは短いもので、別のケースではこの同じモデルが長いものに見えるというデータのセットがあるようです。もしそうなら私の責任ですが、それを処理するエネルギーが足りません(。そのため、学習用の入力データセットを単純に減らしています。 Aleksey Vyazmikin 2020.10.13 18:08 #20186 マキシム・ドミトリエフスキー: 男...理解できるという意味で、複雑なものではない通常は2〜3層で十分で、FXにそれほど深さは必要ありません。ただ、アーキテクチャ的には、LstmよりもクールなVR用の先進的なネットがあるのです。そこから利益が出るかもしれない、まだ確認してないが。ブースティングやパーセプトロンのような「古典的」なものはすべて、VRにはまったく向いていません。 もっとレイヤーが必要かどうかは、その結果で判断するしかないと思うのですが...。 他にどんなネットワークがあるのか、名前を教えてください。私はネットワークの品種が全く得意ではありません。 ファッショナブルなネットワークのサンプルを送りたいのですが? Maxim Dmitrievsky 2020.10.13 18:19 #20187 Farkhat Guzairov: データは小さく、配列の深さは400程度ですが、深層履歴にロードすると、スレッドを持つC++でも暴れます ))) 、一番悲しいのは、結局よく訓練されたシステムが得られないことです、30000エポックのマイルストーンがありますが、訓練を停止します、しかし、それは訓練されたクソではないことがわかります、なぜそうなるのでしょうか...。つまり、あるケースではこのモデルは短いと言い、別のケースではこの同じモデルが長いと表示されるデータのセットがあるように思えるのですが、もしそうなら私の責任ですが、それを処理する時間がありません((。そのため、単純に学習用の入力データセットを減らしただけなのです。 なぜこのような膨大な数のエポックなのか...通常、動的ループ率では1000や100でも十分です。 Maxim Dmitrievsky 2020.10.13 18:20 #20188 Aleksey Vyazmikin: もっとレイヤーが必要かどうかは、結果を見て判断するしかないと思うのですが......。他にどんなネットワークがあるのか、名前を教えてください。私はネットワークのバリエーションが全く得意ではありません。ある種の空想的なネットワークで動作させるためのサンプルを投下することはできますか?ニューラルネットについては勉強中なんです。すでにここに書きました。新しい畳み込みやトランスフォーマーなどで、主に言語や音声の処理に使われています。 データセットは特殊な方法で作成されるため、通常のデータセットでは動作しない Aleksey Vyazmikin 2020.10.13 19:09 #20189 マキシム・ドミトリエフスキー: ニューラルネットについては勉強中なんです。すでにここに書きました。これらは新しいコンボリューションやトランスフォーマーなどで、主に言語や音声の処理に使われます。 特殊なデータセットがあり、通常のデータセットでは動作しない 準備の仕方を知っていれば、できるはず...。 Farkhat Guzairov 2020.10.13 19:10 #20190 マキシム・ドミトリエフスキー: なぜこのような膨大な数のエポックなのか...通常は1000または100まで、動的な学習速度で 目標は学習の最大精度、すなわち1に対する精度を得ることである。主な重みはランダムに設定されるため、エポックは1000未満になることもある。 1...201220132014201520162017201820192020202120222023202420252026...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
直にできる。
さて、そこで、状況のパラドックスですが、メールボックスに入れない)サイトが不具合です。うまくいったら、マキシムさんに手紙を出します。
複雑なことではなく、ただ理解すればいいのです。
電力はまったく必要ありません。ビデオカードがなくても、ノートパソコンで数分でLSTMの学習ができるんです。パワーについては神話です。
))、まあ...。論破された発言
MQLで同じ操作をすると、10分以上かかります。ホストがプロセッサのコアを増やしたり、プロセッサそのものを増やしたりすれば、速度は上がるだろう ))) 。))、まあ...。という主張が物議を醸している。
MQLで同じ操作をすると10分以上かかります。ホストのCPUのコア数やプロセッサ自体の数が多ければ高速化できる)))。30秒で2700エポックというのは速すぎる
。
さて、そこで状況的パラドックスですが、メールボックスに入れない)ホームページが不具合です。晴れたらMaksimと一緒に手紙を書きますね。
手紙を書いたのですが、メッセージは届きましたか?
30秒で2700エポックというのは速すぎる。
データが足りない、配列の深さが400エポックとかなのに、深層履歴でロードすると、スレッドのあるC++でも暴れる ))) 、でも一番悲しいのは、結局よく訓練されたシステムができないこと、30000エポックのマイルストーンがあるのに、訓練をやめてしまう、でも、訓練したクソではないことがわかる、なぜそうなるのか...。この現象は衝突のせいだと思います。つまり、あるケースではこのモデルは短いもので、別のケースではこの同じモデルが長いものに見えるというデータのセットがあるようです。もしそうなら私の責任ですが、それを処理するエネルギーが足りません(。そのため、学習用の入力データセットを単純に減らしています。
男...理解できるという意味で、複雑なものではない
通常は2〜3層で十分で、FXにそれほど深さは必要ありません。
ただ、アーキテクチャ的には、LstmよりもクールなVR用の先進的なネットがあるのです。そこから利益が出るかもしれない、まだ確認してないが。ブースティングやパーセプトロンのような「古典的」なものはすべて、VRにはまったく向いていません。
もっとレイヤーが必要かどうかは、その結果で判断するしかないと思うのですが...。
他にどんなネットワークがあるのか、名前を教えてください。私はネットワークの品種が全く得意ではありません。
ファッショナブルなネットワークのサンプルを送りたいのですが?
データは小さく、配列の深さは400程度ですが、深層履歴にロードすると、スレッドを持つC++でも暴れます ))) 、一番悲しいのは、結局よく訓練されたシステムが得られないことです、30000エポックのマイルストーンがありますが、訓練を停止します、しかし、それは訓練されたクソではないことがわかります、なぜそうなるのでしょうか...。つまり、あるケースではこのモデルは短いと言い、別のケースではこの同じモデルが長いと表示されるデータのセットがあるように思えるのですが、もしそうなら私の責任ですが、それを処理する時間がありません((。そのため、単純に学習用の入力データセットを減らしただけなのです。
なぜこのような膨大な数のエポックなのか...通常、動的ループ率では1000や100でも十分です。
もっとレイヤーが必要かどうかは、結果を見て判断するしかないと思うのですが......。
他にどんなネットワークがあるのか、名前を教えてください。私はネットワークのバリエーションが全く得意ではありません。
ある種の空想的なネットワークで動作させるためのサンプルを投下することはできますか?
ニューラルネットについては勉強中なんです。すでにここに書きました。新しい畳み込みやトランスフォーマーなどで、主に言語や音声の処理に使われています。
データセットは特殊な方法で作成されるため、通常のデータセットでは動作しないニューラルネットについては勉強中なんです。すでにここに書きました。これらは新しいコンボリューションやトランスフォーマーなどで、主に言語や音声の処理に使われます。
特殊なデータセットがあり、通常のデータセットでは動作しない準備の仕方を知っていれば、できるはず...。
なぜこのような膨大な数のエポックなのか...通常は1000または100まで、動的な学習速度で
目標は学習の最大精度、すなわち1に対する精度を得ることである。主な重みはランダムに設定されるため、エポックは1000未満になることもある。