トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2019

 
Aleksey Vyazmikin:

直にできる。

さて、そこで、状況のパラドックスですが、メールボックスに入れない)サイトが不具合です。うまくいったら、マキシムさんに手紙を出します。

 
マキシム・ドミトリエフスキー

複雑なことではなく、ただ理解すればいいのです。

電力はまったく必要ありません。ビデオカードがなくても、ノートパソコンで数分でLSTMの学習ができるんです。パワーについては神話です。

))、まあ...。論破された発言

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
MQLで同じ操作をすると、10分以上かかります。ホストがプロセッサのコアを増やしたり、プロセッサそのものを増やしたりすれば、速度は上がるだろう ))) 。
 
Farkhat Guzairov:

))、まあ...。という主張が物議を醸している。

MQLで同じ操作をすると10分以上かかります。ホストのCPUのコア数やプロセッサ自体の数が多ければ高速化できる)))。

30秒で2700エポックというのは速すぎる

 
dr.mr.mom

さて、そこで状況的パラドックスですが、メールボックスに入れない)ホームページが不具合です。晴れたらMaksimと一緒に手紙を書きますね。

手紙を書いたのですが、メッセージは届きましたか?

 
マキシム・ドミトリエフスキー

30秒で2700エポックというのは速すぎる。

データが足りない、配列の深さが400エポックとかなのに、深層履歴でロードすると、スレッドのあるC++でも暴れる ))) 、でも一番悲しいのは、結局よく訓練されたシステムができないこと、30000エポックのマイルストーンがあるのに、訓練をやめてしまう、でも、訓練したクソではないことがわかる、なぜそうなるのか...。この現象は衝突のせいだと思います。つまり、あるケースではこのモデルは短いもので、別のケースではこの同じモデルが長いものに見えるというデータのセットがあるようです。もしそうなら私の責任ですが、それを処理するエネルギーが足りません(。そのため、学習用の入力データセットを単純に減らしています。

 
マキシム・ドミトリエフスキー

男...理解できるという意味で、複雑なものではない

通常は2〜3層で十分で、FXにそれほど深さは必要ありません。

ただ、アーキテクチャ的には、LstmよりもクールなVR用の先進的なネットがあるのです。そこから利益が出るかもしれない、まだ確認してないが。ブースティングやパーセプトロンのような「古典的」なものはすべて、VRにはまったく向いていません。

もっとレイヤーが必要かどうかは、その結果で判断するしかないと思うのですが...。

他にどんなネットワークがあるのか、名前を教えてください。私はネットワークの品種が全く得意ではありません。

ファッショナブルなネットワークのサンプルを送りたいのですが?

 
Farkhat Guzairov:

データは小さく、配列の深さは400程度ですが、深層履歴にロードすると、スレッドを持つC++でも暴れます ))) 、一番悲しいのは、結局よく訓練されたシステムが得られないことです、30000エポックのマイルストーンがありますが、訓練を停止します、しかし、それは訓練されたクソではないことがわかります、なぜそうなるのでしょうか...。つまり、あるケースではこのモデルは短いと言い、別のケースではこの同じモデルが長いと表示されるデータのセットがあるように思えるのですが、もしそうなら私の責任ですが、それを処理する時間がありません((。そのため、単純に学習用の入力データセットを減らしただけなのです。

なぜこのような膨大な数のエポックなのか...通常、動的ループ率では1000や100でも十分です。

 
Aleksey Vyazmikin:

もっとレイヤーが必要かどうかは、結果を見て判断するしかないと思うのですが......。

他にどんなネットワークがあるのか、名前を教えてください。私はネットワークのバリエーションが全く得意ではありません。

ある種の空想的なネットワークで動作させるためのサンプルを投下することはできますか?

ニューラルネットについては勉強中なんです。すでにここに書きました。新しい畳み込みやトランスフォーマーなどで、主に言語や音声の処理に使われています。

データセットは特殊な方法で作成されるため、通常のデータセットでは動作しない
 
マキシム・ドミトリエフスキー

ニューラルネットについては勉強中なんです。すでにここに書きました。これらは新しいコンボリューションやトランスフォーマーなどで、主に言語や音声の処理に使われます。

特殊なデータセットがあり、通常のデータセットでは動作しない

準備の仕方を知っていれば、できるはず...。

 
マキシム・ドミトリエフスキー

なぜこのような膨大な数のエポックなのか...通常は1000または100まで、動的な学習速度で

目標は学習の最大精度、すなわち1に対する精度を得ることである。主な重みはランダムに設定されるため、エポックは1000未満になることもある。

理由: