トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2827

 
mytarmailS #:
https:// youtu.be/4yrp71kAZxU
.

では、何がそんなに面白いのか?

 
ニューロンをトレーニングするとき、それが地元のどこかに引っかかっていないと確信できるか?
 
Andrey Dik #:
ニューロンをトレーニングしているとき、それが地元のどこかで止まっているのではないと確信できるか?

ニューロニックでは、バッチに分割することで、以下のことを避けることができる。

他の最適化アルゴリズムでも、何回か実行したり、バッチに分けたりすることは有効である。

さらに、勾配ステップを調整するなどのトリックも有効だ。

それでも、ハイパーパラメータを変更することによって最適値の近傍を探索し、システムがどの程度生存可能かを確認する必要がある。
 
バッチに分ける最適化アルゴリズム?)
 
Maxim Dmitrievsky #:

ニューロニクスの場合、バッチに分割することで、それを避けることができる。

他の最適化アルゴリズムでは、以下のように、何度か実行したり、バッチに分割したりすることも有効だ。

さらに、勾配ステップを調整したり、他のトリックを使ったりすることもできる。

それでも、ハイパーパラメータを変えて最適値の近傍を探索し、システムがどの程度生き残れるかを確認する必要がある。

バッチって何ですか?

つまり、神経細胞がどこかでスタックしていないことをどうやって確認するのですか? ジャミングに対する耐性をテストするのですか?

 
Andrey Dik #:

バッチとは何ですか?

そうじゃなくて、神経細胞がどこかに引っかからないかどうか、どうやって確認するんですか? 引っ掛かることに対する抵抗力がテストされるんですか?

新しいデータでテストされるんだ。例えば、早期停止によってね。

例えば、学習データで誤差が減少し、新しいデータで誤差が増加し始めたら、その時点で停止させます。新しいデータで誤差が大きくならない限り、まだスタックしていないということだ。

バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。

各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より低くなる。

原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトした部分サンプルで、この全体最適を見つけるにはどうすればよいのでしょうか?

まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、そうなると、サンプルをシフトし始めることになり、この質問以上の問題が生じることになる。

理論から実践に少し踏み込めば :)

 
Maxim Dmitrievsky #:

が新しいデータでテストされる。

例えば、トレーニング・データで誤差が減少し、新しいデータで誤差が増加し始めた場合などである。新しいデータで誤差が大きくならない限り、まだ行き詰まっていないことを意味する。

バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。

各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より小さくなる。

原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトしたサブサンプルでこの全体最適を見つけるにはどうすればよいのでしょうか?

まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、サンプルをシフトし始めると、この質問以上の問題が生じる。

理論から実践に少し踏み込めば :)

ジャム抵抗をチェックする方法はありません。

あなたの言う「トレーニングでエラーが減少し、新しいトレーニングでエラーが増加し始める」というのは、ジャミングのテストではなく、単にトレーニングを停止するための基準です。

私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。)

 
Andrey Dik #:

妨害耐性をテストする方法はない。

あなたの言う「トレーニングしたものでは誤差が減少し、新しいものでは誤差が増加し始める」というのは、妨害のテストではなく、トレーニングを中止する基準に過ぎない。

私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。)

そうですね、まるで議論されていませんね。ニューロニューロンで最もポピュラーなのはアダム最適化アルゴリズムだ。たぶん、あなたもそれをテストすることができます
 
Maxim Dmitrievsky #:
まあ、そんなところだ。ニューロンでは、最もポピュラーなのはアダム最適化アルゴリズムだ。あなたも何とかテストできるかもしれない

ほら、まったく議論されていない。

実際には、これはニューロンの訓練が不十分であることを意味 します。つまり、新しいデータに対する誤差が、より妨害に強いAOを使用した場合よりも早く成長し始めるということです。

理由: