例えば、極限が入力パラメータx, y, zの値で座標を持ち、適合関数profit = f(x, y, z)とすると、x ± delta, y ± delta, z ± delta(deltaは入力パラメータの値に対する小さな歪み)。偽極限の場合は適合関数が大きくずれ、傾斜が緩やかな極限の場合は適合関数のずれは大きくはならない。
例えば、極限が入力パラメータx, y, zの値で座標を持ち、適合関数profit = f(x, y, z)とすると、x ± delta, y ± delta, z ± delta(deltaは入力パラメータの値に対する小さな歪み)。偽極限の場合は適合関数が大きくずれ、傾斜が緩やかな極限の場合は適合関数が大きくずれなくとも最終結果には影響を与えることになります。
最適化はすでに通っているわけですが、他にどこを逸脱するのか
これは、最適化中に重要でない誤差を導入することで、入力パラメータの値がランダムに少し歪み、遺伝的アルゴリズムが 急降下する偽極値で固定されるのを防ぐと考えられています。同時に、緩やかな勾配の極値では、小さな歪みも最適化アルゴリズムに小さな影響を与える。
例えば、極限が入力パラメータx, y, zの値で座標を持ち、適合関数profit = f(x, y, z)とすると、x ± delta, y ± delta, z ± delta(deltaは入力パラメータの値に対する小さな歪み)。偽極限の場合は適合関数が大きくずれ、傾斜が緩やかな極限の場合は適合関数のずれは大きくはならない。
これは道路交通に例えると、道路が狭くて滑りやすい場合、道路側に飛び出さないように運転することは難しい、つまり偽の、つまり不安定な極限状態である。道が広くてよく舗装されていれば、簡単に走れる、つまりより真の、つまり安定した極限状態である。ステアリングに小さな狂いが生じると、狭くて滑りやすい道路をコーナリングしながら走ることができなくなるのです。多次元関数の極値を求めることは、様々なコースを登っていくことと非常に似ているので、この例えは非常に適切である。
したがって、遺伝的アルゴリズムでは、理論的には、染色体の子孫はターンには適合しないので、偽極値を避けようとし、安定したものでの最大化を目指します。
最適化後、入力パラメータの歪みを無効化する必要があります。
最適化後、入力パラメータの歪みを無効化する必要があります。
除外しないほうがよかったかもしれませんね。自信の境界線を与えることができる
最適化後、入力パラメータの歪みを無効にする必要があります。
除外しないほうがいいかもしれませんね。自信の境界線を与えることができる
なぜ、取引に歪みが必要なのですか?もしかしたら、プラスマイナス1キロの引き際を考えてスイッチを入れているのかもしれませんが、そんな楽しみはいらないですからね。課題は、最適化の際に不安定な極値の大部分をカットすることのみです。
排除しないほうがいいのかもしれませんね。自信の境界線を与えることができる
さんYuriさん、記事はいつ頃掲載されるのですか?
素晴らしいニュースです!週末までにあなたの作品を読みたいと思います。
がんばってください。
素晴らしいニュースです!週末までにあなたの作品を読みたいと思います。
がんばってください。
数式もあれば、オタクっぽい言葉もあり、絵で重要性をアピールしているのです。
探偵小説が読みたい。
これは、最適化中に重要でない誤差を導入することで、入力パラメータの値がランダムに少し歪み、遺伝的アルゴリズムが急降下する偽極値で固定されるのを防ぐと考えられています。同時に、緩やかな勾配の極値では、小さな歪みも最適化アルゴリズムに小さな影響を与える。
例えば、極限が入力パラメータx, y, zの値で座標を持ち、適合関数profit = f(x, y, z)とすると、x ± delta, y ± delta, z ± delta(deltaは入力パラメータの値に対する小さな歪み)。偽極限の場合は適合関数が大きくずれ、傾斜が緩やかな極限の場合は適合関数が大きくずれなくとも最終結果には影響を与えることになります。
これは道路交通に例えると、道路が狭くて滑りやすい場合、道路脇に飛び出さないように運転することは難しい、つまり偽の、つまり不安定な極限状態である。道が広くてよく舗装されていれば、簡単に走れる、つまりより真の、つまり安定した極限状態である。ステアリングに小さな狂いが生じると、狭くて滑りやすい道路をコーナリングしながら走ることができなくなるのです。多次元関数の極値を求めることは、様々な道を登っていくことと非常に似ているため、この例えは非常に適切である。
したがって、遺伝的アルゴリズムでは、理論的には、染色体という子孫はターンには収まらないので、偽極値を避け、安定なものでの最大化を目指すことになる。
最適化後、入力パラメータの歪みを無効化する必要があります。
は、誤って何かを歪ませることはありません。これはGA自身が突然変異のメカニズムによって行う。最適化は、個々のオプションのロバスト性をチェックするために必要なのであって、グローバルな極限を探すために必要なのではありません。オプションが要件を満たさない場合、このフィルタまたはセット要素(パラメータが何であるかによる)を修正するか、完全に破棄する必要があります。
GAが必要なのは、最初の基準点だけです。多かれ少なかれ機能しているオプトの値を選び、それを修正し、それから各オプトを個別にチェックするのです。
いずれにせよフォワードは必要です。他にどのように見積もればいいのでしょうか?
問屋を正しく分析すれば、フォワードは全く必要ないのです。
フォワードの本質は、最適化されたパラメータの極値が時間と共に浮き上がるかどうかを評価することである。つまり、テスト区間全体(最適化+autofsample)で局所極値が複数ある場合に、variantを切り捨てること。各オプションの極限特異性と単調性を個別に解析することで、よりうまく切り離すことができる。つまり、オプションが時間的に「浮く」ことがないことがすでに保証されているのです。また、フォワードには重大な欠点があります。それは、最適化面上の個々の点のみを考慮し、全体としては考慮しないことです。これは、プロットを最適化サンプルとオートサンプルにフォノン分割することと相まって、台座以下のこのような解析の統計的信頼性を低下させる))それは一つの気付きに過ぎません。もしかしたら、オートサンプルを選択することが幸運で、クソみたいなオプションのセットが通過するかもしれませんし、その逆もあります。オートサンプルは、「良い」オプションのセットが一時的に引き下げられる期間に該当します。
しかし、いずれにせよ、最適化の課題は、システムの各パラメータのロバスト性を評価することであると、私は繰り返し述べています。疑わしい場合は、破棄するか、修正するのがよいでしょう。統計と売買ロジックで100%裏付けされたものだけを残す。