トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2834

 
mytarmailS #:
xgboostはうまくいかなかった。
というか、やったんだけど、トレーニングがうまくいかなかったんだ。勾配と仲良しになる必要があるんだ。フィットネス関数を勾配にする必要があるんだけど、遺伝学を使えばもっと簡単なんだ。

そう、そこが難しいところなんだ。勾配と二次導関数の行列、ヘシアンを計算しなければならない。ヘシアンは正定値でなければならない。

例えば利益の場合、ヘシアンは退化的(ゼロに等しい)だ。必要性と必然性の間の合理的な妥協点に、損失関数をどうにかして微調整する必要がある。

 
Andrey Dik #:

1.苗字が衰えていない
2.問題は、大域が変化するかどうかではなく(必ず変化する)、大域の極値を見つけることができるかどうかである。気にしないのであれば、ネットワークの重みを乱数で初期化すればよい。というのも、大域的かどうかに何の違いがあるからだ。)

1.苗字の件ですが、考慮しておきます。そのような名字の人はあなたしか知りません。

2.不合理な考えを持ち込むべきではないと反論したいが、現実には同じである。そして、極限は常に不安定な状態であるが、我々は安定した状態を必要としている。したがって、最適を求めることは有害な行為であることがわかる。

ここで私は、将来における利益の安定性は予測変数の特性に依存し、モデルにはほとんど依存しない、最適化アルゴリズムにはさらにほとんど依存しないという考えを推し進めている。つまり、まったく異なるアプローチである。

 
СанСаныч Фоменко #:

私はここで、将来の利益の持続可能性は予測因子の特性に依存し、モデルにはほとんど依存しない、ましてや最適化アルゴリズムには依存しないという考えを推し進めている。これは全く異なるアプローチです。

サンプルを送ってもらえますか?私たちはモデル学習が不十分であるという問題に対して同じビジョンを持っています。あなたの選択方法が私の方法よりどの程度優れているのか、またあなたのサンプルに全く適合していないのかを比較したいのです。

 
ログロスの代わりに何が提案されていますか?
 
Aleksey Nikolayev #:

そう、そこが厄介なんだ。勾配と2次導関数の行列(ヘシアン)を計算する必要がある。ヘシアンも正定値でなければならない。

例えば利益の場合、ヘシアンは退化的(ゼロに等しい)である。必要性と必然性の間の妥当な妥協点に、損失関数をどうにかして微調整する必要がある。

私が理解するところでは ヘシアンはまったく 考慮されていない。

#  Custom objective function (squared error)
myobjective <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  grad <- (preds-labels)    
  hess <- rep(1, length(labels))                
  return(list(grad = grad, hess = hess))
}

#  Custom Metric
evalerror <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  err <- (preds-labels)^2        
  return(list(metric = "MyError", value = mean(err)))   
}

ただ勾配を減らすために働くだけだ。

grad <- (preds-labels)   


これは 違う。

logregobj <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  preds <- 1 / (1 + exp(-preds))
  grad <- preds - labels
  hess <- preds * (1 - preds)
  return(list(grad = grad, hess = hess))
}


すごく苦労したのを覚えているから、やめたんだ。

でも、体格を鍛えたらカッコイイだろうね(笑)。
 
СанСаныч Фоменко #:

しかし、現実にはこのようなケースもある。私たちには 最適な状態など必要ない。必要なのはプラトーで あり、より広範であればあるほどよくより収益性が 高ければ高いほどよい。そして、極限とは常に不安定な状態 であり

そして、「どの程度プラトーになるか/ならないか」を評価する関数は、最大値の探索ではない?

また、「儲かれば儲かるほどよい」と評価する関数は、最大値の探索ではないのですか?

また、「 広範で あればあるほどよい」と評価 する 関数は 最大値の探索ではない

また、「定常/非定常」を評価する関数は、最大探索ではない

それとも、そこにもプラトーが必要なのでしょうか?)))) では、ポイント1を見てください。)

ああ、この不敬な人々...



SanSanych Fomenko#

私はここで、将来の利益の持続性は予測因子の性質に依存し、モデルや最適化アルゴリズムにはほとんど依存しないという考えを推し進めて います。つまり、全く異なるアプローチです。

アイデアを押し付ける のではなく、それを証明するか、少なくとも正当化する必要があります。

ここには、マッシュカが最高のものだという考えを押し付けている人がいた。

 
さらにクールなのは、欠落しているボディを含めて、チップとタグの間の利益率を説明できるような関係について考えることだろう。大雑把に、なし 🤤。
 
СанСаныч Фоменко #:

1.名字は覚えておくよ。その名字の人はあなたしか知らない。

2.不合理な考えを持ち込むべきではないと反論したいが、現実には同じである。そして、極限は常に不安定な状態であるが、我々は安定した状態を必要としている。したがって、最適の追求は有害な職業であることがわかる。

ここで私は、将来における利益の安定性は予測変数の特性に依存し、モデルにはほとんど依存しない、最適化アルゴリズムにはさらにほとんど依存しないという考えを推し進めている。これは全く異なるアプローチである。

1. v

2.ここに、仮想的な学習関数の曲線のような図があります。

グリッドが局所極値1で止まることに満足しますか? それとも2ですか? それとも3ですか? つまり、局所極値がいくつあるかは事前にわからないのです。だからこそ、アルゴリズムが到達できるすべての局所極限の中で最も高い極限を見つけようとすることが重要なのです。

 
Maxim Dmitrievsky #:
loglossの代わりに何が提案されているのですか?

私への質問であれば、利益またはその合理的な類似物です。利益 - 今のところ、すべての(close[i] - open[i])*prognos[i]の合計とします。良い勾配とヘシアンの動作のためには、何らかの修正が必要かもしれません。

 
Aleksey Nikolayev #:

それが私のための質問なら、利益またはそれのいくつかの合理的なアナログ。利益 - 今のところ、すべての(close[i] - open[i])*prognos[i]の合計とします。良い勾配とヘシアンの振る舞いのためには、何らかの修正が必要かもしれません。

遺伝学では、変数をとり、ある基準でそれらを最大化する。ここでは、分類のため、それはできない。利益とクラスラベルの間には何の関係もない。せいぜい何も得られないだけだ。だからこのような基準はeval_metricsに置かれるのだ。
理由: