トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3316

 
Maxim Dmitrievsky #:
心の中はわからない。またナンセンスなだけだ
あなたはすでに、MOである他の人たちに、あなたがまったく考えていないことを確認されている。
何回堂々巡りするんだ?

どうしてそわそわしているんだ?

緑の線はトレース、赤い線は検証。そして赤丸のマークは、検証誤差グラフが下降から上昇に変わる場所、Global Extremeです!- そこでトレーニングを中止しなければならない。私の質問に対する簡単な答えがわかっただろうか?どのような学習も、大域的極限の探索を伴う最適化の本質である。どんなMO法も、まさにこのことに還元される。ある評価関数を大域的な極値(損失関数の最小化または評価関数の最大化)に最適化することだ。しかし、あなたは最適化者ではありません。 たとえあなたがそれを意図的に行わなくても、MO法はあなたのためにそれを行います。

 
Maxim Dmitrievsky #:
ティーチャーがマーキングの対義語であるというサンシュの間違った解釈を、誰もが確認しているのだろうか?

いいえ、それらは同じではありません。

マークが教師として機能することはあるが、それはタスクによる。しかし、両者の間に明確な同義語を置くことは不可能だ。

 
Andrey Dik #:

なぜそわそわしているのか?

緑の線はトレース、赤い線は検証。そして赤い丸印は、検証誤差グラフが下降から上昇に変わる場所、これがグローバル・エクストリームです!- これがGlobal Extremeだ!ここでトレーニングを止めなければならない。私の質問に対する簡単な答えがわかっただろうか?どのような学習も、大域的極限の探索を伴う最適化の本質である。どんなMO法も、まさにこのことに還元される。ある評価関数を大域的な極値(損失関数の最小化または評価関数の最大化)に最適化することだ。しかし、あなたは最適化者ではありません。 たとえあなたがそれを意図的に行わなくても、MO法はあなたのためにそれを行うのです。

これは、あなたの場合、再学習されたモデルのグラフです。
そしてブレークポイントの後、複雑さが増すとオーバートレーニングが増えることになります。
 
Valeriy Yastremskiy データの 構造を学習するタスクに使用される。
  • タスクの例

    • ー教師ありのー:ー分類、ー回帰、ー予測、ー不正検出ー物体検出ー機械翻訳ーなどー
    • ー教師なし学習: クラスタリング、ー次元削減(人PCA, t-SNE,連想規則,データ可視化,etc.
  • モデルの評価

    • ー教師あり学習:ーモデルがー既知のー既知のー既知のー既知のーモデルをーモデルをー評価にはー度、度(度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度、度(度、度、度、度、度、度、度、度、度、度、度、度、度・・・・度
    • Learning without a teacher: Estimation is more difficult because there are no known labels to compare.ークラスタリングのークラスタリングのークラスタリング:ークラスタリングのークラスタリングはークラスタリングのークラスタリングはークラスタリングのークラスタリング。
  • Both types of learning have their applications in machine learning, and the choice between them depends on the specific task and the available data.、ー時にはー 時にはー時にはー

    明らかに何かが起きている。

    定義に戻る。

    P.Z.

    終わりまであと少し。

    はぁ。誰かがひらめいたようだ!

     
    Andrey Dik #:
    確かに似ているが、MOではこのグラフが示すものも意味するものも違うんだ))

    どうにかしてそのことに気づいていないかと思ったのですが......)

     
    Maxim Dmitrievsky #:
    これは再学習されたモデルのグラフです。
    なぜ「私の場合」なのか?誰でも同じです。赤丸の後も学習を続けると、過学習モデルになってしまいます。ですから、数回の反復で妥当性が大きくなり始めるまで待ち、トレーニングを止めて、赤い円が大域的極値である結果を選びます。2回、3回、4回、さらに前の繰り返しの結果を取る人もいるかもしれないが、それでも本質は変わらない。
     
    Andrey Dik #:
    なぜ "私の "なのか?みんなそうなんだ。赤丸の後もトレーニングを続けると、オーバートレーニングのモデルになってしまう。そのため、有効性が数回の繰り返しで大きくなり始めるまで数回繰り返し、トレーニングを中止し、赤い円がグローバルな極値である結果を選択します。その結果を2回、3回、4回と繰り返していくこともできますが、本質は変わりません。
    円の前に再学習されたモデルがあります。
     
    Maxim Dmitrievsky #:
    ...
    そしてある時期が過ぎると、複雑さが増してオーバートレーニングが増える。

    これはトレインと検証のグラフだ。複雑さは関係ない。MOで何をするにしても、あなたはグローバルな極限を求めている。

     
    Maxim Dmitrievsky #:
    円の前に再トレーニングされたモデルを手に入れた。
    それで十分だ。その逆を証明するか、しかし一言で済ませるのではなく、絵や説明で証明するか。
     
    Andrey Dik #:
    もういい、あなたは完全に吹っ切れた。その逆を証明するのなら、片言のフレーズではなく、図面や説明を使って証明してください。
    これはトレインとシャフトの各反復における誤差のグラフだ。各反復/エポックの後にモデルの複雑化がある。Y軸の円周上の誤差と、X軸の反復/エポック数が描かれていませんね。もしそれが0.5であれば、モデルはそこで何も学習しておらず、再学習を開始します。グラフが何もないのはそのためです。

    グローバルな最大/最小誤差はゼロです。
    理由: