トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1334

 
アレクセイ・ヴャジミキン

MSUAを調べたら、具体的にどの本を指しているのか分からないが、その名前では検索できない。私の理解では、このことはCatBoostで使用されている

-L2-leaf-reg

L2リーフ正則化

L2正則化係数。リーフ値の算出に使用する。

正の値であれば、どのような値でもよい。

3

CPUとGPU


それとも他のことですか?この方法は、例えば、ある領域のパターンを記述するような予測器を作成する場合にも利用できる。

これはティホノフによる正則化なのですが、温度はどこで跳ね返っているのでしょうか?

 
マキシム・ドミトリエフスキー

これがティホノフの正則化です。温度バギングはどうしたんですか?

しかし、ポイントは同じように思えますが、いかがでしょうか?ただ、どんなアルゴリズムが入っているのかがわからない...。

--バギング温度

ベイズブートストラップの設定を定義します。分類モードと回帰モードでは、デフォルトで使用されます。

ベイズブートストラップを使用して、オブジェクトにランダムな重みを割り当てます。

このパラメータを"1 " 設定すると,重みは指数分布からサンプリングされる。このパラメータの値が"0 " 場合,すべてのウェイトが "1 "となる。

設定可能な値は以下の通りです。値が高いほど、より積極的な袋詰めが行われます。

1
 
アレクセイ・ヴャジミキン

しかし、ポイントは同じように思えますが、いかがでしょうか?ただ、その中のアルゴリズムがまったくわからないんです...。

--バギング温度

ベイズブートストラップの設定を定義します。分類モードと回帰モードでは、デフォルトで使用されます。

ベイズブートストラップを使用して、オブジェクトにランダムな重みを割り当てます。

このパラメータを"1 " 設定すると,重みは指数分布からサンプリングされる。このパラメータの値が"0 " 場合,すべてのウェイトが "1 "となる。

設定可能な値は以下の通りです。値が高いほど、より積極的な袋詰めが行われます。

1

わけがちがう

というのも、多くの機能を搭載している場合、便利なのです。

は、モデルを少し変更しますが、純粋に微妙なチューニングで、これ以上はありません。

詳細は、一般的に理解できますが、最後まで読む必要はありません。

 

ちなみに、XGboostについて もっと知りたいという方のために、先ほど紹介したpythonによる例題付きのレクチャーが見つかりました。そこで、あるいは次回の講義で、正則化についても議論する。


 
マキシム・ドミトリエフスキー

もちろん、違うんですけどね。

というのは、機能がたくさんあると便利なんですよね。

は、モデルを少し変更しますが、純粋に微妙なチューニングで、これ以上はありません。

どんな変動があるのか、今日か明日には次の100kモデルになるので、オーバーシュートでこのパラメータを適用するかどうか......」。

 
アレクセイ・ヴャジミキン

今日か明日にはまた100kモデルが出てくるでしょうから、このパラメータをオーバーシュートに適用するかどうか......。

パラメータのマニュアルがまだないのか、他のものを読んでいるところです

 
マキシム・ドミトリエフスキー

パラメータのマニュアルはないのですか? まだkatbを使用していないので、他のものを読んでいます。

まあ、あるのは設定と簡単な説明、それに解説付きの有名なクリップだけなんですけどね。

 
アレクセイ・ヴャジミキン

よく見ると、同じサンプルのモデルの財務結果が5000から1500まで、つまり大きく異なることがあり、これはSeedがモデルに影響を与えることを意味しています。利益率が微妙に違うのに、似ているのは選ばれたモデルだと思うことにします(確認します)。しかし、ほぼすべてのモデルが真ん中で横ばいなのは意外ですね。同じ利益率で間違っている(新データの異常か)。

箱の中に、何だかとても丘陵のような風景が作られていますね。そこにたくさんのボールを投げて(それがシッド)、ほとんどのボールが一番深いくぼみに当たるようにするのが私たちの仕事です。これが学習となり、これがMEの学習が組織される原理となる。

1.箱を少し揺らすと、ほとんどのボールが元々当たっていた窪みから離れられなくなる--学習が起きないのです。

2.箱を勢いよく振ると、一部の球は当たる機会があり、深いくぼみだけにとどまりますが、浅いくぼみは球が飛び出してしまうので、埋まらないままです。完全な学習は実現しない。

3.箱を中程度の力で振ると、深いくぼみと中程度のくぼみだけが埋まり、それ以外の球は何も見つからず、箱の中をランダムに跳ね回り続けることになります。学習は1、2に比べれば良いが、エースでもない。

学習方法には必ず設定があり、いつどのように振れば最も効果的な学習ができるかを正確に把握することができます。

もし、異なる「シッド」が加算されない場合は、学習アルゴリズムに問題があるか、つまり振り方が間違っているか、あるいは、あなたがつかめる深いくぼみが、私たちの箱にはないかのどちらかです。

 
ユーリイ・アサウレンコ

箱があり、その中に非常に起伏のある風景が作られています。そこにたくさんのボールを投げて(それがシッド)、ほとんどのボールが一番深いくぼみに当たるようにするのが私たちの仕事です。これが学習となり、これがMEの学習が組織される原理となる。

1.箱を少し揺らすと、ほとんどのボールが元々当たっていた窪みから離れられなくなる--学習が起きないのです。

2.箱を勢いよく振ると、一部のボールは当たる確率が高く、深いくぼみだけに留まりますが、浅いくぼみはボールが飛び出してしまうため、埋まらないままとなります。完全な学習は実現しない。

3.箱を中程度の力で振ると、一番深いくぼみと真ん中のくぼみだけが埋まり、それ以外の球は何も見つからず、箱の中をランダムに跳ね続けることになります。学習は1、2に比べれば良いが、エースでもない。

学習方法には必ず設定があり、いつどのように振れば最も効果的な学習ができるかを正確に把握することができます。

もし、異なる "sid "の合計が合わない場合は、学習アルゴリズムに問題があるか、振り方が間違っているか、あるいは、私たちの箱には、グリップを得るための深い窪みがないかのどちらかです。

または靴箱)

ボールは良い説明です。

と、良い箱が自らを揺り動かす。

 
ユーリイ・アサウレンコ

箱があり、その中に非常に起伏のある風景が作られています。そこにたくさんのボールを投げて(それがシッド)、ほとんどのボールが一番深いくぼみに当たるようにするのが私たちの仕事です。これが学習となり、これがMEの学習が組織される原理となる。

1.箱を少し揺らすと、ほとんどのボールが元々当たっていた窪みから離れられなくなる--学習が起きないのです。

2.箱を勢いよく振ると、一部のボールは当たる確率が高く、深いくぼみだけに留まりますが、浅いくぼみはボールが飛び出してしまうため、埋まらないままとなります。完全な学習は実現しない。

3.箱を中程度の力で振ると、一番深いくぼみと真ん中のくぼみだけが埋まり、それ以外の球は何も見つからず、箱の中をランダムに跳ね続けることになります。学習は1、2に比べれば良いが、エースでもない。

学習方法には必ず設定があり、いつ、どのように振れば最も効果的な学習ができるかを正確に把握することができます。

もし、異なる "sid "が加算されない場合は、学習アルゴリズムに問題があるか、振り方が間違っているか、あるいは、私たちの箱の中に掴めるような深いくぼみがないかのどちらかだと思います。

良い抽象化、深い谷というのが、学習停止があるような検証時の誤差が少ない回答ということであれば、検証サンプル数を増やしたら良い結果が出たという説明にもなり、これは形式的に抽象地形の大きさを大きくして、谷の数を増やした結果かもしれませんね。
理由: