トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3019

 
Aleksey Vyazmikin #:

貪欲と遺伝の違いは何なのか?

ニューラルネットワークからルールを引き出すという話は聞いたことがありません。リンクをいただけますか?今のところ、私の想像では面倒なことが描かれています。

しかし、ここでのニューラルネットワークは、新しいルールを発行するスピードという点では、明らかにツリーよりも遅くなると思います。

良いルール」と「悪いルール」を分けるというあなたの考え方は、方法論的に完全に行き詰まっている。

あなたは何らかの理由で、「良い」ルール(ツリー)が本当に「良い」ものだと考えている。

そして、それは単に将来の漠然としたものではなく、何らかの基準でとらえることができるルールがまったく存在しないという事実なのだ。窓の移動に伴って変化する「良さ」の可変性を生み出すルールは存在する。そして、このルールが窓の移動に伴って「良い」から「悪い」になることは十分にあり得る。この変動性は、予測確率をクラスに分割する値によって定義される。

一般的なMOアルゴリズムでは、クラスへの分割はクラスの予測確率を半分にすることで行われますが、これは完全に間違っています。私はクラスへの分割の値を考慮します - それは決して0.5ではありません:この値は変化し、特定の予測子に依存します。

さて、「良い」木の話に戻ります。

もし "Goodness "が閾値の近くにある木を選択したなら、それは移動します。これが、あなたが選んだ「良い」木が悪い木になりやすいと私が上で主張した理由です。


行き止まりだ。

 
Igor Makanu #:

ヤンデックスも似たようなことを書いているhttps://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Yandexによる素晴らしいチュートリアルだ。このチュートリアルの別のセクションは、私が考えていることともっと関係がある。このチュートリアルでは、ツリー構築で使用される一般的な損失関数について説明されています。そこでの考え方は、平均 エラー価格を 最適化し、利益を最大化することは、エラー価格の合計を 最適化することと等価であるということだ。

利益に置き換えると、それは総利益と取引における平均利益の差である。私はバイナリ分類(エントリーする/しない)の問題を解いているので、トレードの平均利益を最大化すると、愚かにも1つか2つのトレードをエントリーし、残りを破棄することになります。

これが最適化とMOの間の乗り越えられない境界なのか、そうでないのかを理解しようとしています。

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

ヤンデックスのチュートリアルは悪くない。私が考えているのは、このチュートリアルの別の部分に関する ことだ。このチュートリアルでは、ツリー構築で使われる一般的な損失関数について説明されている。ポイントは、そこでは平均 エラー価格を 最適化し、利益を最大化することは、エラー価格の合計を 最適化することと等価であるということだ。

利益に置き換えれば、それは総利益と取引における平均利益の差である。私はバイナリ分類(エントリーする/しない)の問題を解いているので、トレードの平均利益を最大化すると、愚かにも1つか2つのトレードをエントリーし、残りを破棄することになる。

これが最適化とMOの間の乗り越えられない境界なのか、そうでないのかを理解しようとしています。

自分で損失関数を書けない理由は何ですか?

 
Maxim Dmitrievsky #:
これは、グーグルの機能を要約したもので、私自身も使っている。ディップマインドは通常、私自身が現実をどう認識しているかに非常に近いことをする。


アドバイスありがとう!

 
Aleksey Vyazmikin #:

アドバイスをありがとう!

昨夜、このトピックについて検索してみたんだ。同じツリーがスケールやNSレイヤーからルールを引き出している。また、超精密ネットワークからもルールを引き出している。もっと詳しいことがわかったら投稿する。探索的分析におけるツリーは、このルール探索の角度から見ると、どうにもクールすぎるように見える。おそらく、適切に準備されたデータセットがあれば、スピードの点では遺伝的最適化を凌ぐだろう。
私自身は試していないので、もしかしたら落とし穴があるかもしれない。
 
mytarmailS #:
自分の話題は、他の誰かではなく、自分が扱うべき......。
一度頭に入ったら、それはプロセスなんだ...。

考えてみてください。

僕はMQL5で問題を解いているんだけど、Rの話をしていたんだ。

事実は事実だ。何も考えずに何か言って、藪の中に入っていく。

 
mytarmailS #:

FUNを書くのを止めているものは何ですか?

そうですね、例えば同じバスティングで利益の最大化をどのように実行すればいいのか、まだわからないんです。

もちろん何かはやっているけれど、このトピックについて他の有益な意見を聞きたい。

 
Aleksey Nikolayev #:

まあ、例えば同じブスティングに利益最大化をどう組み込むかはまだ分からない。

もちろん、私は何かをやってはいるが、このトピックについて他の有益な意見を聞きたい。

精度はバランスの取れたクラスで問題なく機能している。すべての標準的な指標を試してみたが、結果にほとんど違いはなかった。利益の最大化は、最大限の利益を生む取引でマークアップすることで実行されますね?)
 
СанСаныч Фоменко #:

、生え抜きの生え抜き選手と生え抜き選手とー。

あなたはどういうわけか、「良い」ルール(木)が本当に「良い」ものだと考えている。

ータがータはータはータはータはータはータはータはータはータはータはータはータはータはータはータこのータはータはータはータこのータはータはータはー窓の移動に伴って変化する「良さ」の可変性を生み出すルールは存在する。そして、このルールが窓の移動に伴って「良い」から「悪い」になることは十分にあり得る。この変動性は、予測確率をクラスに分ける値によって決定される。

ーMOアルゴリズムではーではーではーではー標準ではーではーではーではーではーではーではーMOアルゴリズムではーではーではー標準ではー、ー標準的なーMOアルゴリズムーではー、ー標準的なーMOアルゴリズムーではー、ーークラスにークラスへのークラスへのークラスへのークラスのークラスのークラスのークラス。ークラスをークラスにークラスのークラス。ーこのークラスのークラス。ーこのークラスのークラス。ーこのークラスのークラス。ーークラスのークラスのークラス

さて、あなたの「良い」ツリーに戻ります。

もし "Goodness "が閾値に近い木を選択したなら、その木は移動します。ー選択した "良い "木がー "悪い "木にーにーにーにーにーこのーこのー "良い "木がー "悪い "木。


行き止まりだ。

あなた自身、私が考えていることについて仮説を立て、それと矛盾している。最初に質問してみてください。

行き止まりであろうとなかろうと、私は実際の結果を示した。ータがータはータはータがータのータがータのータがータのータこのータがーAs far as I remember - you have a concept of regular retraining of models, almost once a week.

ドリフトについては説明するまでもないでしょう。フォーラムに別のスレッドを立て、そこで問題解決の試みが行われています。

ですから、この方法は有望ですが、改善・発展させるべき点があります。

 
Aleksey Nikolayev #:

まあ、例えば同じブスティングに利益最大化をどう組み込むかはまだ分からない。

もちろん、私は何かをやっているのだが、このトピックについて他の有益な意見を聞きたい。

さて、私は利益最大化でforrestをトレーニングする方法をお見せしました。

これはフィットネス関数による単純な勾配なし学習で、基本的にはRLだ。

ここにコードを投げましたが、この方法は大きなタスクにはあまり効果的ではありません。


大規模なタスクでは、勾配なし学習を勾配 学習に、つまり通常の典型的なRL ディップに変換 する必要がある。

このビデオの前半を見て ほしい。

ニューロニクスの例もあるが、ブーストかそれ以外かは重要ではない。

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai
理由: