トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2723

 
Maxim Dmitrievsky #:
ランダム性が高いので、うまくいくようにいじくり回す必要がある。

系列を構成要素に分解し、ランダム性を見つけ、決定論的な部分を見つけることができる。ランダムな部分を捨て、残りを残す。BP処理の標準的なケースだ...

しかし、それもうまくいかない。

新しいデータでは、ある時点でランダムが決定論的になり、決定論的がランダムになる.

だから、NONE)

 
mytarmailS #:

系列を構成要素に分解し(分解)、ランダムな部分を見つけ、決定論的な部分を見つけることができる。ランダムを捨て、残りを残す...BP処理の標準的なケース

しかし、それもうまくいかない。

新しいデータでは、ある時点でランダムが決定論的になり、決定論的がランダムになる.

だからどっちもダメなんだ(笑)。

もちろん、チュートリアルでは説明しやすいように簡単なBPが用意されている。現実にはもっと複雑だ。

金融以外のVRでも、最小限の誤差で予測するのが難しいものがあります。しかし、トレーディングの場合は簡単です。なぜなら、常に予測する必要はなく、選択的に予測するようにモデルを設定できるからです。前回の記事でそうしましたが、有益な特徴を選択するというトピックが残りました。すでに方法は考えているので、あとは実験するだけだ。

私は自分のアプローチを最終的に完成させたいし、それはアイデアに従って普遍的なものになるはずだ。

そして、あなたのイベントでも、本質的に取引しない3級を作り、そこに新しいものは何もありません。あなたはBPを予測されるものと予測されないものに分けている。
 
Maxim Dmitrievsky #:
そして、あなたのイベントもまた、基本的に3流の取引はしない。あなたはBPを予測されるものと予測されないものに分けている。

それはあなたの妄想であって、現実ではない


私がこれまで見てきた方法はこうだ:

データがあり、仮に100kのオブザベーションがあるとします。私はそれを "X.big "と呼ぶことにします。

1)我々は(パターン、ルール、イベント、TSからのシグナル)我々が興味を持っているものを選択する。

2) 我々はデータから "初期ルール "を選択し、今我々は100kではなく100-1000のオブザベーションを持っており、我々は探索空間 "X.small "を縮小した。

3)"X.small " の中で、特徴量の本格的な探索を開始する。逐次ルールの形で特徴量を見るが、ルールは遺伝的プログラミングによって自動的に生成さ れる。

4) 作成された属性の配列が、一度に1000個ずつモデルに投入される。

5) モデル(ある種のAMO)は、重要度によって特徴を選択し、良い特徴を保存し、新しい配列を取得する。

6) 検索の結果、特定の 初期ルール」に従って数千個の作業属性を得る。


このように、これらすべてをモデルと呼ぶなら、モデル自身が何十億もの特徴を考え出し、必要なものを選択する。

 
mytarmailS #:

それはあなたの空想であって、現実ではない


今のところ、私はそう見ている:

100kの観測データがあり、それを "X.big "と呼ぶことにする。

1) 我々は何に興味があるのか(パターン、ルール、イベント、TSからのシグナル)を特定する。

2) データから "初期ルール "を選択し、探索空間を "X.small "に縮小したので、100kではなく、100-1000のオブザベーションがある。

3)"X.small " の中で、特徴量の本格的な探索を開始する。私は逐次ルールの形で特徴量を見るが、ルールは遺伝的プログラミングによって自動的に生成さ れる。

4) 作成された特徴の配列が、一度に1000個ずつモデルに投入される。

5) モデルが重要度によって特徴を選択し、良い特徴を保存し、新しい配列を取得する。

6) 検索の結果、特定の 初期ルール」に従って数千の作業属性が得られる。


このように、これらすべてをモデルと呼ぶなら、モデル自身が何十億もの特徴を考え出し、必要なものを選択する。

繰り返しになるが、25...これは意味としては3クラス分類と変わらない。

 
Maxim Dmitrievsky #:

25.意味するところは3クラス分類と変わらない

データセットを作って、どちらのアルゴリズムが優れているか見てみよう。

 
Maxim Dmitrievsky #:
1人は私が彼のアイデアを盗んだと言い、もう1人は彼が教えてくれたと言う。)

"盗んだ "って今言った?君は恥知らずだ。

取引、自動取引システム、取引戦略のテストに関するフォーラム。

トレーディングにおける機械学習:理論、実践、取引など

アレクセイ・ヴャズミキン, 2020.12.03 19:11

つまり、モデルを評価することです。モデルは実際に混乱したターゲットを解き明かします。この場合、すべてがどのように混乱しているかを見るだけでなく、その成功を評価することができます。

私はカスケード学習法(私の造語で、何か違うものがあるかもしれない)を試してみようと思っている。 グラフは、トレーニングが成功する領域があることを示しています。この領域は残しておいて、この領域を超えたものは、左の領域の分布に該当するサンプルを事前に削除した上で、再度トレーニングします。 私はすでに手作業でそれをしようとしました - 効果は良かった、今私はそれを自動化しようと思いますが、2日目はまだ運がありません - 私は効果が偶然であったことを恐れています - 私は動揺したくありません。この件についてどう思われますか?Pythonで簡単にできると思います。

それは記事の 中で議論されました。

引用します:

"

我々は、それ自身のエラーを分析し、修正し、その結果を繰り返し改善することができるアルゴリズムを書きたい。これを行うために、我々は2つの分類器の束を取り、 下の 図で 提案されているようにそれらを順次訓練することを提案 する。

"

"

このアプローチの直感は、負けトレードは、混同行列の用語で言えば、基礎となるモデルにとって第一種の分類エラーであるということです。つまり、誤検出として分類されるケースです。メタモデルはこのようなケースをフィルタリングして除外し、真陽性にはスコア 1 を、それ以外にはスコア 0 を与える。 ベースモデルを訓練するためにメタモデルのデータセットをフィルタリングすることで、その精度(Precision)、すなわち正しい売買トリガーの数を増加させます。同時に、メタモデルは可能な限り多くの異なる結果を分類することで、Recall(完全性)を向上させます。

"

アイデアは同じですが、あなたは実装を行い、詳細を解決しました。

私は、今はまだ理解できないかもしれないが、後で理解できるようになったときに使ってほしいという文脈で、それを思い出させたのだ。そして、理解できないことは、不適切な振る舞いや、人の人格や論理に対する価値判断を表明する理由にはならないということだ。

 
mytarmailS #:

データセットを作って、どちらのアルゴリズムが優れているか見てみよう。

データセットは何で構成されますか?入力は引用符だけだ。

 
Aleksey Vyazmikin #:

"盗んだ"-今、そう言いましたか?彼は恥知らずだ。

それが記事の 内容だ。

引用

"

我々は、それ自身のエラーを分析し、修正し、その結果を繰り返し改善することができるアルゴリズムを書きたい。そのために、2つの分類器の束を用意し、 下の 図の ように順次訓練することを提案 します。

"

"

このアプローチの直感は、負けトレードは、混同行列の用語で言えば、基礎となるモデルの第一種の分類エラーであるということである。つまり、偽陽性と分類されるケースです。メタモデルはこのようなケースをフィルタリングして除外し、真陽性には 1、それ以外には 0 のスコアを与えます。 ベースモデルを訓練するためにメタモデルのデータセットをフィルタリングすることで、その精度(Precision)、すなわち正しい売買トリガーの数を増加させます。同時に、メタモデルは可能な限り多くの異なる結果を分類することで、Recall(完全性)を向上させます。

"

考え方は同じですが、あなたは実装を行い、詳細を解決しています。私はコンセプトを述べただけで、実験と実装コードを公開したかどうかはわかりません。

私は、私たちが話していることを今は理解できなくても、後で理解できるようになったときに使えばいいという枠組みの中で、このことを思い出した。そして、理解できないことは、不適切な振る舞いや、人の人格や論理に対する価値判断を表明する理由にはならないということだ。

では、記事からコードを取り出して確認してみよう。まだ何もないのに、なぜ私が話を理解しなければならないのか。

私はこのような実装のバリエーションをたくさん持っている。再トレーニングではなく再トレーニングを行うもの、ベースラインによる再トレーニングなどだ。

特にそれをやり始めると、当初予定していたファンタジー的なものとは違う結果になります

 
Maxim Dmitrievsky #:

データセットの構成は?入力は引用のみ

直近200個のOHLS価格とラベル。

 
mytarmailS #:

OHLSの価格は200pcで、タグ、時間を追加することができる。

200個ってそんなに少ないの? タグじゃなくて、自動仕切りがあるんだ。

書き直さないと。

理由: