トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1537

 
マキシム・ドミトリエフスキー

の引数?

どのような引数が必要ですか - パラメータ6はデフォルトです、設定表から わかります。

木の深さは予測変数間の完全なリンクに依存するので、グラフから判断して、この2つの独立したリンクから、合計の複雑さが200程度で、良いモデルが得られるのは不思議です。

 
アレクセイ・ヴャジミキン

どのような引数が必要か - デフォルトではパラメータ6で、設定表に従って います。

木の深さは予測因子間の完全なリンクにもっと依存するので、グラフから判断して、合計複雑度が200程度のこの2つの独立したリンクが良いモデルを作っているのは驚きです。

だから、データが出たと言っているんです。フォレストはそれらを再トレーニングする(多分、特徴を分類することによって、フォレストのこの特徴を修正するようになる)。 トレインでの再トレーニングはうまくいき、アキュラシーも0.9を切るようになりました。

私の場合は6が多すぎる、2〜4が普通

森に例えると、木の深さは無限大です
 
マキシム・ドミトリエフスキー

ということで、データを抜かれていると言っているのです。フォレストを再トレーニング(特徴を分類することで、フォレストのこの特徴を修正できるかもしれません)。今6を置く - トレイルの再トレーニングが大幅に進み、Akurasiは0.9を下回る。

6は私の多すぎる、2-4は普通が行く

森に例えるなら、木の深さが制限されないということです。

よくわからないのですが、前に増分の形で予測変数があるとおっしゃいましたが、それをどのようにカテゴリカル予測変数にするのでしょうか?

私は木を分解したことがありますが、多くの個々の木の葉が、本質的に1つの長い葉に結合されているだけで、それらの葉の非常に大きな割合は、重複していたり、意味のない中間値やリンクを持っていたりして、刈り込むことができます。一般に、私のサンプルでは、ツリーの深さがツリーの数に影響し、4分割のツリーでも同じ結果が得られることが確認されています。

 
アレクセイ・ヴャジミキン

よくわからないのですが、先ほど増分の形で予測変数があるとおっしゃいましたが、それをどのようにカテゴリー予測変数にするのでしょうか?

私は木を分解したことがありますが、多くの個々の木の葉が、本質的に1つの長い葉に結合されているだけで、それらの葉の非常に大きな割合は、重複していたり、意味のない中間値やリンクを持っていて、刈り取ることができます。一般に、ツリーの深さがツリーの数に影響することは私のサンプルで確認済みで、4分割のツリーでも同じ結果を得ることができるのです。

まず、20のレンジ-カテゴリーなど、カテゴリーに分割します。その後、バンコック符号化(ダミー属性経由)などは未定です。最終的には、各機能がバイナリになるとか。

フォレストの値が異なれば、オーバートレーニングになります。学習サンプルが増えると、過学習が増える。キャットバストの場合は、そうではありません。そこで、forestでは、連続的な特徴を分類して選択肢を減らすようにします。役に立つかどうかわからないが、そのうちわかるだろう。

それで救われるのか、見てみよう。

 
マキシム・ドミトリエフスキー

まず20ランクなどのカテゴリーに分けます。それからバンコットエンコーディング(ダミー属性経由)か何か、まだ決めてないですけど。 最終的には各機能がバイナリになるとか、そういうことです。

どうでしょう、データ処理の高速化よりも、そのような予測器を断片化せず、一葉の連鎖で比較しないこと、私は残念ながら価値ある効果を実感していないのです。しかも、比較可能な価値観ではなく、無作為抽出を均等にするためにグループにまとめたバンチャリングというロジックです。

Maxim Dmitrievsky:
森の値が違えば違うほど、オーバートレーニングになります。学習サンプルが増えると、過学習が進みます。キャットバストはそうではありません。

また、サンプルのトレーニングへの依存度も明確ではありません。私は半年かそれ以前に同様の研究を行いました。より可能性が高いのは、比較可能なはずのデータに依存性があることです。

 
マキシム・ドミトリエフスキー

MoDのパターンの記述方法に関するシンプルで興味深いアプローチ

https://www.quanttrader.com/index.php/a-simple-algorithm-to-detect-complex-chart-patterns/KahlerPhilipp2019

メガプリミティブ、パターンを表現するには、もっと正確な方法があります。

 
mytarmailS:

メガプリミティブ、より正確にパターンを記述する方法があります。

なんだそりゃ

 
アレクサンダー_K
苦しんでいる人たちの訴えに参加します。私は、聖杯へのリンクのために、私の頭を下げて、尋ねます。
アレクサンダー_K

私は、少なくとも3ヶ月の仕事のための実際の(テストレポートは私に興味を持っていない)上で確認された聖杯のための合理的な金額を支払うことをいとわない。

私は、「聖杯」の本当の価値=トレーダーの現在の自己資本の総和だと考えています。I.e.口座のエクイティが1000ドルなので、TSは同額になります。聖杯の私の使用は、ニューラルネットワーク技術および/または物理的および数学的モデル、実際の統計とそれを販売する意欲に基づいている場合は、私に連絡することを躊躇しないでください、私たちはそれを議論します。

本当に市場で稼いでいる人は、何百万もの緑、何億もの緑で自分の技術を売ることはないだろう...。例えば、誰かが彼らに良い予測や既製のシグナルを作るソフトウェア「ブラックボックス」を与えた場合、彼らはデータ用に毎月10~30ドル必要で、実行品質はデータよりもさらに高価です。それは、砂場の子供と金採掘会社を比較するようなものです。コテが違うのでは? 幼稚園の他の子どもたちに、こんなシャベルを持っている人はいないか?子どもはよく夢を見るものです。)

 
アレクセイ・ヴャジミキン

どうでしょう、データ処理の高速化よりも、そのような予測器を分割しない、同じ葉の連鎖で比較しない、といった、価値ある効果は残念ながら見出せませんでしたね。そして、これらは比較可能な値ではなく、ランダムな選択を均等にするために組み合わせたバンチョー・エンコーディングであるというロジックです。

そこでの学習に対するサンプルの依存性も、曖昧なものではありません。半年前やそれ以前にも、似たような研究をしています。より可能性が高いのは、比較可能なはずのデータに依存性があることです。

その英語の記事は、まさにそれについてです。そう、変数がたくさんあるときに、ある変数の値同士を比較しないこと、これはオーバートレーニングにつながるだけです。

長さではなく、他のものなのかもしれませんが、見たままを伝えています。サンプリングを増やすと、Trayneではきれいになり、テストでは悪くなる。一般化はトレイのサイズが大きくなればなるほど進むはずですが、森ではその逆です。

 
マキシム・ドミトリエフスキー

などなど

dtw、スペクトル解析...束...

私は、その大きさに関係なく、同じパターンを見る方法を知っているアルゴリズムを作成することができたので、アルゴリズムは、1つのチャートを見て、1分と1週間の 両方のチャートでパターンを見て、1つのチャートだけを見て、それは本当の予測を作るかもしれませんが、私はまだ多くの仕事を持っています。

理由: