トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 303

 
ユーリイ・アサウレンコ
確かにその通りです。しかし、参入の敷居が高い分、様々なリスクも高まります。必ずしも金銭的なものではありません。

確かに、上記のことは、「利益は合理的なリスクの単調関数である」という平凡な形で表現することもでき、これは貿易だけでなく、人間のあらゆる活動に当てはまる。しかも、例えば競争力のない職業を選び、公的年金を当てにして、全くリスクを取らないと考える人は、極端な人であることが分かっている)))


そして、リスクのない "人生 "とは何なのか。誰がやっても同じ結末になることを考えると、まったく面白みがない。

 
まあ、私の記事でも信頼区間などは取り上げて いますが。ぜひ熟読していただき、そこから多くのことを感じ取っていただきたいと思います。
 
ユーリイ・アサウレンコ

体系的なアプローチとは、自分の行動を理解し、その結果を計画・予測できるようにすることです。

記事にしていただきありがとうございます。特定のソフトに詳しくないので、初心者にはシンプルでわかりやすいのが一番です。ただ一つわからないのは、回帰と分類のどちらを使うのかということです。
もちろん、すぐに自分のシステムで試してみました。面倒なことは、ゲームが進むにつれて分かってくるかもしれません。

1.ローソク足でエントリーやエグジットをしない。気配値の流れのみで、ローソク足は前のローソク足からの履歴のみで。ローソク足で学習させることはできても、現在のローソク足の中の気配値の流れをラトルに飲み込ませるにはどうしたらいいのか、まだ謎のままです。ローソク足の流れは、何とかして分析したいものです。

2.再構築可能な予測因子をどうするか?例えば、回帰線とシグマで。履歴に貼り付けることもできないので(学習用)、その場で計算し、以前の絵を履歴から削除する機能が必要です。

同様に、常に存在するわけではなく、シリーズのある時点から構築される煌びやかな予兆もあり、一般的には劇中で再構築されることもある。

4 項目2と3による予測変数の正規化の問題 - 根本的に無理がある。

そして、予測因子に関する履歴は、トレーニングと仕事の両方の過程で計算する必要があります。

今のところ、混乱しかありません。


ガラガラは2つのケースで良い。

  1. 初めて知り合ったとき
  2. を試してみてください...問題がわかったら...

1.回帰または分類。これはターゲット変数の種類を決定するものである。実数は回帰する。ノミナル(ファクター)-分類。

2.ターゲットとなる変数から始めなければなりません。一見シンプルなようでいて、これは複雑な問題です。何を予測するんだ?方向性?大きさ、過剰、レベル...。

3.予測因子。ターゲット変数との「関連性」を証明する必要があるのです。これが一番難しく、私はこの問題に70%もの時間を費やしています。このスレッドでも色々書いていますが

4.スタティックに満足していない。そこで登場するのが、Rへの離脱です。rattleを使うと、R上での操作をすべて記録してくれるので、Rに行きやすく、この完成したコードは改造に使える。一般的に、次のステップはキャレットです。

 
サンサニッチ・フォメンコ


2.ターゲットとなる変数から始めなければなりません。一見シンプルなようでいて、なかなか複雑な問題です。何を予測するんだ?方向性、マグニチュード、過剰、レベル...。

すべて予測する必要があるようだ)。現在、モデル(MOではない)には約30の「指標」(正しくは「予測因子」)+その相互処理とロジックが存在します。あと+10のはずだった。

このような量を手作業で処理しながら、各予測器の全体への寄与を理解することは、もはや現実的ではありません。それゆえ、ちなみにMOを使うという発想になったのです。まだすべてが初期段階です。

サンサニッチ・フォメンコ

3.予測因子。ターゲット変数との「関連性」を証明する必要があるのです。これが一番難しく、私の場合、この問題に7割の時間を費やしています。スレッドにいろいろと書きました。

ええ、適応させなければなりませんね。刺すだけではダメなようです)。

サンサニッチ・フォメンコ

4.静止画では満足できない。そこで登場するのが、Rへの離脱です。rattleはR上で全ての操作を記録し、この準備されたコードを修正に利用できるため、このようなRへの委ねを簡素化することができます。実は、次はキャレットなんです。

了解です。

 

興味深いのは、最もよく使われているMOパッケージの表です。

クラス名前パッケージダウンロード
サバンナコックスフCox比例ハザードモデルサバイバル153681
クラシフ.ナイーブベイズナイーブベイズe1071102249
クラシフ.svmサポートベクターマシン (libsvm)e1071102249
クラシフ.ルダ線形判別分析マス55852
classif.qda二次判別分析マス55852
classif.randomForestランダムフォレストランダムフォレスト52094
クラシフガウスプリングガウシアン過程カーンラボ44812
クラシフ.ksvmサポートベクターマシンカーンラボ44812
classif.lssvm最小二乗サポートベクターマシンカーンラボ44812
cluster.kkmeansカーネル K-Meansカーンラボ44812
レグラーベムレリバンス・ベクトル・マシンカーンラボ44812
クラシフ.cvglmnetLassoまたはElasticnet正則化付きGLM(交差検証済みLambda)グルムネット41179
クラシフ.グラムネットGLMとLassoまたはElasticnet正則化グルムネット41179
サヴァイヴグラムネット正則化付きGLM(クロスバリデーションラムダ)グルムネット41179
サバイブ・グラム・ネット正則化付きGLMグルムネット41179
クラシフ.cforest条件付き推論木に基づくランダムフォレスト一行36492
クラシフ.CTREE条件付き推論木一行36492
アールエフフォレスト条件付き推論木に基づくランダムフォレスト一行36492
リグレットモブモデルに基づく再帰的分割により、各終端ノードに適合したモデルを関連付けた木を生成する。パーティ、モデルツール36492
サバンナフォレスト条件付き推論木に基づくランダムフォレストパーティ,サバイバル36492
 
サンサニッチ・フォメンコ

興味深いのは、最もよく使われているMOパッケージの表です。

クラス名前パッケージダウンロード
サバンナコックスフCox比例ハザードモデルサバイバル153681
クラシフ.ナイーブベイズナイーブベイズe1071102249
クラシフ.svmサポートベクターマシン (libsvm)e1071102249
クラシフ.ルダ線形判別分析マス55852
classif.qda二次判別分析マス55852
classif.randomForestランダムフォレストランダムフォレスト52094
クラシフガウスプリングガウシアン過程カーンラボ44812
クラシフ.ksvmサポートベクターマシンカーンラボ44812
classif.lssvm最小二乗サポートベクターマシンカーンラボ44812
cluster.kkmeansカーネル K-Meansカーンラボ44812
レグラーベムレリバンス・ベクトル・マシンカーンラボ44812
クラシフ.cvglmnetLassoまたはElasticnet正則化付きGLM(交差検証済みLambda)グルムネット41179
クラシフ.グラムネットGLMとLassoまたはElasticnet正則化グルムネット41179
サヴァイヴグラムネット正則化付きGLM(クロスバリデーションラムダ)グルムネット41179
サバイブ・グラム・ネット正則化付きGLMグルムネット41179
クラシフ.cforest条件付き推論木に基づくランダムフォレスト一行36492
クラシフ.CTREE条件付き推論木一行36492
アールエフフォレスト条件付き推論木に基づくランダムフォレスト一行36492
リグレットモブモデルに基づく再帰的分割により、各終端ノードに適合したモデルを関連付けた木を生成する。パーティ、モデルツール36492
サバンナフォレスト条件付き推論木に基づくランダムフォレストパーティ,サバイバル36492

もう一つ入れ忘れました。そうそう、私はユニークなソフトを持っていて、珍しいと言えるかもしれませんね :-)
 
ユーリイ・アサウレンコ

すべて予測する必要があるようだ)。現在、モデル(MOではない)には約30の「指標」(正しくは「予測因子」)+その相互処理とロジックが存在します。あと+10のはずだった。

このような量を手作業で処理しながら、各予測器の全体への寄与を理解することは、もはや現実的ではありません。それゆえ、ちなみにMOを使うという発想になったのです。まだすべてが初期段階です。

サンサニッチ・フォメンコ

3.予測因子。ターゲット変数との「関連性」を証明する必要があるのです。これが一番難しく、私の場合、この問題に7割の時間を費やしています。スレッドにいろいろと書きました。

ええ、適応させなければなりませんね。刺すだけではダメなようです)。

サンサニッチ・フォメンコ

4.静止画では満足できない。そこで登場するのが、Rへの離脱です。rattleはR上で全ての操作を記録し、この準備されたコードを修正に利用できるため、このようなRへの委ねを簡素化することができます。実は、次はキャレットなんです。

了解です。

私の5コペックを追加します。実際には、出力変数ではなく、価格を引き起こすような入力を与える必要がありますそうすれば、どんなTSでもしっかり鍛えられます。対象機能の一例。

最も分かりやすいシグナルはBETTER、 次にWill there be pullback to certain level, which of today's levels will be reached, etc.である。私の記事を読んでください......怠けないでください、私はそれに言及しています。そこで、これらすべてのターゲット関数に対して、同じ入力を与えてみたところ、どのモデルも非常に満足のいく動作をするようになったのです。そして、同じインプットがどのように市場を見ているかがわかります。ここで利食い、ここで引き戻し、ここでレベルアップ。エントリーが価格の理由なので、よく効きます。

少し説明すると、エントリーの変化が価格の変化につながり、その逆はない場合です。TSの統計自体が非常に悪いので、これは非常にわかりにくいかもしれません。なぜなら、Zscoreは価格が伝える通りの値を正確に取り、その逆はないからです。デルタは、例えば価格変動の理由となるものです。:-)

 
ミハイル・マルキュカイツ

私の5セントを差し上げます。本当に必要なのは、出力変数の理由ではなく、PRICEのための入力を提供することなのですそうすれば、どんなTSでもしっかり鍛えられます。対象機能の一例。

最も分かりやすいシグナルはBETTER、 次にWill there be pullback to certain level、今日のレベルのどれに到達するか、などです。私の記事を読んでください......怠けないでください、私はそれに言及しています。そこで、これらすべてのターゲット関数に対して、同じ入力を与えてみたところ、どのモデルも非常に満足のいく動作をするようになったのです。そして、同じインプットがどのように市場を見ているかがわかります。ここで利食い、ここで引き戻し、ここでレベルアップ。エントリーが価格の理由なので、よく効きます。

少し説明すると、エントリーの変化が価格の変化につながり、その逆はない場合です。TSの統計自体が非常に悪いので、これは非常にわかりにくいかもしれません。なぜなら、Zscoreは価格が指示する値を正確に取り、その逆はないからです。デルタは、例えば価格変動の理由となるものです。:-)

前ページのリンクのことでしたら、記事を読ませていただきました。何か見落としているのかもしれません。読み直します。

もちろん、値動きを予測するためのプレディクターは存在する。しかし、その重ね合わせ+価格がエントリーのシグナルとなる。つまり、最初の(学習用の)ブラックボックスの反応を予測するのである。鶏が先か卵が先かと似たような質問ですね。おそらく、この意見の相違は純粋に用語の問題なのでしょう。

思想的には、少なくとも硬直したロジックを持つシステムでは、出力変数がすでに処理結果である以上、価格を予測する方が正しいのです。

 
ユーリイ・アサウレンコ

あなたの記事、前のページのリンクのことなら、読まれていますよ。何か見落としているかもしれません。読み直します。

ええ、もちろん値動きを予測するためのプレディクターは存在します。しかし、その重ね合わせ+価格がエントリーのシグナルとなる。つまり、最初の(学習用の)ブラックボックスの反応を予測するのである。鶏が先か卵が先かと似たような質問ですね。おそらく、この意見の相違は純粋に用語の問題なのでしょう。

思想的には、少なくとも硬直したロジックを持つシステムでは、価格を予測する方が正しく、出力変数は加工結果である。


それはいいのですが、価格が変化するデータを使って予測する必要があります。非常に興味深い観察結果があります。もし、入力が価格の理由であれば、サンプル外での作業の結果は、トレーニングよりも若干悪くなります。つまり、NSはトレーニングで機能し、「サンプル外」でもまだ機能しますが、著しく、そうでないときは、より悪くなります。全てはモデル次第です。そして、価格に依存しない入力データを与えると、"Out of sample "セクターでの操作は、CoinFlip、コインフリップに変わるのです。NSはいつミスをするかわからない。こんな感じで...。
 
ミハイル・マルキュカイツ

わかりました、しかし、それが変化するデータの助けを借りて、価格を予測する必要があります。非常に興味深い観察結果があります。もし、入力が価格の理由であれば、サンプル外での作業の結果は、トレーニングのときよりも若干悪くなります。つまり、NSはトレーニングで動作し、「サンプル外」でもまだ動作しますが、著しく悪いときとそうでないときとでは、より悪くなるだけです。全てはモデル次第です。そして、価格に依存する入力データを与えると、「Out of sample」セクターでの動作は、CoinFlip、コインフリップに変わるのです。NSはいつミスをするかわからない。こんな感じで...。

実は、価格とその変化が依存するデータがないのです。そして、私たちがインサイダーでない限り、ありえないことなのです。一般的には、価格行動そのものに将来についての間接的な(二次的な)データを求めている。つまり、私たちのデータは、過去と現在における価格とその挙動に正確に依存しているのです。

そしてこの発言は、「価格が変化するデータで予測 するべきだ」ということです。納得できないのでしょう。しかし、入力データの品質が高ければ高いほど、良い結果が得られることは明らかです。

------------------------------

MoDへの移行のためのプレディクターを準備し始めました。Rで全部やりたいと思ったこと。その結果、Rはそのパワーゆえに、モデリングや信号処理にはまったく適応できないことが判明したのです。残念ながら。何もかもが不便極まりない。

これからは、準備作業をすべてSciLabに移さなければなりませんが、SciLabはすべてが簡単で便利です。SciLabはRに非常に近いインターフェースと思想を持つ環境であり、データ処理や数学的モデリングを行うために設計されたものである。無線工学から航空力学まで、そしてRに全くない数学もたくさん入っています。特異性、ですが。SciLabのStatメソッドやData Miningはかなり充実していますが、その意味では、SciLabはそのようなメソッドの選択において、Rに大きく劣ります。SciLabでSanSanitchの森は作れない)。しかし、そこにはたくさんのインストールされたパッケージがありますが、近いものはないようです。

一般的には、異なるIDEを組み合わせて異なる作業を解決したり、環境間でデータを転送したりする必要がありますね。可哀想に。全部を最高の方法で(Rで)作りたかったのですが、いつもと同じになってしまいました。

理由: