トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2745

 
JeeyCi #:


回帰係数の統計的検定は何のためですか?それとも平均と分散の等質性に関する仮説の検定ですか?(もしPCAが、1番目のPCが許容できる分散のシェア[残差分散が非常に小さい]を説明することをまだ示しているなら、それを受け入れて、回帰係数の有意性の確認をチェックする)...)

理想的には--100%の確率を得るためには、相関関係ではなく関数的関係を用いるべきであることは明らかである--しかし、確率過程を研究するのであれば、結果は確率論的なものに過ぎず、多数のテストデータでのみ、また新しいドライバーが 市場に登場するまで確認可能なものに過ぎない......。[ところで、ロバスト分析だけでなく、事実認識や論理認識も非常に重要である。]

過去のデータに依存する限り、歴史への適合は常に存在する。しかし、我々は常にF統計によって分散を比較することができます。もし分散の減少が残りの説明できない分散よりもはるかに大きければ、新しい回帰が特定されます。(drスロープで)...そして、それは将来のある瞬間までしか機能せず、大きな数でのみ機能します...そう、またはアクターの状態を切り替えます(DLが使用されている場合)...しかし、ドライバーは待つよりもよく知っています...しかし、現在のサンプルが収集されるまで待ってそれを確認するよりも、ドライバを知っている方が良いです。

もしあなたが論理的なものを作れば、特徴工学は、あなたが正しく気づいているように、「理論的には」論理的である(どのような統計処理の下でも、地球上の物理的論理的法則と人間の知識があり、パターンは空中から降ってくることはない)--[しかし、誰かが無知である可能性はある]--ならば、モデリングの過程におけるFSは、モデラーも開発者もあまり悩まないだろう...。そして、何がいつドライバーになり、何がそうでなかったかを知るためには、歴史なしにはどこにも行けない。高等数学の知性はそれほど必要ないが、貨幣と商品市場、民間と国家部門の法則を理解することだけは必要だ。そうでなければ、応用高等数学の装置を「後になって」使うことになり、世界を変えたニュースはすでに一度聞いたことがあると知ることになる......。ただ、市場の反応も含めて、たいていは遅れている。

p.s.

言葉や文字が未知の人は、文字にしがみつかないように、未知の文字の未知のトピックを読まないでください - あなたのFSのためのVMマシンを探してください....もし、あなたが自分の結果の統計的妥当性を証明するのであれば、ヒット・ツー・ポイントの%だけでなく(ちなみに、必ずしも偏りがないとは限らない))、会話は変わるだろう。でも、今のところは、そう、みんな自分の専門用語を持っている......。

すべては、人々が共同作業を望んでいるという事実から始まった))整理し始めたら、誰もが他の人がすることをすべて否定することが判明した。その上、新しい定義を発明する。結局、誰も何も理解できなかった。私は一般的にサニッチのアプローチが好きなので、具体的な説明を求めた。また、呼称についても、相関関係はないにせよ、関係やつながりがあるのは困ったことだ。

彼は自分のノウハウを大切にし、詳細を明かさないのは明らかだ。
 
Maxim Dmitrievsky #:
すべての始まりは、共同組合を求める人たちだった)調べ始めたら、みんな他人のやることを全否定することがわかった。その上、新しい定義をでっち上げる。結局、誰も何も理解できなかった。私は一般的にサニッチのアプローチが好きなので、具体的な説明を求めた。そして呼称についても、相関関係でなくて何なのか、関係やつながりとは 何なのか、と。

明らかに彼は自分のノウハウを大事にしていて、詳細を明かさない。

私の考えでは、相関関係には2種類ある。

ひとつは因果関係で、これは研究対象に関する先験的な情報によって決定される。

第二のタイプは確率的な依存関係であり、対象物の振る舞いを観察することによって得られたいくつかのデータから事後的に計算することができる。つ目のタイプには、相関関係、(極端なケースとしての)決定論的依存性などがあり、コピュラやその他の手法によって記述されるものも含まれる。このタイプを研究する基本は、予測因子と対象の共同分布があるという仮定です。

 
Aleksey Nikolayev #:

私の考えでは、コミュニケーションには2つのタイプがある。

ひとつは因果的なもので、これは計算によって決定されるのではなく、研究対象に関する先験的な情報によって決定される。

2つ目のタイプは確率的な依存関係で、対象物の振る舞いを観察することによって得られたデータから事後的に計算することができる。つ目のタイプには、相関関係、決定論的依存関係(極端なケースとして)などがあり、コピュラやその他の手法によって記述されるものも含まれる。このタイプを研究する基本は、予測因子と対象について共同分布があるという仮定です。

正しい。アプリオリな仮定がないため、2番目のタイプが使われる。サンシュはどう見ているのだろう。例えば、ターゲットがどのように構築されるかですが、どのような形質にも単純に当てはめることができますし、その逆も可能です。

私のアプローチは、そのような操作のために完全にカスタマイズされている。
 
mytarmailS #:

ターゲットを考慮したPCAがあり、ターゲットを特徴づける成分が強調される、

ターゲットとの関係は考慮されない。- ただ、最大分散を説明する特徴空間に直交射影を作成するだけです。(回転は手動で行う必要があるのか[Statistikaパッケージに何かボタンがあったような気がする]、それとも自動で行うのか、他のライブラリにはすでに回転が組み込まれているかもしれない)


mytarmailS#:

が、悲しいことに、ターゲットは主観変数なので、トレースが終わるとすぐに「浮いて」しまいます...。そして、それは教師との通常の学習とどう違うのでしょうか?

そう、悲しいかな、このメソッドの目的を自分なりに解釈し、自分なりの使い方や目的を持っている......。そのような見解で、どうお役に立てるかわかりませんが...。- だから、あなたもこれ以上私に尋ねる必要はない。
 
JeeyCi #:
1)そんなことは決してしない-ターゲットへのリンクを考慮していないのだ!!!- 最大分散を説明する特徴空間への射影を作成するだけです。(回転は手動で行うべきなのか[Statistikaのパッケージに何かボタンがあったような気がする]、それとも自動で行ってくれるのか(他のライブラリにはすでに回転が組み込まれているかもしれない)


2)そうですね、悲しいことですが、このメソッドの目的についてあなたなりの解釈があり、それを使用する方法や目的もあるでしょう...。私は、そのような見解を持っているあなたに、それがどのように役立つのかわかりません......。- だから、あなたもこれ以上私に尋ねる必要はない。

1)ターゲットを考慮したRSAが あると言っている。

2) 私は何も聞いていない。

 

mytarmailS #:

1)ターゲティングを考慮 したRSAが あると言って いる。

2) 私は何も聞いていない。

これらはすでに人為的にPCをターゲットに結びつけるアルゴリズムです。PLSを使った方がいいかもしれない...ターゲットとフィーチャーをどう結びつけるかはあなた自身の問題であり、PCA=「先生と一緒」ということにはならない(先生は別に-実際-好きなように結びつけられる)--またもや論点から離れ、「センスと色...」(ライブラリ)の話題に入っている。(図書館)。

あなたのライブラリーが回転をするのか、それとも自分でコーディングしなければならないのか、あなたが知っているのかどうかもわからない......。だから、検証されていない、不完全で不正確な発言は、ここでは誰にとっても何の興味もない。特に、現象や対象の意味や本質を変えてしまうような発言は、その後に「言葉がわからない」と叫ぶのだから...。どうやらあなたは、自分の言葉さえ正確に理解していないようだ。

 
JeeyCi #:

あなたのライブラリーが回転するのか、それとも自分でコード化しなければならないのか、あなた自身が知っているのかどうかもわからない......。

自分で判断しないでください

(回転は手動で行うのか[Statistikaパッケージに何かボタンがあったような気がする]、それとも自動で行うのか(もう一つの方に)、よくわからない。

JeeyCi#

検証されていない、不完全で不正確な発言は、ここでは誰の興味もない。

そして、もしあなたが確信が 持てないのであれば、確認されている ことを主張する権利はない。何が確認されていないのか、誰が興味を持ち、誰が興味を持たないのか......もちろん、あなたの頭が正常であればの話だが。


ps そして、マトリックスに回転があるかどうかは、理解があれば簡単にチェックできるのだが、どうやらそれには問題があるようだ......。

 

だから、人にぶつける前に確認してください、

- もし1回目で理解できなかったら、極端なものを探すのではなく、自分のコードと結果に、あなたのグリアン/不正確なトーンを注いでください。

 
これはLDAとどう違うのですか?見積もりでは、新しいデータでは機能しないタイトフィットが得られます。しかし、それで訓練されたモデルの誤差はほぼゼロになる。Sanychのアプローチでも同じような状況が生じるかもしれない。原理は同じで、ハエをカツレツにフィットさせるのだ。

しかし、スライディング・ウィンドウで統計を取れば、何か喜びがあるはずだ。まだ想像できないが。
 

投稿が急増している!


もう一度。

私は予測能力で予測者をランク付けしている。

数多くのパッケージのアルゴリズムは遅すぎるので、私は独自のアルゴリズムを使っている。

予測能力は相関関係ではなく、モデルが生み出す予測変数の 選択の結果でもない。

予測能力は情報相関であり、相関ではない:

1.相関は、ある静止系列と別の静止系列の「類似性」であり、常に何らかの値があり、「関係なし」という値はない。相関は常に何らかの値を持つので、相関を使って教師とコーヒーの粉の関係を簡単に見つけることができる。

2.フィッシュ選択とは、モデルを構築するときにフィッシュを使用する頻度である。教師とは無関係の予測因子を取ったとしても、フィッシュの順位が得られます。

私の理解する「予測力」の類似は、例えばcaret::classDist()であり、これは重心の各クラスについてマハラノビス・サンプリング 距離 を定義する。あるいはwoeBinning。Rには多くのアプローチとパッケージがある。情報理論に基づくものもある。

理由: