トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 637

 
Alexander_K2 です。

:))))この場合、ソーサラーは助けを求めるべきです :))))

ただ一つ言えることは、トレンド/フラットな状態を担っているのは、非エントロピーであるということです。トレンドはプロセスの「記憶」であり、その分布の「尾」であり、フラットな状態ではほぼ0であるのに対し、非エントロピーが巨大である。私は自分でしか扱わないのですが、このあまり研究されていないパラメーターの重要性は理解しています。

もうどうしようもない。トレンド・フリートの切り替えは、夕食にスプーンを入れるように、そのうち良いことがあるはずです。

赤い線が実際です。Syn.-model.この例では遅刻です。下の写真、モデルが遅れています。


 
ミハイル・マルキュカイツ
兄弟たちよ、私たちにとっては小さな一歩だが、全人類にとっては大きな一歩になるはずだ......。

ミーシャ、信じていたよ!やっぱりね!ハンサム!あなたは最高です!))

 
ヴィザード_。

ミーシャ、信じていたよ!やっぱりね!ハンサム!あなたは最高です!)))

応援メイトありがとうございます!!!!本当に必要なんです。今度からスペルを間違えないでね♡GGGG!!!!そのほうがよっぽどしっかりしてそうだけど......。

 

続けましょう...

A列の0より大きい事象の数を数え、全行数で割り、同様にB列の値の数を数え、全観測数で割ったものです。

次に、自分の値を用いて、条件付き確率をどのように計算すればよいのか?2列でどちらも40行あることを考えると......?

 
ミハイル・マルキュカイツ

よし、反対から攻めるぞ。例えば、100個の入力セットがあるとする。各入力に対してエントロピーを計算すると、-10から10までの結果が得られます。質問:どのインプットを取るのが望ましいですか?

例えば、0以下の入力が10個、それ以上が10個、しかしすべての値は-10と10の間にある......とします。

ミハイル・マルキュカイツ

あと...相互情報量の計算ができるわけがない...。条件付き確率というか、その後のエントロピーやVIを計算するためのものです。

誰か指や良い例で説明してくれませんか?

第一列 40行 入力変数

2列目40行出力....

仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかのどうか助けてください。私の仮説に対する考えを述べますので・・・。


私は情報理論を勉強したわけではありませんが、Rでエントロピーを扱った経験があります。

本来、エントロピーが大きいほど、データにはカオスがある。エントロピーが大きい予測器は、むしろターゲットとの関連性が低い。逆に、エントロピーが低いということは、予測因子と予測因子が容易に識別できることを示す。

非エントロピーはエントロピーの逆で、エントロピーに比べて新しい知識をもたらさない、ただ便宜上導入されたものです。予測器のエントロピーが大きければ、非エントロピーは小さい。エントロピーが小さければ、非エントロピーが大きいということです。熱と冷気、光と闇などと同じで、一方が他方にシームレスに流れ込んでいくのです。

しかし、それだけでなく、クロスエントロピーの存在もあるのです。これは、2つの予測因子を合わせたものがターゲットにどのように関係しているかということで、クロスエントロピーが高いと悪く、低いと良いということです。機械学習では、エントロピーの高い2つの予測器を一緒に使うと、クロスエントロピーが低くなることがよくあります。それぞれの予測変数が単独ではターゲットとの関連性が低くても(両方ともエントロピーが高い)、一緒になれば正鵠を射ることができる(クロスエントロピが低い)のです。そのため、単純に各予測子のエントロピーを個別に測定し、その推定値に従って集合を選択することはできない。クロスエントロピーの低い予測因子全体を選択する必要がありますが、例えば、個々のエントロピーがどうなっているかは見ません。

以下はその例です。

1) エントロピーの高い予測器。ターゲティングクラスを予測する方法は全くない。

2) エントロピーの低い予測器。よく見ると、予測変数の値が0から0.25、もしくは0.4以下であれば、クラス値=1である。それ以外の場合は、class = 2 とする。これはMOで使うにはとても便利な予測ツールです。

3) 2つの予測変数があり、それぞれが高いエントロピーを持ち、モデルは最初の予測変数のみ、または2番目の予測変数のみを使用してターゲットを予測することは決してできない。しかし、それらを一緒に描くことによって(X軸は1番目の値、Y軸は2番目の値)、それらが一緒にターゲットのクラスについて非常に良い情報を与えることがすぐにわかります(両方の予測変数が同じ符号=クラス1、異なる符号=クラス2)。クロスエントロピーの低い例です。


 
ミハイル・マルキュカイツ

応援ありがとうございますFellow!!!!本当に必要なんです。今度からスペルを間違えないでね♡GGGGG!!!!その方がよっぽどしっかりしてそうだけど...。

だから先生、大好きです。いつもそばにいて、いつも私たちを正してくれる。あなたは私たちの大切な人です!!))

"ミシャニンの証人 "たち2018年2月


 
逆恨みされようとも、私は続けます。条件付き確率は以下のように計算される。条件を満たすデータの数は、1列目が19個、2列目が20個である。条件付き確率を求めるには19+20を足して、全部で80(1列目40、2列目40)で割っています。しかも確率で割らないといけないし...。A列-エントリー、B列-エグジットとした場合、エントリーからエグジットまでの条件付き確率を知るには、総確率をエントリー列の確率で割る必要があるんだ。これで良いのでしょうか?
 
ミハイル・マルキュカイツ

もう一度、質問です。NSには8つのモデルがあります。現在の信号では、NS出力のエントロピーは次のようになる。

5.875787568 -5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925

どれを選べばいいのでしょうか?赤は負のエントロピーを持つから、青はゼロに近いから。この2つのモデルの方向性が違うことは言うまでもないが、どちらが正しかったかは時間が解決してくれるだろう...と思っている。最終的にはどちらかが勝つのです。誰が考えているんだ?

上に書いたことをまとめると、まず予測変数の組み合わせのクロスエントロピーを求め、クロスエントロピーの低い予測変数の組み合わせを選ぶ必要があります。マイナスになるのはおかしい、私の場合は無限大からゼロになるだけだが、ともかく、それなら一番マイナスのものをとればいい。

NSの出力のエントロピーは、ニューロニック自体の推定値としては悪いと私は思っています。100%の確率で正解が得られるようにネットワークの出力を調整すれば、エントロピーは小さくなりますが、オーバーフィットが大きくなる可能性があります。餌のやりすぎはよくない。

 

要は、エントロピーを計算するExcelのアドオンを見つけたのです。計算のロジックを変えずに、思い通りの形に仕上げたので、このような質問をさせていただきました。このサイクロプスの計算で何が起こっているのか、説明してください。具体的に何をするのか、それはわかるのですが、何か別の意味で......。HM...

For Each Value In ActiveSheet.Range(Data1)

X(I)=値

Nn = Nn + Value

I = I + 1

次の価値

このループでは、配列Xが書き込まれ、累積和もあり、まるで問答無用だが、さらに......。

For I = 1 To N

X(I) = X(I) / Nn とする。

次のI

配列の各要素を 値の総和で割っているのですが、これは単なる周波数探索ではないでしょうか。そうだろう?

なるほど、確率を求めるには、すべての度数を足す必要があるんですね。そうだろ?

 
Dr.トレーダー

上に書いたことをまとめると、まず予測変数の組み合わせのクロスエントロピを求め、クロスエントロピの低い予測変数の組み合わせを取る。マイナスになるのはおかしい、私の場合、ちょうど無限大からゼロになるのですが、気にしないで、じゃあ一番マイナスのものを取ってください。

NSの出力のエントロピーは、ニューロニック自体の推定値としては悪いと私は思っています。100%の確率で正解が得られるようにネットワークの出力を調整すれば、エントロピーは小さくなりますが、オーバーフィットが大きくなる可能性があります。餌のやりすぎはよくない。

クロスエントロピーを求めるには、まず2つの事象の条件付きエントロピーを求める必要があります。

そして、モデルがOOSの時にモデルエントロピーの推定が必要となる。シグナルを発行したことで、このシグナルのエントロピーを計算し、結論を導き出すことができるのです。信号のエントロピーが増大した。くっそー、落ちたー、俺たちの蒸気機関車なのに......。

理由: