トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 633

 
マキシム・ドミトリエフスキー

賢い人の

非科学的な戯言を言っている。水の記憶について語り、電子顕微鏡で現代とはかけ離れた結果を示し、嘲笑する。平らな地球について話し始めるんじゃないかと心配で、まだ見ていません :)

 
Dr.トレーダー

彼は非科学的なナンセンスを話している。水の記憶について言及し、電子顕微鏡を嘲笑し、現代のものとはかけ離れた結果を示すのだ。

最近のものは、電子の使い方が違うのですか?

水は皮肉なものだった。

 

分子レベルで何かぼんやりとした絵が描かれている。また、例えばこちらは5年前の動画ですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで到達しています。https://www.youtube.com/watch?v=yqLlgIaz1L0

ビットがプラスチックの物理的な穴で表現されているCDで、彼がどのような磁気の波を見たいのか、それは明らかではない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは、視覚的に直線に収まるのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。

マキシム・ドミトリエフスキー

水の件は、一応、皮肉だったんですね。

いたるところに皮肉がある。水の体験とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。真面目なのか、そうでないのか、はっきりしない。また、分子についても皮肉を言っていて、分子は存在しない、本当のことは自分だけが知っていると言いたいようだ。

ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。

 
Dr.トレーダー

分子レベルで何かファジーな絵が描かれている。しかし、例えばこれは5年前のビデオですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで来ています。

ビットがプラスチックの物理的な穴で表現されているCDで、彼が見たいのはどんな磁気の波なのか、よくわからない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは視覚的に直線に収まっているのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。

彼はいたるところに皮肉を持っています。水との付き合い方とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。マジかどうかは......不明です。分子についても皮肉を言っていて、分子は存在しない、現実にあるものは自分だけが知っていると言いたいようだ。

ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。

このビデオは、ランダム性( )について、すべてと無についてですが、実は、まだ計算できないものがランダムであるということなのです。原子格子を示しており、分子レベルではありません。ディスクにはあまりこだわりませんでした。

彼は別のビデオで、光は粒子であって波ではないこと、干渉を例にとって説明しています。

ちなみに、線路は直線で、映像は斜めに撮影しているだけです


 

よし、反対から攻めるぞ。例えば、100個の入力セットがあるとする。各入力に対してエントロピーを計算すると、-10~10という結果が得られます。質問:どのインプットを取るのが望ましいですか?

例えば、0以下の入力が10個、それ以上が10個、しかしすべての値は-10と10の間にある......とします。

 

あと・・・相互情報量の計算ができない・・・。条件付き確率というか、その後のエントロピーやVIを計算するためのものです。

誰か指や良い例で説明してくれませんか?

第一列 40行 入力変数

2列目40行出力....

仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかのどうか助けてください。私の仮説に対する考えを述べますので・・・。

 
ミハイル・マルキュカイツ

あと・・・相互情報が計算できない・・・。というか相対的な確率で、その後のエントロピーやVIを計算するためのものです。

誰か指や良い例で説明してくれませんか?

第一列 40行 入力変数

2列目40行出力....

仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかの助けてください。私の仮説に対する考えを述べますので...。

夜な夜な飲んでいるのか?

 
マキシム・ドミトリエフスキー

夜な夜な飲んでいるのか?

いや...酔わない......なぜ?

ただ、眠れなかっただけで、そういうときはたいてい、それしか頭に浮かばないんです。やるべきことがたくさんあるのに、時間を無駄にするのはもったいない...。

 

まあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね

相関、共分散、分散は通常使われます :) そのような意味ではありません。

クロスエントロピーは、NSでトレーニングに使われる概念ですが、なぜ必要なのでしょうか?

 
マキシム・ドミトリエフスキー

まあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね

相関、共分散、分散は通常使われます :) そのような意味ではありません。

クロスエントロピーは、トレーニングのNSで使われる概念ですが、なぜそれが必要なのでしょうか?

さて、まず最初に。VIでは、入力回数を減らして学習時間を短縮する予定です。

負のエントロピーを持つ、ゼロに近い入力だけを選びました。うらやましいほどの一貫性を持った学習が、同じモデルパラメータにたどり着き始めた。

この単純ではない問題のもう半分は、将来にわたって機能するモデルを正確に選択することです。そのために、ネットワークデータをトレナー形式ではなくダウブル形式で保存し、ネットワークのエントロピーが時間とともにどう変化するかを調べます。ちなみに、二項多項式出力のエントロピー経時変化の表はこちら...。

1 7.481151166 5.100318157 4.593448434 8.798740335 10.34478836 4.480187448 、 4.462974562 4.864834535

2 7.675977242 5.395113191 4.647719201 9.658965819 -17.34873011 4.511112896 4.529873469 4.925396515

3 7.512766799 5.414556649 4.644887426 8.929776132 -976.6274612 4.644286062 4.386822711 5.050380326

4 8.045096956 5.079259638 4.671147058 9.875423555 9.171932774 4.623802531 3.917309752 4.941859173

5 8.045378868 5.007650592 4.290382249 9.433280634 10.64451391 4.647512921 3.790881638 4.990994671

6 7.814542877 3.644626791 4.344130499 8.980821417 10.5023546 4.637264293 3.831404183 5.032854966

7 -26.55886859 3.781908903 4.516251137 8.797781513 10.54684501 4.883377949 3.86512079 4.659267439

8 -161.3020423 3.718875753 4.564760685 9.184890078 9.157325707 5.074360669 3.785251605 4.364874679

9 1.909633919 3.825969935 4.579305659 8.739113103 8.280835877 5.009919646 4.242333336 4.39432571

10 6.213306097 -10.87341467 5.067862079 10.18574585 8.07128492 1.73846346 4.299916662 4.567998062

11 6.171390883 1.962160448 5.081660438 8.650951109 7.510213446 1.596086413 4.313971802 4.55943716

12 6.120246115 3.948723109 4.801258198 8.235748448 7.127388358 1.698956287 4.082715891 4.781776645

13 6.138878328 -3.010948518 4.804114984 8.523101895 7.177670414 1.698630529 4.082338047 4.82267867

14 6.212129971 -3.922803979 4.757739216 9.25848968 7.66609198 1.698756132 4.125811197 4.874060339

15 6.090848662 -7.954277387 4.76183886 10.81234021 7.701949544 1.540056412 4.062605741 4.915433819

16 5.99824787 -59.32132062 4.806934783 9.083600192 7.697975097 1.540406949 4.097040448 4.978901083

17 5.83493287 4.565768504 4.899180184 -28.38726036 7.830286358 1.543100257 4.25790422 5.043798266

18 5.758509171 -3.4626244 4.895859118 -1237.359668 8.484082841 1.706466252 4.177809837 5.037940939

19 5.744674247 -12.48734205 4.961865536 1.569990079 8.915892511 1.682437372 4.336780002 5.057555915

20 5.738253623 -10.20442198 4.98732747 9.795996355 8.842880831 1.539687763 4.344159624 5.106441146

21 5.731628697 -1.706645474 5.005196184 10.75926151 8.059670516 1.432952506 4.391768977 4.729395732

22 5.874802768 -0.43939394479 4.970298578 10.33058781 7.832786294 1.431618527 4.568893332 4.715744749

23 5.953727915 -3.949602879 5.017109405 9.668521648 7.941416688 1.425216096 4.646327857 4.745979757

驚くべきことに、1つの値を加えると、ある時点でエントロピーが急激にマイナスになるのです。これは何が原因なんだろう?

正の値は不確実性の指標、負の値は秩序の指標とすると、エントロピーの値が最小のネットワークの読み取りを選択することになりますが、負の領域の指標が高すぎるのも良くないと思います。だから、エントロピーが最小のネットワークを選ぶか、エントロピーがゼロに最も近いネットワークを選ぶか、2つのバリエーションがあるんです......。

まあ、VIの計算が整理されれば、入力に対して出力が何VIかを見ることができるようになるわけですが。このアプローチなら、多くのI'sに点を打ち、多くのT'sを交差させることができると思います。

たくさんのモデルを手に入れるのは簡単ですが、適切なモデルを選ぶのは別の問題で、まったく簡単ではありません。

この記事へのコメント、そして何より、なぜそうなるのかの説明を待っています。仮説の理論などぜひお願いします。ありがとうございます!!!!

理由: