トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 633 1...626627628629630631632633634635636637638639640...3399 新しいコメント Dr. Trader 2018.02.02 03:56 #6321 マキシム・ドミトリエフスキー賢い人の非科学的な戯言を言っている。水の記憶について語り、電子顕微鏡で現代とはかけ離れた結果を示し、嘲笑する。平らな地球について話し始めるんじゃないかと心配で、まだ見ていません :) Maxim Dmitrievsky 2018.02.02 03:59 #6322 Dr.トレーダー彼は非科学的なナンセンスを話している。水の記憶について言及し、電子顕微鏡を嘲笑し、現代のものとはかけ離れた結果を示すのだ。最近のものは、電子の使い方が違うのですか? 水は皮肉なものだった。 Dr. Trader 2018.02.02 04:29 #6323 分子レベルで何かぼんやりとした絵が描かれている。また、例えばこちらは5年前の動画ですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで到達しています。https://www.youtube.com/watch?v=yqLlgIaz1L0。 ビットがプラスチックの物理的な穴で表現されているCDで、彼がどのような磁気の波を見たいのか、それは明らかではない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは、視覚的に直線に収まるのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。 マキシム・ドミトリエフスキー水の件は、一応、皮肉だったんですね。 いたるところに皮肉がある。水の体験とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。真面目なのか、そうでないのか、はっきりしない。また、分子についても皮肉を言っていて、分子は存在しない、本当のことは自分だけが知っていると言いたいようだ。 ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。 Maxim Dmitrievsky 2018.02.02 04:35 #6324 Dr.トレーダー分子レベルで何かファジーな絵が描かれている。しかし、例えばこれは5年前のビデオですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで来ています。 ビットがプラスチックの物理的な穴で表現されているCDで、彼が見たいのはどんな磁気の波なのか、よくわからない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは視覚的に直線に収まっているのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。 彼はいたるところに皮肉を持っています。水との付き合い方とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。マジかどうかは......不明です。分子についても皮肉を言っていて、分子は存在しない、現実にあるものは自分だけが知っていると言いたいようだ。 ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。このビデオは、ランダム性( )について、すべてと無についてですが、実は、まだ計算できないものがランダムであるということなのです。原子格子を示しており、分子レベルではありません。ディスクにはあまりこだわりませんでした。 彼は別のビデオで、光は粒子であって波ではないこと、干渉を例にとって説明しています。 ちなみに、線路は直線で、映像は斜めに撮影しているだけです Mihail Marchukajtes 2018.02.02 04:42 #6325 よし、反対から攻めるぞ。例えば、100個の入力セットがあるとする。各入力に対してエントロピーを計算すると、-10~10という結果が得られます。質問:どのインプットを取るのが望ましいですか? 例えば、0以下の入力が10個、それ以上が10個、しかしすべての値は-10と10の間にある......とします。 Mihail Marchukajtes 2018.02.02 04:47 #6326 あと・・・相互情報量の計算ができない・・・。条件付き確率というか、その後のエントロピーやVIを計算するためのものです。 誰か指や良い例で説明してくれませんか? 第一列 40行 入力変数 2列目40行出力.... 仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかのどうか助けてください。私の仮説に対する考えを述べますので・・・。 Maxim Dmitrievsky 2018.02.02 04:49 #6327 ミハイル・マルキュカイツあと・・・相互情報が計算できない・・・。というか相対的な確率で、その後のエントロピーやVIを計算するためのものです。 誰か指や良い例で説明してくれませんか? 第一列 40行 入力変数 2列目40行出力.... 仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかの助けてください。私の仮説に対する考えを述べますので...。夜な夜な飲んでいるのか? Mihail Marchukajtes 2018.02.02 04:57 #6328 マキシム・ドミトリエフスキー夜な夜な飲んでいるのか?いや...酔わない......なぜ? ただ、眠れなかっただけで、そういうときはたいてい、それしか頭に浮かばないんです。やるべきことがたくさんあるのに、時間を無駄にするのはもったいない...。 Maxim Dmitrievsky 2018.02.02 05:23 #6329 まあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね 相関、共分散、分散は通常使われます :) そのような意味ではありません。 クロスエントロピーは、NSでトレーニングに使われる概念ですが、なぜ必要なのでしょうか? Mihail Marchukajtes 2018.02.02 06:08 #6330 マキシム・ドミトリエフスキーまあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね 相関、共分散、分散は通常使われます :) そのような意味ではありません。 クロスエントロピーは、トレーニングのNSで使われる概念ですが、なぜそれが必要なのでしょうか?さて、まず最初に。VIでは、入力回数を減らして学習時間を短縮する予定です。 負のエントロピーを持つ、ゼロに近い入力だけを選びました。うらやましいほどの一貫性を持った学習が、同じモデルパラメータにたどり着き始めた。 この単純ではない問題のもう半分は、将来にわたって機能するモデルを正確に選択することです。そのために、ネットワークデータをトレナー形式ではなくダウブル形式で保存し、ネットワークのエントロピーが時間とともにどう変化するかを調べます。ちなみに、二項多項式出力のエントロピー経時変化の表はこちら...。 1 7.481151166 5.100318157 4.593448434 8.798740335 10.34478836 4.480187448 、 4.462974562 4.8648345352 7.675977242 5.395113191 4.647719201 9.658965819 -17.34873011 4.511112896 4.529873469 4.9253965153 7.512766799 5.414556649 4.644887426 8.929776132 -976.6274612 4.644286062 4.386822711 5.0503803264 8.045096956 5.079259638 4.671147058 9.875423555 9.171932774 4.623802531 3.917309752 4.9418591735 8.045378868 5.007650592 4.290382249 9.433280634 10.64451391 4.647512921 3.790881638 4.9909946716 7.814542877 3.644626791 4.344130499 8.980821417 10.5023546 4.637264293 3.831404183 5.0328549667 -26.55886859 3.781908903 4.516251137 8.797781513 10.54684501 4.883377949 3.86512079 4.6592674398 -161.3020423 3.718875753 4.564760685 9.184890078 9.157325707 5.074360669 3.785251605 4.3648746799 1.909633919 3.825969935 4.579305659 8.739113103 8.280835877 5.009919646 4.242333336 4.3943257110 6.213306097 -10.87341467 5.067862079 10.18574585 8.07128492 1.73846346 4.299916662 4.56799806211 6.171390883 1.962160448 5.081660438 8.650951109 7.510213446 1.596086413 4.313971802 4.5594371612 6.120246115 3.948723109 4.801258198 8.235748448 7.127388358 1.698956287 4.082715891 4.78177664513 6.138878328 -3.010948518 4.804114984 8.523101895 7.177670414 1.698630529 4.082338047 4.8226786714 6.212129971 -3.922803979 4.757739216 9.25848968 7.66609198 1.698756132 4.125811197 4.87406033915 6.090848662 -7.954277387 4.76183886 10.81234021 7.701949544 1.540056412 4.062605741 4.91543381916 5.99824787 -59.32132062 4.806934783 9.083600192 7.697975097 1.540406949 4.097040448 4.97890108317 5.83493287 4.565768504 4.899180184 -28.38726036 7.830286358 1.543100257 4.25790422 5.04379826618 5.758509171 -3.4626244 4.895859118 -1237.359668 8.484082841 1.706466252 4.177809837 5.03794093919 5.744674247 -12.48734205 4.961865536 1.569990079 8.915892511 1.682437372 4.336780002 5.05755591520 5.738253623 -10.20442198 4.98732747 9.795996355 8.842880831 1.539687763 4.344159624 5.10644114621 5.731628697 -1.706645474 5.005196184 10.75926151 8.059670516 1.432952506 4.391768977 4.72939573222 5.874802768 -0.43939394479 4.970298578 10.33058781 7.832786294 1.431618527 4.568893332 4.71574474923 5.953727915 -3.949602879 5.017109405 9.668521648 7.941416688 1.425216096 4.646327857 4.745979757驚くべきことに、1つの値を加えると、ある時点でエントロピーが急激にマイナスになるのです。これは何が原因なんだろう? 正の値は不確実性の指標、負の値は秩序の指標とすると、エントロピーの値が最小のネットワークの読み取りを選択することになりますが、負の領域の指標が高すぎるのも良くないと思います。だから、エントロピーが最小のネットワークを選ぶか、エントロピーがゼロに最も近いネットワークを選ぶか、2つのバリエーションがあるんです......。 まあ、VIの計算が整理されれば、入力に対して出力が何VIかを見ることができるようになるわけですが。このアプローチなら、多くのI'sに点を打ち、多くのT'sを交差させることができると思います。 たくさんのモデルを手に入れるのは簡単ですが、適切なモデルを選ぶのは別の問題で、まったく簡単ではありません。 この記事へのコメント、そして何より、なぜそうなるのかの説明を待っています。仮説の理論などぜひお願いします。ありがとうございます!!!! Machine learning in trading: 取引口座の分析 リバーシング: エントリポイントを形式化し、裁量トレードアルゴリズムを開発する 1...626627628629630631632633634635636637638639640...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
賢い人の
非科学的な戯言を言っている。水の記憶について語り、電子顕微鏡で現代とはかけ離れた結果を示し、嘲笑する。平らな地球について話し始めるんじゃないかと心配で、まだ見ていません :)
彼は非科学的なナンセンスを話している。水の記憶について言及し、電子顕微鏡を嘲笑し、現代のものとはかけ離れた結果を示すのだ。
最近のものは、電子の使い方が違うのですか?
水は皮肉なものだった。
分子レベルで何かぼんやりとした絵が描かれている。また、例えばこちらは5年前の動画ですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで到達しています。https://www.youtube.com/watch?v=yqLlgIaz1L0。
ビットがプラスチックの物理的な穴で表現されているCDで、彼がどのような磁気の波を見たいのか、それは明らかではない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは、視覚的に直線に収まるのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。
水の件は、一応、皮肉だったんですね。
いたるところに皮肉がある。水の体験とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。真面目なのか、そうでないのか、はっきりしない。また、分子についても皮肉を言っていて、分子は存在しない、本当のことは自分だけが知っていると言いたいようだ。
ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。
分子レベルで何かファジーな絵が描かれている。しかし、例えばこれは5年前のビデオですが、すでに原子(分子ではない)を認識し、その位置で3Dモデルを作成するところまで来ています。
ビットがプラスチックの物理的な穴で表現されているCDで、彼が見たいのはどんな磁気の波なのか、よくわからない。また、顕微鏡で見たCDの写真では、情報の断片が小さな円を描いて歩いているように見えますが、このスケールでは視覚的に直線に収まっているのはなぜでしょうか?虚偽の事実とネットから取り込んだ写真で、なんという番組だろう。
彼はいたるところに皮肉を持っています。水との付き合い方とは、具体的にどのようなものだったのでしょうか。言って忘れる、結論を出さない。マジかどうかは......不明です。分子についても皮肉を言っていて、分子は存在しない、現実にあるものは自分だけが知っていると言いたいようだ。
ビデオの最初の20分で、彼の主張と信憑性を疑うには十分だ。
このビデオは、ランダム性( )について、すべてと無についてですが、実は、まだ計算できないものがランダムであるということなのです。原子格子を示しており、分子レベルではありません。ディスクにはあまりこだわりませんでした。
彼は別のビデオで、光は粒子であって波ではないこと、干渉を例にとって説明しています。
ちなみに、線路は直線で、映像は斜めに撮影しているだけです
よし、反対から攻めるぞ。例えば、100個の入力セットがあるとする。各入力に対してエントロピーを計算すると、-10~10という結果が得られます。質問:どのインプットを取るのが望ましいですか?
例えば、0以下の入力が10個、それ以上が10個、しかしすべての値は-10と10の間にある......とします。
あと・・・相互情報量の計算ができない・・・。条件付き確率というか、その後のエントロピーやVIを計算するためのものです。
誰か指や良い例で説明してくれませんか?
第一列 40行 入力変数
2列目40行出力....
仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかのどうか助けてください。私の仮説に対する考えを述べますので・・・。
あと・・・相互情報が計算できない・・・。というか相対的な確率で、その後のエントロピーやVIを計算するためのものです。
誰か指や良い例で説明してくれませんか?
第一列 40行 入力変数
2列目40行出力....
仮説を明らかにするために、一晩でたくさんの作業をしました。こういうのにつまずくと、まさかの助けてください。私の仮説に対する考えを述べますので...。
夜な夜な飲んでいるのか?
夜な夜な飲んでいるのか?
いや...酔わない......なぜ?
ただ、眠れなかっただけで、そういうときはたいてい、それしか頭に浮かばないんです。やるべきことがたくさんあるのに、時間を無駄にするのはもったいない...。
まあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね
相関、共分散、分散は通常使われます :) そのような意味ではありません。
クロスエントロピーは、NSでトレーニングに使われる概念ですが、なぜ必要なのでしょうか?
まあ、エントロピーや相互情報量は、計量経済学とは 全く関係ないようですがね
相関、共分散、分散は通常使われます :) そのような意味ではありません。
クロスエントロピーは、トレーニングのNSで使われる概念ですが、なぜそれが必要なのでしょうか?
さて、まず最初に。VIでは、入力回数を減らして学習時間を短縮する予定です。
負のエントロピーを持つ、ゼロに近い入力だけを選びました。うらやましいほどの一貫性を持った学習が、同じモデルパラメータにたどり着き始めた。
この単純ではない問題のもう半分は、将来にわたって機能するモデルを正確に選択することです。そのために、ネットワークデータをトレナー形式ではなくダウブル形式で保存し、ネットワークのエントロピーが時間とともにどう変化するかを調べます。ちなみに、二項多項式出力のエントロピー経時変化の表はこちら...。
1 7.481151166 5.100318157 4.593448434 8.798740335 10.34478836 4.480187448 、 4.462974562 4.864834535
2 7.675977242 5.395113191 4.647719201 9.658965819 -17.34873011 4.511112896 4.529873469 4.925396515
3 7.512766799 5.414556649 4.644887426 8.929776132 -976.6274612 4.644286062 4.386822711 5.050380326
4 8.045096956 5.079259638 4.671147058 9.875423555 9.171932774 4.623802531 3.917309752 4.941859173
5 8.045378868 5.007650592 4.290382249 9.433280634 10.64451391 4.647512921 3.790881638 4.990994671
6 7.814542877 3.644626791 4.344130499 8.980821417 10.5023546 4.637264293 3.831404183 5.032854966
7 -26.55886859 3.781908903 4.516251137 8.797781513 10.54684501 4.883377949 3.86512079 4.659267439
8 -161.3020423 3.718875753 4.564760685 9.184890078 9.157325707 5.074360669 3.785251605 4.364874679
9 1.909633919 3.825969935 4.579305659 8.739113103 8.280835877 5.009919646 4.242333336 4.39432571
10 6.213306097 -10.87341467 5.067862079 10.18574585 8.07128492 1.73846346 4.299916662 4.567998062
11 6.171390883 1.962160448 5.081660438 8.650951109 7.510213446 1.596086413 4.313971802 4.55943716
12 6.120246115 3.948723109 4.801258198 8.235748448 7.127388358 1.698956287 4.082715891 4.781776645
13 6.138878328 -3.010948518 4.804114984 8.523101895 7.177670414 1.698630529 4.082338047 4.82267867
14 6.212129971 -3.922803979 4.757739216 9.25848968 7.66609198 1.698756132 4.125811197 4.874060339
15 6.090848662 -7.954277387 4.76183886 10.81234021 7.701949544 1.540056412 4.062605741 4.915433819
16 5.99824787 -59.32132062 4.806934783 9.083600192 7.697975097 1.540406949 4.097040448 4.978901083
17 5.83493287 4.565768504 4.899180184 -28.38726036 7.830286358 1.543100257 4.25790422 5.043798266
18 5.758509171 -3.4626244 4.895859118 -1237.359668 8.484082841 1.706466252 4.177809837 5.037940939
19 5.744674247 -12.48734205 4.961865536 1.569990079 8.915892511 1.682437372 4.336780002 5.057555915
20 5.738253623 -10.20442198 4.98732747 9.795996355 8.842880831 1.539687763 4.344159624 5.106441146
21 5.731628697 -1.706645474 5.005196184 10.75926151 8.059670516 1.432952506 4.391768977 4.729395732
22 5.874802768 -0.43939394479 4.970298578 10.33058781 7.832786294 1.431618527 4.568893332 4.715744749
23 5.953727915 -3.949602879 5.017109405 9.668521648 7.941416688 1.425216096 4.646327857 4.745979757
驚くべきことに、1つの値を加えると、ある時点でエントロピーが急激にマイナスになるのです。これは何が原因なんだろう?
正の値は不確実性の指標、負の値は秩序の指標とすると、エントロピーの値が最小のネットワークの読み取りを選択することになりますが、負の領域の指標が高すぎるのも良くないと思います。だから、エントロピーが最小のネットワークを選ぶか、エントロピーがゼロに最も近いネットワークを選ぶか、2つのバリエーションがあるんです......。
まあ、VIの計算が整理されれば、入力に対して出力が何VIかを見ることができるようになるわけですが。このアプローチなら、多くのI'sに点を打ち、多くのT'sを交差させることができると思います。
たくさんのモデルを手に入れるのは簡単ですが、適切なモデルを選ぶのは別の問題で、まったく簡単ではありません。
この記事へのコメント、そして何より、なぜそうなるのかの説明を待っています。仮説の理論などぜひお願いします。ありがとうございます!!!!