トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 563

 
マキシム・ドミトリエフスキー

ふぅ...このスレッドを最初から私の登場まで全部読んで...これで全部見たぞ

しかし、そこには聖杯がない...残念だ、では掘り続けることにしよう。

これは正しい判断です。ここの掲示板のNS理論は、理想とは程遠いものです。
 
Alexander_K2 です。
これは正しい解答です。ここの掲示板のNS理論は、理想とは程遠いものです。

私が書き留めたのは、三元分級器についてと、Yuriy Asaulenkoの 謎を解くことくらいです。

 
Alexander_K2 です。
これは正しい判断です。ここの掲示板のNS理論は、理想とは程遠いものです。
そして、ここでは全く必要ありません。その理論は、すでに私たちのはるか以前に確立されているのです。)
 
マキシム・ドミトリエフスキー

書き留めたのは、3元分級機とYuriy Asaulenkoの 謎解きについてだけです。

今回初めて弓を作ることになったのですが、ユーリィは見た目ほど単純ではありません。物理学者!彼のやっていることはよくわかる。2つのプロセスを並行して進めているようなものだ。一つは、確率論的なもので、「そろそろ取引の時期が来ているようだ」というもの。2つ目、つまりNSは、与えるか拒否するかです。私はもう何も言わない。自分で言わせればいい。
 
マキシム・ドミトリエフスキー

書き留めたのは、三元分級器についてと、Yuriy Asaulenkoの 謎を解くことくらいです。

そして、その謎はどこにあったのでしょうか。

MLPのニューロン数は約60個です。アルゴリズムは標準的なBPである。学習 - あっちへ行ったりこっちへ行ったり、つまりNSがそこで何を学んでいるかは知らない。また、学習の原理はすべて古典的な単行本にまとめられています - Heikin, Bishop.ソフトはMQLではありません。

基本的な原理はこのトピックで説明しています。

 
ユーリイ・アサウレンコ

そして、その謎はどこにあったのでしょうか。

MLPのニューロンは〜60ニューロンです。アルゴリズム - 標準的なBP。学習 - 私が知らない場所に行く。すなわち、NSがそこで何を学習しているのか知らない。また、学習の原理はすべて古典的な単行本にまとめられています - Heikin, Bishop.ソフトはMQLではありません。

基本的な考え方は、このトピックにまとめられています。


これは一種のジョークです :))

 
マキシム・ドミトリエフスキー

冗談のようなものです :))

いや、本当に何もないんですよ。ヘイキンやビショップは絶望的に時代遅れで、新しいものを求めていると考えているのでしょう(以前にも書きましたね)。私には十分な量です。
 
ユーリイ・アサウレンコ
いや、本当に何もないんですよ。ヘイキンやビショップは絶望的に時代遅れだと思い、新しいものを探しているのですね。私にはこれで十分です。

いや、冗談のようなもので、このスレッドで最後に何かを思いついたのは君だけなんだ :)

パーセプトロンのモンテカルロ法による学習でググってみてください。

一般に、学習エージェントが存在し、NSが最適解を見つけるために学習する場合、この方法はRL(強化学習)に非常によく似ている。

 

アルファ碁はこうして訓練される(ただし、以前は創作ゲームであり、機械が人間に勝つことはできないと考えられていた)。

で、こちらが当選者です。

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
マキシム・ドミトリエフスキー

いや、冗談のようなもので、このスレッドで最後に何かを思いついたのはあなただけです :)

パーセプトロンのモンテカルロ法による学習でググってみてください。

一般に、この方法は、学習エージェントがあり、NSが最適解を見つけるために学習する場合のRL(強化学習)に非常によく似ている

ちなみに、大きくはあなたのおかげです。私が最初に始めたとき、レシェトフ氏の記事のリンクを教えてくれたのはあなたでした。一般的には応用例のような価値のない記事ですが、馬具の位置が多少なりとも明確になりました。

私自身は最終的にモンテカルロに行き着いたので、Googleにそのような手法があるのかどうかはわかりません。

RLも知らないが、あなたの簡単な説明では、私の手法に似ているようだ。

GoogleでMonte Carloを見つけました -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf ただ、全然違いますね。

理由: