トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 494

 
Yuriy Asaulenko:

Heikin Neural NetworksとBishopの理論を英語で読む - 翻訳はないが、近日公開のようだ。

単純なことです。入力はランダムトレード、出力は結果。モンテカルロ法というのがあって、それ自体はあまり速くはない。そして、そのシステム化は、ナショナルシステムの仕事である。


さて、NSの特別な名称はあるのでしょうか?タイプ不明の確率的アニーリングニューラルネットワークの ように、教師がいてもいなくても、出力ではなく入力を最適化するような :)) 何冊か本を読んでみます。

Heikin "NS Complete Course Second Edition" はロシア語版です。

 
マキシム・ドミトリエフスキー

さて、NS自体に特別な名称はあるのでしょうか?先生の有無に関わらず、不明確な学習をする確率的アニーリングニューラルネットワークのように、出力ではなく入力を最適化する :)) 本は読むよ。

ハイキン「NS完全攻略第2版」ロシア語版発売のお知らせ

Heikinは、Bishopは、ロシア語は使えません。

NSは通常のMLP、トレーニングは通常のBP、ただ、途中で定期的に手動で再調整を行います。このような再調整を行わない場合、あるいはサンプルをシャッフルするだけでも、非常に高速に学習しますが、学習シーケンスに限って問題なく動作します。

 
ユーリイ・アサウレンコ

ハイキンはあり、ビショップはロシア語では使えません。

NSは通常のMLP、トレーニングは通常のBP、ただ、定期的に手動で再調整をしながら進めていきます。このような再調整をしないか、あるいはサンプルをシャッフルするだけでは、学習は非常に速いのですが、学習シーケンスのみでうまく(完璧にさえ)機能します。


今のところ、ヘイキンの作品で間に合わせます。 いつも記事とモデルの説明に限定しているので、本は余分すぎる(だから、販売に十分なスペースがある)。

 
マキシム・ドミトリエフスキー

ヘイキンのものは古いものだし :) 今のところ、私はいつも記事とモデルの説明に限定しています、本は不必要なものがたくさんあります(売るための量を確保するため)

まあ、そうとは言い切れませんが。セオリーは古びない。しかし、もっと深い理解があるのです。記事、もちろんですが、一般的な理論なしには非常によく理解されていない、とだけ表面的かつ無批判に知覚 - 彼らが書くナンセンスの多く)。
 
アリョーシャ

虚偽の記載。フォレストもブーストも外挿ではNSと変わりません。


  • モデルは補間するだけで、外挿はできません(フォレストやブーストオンツリーも同様です)。つまり、決定木は、学習サンプル中のすべてのオブジェクトをカバーする平行六面体の外側の特徴空間中のオブジェクトに対して、一定の予測をするのである。黄色と青のボールの例では、座標>19または<0のすべてのボールに対して、モデルが同じ予測を与えることを意味します。

私が出会ったすべての記事は、同じことを言っています。

https://habrahabr.ru/company/ods/blog/322534/


  • 決定木のように、このアルゴリズムは外挿が全くできない
 
マキシム・ドミトリエフスキー

  • モデルは補間するだけで、外挿はできない(森と木のブーストも同様)。つまり、決定木は、学習サンプル中のすべてのオブジェクトをカバーする平行六面体の外側の特徴空間中のオブジェクトに対して、一定の予測をするのである。黄色と青のボールの例では、座標>19または<0のすべてのボールに対して、モデルが同じ予測を与えることを意味します。

私が出会ったすべての記事は、同じことを言っています。

https://habrahabr.ru/company/ods/blog/322534/


  • 決定木のように、このアルゴリズムは外挿が全くできない

屑は無教養な人間が書くものだ。オーバートレーニングも知らない、データマイニングも知らない、ノイズ予測器も知らない、モデル推定も得意でない。彼らは、知的なゲームをする未熟な俗物の一種に過ぎない。

 
サンサニッチ・フォメンコ

屑は無教養な人間が書くものだ。再トレーニングを知らない、データマイニングを知らない、ノイズ予測器を知らない、モデルを推定するのが苦手。まさに精神ゲームをするような成長しすぎた俗物だ。


これが外挿とどう関係があるのか......。

alglibライブラリのRFを書いた人たちも無教養な人たちなんですか?

とか、Rブロガーもダサいらしい。

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

FA以外はみんな負け組。

をFAだけが教えられてきた。

;))

 
Oleg avtomat:

FA以外はみんな負け組。

をFAだけが教えられてきた。

;))


そうやって原理を理解せずにRFを使うから、使えないと言われるのです。 前回の記事から、RFは外挿ができないことは明らかですから、使い慣れたデータでしか使えないはずなのです。

 
アリョーシャ

ミンスキーが多層ペルセプトロンの「無益さ」について権威ある意見を述べたことを思い出してください)) 。)

ハブラの記事なんて語らない、掲示板の屑と同じ、99.9%がネーチャンポップの宣伝、0.1%が「行間」という暗黙の形の良識ある考えだ。

この人はRの例を出したが、どこを間違えたのだろうか? 残念ながら私はRを使っていないが、自分で再現することもできる。

理由: