This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
Heikin Neural NetworksとBishopの理論を英語で読む - 翻訳はないが、近日公開のようだ。
単純なことです。入力はランダムトレード、出力は結果。モンテカルロ法というのがあって、それ自体はあまり速くはない。そして、そのシステム化は、ナショナルシステムの仕事である。
さて、NSの特別な名称はあるのでしょうか?タイプ不明の確率的アニーリングニューラルネットワークの ように、教師がいてもいなくても、出力ではなく入力を最適化するような :)) 何冊か本を読んでみます。
Heikin "NS Complete Course Second Edition" はロシア語版です。
さて、NS自体に特別な名称はあるのでしょうか?先生の有無に関わらず、不明確な学習をする確率的アニーリングニューラルネットワークのように、出力ではなく入力を最適化する :)) 本は読むよ。
ハイキン「NS完全攻略第2版」ロシア語版発売のお知らせ
Heikinは、Bishopは、ロシア語は使えません。
NSは通常のMLP、トレーニングは通常のBP、ただ、途中で定期的に手動で再調整を行います。このような再調整を行わない場合、あるいはサンプルをシャッフルするだけでも、非常に高速に学習しますが、学習シーケンスに限って問題なく動作します。
ハイキンはあり、ビショップはロシア語では使えません。
NSは通常のMLP、トレーニングは通常のBP、ただ、定期的に手動で再調整をしながら進めていきます。このような再調整をしないか、あるいはサンプルをシャッフルするだけでは、学習は非常に速いのですが、学習シーケンスのみでうまく(完璧にさえ)機能します。
今のところ、ヘイキンの作品で間に合わせます。 いつも記事とモデルの説明に限定しているので、本は余分すぎる(だから、販売に十分なスペースがある)。
ヘイキンのものは古いものだし :) 今のところ、私はいつも記事とモデルの説明に限定しています、本は不必要なものがたくさんあります(売るための量を確保するため)
虚偽の記載。フォレストもブーストも外挿ではNSと変わりません。
私が出会ったすべての記事は、同じことを言っています。
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
木は外挿が難しい!- ピーターのスタッツネタ
http://ellisp.github.io/blog/2016/12/10/extrapolation
ランダムフォレストは学習データ以外では予測できない
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
ランダムフォレスト回帰では学習データより高い予測値が得られない
私が出会ったすべての記事は、同じことを言っています。
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
木は外挿が難しい!- ピーターのスタッツネタ
http://ellisp.github.io/blog/2016/12/10/extrapolation
ランダムフォレストは学習データ以外では予測できない
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
ランダムフォレスト回帰では学習データより高い予測値が得られない
屑は無教養な人間が書くものだ。オーバートレーニングも知らない、データマイニングも知らない、ノイズ予測器も知らない、モデル推定も得意でない。彼らは、知的なゲームをする未熟な俗物の一種に過ぎない。
屑は無教養な人間が書くものだ。再トレーニングを知らない、データマイニングを知らない、ノイズ予測器を知らない、モデルを推定するのが苦手。まさに精神ゲームをするような成長しすぎた俗物だ。
これが外挿とどう関係があるのか......。
alglibライブラリのRFを書いた人たちも無教養な人たちなんですか?
とか、Rブロガーもダサいらしい。
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
FA以外はみんな負け組。
をFAだけが教えられてきた。
;))
FA以外はみんな負け組。
をFAだけが教えられてきた。
;))
そうやって原理を理解せずにRFを使うから、使えないと言われるのです。 前回の記事から、RFは外挿ができないことは明らかですから、使い慣れたデータでしか使えないはずなのです。
ミンスキーが多層ペルセプトロンの「無益さ」について権威ある意見を述べたことを思い出してください)) 。)
ハブラの記事なんて語らない、掲示板の屑と同じ、99.9%がネーチャンポップの宣伝、0.1%が「行間」という暗黙の形の良識ある考えだ。この人はRの例を出したが、どこを間違えたのだろうか? 残念ながら私はRを使っていないが、自分で再現することもできる。