имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
分類器におけるターゲット関数は何ですか?
特にMLPは、実際の神経細胞の働きを原始的にコピーしており、実際に脳で起こっているようなやり方ではないので、取引には向かない醜いモンスターだという結論に達しました :)唯一正常で見通しの良いNSはパターン認識のための畳み込みnsであり、一方で予測はできず、もしそうなら単純で高速な分類器のアンサンブルで十分である。
ベイズ分類器はより良いが、RFより悪い。
面白いことに、「ベヒーモスの醜さ」については、全く逆の結論に達しました(笑)。
RFは予測変数の選択を必要とするが、少なくとも線形独立であることが要求されるため、自明なタスクとは言えない。MLPでは、時系列に 手を加えるだけで、線形独立性の要件は、放電された時系列を入力とする複数のNSの委員会(複数のTFに類似)によって解決されます。NSの時間遅れは、実際の取引では、取るに足らないものなのでしょう。
リアルTSがどうなるかはまだ分かりませんが、NSはかなり鍛えられそうです。学習したNSのグラフィカルな出力の一部をご覧ください。どの程度鍛えられているかはまだ何とも言えませんが......。)しかし、それは訓練可能である))。
ベヒーモスのブス」については、全く逆の結論になったのが面白いですね(笑)。
RFは予測変数の選択を必要とするが、少なくとも線形独立性が要求されるため、自明なタスクではない。MLPでは、時系列に手を加えるだけで、線形独立性の要件は、放電された時系列を入力とする複数のNSの委員会(複数のTFに類似)によって解決されます。NSの時間遅れは、実際の取引では、取るに足らないものなのでしょう。
リアルTSがどうなるかはまだ分かりませんが、NSはかなり鍛えられそうです。学習したNSのグラフィカルな出力の一部をご覧ください。
チャート上にオシレーターという形でプレディクターを放り込むだけで、線形依存なのか非線形なのかがわかる)番号は必要ありません。NSは自己鍛錬しても、最初から存在しない、あるいは矛盾するような超非線形相関を思いつくことはできない
あるいは、NSの前に核マシンを使う必要があります。Jpredictorは入力の次元を多項式で上げて、最も情報量の多いものをSVMやその他のくだらない方法で残しますが、一方で、この多項式のために、とんでもなく過学習になることがあります。
なぜかというと、グラフ上に振動子の形で予測子を投げれば、そこで線形従属か非線形かがわかるからだ)。番号は必要ありません。NSは自分自身を鍛え直すこともできる。最初からないものや矛盾するものは、何もないところから超非線形相関を考え出すことはできないのだ。
何事も単純なことではありません。SanSanychはすでに1年間、森から森へ(パッケージからパッケージへ)渡り歩き、プレディクターをいじっているようです。
あるいは、Jpredictorのように、多項式を使って入力の次元を上げ、SVMやその他のくだらないものを使って最も情報量の多いものを残すように、NSの前にカーネルを使う必要があるのかもしれません。
なぜかというと、チャート上にオシレーターという形で予測因子を投げれば、そこで線形依存か非線形かを見ることができるからです)
PS ところで、MLPは単層P.と異なり、本質的に非線形であり、非線形な特徴を汎化する能力がかなり高いのです。
RFもそうだが、過学習は否めない。
つまり,ベイズ分類器の原理で動作し,予測変数の集合において,各特定のケースで平均から最大の偏差を与えるような重みを見つけ,最終的には収束するはずである.予測変数は定常形式でとらえるので、平均が0であることは明らかです。出力が>0であれば売り、<であれば買いです。
先生と一緒にトレーニングするのか、それとも先生なしでトレーニングするのか、よくわからないのですが、先生ありの場合、分類器の買いシグナルは何ですか?
一般的にNSはRFと比較して利点がなく、計算に時間がかかり、誤差も大きくなります。
NSのスピードについて。
そのために特別に作ったのがスピード実験です。そのために、層構造[15,15,15,8,2]のMLPを取りました。学習サンプルサイズは、入力-15×10378、出力-2×10378です。
このデータでの10エポックのMLP学習は約10分です。
データを直接操作する - 入力15×10378を3秒以内に計算します。すなわち、~0.0003c/sampleです。
TC建設には十分すぎるほどです)。
NSのスピードについて。
特に今回は、スピードに関する実験をしてみました。そのために、層構造[15,15.15,8,2]を持つMLPを取りました。学習サンプルサイズは、入力-15×10378、出力-2×10378です。
このデータでの10エポックのMLP学習は約10分です。
データを直接操作する - 入力15×10378を3秒以内に計算します。すなわち、~0.0003c/sampleです。
TSを作るには十分すぎるほどの時間)。
何か速すぎて、そのようなは、どのアルゴリズムL-BFGSによって、1時間または数時間mbを訓練する必要があります?また、入力は15個だが、隠れ層は15-20ニューロンで1層のみ、アルグリビアンTSを学習した...ので、待たずに入力ベクトルのサイズを小さくした)10kベクトルによる3入力の学習は5-10分かかり、それも隠れ層が1つの場合です。また、バックプロパゲーションは低速ではなく、1-3エポックと高速です。
10分であっても既製の戦略がなく、戦略を見つけるためにオプティマイザでN個の予測変数の数、ベクトルの長さ、隠れ層の数などを検索しなければならないと想像してください...