トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1418

 
ユーリイ・アサウレンコ

道化はやめとけ、道化。

くだらないこと言ってる間に証拠出せよ、お前の点の多い絵はもう論破されただろ、次は何だ?

方法論はまだか、何か見落としていないか?

お前は2ちゃんねるのピエロだろ、どっかでサーカスでも焼いてろや「先生」。

あなたの投稿は誰にとっても興味がなく、面白くもなく、有益でもなく、無関係でもない...アンデルステンド的? 退屈なら、それはあなたの問題です、では消えて下さい
 
マキシム・ドミトリエフスキー

くだらないこと言ってる間に証拠出せよ、お前の点の多い絵はもう論破されただろ、次は何だ?

方法論はまだか、何か見落としていないか?

私たち2人のうち道化師はあなたです。

あなたの投稿は誰にも興味がなく、面白くもなく、有益でもなく、何もない・・・anderstendish? 退屈ならあなたの問題です、失せなさい。

精神科医に診てもらおうとしたことはありますか?

 
ユーリイ・アサウレンコ
フォレストとNSは十分な知能を持っているので、タスクに最も適した予測因子を内部で整理することができます。

それが単なるナンセンスではなく、あなたを足場から放り出し、滑りやすい坂道に誘導するためのデマでない限り。

scaffoldingやNSには「知性」はなく、ソートのようなごく平凡なアルゴリズムであり、もう少し複雑なマトリックスリバーサルもある...といったところです。

結果は、カオスシステムの初期条件からの状態と全く同じように、予測変数に依存する。

ノイズの特徴を追加し、特徴空間を変形させれば完成です。


と思っていたら...。

森にネットプライスを提出したことはありますか?試した人がここでこんなクソみたいなこと後付けしないんだから、そんなことないと思うんだけど...。

 
グレイル

それが単なるナンセンスではなく、あなたを足場から放り出し、滑りやすい坂道に誘導するためのデマでない限り。

scaffoldingやNSには「知性」はなく、ソートのようなごく平凡なアルゴリズムであり、もう少し複雑なマトリックスリバーサルもある...といったところです。

結果は、カオスシステムの初期条件からの状態と全く同じように、予測変数に依存する。

ノイズの特徴を追加し、特徴空間を変形させれば完成です。


と思っていたら...。

森にネットプライスを提出したことはありますか?やってみた人は、こんなデタラメをここに書き込まないから、やってないような気がするんだけど...。

あなたは「混乱させてスレを誘導する」のがとても簡単なようですね。))

もちろん、知性はないのですが、BPから自分の中で必要な予測値を形成するくらいの知性はあります))

そう、実はそうなんです。私だけでなく、森の中だけでなく、NSでもそうなんです。20~50サンプルまで。かなり満足しています。NS理論を読み解くと、彼らはこのようなBP処理タスクにかなり長けているのです。ちなみに、ほぼすべてのパッケージにはBPと直接連携するインスタンスが用意されており、問題がないことを自分で確認することができます)。

 
ユーリイ・アサウレンコ

あなたは「混乱させてスレを誘導する」のがとても簡単なようですね。))

もちろん知性はないのですが、BPから独立して自分の中で必要な予測値を形成するくらいの知性はあります)。

そう、実はそうなんです。私だけでなく、森の中だけでなく、NSでもそうなんです。20~50サンプルまで。かなり満足しています。NS理論を読み解くと、彼らはこのようなBP処理タスクにかなり長けているのです。ちなみに、ほとんどのパッケージはBPと直接連携するインスタンスを持っており、問題がないことを自分で確認することができます)。

バシャ、そんな "知識 "を持って散歩でもしてろ、ここでは誰もお前に興味はない。

私がインクリメントについて書くと、あなたはインクリメントについて話し、私が価格について書くと、あなたは価格について書きます。ベルが聞こえるだけで、どこにあるのかわからない。明日は別のことを書きますが、あなたはまた一年、オウムのように繰り返すのでしょう、暗い森のように反応するのでしょう。

 
マキシム・ドミトリエフスキー

バシャ、そんな "知識 "を持って散歩でもしてろ、ここでは誰もお前に興味はない。

私がインクリメントについて書くと、あなたはインクリメントについて話し、私が価格について書くと、あなたは価格について書きます。ベルが聞こえるだけで、どこにあるのかわからない。明日、私は別のことについて書くだろうし、あなたはまた一年間オウムのように繰り返すだろう、あなたの応答は年、最も密集した森のようなものです。

精神科医に診てもらったほうがいい。症状が出ているんですね。おそらく急性期だと思います。治すことはできないが、増悪を和らげることはできるだろう。

 
ユーリイ・アサウレンコ

あなたは「混乱させてスレを誘導する」ことがとても簡単なようですね。))

もちろん知性はないのですが、BPから自分の中で必要な予測値を形成するくらいの知性はあります))

そう、実はそうなんです。私だけでなく、森の中だけでなく、NSでもそうなんです。20~50サンプルまで。かなり満足しています。NS理論を読み解くと、彼らはこのようなBP処理タスクにかなり長けているのです。ちなみに、ほとんどのパッケージはBPと直接連携するインスタンスを持っており、問題がないことを自分で確認することができます)。

失礼ながら(わかってるんだろうけど...)、「値動きで運転する無人運転プログラムを入れたら...」みたいな曖昧なレベルで、CNNのチャートやLSTMのテキストニュースのスクリーンショットを張り付けたような人は、手口の仕組みをあまり理解してないんでしょうね。Maxim Dmitrievskyは,あなたの「ベルは聞こえるが,どこにあるか わからない」メンタリティを正しく特徴づけています. MLPでは,さらに森の中では,特徴のための魔法の検索はなく,すべての愚かなヒューリスティックは,「準最適」kNNとParzenの窓法よりも速く働き,本質的に点の周りの近傍を平均化します.Mitchellを読み、kNN、parzen、MLP、les...を自分で書く。一般にCNNでは、畳み込み自体は局所的に相関のある特徴のためのハードコードされた前処理ヒューリスティックであり、写真を撮って画素をシャッフルする、一方通行、それだけ......です。CNNはすぐにニップし、すべてが非常に狭いマージンで動作するため、何も見つけることができません、それはそれ自体で検索できません。

機能に純粋な価格を突きつければ、普通のストーリーに最適化されたマッシュアップと変わらなくなる。
 
グレイル

失礼ながら(わかってらっしゃる...)、MLPの仕組みについて非常に理解が浅く、「値動きに合わせて無人運転プログラムを走らせたら...」というラの曖昧なレベルで、CNNにチャートのスクリーンショットを張り付け、LSTMにテキストニュースを張り付けるあなたのような方がいらっしゃいますね。Maxim Dmitrievskyは,あなたの「ベルは聞こえるが,どこにあるか わからない」メンタリティを正しく特徴づけています. MLPでは,さらに森の中では,特徴のための魔法の検索はなく,すべての愚かなヒューリスティックは,「準最適」kNNとParzenの窓法よりも速く働き,本質的に点の周りの近傍を平均化します.Mitchellを読み、kNN、parzen、MLP、les...を自分で書く。一般にCNNでは、畳み込み自体は局所的に相関のある特徴のためのハードコードされた前処理ヒューリスティックであり、写真を撮って画素をシャッフルする、一方通行、それだけ......です。CNNはすぐに失敗する。何も見つけられない。すべてが非常に狭い境界の中でしか機能しないので、それ自体では何も「探して」いないのだ。

チップに純粋な価格を突きつけると、通常のストーリーに最適化されたウィザードと変わらない結果になります。

議論の余地がないため、何も言うことはありません。ただ、覚えておいてほしいのは、自分が他人より賢いと思うことが、最も確実な騙される方法だということだ。(с)

はい、もう1年以上、再トレーニングをせずにNSでシステムを組んでいます。一番最初の、まだトライアルは、このスレッドで取引しています。新システム?- 急いではいない。

 

活性化関数は、最終層に符号を落とさないように、入力に既に用意されたデータがある場合に落とすようにします。

テンプレートHHにデータを押し込んでいる限り、効果はないでしょう。

 

失礼ながら(ご存知の通り...)、私はアサウレンコを応援しようと思っています。1.5千ページ近くありますが、結論はただ一つ、「予測因子を探す必要がある」ということです。

その 結論はどこから来たのですか?MOにロウソクを挿して、50/50にするというシンプルなものです。また、インジケータを付けると誤差が少なくなります。しかし、皆さん、常に推測する仮想のグレイルを 置くと、MOの出力に誤差が0になるのです。インジケーターのGrailセットを選択した場合、MOは必要ありません。もっと簡単な手段で間に合う。

理由: