トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 979

 

分類(softmax)のためにalglibのNSアンサンブルとNSとkfoldで遊びました、第一印象は。

1.LBFGSは、アンサンブルのない1台のNSでも、LMよりはるかに速く(2台目を待つのは非現実的)列車を走らせることができます。

2.kfoldは素晴らしいラーニングエラーを見せ続け、私は10はおろか2ファールでも戦略を+αの位置に持っていくことができませんでした。私の仕事にはあまり向いていないかもしれませんが、もう一度試してみます。

バギングとLBFGSアルゴリズムに基づくNSのアンサンブルは、足場のアンサンブルと同じ品質であるが、トレーニングは遅い

3.検証サンプリングによる早期停止アンサンブル(LMは私が使っています):全く覚えるのが待ち遠しいです。

4) パラメータ(ステップ、リトリガ数)を調整しても目に見える改善は得られない。ニューロン数を2~3倍に増やすと、わずかながら改善される。

5.一般的に、NSは同じように再教育され、バギーのNSのアンサンブルは、森からの委員会より少し再教育が少ないという印象を受けました。

これはすべて、後で調査するxgboostなどと比較するために行ったものである。

++私と一緒にモデルを積み重ねる ことは、より多くの安定性を与えませんでした、同じように訓練します、時々、モデルはちょうどより訓練するので、トレイ上の結果を改善することができます。

 
マキシム・ドミトリエフスキー

こんにちは、少し話がそれますが。一度フォーラムで、他の方とのやり取りを見つけました。そこで、マイクロソフトからのヘルプを作るために、どのようなプログラムを使うか議論していましたね。(F1キーを押して出てくるやつ)。私のコードのバリエーションを、より便利な形で検索して収集することです。今一度、アドバイスをお願いします。(私の勘違いでなく、あなたであることを祈ります)))

 
エフゲニー・ラスパエフ

こんにちは、少し話がそれますが。先日、掲示板で他の方とのやり取りを発見しました。そこで、マイクロソフトからのヘルプをどのようなプログラムで行うかを議論していましたね。(F1キーを押したときに出てくるやつ)。私のコードのバリエーションを、より便利な形で検索して収集することです。今一度、アドバイスをお願いします。(私の勘違いでなく、あなたであることを祈ります)))

私ではないと思うのですが)覚えていません。

 
マキシム・ドミトリエフスキー

私ではないと思うのですが)記憶にないですね。

すみません、すみません))

 
エフゲニー・ラスパエフ

残念、申し訳ない)))

ヘルプ&マニュアルを試す。
 
ドミトリー・スクーブ
ヘルプ&マニュアルをお試しください。

ああ、ちょうどいい。

 

こんにちは ))


あなたが今までここで検索している間に、私たちはすでにロシアの画期的な元素であるREEを作り出しました。

これは「第5の要素」であり、聖杯、賢者の石、辰砂、気のシステム、アルゴリズムにおける私たち科学専門家の成果である。

これで、あらゆる経済・金融プロジェクトが、RPE上のディープニューロン分析によって最適化されることになります。

つまり、将来的には、経済的なブレークスルーによって、1ルーブルは1ドルに等しくなるのです。


私たちは明るい未来に向かって進んでいるのです!))

 
アレクサンドル・イワノフ

こんにちは ))

....

あなたは天才チームの一人なんでしょう? 待ってください、普通の未熟な頭では理解できないかもしれません)

 
マキシム・ドミトリエフスキー

分類(softmax)のためにalglibのNSアンサンブルとNSとkfoldで遊びました、第一印象は。

1.LBFGSは、アンサンブルのない1台のNSでも、LMよりはるかに速く(2台目を待つのは非現実的)列車を走らせることができます。

2.kfoldは素晴らしいラーニングエラーを見せ続け、私は10はおろか2ファールでも戦略を+αの位置に持っていくことができませんでした。私の仕事にはあまり向いていないかもしれませんが、もう一度試してみます。

バギングとLBFGSアルゴリズムに基づくNSのアンサンブルは、足場のアンサンブルと同じ品質であるが、トレーニングは遅い

3.検証サンプリングによる早期停止アンサンブル(LMは私が使っています):全く覚えるのが待ち遠しいです。

4) パラメータ(ステップ、リトリガ数)を調整しても目に見える改善は得られない。ニューロン数を2~3倍に増やすと、わずかながら改善される。

5.一般的に、NSは同じように再教育され、バギーのNSのアンサンブルは、森からの委員会より少し再教育が少ないという印象を受けました。

これはすべて、後で調査するxgboostなどと比較するために行ったものである。

++ モデルを積み重ねても、安定性が増すわけではありませんが、同じように学習します。

あなたが遊んでいるそのおもちゃの名前も知りたいです。

 
ウラジミール・ペレヴェンコ

遊んでいるおもちゃの名前が分かればいいのですが。

数値解析のライブラリalglib、MT5に移植された、と書いてあります。すでに上下で使っていますが、全般的にバグはなく、ライブラリは良好です。しかし、可視化せず、新型の図書館はもう開発をしていないようで、ホームページには沈黙が続いています。