トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 493

 
マキシム・ドミトリエフスキー

あなたはオオカミ-フォワードが必要です、あなたはそのように最適化することはできません、フォワードは、この場合、常に悪い(またはランダム)あなたが得る市場のどのフェーズに応じて、私はすでにバックテストでそのようなシステムのバージョンの束を持って、フォワードではコインのように動作)これはオーバーフィッティングと呼ばれています。

ローリングフォワードでシステムパラメータを選択するアルゴリズムはあるのか?
毎月のオフセットがある最適化を12回行ったところ、各月で最適な入力パラメータが他の月のパラメータと異なってしまいました。どれを選べばいいのでしょうか?
 
elibrarius:
バルブフォワード時のシステムパラメータを選択するアルゴリズムはあるのでしょうか?
月ごとにオフセット付きの最適化を12回行いましたが、各月で最適な入力パラメータは他の月のパラメータとは異なっています。そして、どれを選ぶか?

私の表現が正しくなかったのですが、私が言いたかったのは「それに似たもの」、つまり、何らかの最適化 基準を持つ自己最適化システムであり、同じNSがオプティマイザーとして使えるということなのですが......。

 
エリブラリウス
バルブフォワード時のシステムパラメータを選択するアルゴリズムはありますか?
1ヶ月のオフセットで12個の最適化を受けたが、各月の最適な入力パラメータは他の月のパラメータと異なっている。そして、どちらを選んで仕事をすればいいのか?
最適化と訓練といえば。途中の操作を含めず、23時間かかっています。1パス(数エポック)ごとに、学習サンプルを変更します。いいえ、シャッフルするのではなく、変える、つまり、同じ写真を見せないようにするのです。学習過程でのサンプルの繰り返しはありません。
 
ユーリイ・アサウレンコ
最適化と学習といえば。途中の操作を除いて、23時間かかっています。各パス(数エポックです)の後、私はトレーニングのためのサンプルを変更します。いいえ、シャッフルするのではなく、変える、つまり、同じ写真を見せないようにするのです。学習過程でのサンプルの繰り返しはありません。

最適化アルゴリズムは? L-BFGSアルゴリズムのものを探せば、何倍も速いでしょう。

で、NSの学習は、例えば、23時間ではなく、10分(普通の人と同じように)100倍速くなります :))) もし、固定ステップの単純な勾配降下法であれば


比較はこちら

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
マキシム・ドミトリエフスキー

最適化アルゴリズムは? L-BFGSアルゴリズムのものを探せば、何倍も速いでしょう。

で、NSの学習は、例えば、23時間ではなく、10分(普通の人と同じように)100倍速くなります :))) もし、固定ステップの単純な勾配降下法であれば

比較はこちら

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

ありがとうございます、読んでみます。

最適化ではなく、学習という感じですね。単純ではないすでに書きました - 標準的なBPを手作業でシミュレーテッドアニーリングしたものです。

おそらくもっと良いアルゴリズムもあるのでしょうが、私は開発環境にあるものしか使っていません。その他、外付けのものが問題です。

一般的に、スピードは重要ではなく、3ヶ月に1回のトレーニングであれば、23時間でもウフフです。しかし、3ヶ月間のテストでは、劣化は見られませんでした。おそらく、もっと長い時間使えると思います。

 
ユーリイ・アサウレンコ

最適化ではなく、学習という感じですね。単純ではないすでに書いたことですが、標準的なBPに手動アニーリングをシミュレートしたものです。

もしかしたらもっと良いアルゴリズムもあるかもしれませんが、私は開発環境にあるものしか使っていません。その他、外付けのものは問題ありです。


何はともあれ、トレーニングとは目標関数の最適化である

そうなんですね、アニールについて書かれていたんですね、詳しくないので読んでみます

 
マキシム・ドミトリエフスキー

何はともあれ、学習とは目標関数の最適化である。

私は訓練において目標関数を持っていない、すなわち訓練シーケンスに初期分類がない)。掛け算の表もろくに知らない先生と一緒に学ぶようなものです。NS自体は、どこに行くのかわからないゴーイングマイウェイを探しています。だから、より速い学習は効果が期待できない。
 
マキシム・ドミトリエフスキー

何はともあれ、トレーニングとは目標関数の最適化である

そうなんですね、アニールについて書かれていたんですね、詳しくないので読んでみます

はい、アニーリングはNエポック後に学習パラメータを変更して手動でシミュレーションしています。また、トレーニングの順番も完全に入れ替わります(ミックスではなく、入れ替えです)。
 
ユーリイ・アサウレンコ
アニーリングは、Nエポック後に学習パラメータを変更して手動でシミュレートします。 また、学習シーケンスは完全に置き換えます(混合ではなく、置き換えです)。

かっこいいですね。このようなNSについて、どこで詳しく読むことができますか?つまり、先生がいなくても、アウトプットに何かを供給するような感じですか?

 
マキシム・ドミトリエフスキー

このようなNSの詳細がどこに書いてあるのかわからないのですが、つまり、先生がいなくても、何かを出力に送り込むような感じなのでしょうか?

HaykinNeural Networksと Bishopの理論を英語で読むことができる - 翻訳はないが、準備はできているようだ。

単純なことです。ランダムな取引を入力し、その結果を出力するのです。モンテカルロ法というのがあって、それ自体はあまり速くはない。そしてその体系化は、体系的な分析が必要である。

理由: