САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
あなたはオオカミ-フォワードが必要です、あなたはそのように最適化することはできません、フォワードは、この場合、常に悪い(またはランダム)あなたが得る市場のどのフェーズに応じて、私はすでにバックテストでそのようなシステムのバージョンの束を持って、フォワードではコインのように動作)これはオーバーフィッティングと呼ばれています。
毎月のオフセットがある最適化を12回行ったところ、各月で最適な入力パラメータが他の月のパラメータと異なってしまいました。どれを選べばいいのでしょうか?
バルブフォワード時のシステムパラメータを選択するアルゴリズムはあるのでしょうか?
月ごとにオフセット付きの最適化を12回行いましたが、各月で最適な入力パラメータは他の月のパラメータとは異なっています。そして、どれを選ぶか?
私の表現が正しくなかったのですが、私が言いたかったのは「それに似たもの」、つまり、何らかの最適化 基準を持つ自己最適化システムであり、同じNSがオプティマイザーとして使えるということなのですが......。
バルブフォワード時のシステムパラメータを選択するアルゴリズムはありますか?
1ヶ月のオフセットで12個の最適化を受けたが、各月の最適な入力パラメータは他の月のパラメータと異なっている。そして、どちらを選んで仕事をすればいいのか?
最適化と学習といえば。途中の操作を除いて、23時間かかっています。各パス(数エポックです)の後、私はトレーニングのためのサンプルを変更します。いいえ、シャッフルするのではなく、変える、つまり、同じ写真を見せないようにするのです。学習過程でのサンプルの繰り返しはありません。
最適化アルゴリズムは? L-BFGSアルゴリズムのものを探せば、何倍も速いでしょう。
で、NSの学習は、例えば、23時間ではなく、10分(普通の人と同じように)100倍速くなります :))) もし、固定ステップの単純な勾配降下法であれば
比較はこちら
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
最適化アルゴリズムは? L-BFGSアルゴリズムのものを探せば、何倍も速いでしょう。
で、NSの学習は、例えば、23時間ではなく、10分(普通の人と同じように)100倍速くなります :))) もし、固定ステップの単純な勾配降下法であれば
比較はこちら
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
ありがとうございます、読んでみます。
最適化ではなく、学習という感じですね。単純ではないすでに書きました - 標準的なBPを手作業でシミュレーテッドアニーリングしたものです。
おそらくもっと良いアルゴリズムもあるのでしょうが、私は開発環境にあるものしか使っていません。その他、外付けのものが問題です。
一般的に、スピードは重要ではなく、3ヶ月に1回のトレーニングであれば、23時間でもウフフです。しかし、3ヶ月間のテストでは、劣化は見られませんでした。おそらく、もっと長い時間使えると思います。
最適化ではなく、学習という感じですね。単純ではないすでに書いたことですが、標準的なBPに手動アニーリングをシミュレートしたものです。
もしかしたらもっと良いアルゴリズムもあるかもしれませんが、私は開発環境にあるものしか使っていません。その他、外付けのものは問題ありです。
何はともあれ、トレーニングとは目標関数の最適化である
そうなんですね、アニールについて書かれていたんですね、詳しくないので読んでみます
何はともあれ、学習とは目標関数の最適化である。
何はともあれ、トレーニングとは目標関数の最適化である
そうなんですね、アニールについて書かれていたんですね、詳しくないので読んでみます
アニーリングは、Nエポック後に学習パラメータを変更して手動でシミュレートします。 また、学習シーケンスは完全に置き換えます(混合ではなく、置き換えです)。
かっこいいですね。このようなNSについて、どこで詳しく読むことができますか?つまり、先生がいなくても、アウトプットに何かを供給するような感じですか?
このようなNSの詳細がどこに書いてあるのかわからないのですが、つまり、先生がいなくても、何かを出力に送り込むような感じなのでしょうか?
HaykinNeural Networksと Bishopの理論を英語で読むことができる - 翻訳はないが、準備はできているようだ。
単純なことです。ランダムな取引を入力し、その結果を出力するのです。モンテカルロ法というのがあって、それ自体はあまり速くはない。そしてその体系化は、体系的な分析が必要である。