トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 870 1...863864865866867868869870871872873874875876877...3399 新しいコメント Yuriy Asaulenko 2018.04.28 10:17 #8691 エリブラリウス 学習データ(または学習例)が何列分あるかということです。 例:10000行、15入力の場合記憶では - 項目1. 約5-10,000。 数エポックごとに、データが混在している。 あるエポック数の後、学習シーケンスは別のものに置き換えられ、ポイント1を参照。そうして、いくつかのエポックに。 総エポック数は1000といったところでしょうか。途中の再構成やテストを含めた学習時間は1日程度です。 上の図は、私が最初に実験したときのもので、そこではすべてがもっと単純だったのです。 Forester 2018.04.28 10:31 #8692 ユーリイ・アサウレンコ記憶では - 項目1. 約5-10,000。 数エポックごとに、データが混在している。 あるエポック数の後、学習シーケンスは別のものに置き換えられ、ポイント1を参照。そうして、いくつかのエポックに。 総エポック数は1000といったところでしょうか。途中の再構成やテストを含めた学習時間は1日程度です。 上の図は、私が最初に実験したときのもので、このときはすべてがシンプルでした。 一次トレーニングに加え、フォローアップのトレーニングが受けられるという面白い方式です。 Yuriy Asaulenko 2018.04.28 10:38 #8693 エリブラリウス 一次訓練+再教育を受けるという面白い方法です。そうとは言い切れませんね。トレーニング時の学習順序を入れ替えるだけ。だから、同じデータに慣れることはない)。 はい、さらにアニールも行います。標準的なBPアルゴリズムを使用しているので、NSの学習パラメータは数エポックごとに手動で変更します。 SZYはこのスレッドを読んで、私のようなシステムの構造についてもう少し詳しく説明します -https://www.mql5.com/ru/forum/239508 ТС на нейросети (оч. краткое руководство) 2018.04.22www.mql5.com Вместо введения Типовая ТС состоит из ВР, индикаторов и логического блока принятия решений (БПР... Forester 2018.04.28 10:59 #8694 ユーリイ・アサウレンコそうとは言い切れませんね。トレーニング時の学習順序を入れ替えるだけ。同じデータに慣れるためではない)。 これは新しいデータで再トレーニングしているだけだと思います。最初のデータブロックで学習した後、ネットワークの重みをリセットすることはありません。 Yuriy Asaulenko 2018.04.28 11:05 #8695 エリブラリウス新しいデータでの再学習だと思います。最初のブロックのデータで学習した後に、ネットワークの重みをリセットするようなことはありません。もちろん、そんなことはありません。しかし、新しいデータがあるわけではなく、同じストーリーに新しいシークエンスが加わっているのです。同じ学びの継続であり、ひとつのプロセスである。だから、どの時代も学び直しとして扱うことができるのです。まあ、どちらかというと用語の問題ですね。 Maxim Dmitrievsky 2018.04.28 11:20 #8696 エリブラリウス 隠された層がない回帰、それは... そろそろRに乗り換えようと、alglib NSで試してみたのですが、Rと同じネットワークの計算に10倍も時間がかかります(24時間対30~60分とか)。さらに、alglibでは最大2つの隠れ層がありますが、あなたの観察によれば、3つの連続した変換、すなわち3つの層が必要です。 回帰は線形である。R not hoW, python digging - but I don't see much point. Forester 2018.04.28 11:49 #8697 ユーリイ・アサウレンコもちろん、そんなことはありません。しかし、新しいデータがあるわけではなく、同じストーリーに新しいシークエンスが加わっているのです。同じ学びの継続であり、ひとつのプロセスである。だから、どの時代も学び直しとして扱うことができるのです。まあ、どちらかというと用語の問題なんですけどね。 まあ、お互いを正しく理解する(用語の概念を同じにする)ことが大切なんですけどね。 同じデータに対する各エポックが学習である。暗記学習があるように。 新しいものには、目盛りをリセットせずに、再学習させるのです。そして、NSは最初のトレーニングでそれらを意識していなかったので、新しく持っていますね。 Dr. Trader 2018.04.28 13:31 #8698 回帰とは、次の価格を予測することである。分類とは異なり、予測されるのは取引の方向や種類ではなく、小数点以下の価格をすべて表示します。 線形 回帰があり、非線形回帰がある。有馬、Garch、そして正しい構成のニューロン(例えば活性化なしの1出力)もすべて回帰である。 Maxim Dmitrievsky 2018.04.28 14:20 #8699 Dr.トレーダー回帰とは、次の価格を予測することである。分類とは異なり、予測されるのは取引の方向や種類ではなく、小数点以下の価格をすべて表示します。 線形 回帰があり、非線形回帰がある。Arima、Garch、そしてneuroncも正しい設定(例えば活性化なしの1出力)であれば、すべて回帰することができます。 そもそもあれは何だったのか?私はロジット回帰の話をしたのですが、ほとんどの場合、分類はロジット回帰に限定すればよく、NSをいじくりまわさなくてもいいのです。クイック&クリーン、オーバーライドなし。 Mihail Marchukajtes 2018.04.28 14:52 #8700 サン・サンチとおしゃべりをした。退行訓練のためのファイルを用意していた、ということで落ち着き、あとは近況報告をすることになりました。だから、兄弟、私は今アンロードをやっていると、多くの人々は、単にあなたがそうすることができる十分な牽引力を持っていないようなアイデアを発明した。回帰の適応目標ってどうなんだろう?AAA? いいのかどうかわからないが、チェックしてみる価値はありそうだ。:-) 1...863864865866867868869870871872873874875876877...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
学習データ(または学習例)が何列分あるかということです。
例:10000行、15入力の場合
記憶では - 項目1. 約5-10,000。 数エポックごとに、データが混在している。
あるエポック数の後、学習シーケンスは別のものに置き換えられ、ポイント1を参照。そうして、いくつかのエポックに。
総エポック数は1000といったところでしょうか。途中の再構成やテストを含めた学習時間は1日程度です。
上の図は、私が最初に実験したときのもので、そこではすべてがもっと単純だったのです。
記憶では - 項目1. 約5-10,000。 数エポックごとに、データが混在している。
あるエポック数の後、学習シーケンスは別のものに置き換えられ、ポイント1を参照。そうして、いくつかのエポックに。
総エポック数は1000といったところでしょうか。途中の再構成やテストを含めた学習時間は1日程度です。
上の図は、私が最初に実験したときのもので、このときはすべてがシンプルでした。
一次訓練+再教育を受けるという面白い方法です。
そうとは言い切れませんね。トレーニング時の学習順序を入れ替えるだけ。だから、同じデータに慣れることはない)。
はい、さらにアニールも行います。標準的なBPアルゴリズムを使用しているので、NSの学習パラメータは数エポックごとに手動で変更します。
SZYはこのスレッドを読んで、私のようなシステムの構造についてもう少し詳しく説明します -https://www.mql5.com/ru/forum/239508
そうとは言い切れませんね。トレーニング時の学習順序を入れ替えるだけ。同じデータに慣れるためではない)。
これは新しいデータで再トレーニングしているだけだと思います。最初のデータブロックで学習した後、ネットワークの重みをリセットすることはありません。
新しいデータでの再学習だと思います。最初のブロックのデータで学習した後に、ネットワークの重みをリセットするようなことはありません。
もちろん、そんなことはありません。しかし、新しいデータがあるわけではなく、同じストーリーに新しいシークエンスが加わっているのです。同じ学びの継続であり、ひとつのプロセスである。だから、どの時代も学び直しとして扱うことができるのです。まあ、どちらかというと用語の問題ですね。
隠された層がない回帰、それは...
そろそろRに乗り換えようと、alglib NSで試してみたのですが、Rと同じネットワークの計算に10倍も時間がかかります(24時間対30~60分とか)。さらに、alglibでは最大2つの隠れ層がありますが、あなたの観察によれば、3つの連続した変換、すなわち3つの層が必要です。
もちろん、そんなことはありません。しかし、新しいデータがあるわけではなく、同じストーリーに新しいシークエンスが加わっているのです。同じ学びの継続であり、ひとつのプロセスである。だから、どの時代も学び直しとして扱うことができるのです。まあ、どちらかというと用語の問題なんですけどね。
同じデータに対する各エポックが学習である。暗記学習があるように。
新しいものには、目盛りをリセットせずに、再学習させるのです。そして、NSは最初のトレーニングでそれらを意識していなかったので、新しく持っていますね。
回帰とは、次の価格を予測することである。分類とは異なり、予測されるのは取引の方向や種類ではなく、小数点以下の価格をすべて表示します。
線形 回帰があり、非線形回帰がある。有馬、Garch、そして正しい構成のニューロン(例えば活性化なしの1出力)もすべて回帰である。
回帰とは、次の価格を予測することである。分類とは異なり、予測されるのは取引の方向や種類ではなく、小数点以下の価格をすべて表示します。
線形 回帰があり、非線形回帰がある。Arima、Garch、そしてneuroncも正しい設定(例えば活性化なしの1出力)であれば、すべて回帰することができます。
サン・サンチとおしゃべりをした。退行訓練のためのファイルを用意していた、ということで落ち着き、あとは近況報告をすることになりました。だから、兄弟、私は今アンロードをやっていると、多くの人々は、単にあなたがそうすることができる十分な牽引力を持っていないようなアイデアを発明した。回帰の適応目標ってどうなんだろう?AAA?
いいのかどうかわからないが、チェックしてみる価値はありそうだ。:-)