は完全にランダムなプロセスであり、FOREXは - ページ 5 123456789 新しいコメント Aleksandr Pak 2008.03.24 20:39 #41 D.Will писал (а): 乱数列を何度かシャッフルすることで、擬似乱数生成器の決定性を弱めることにしたんです。 シャッフル for=1:1:10000 i1 = fix(rand*N)+1;)))) i2 = fix(rand*N)+1; ) )). c=r(i1)です。 r(i1)=r(i2)とする。 r(i2)=cとする。 上の例では、全シークエンスを何度かシャッフルして、片方のシークエンスともう片方のシークエンスを表示しました。 そんな風にシャッフルすると、2のつかない8の字になる。燭台切りの紳士はどこだ!? DIZ 2008.03.24 20:43 #42 Korey: D.Willは(a)を書きました。 一連の乱数をシャッフルして、擬似乱数生成器の決定性を低下させることにした。 シャッフル for=1:1:10000 i1 = fix(rand*N)+1;)))) i2 = fix(rand*N)+1; ) )). c=r(i1)です。 r(i1)=r(i2)とする。 r(i2)=cとする。 上の例では、全シークエンスを数回シャッフルして、片方のシークエンスともう片方のシークエンスを表示する例を挙げました。 そんな風にシャッフルすると、2のつかない8の字になる。燭台切りの紳士はどこだ!? どうしたんですか?ランダムに2つのインデックスを選択し、中身を入れ替えた? fix(rand*N)+1 は 1 から N までの整数を返す。Matlabでは、インデックスが1からになります。。 ファック Aleksandr Pak 2008.03.24 20:51 #43 rand はシーケンスを順次クリックします。インデックスは隣接する擬似生成数の組としてとらえる。 であり,それらは相関があることが知られている,つまり,ある期間内にある。 インデックスを取得する間にランダムな数の rand呼び出しを 行い、周期性を崩すようにします。 DIZ 2008.03.24 21:15 #44 Korey: rand はシーケンスを順次クリックします。インデックスは隣接する擬似生成数の組としてとらえる。 であり、それらは相関があることが知られている、すなわち、それらは期間m内にある。 周期性mを破るために、インデックスを取得する間にランダムな数の randコールを実行 するようにしてください。 これについては、すでに説明したとおりです。 このプリセットのポイントは他にあります。 このシリーズにさらに数字を足し算するような形で、変化があってもいいと思うんです。 しかし、その変化の性質はまったく異なる。 もし、ランドとパーミュテーションの相関が大きいと考えるなら、このようなジェネレータは何の価値もない。 お分かりになりますか? 擬似乱数とはいえ、乱数から乱数呼び出しの偏執的な挿入をするわけではありません。 は、PSGと相関のある分布を持つことになります。 実は、データを混ぜることで、配列の性質は変わらないのです。 どのような相関性の話ですか? DIZ 2008.03.24 21:32 #45 特にKoreyの場合 close all; N=1000; r=NORMRND(0,0.0077,1,N); r1=r; for i=1:1:100000 i1 = fix(rand*N)+1 for j=1:1:1000 rand; end i2 = fix(rand*N)+1 cr(i1); r(i1)=r(i2); r(i2)=c; end; figure;%r=r-0を 指定します。5; for i=2:1:length(r) r(i)=r(i)+r(i-1); r1(i)=r1(i)+r1(i-1); end grid on; plot(r); figure; plot(r1); Before 後 さらにカッコよくなりました =)) a completely random process Fast fourier transform channel [ARCHIVE!] Any rookie question, Сергей 2008.03.24 21:34 #46 D.ウィルへ ランダムな系列を形成する方法は、線形合同振動子のアルゴリズムと非常によく似ています。このアルゴリズム(およびその様々な修正版)がランダムな系列以外を生成することは、長い間証明されています。これは、「全体として」シーケンスを生成する場合にも、ランダムデータの生成器そのものにも当てはまります(備考:私の記憶違いでなければ、mathLabはこのようなアルゴリズムを実装していますが、これは簡単に確認 できます)。しかも、コンピュータができることは、ただ一つ、ランダムな配列を作ることだ。ニューラルネットワークの 利用は、この方向では有望で、人々はNSの助けを借りて、例えば「最大証明された確率変数」を得ることができ、企業にとっては、あらゆる種類の巧妙な博士論文を守ることができるのである。自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能するので、試してみるとよいでしょう。 Aleksandr Pak 2008.03.24 21:43 #47 相関関係、まさに相関関係。 J・フォーサイス数理計算のための 機械的方法 Knuth D.E. The Art of Programming.Vol.2のようです。 一般に、標準的な乱数列生成器は古くから不向きと認識されており、自分で書く必要がある場合は、自分で書くことになります。 DIZ 2008.03.24 21:47 #48 grasn: D.ウィルへ ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています は、線形合同発電機に対してこのアルゴリズム(およびその は、ランダムシリーズ以外の何物でもありません。この を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る さらに、コンピュータができることはただ一つ、すなわち、ランダムな シリーズになります。この方向で有望なのが、ニューラルネットワークと を手に入れることができるのです。 そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で 自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。 の予測は、実際に試してみて確認することができます。 カオス的な挙動をするニューラルネットワークがあるはずですが、リンクはありますか? y(n+1)=a0*y(n)+b.noiseとする自己回帰型。♪具体的にどう良いの? y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか? ところで、この発言は、上記のようなプロセスが予測できるということでしょうか? Aleksandr Pak 2008.03.24 21:50 #49 実は次のような意味で、kはサイクル数だと仮定しています。 i1 = fix(rand*N)+1 k=fix(rand*100000)+1 j=1:1:kの場合 ランドになります。 しゅうりょう i2 = fix(rand*N)+1 c=r(i1)です。 r(i1)=r(i2)とする。 r(i2)=cとする。 を終了します。 Сергей 2008.03.24 22:06 #50 D.Will писал (а): グラサン D.ウィルへ ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています は、線形合同発電機に対してこのアルゴリズム(とその は、ランダムシリーズ以外の何物でもありません。この を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る さらに、コンピュータができることはただ一つ、すなわち、ランダムな シリーズになります。この方向で有望なのが、ニューラルネットワークと を得ることができます。 そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で 自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。 の予測は、実際に試してみて確認することができます。 カオス的な振る舞いをするニューラルネットワークに違いない。 y(n+1)=a0*y(n)+b.ノイズとなる自己回帰的なもの。♪具体的にどう良いの? y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか? ところで、この発言は、上記のようなプロセスが予測できるということでしょうか? しかし、すべてが秘密だからというわけではなく、インターネットで調べることが可能だと思います。 そういえば、あなたの発言は、上記のプロセスが予測できるということでしょうか? 私は、「自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能 するので、自分で試して見てください」と明確に書いたつもりです。 もう一度。ARモデルで非常によく(統計的に)予測されている、自分を納得させてみてください。私のささやかな理解では、あなたの世代では微々たるものです。これって模型?モデルでないことは、あなた自身が正しく指摘していることです。まず、モデルを作成する必要があります。まず、単純に、どんな初期条件でも「価格」がマイナスにならないことを保証する、という条件を考案すれば、そう単純ではないことが理解できるだろう。そしてそれを調査し、今やっていることは文字通りの意味でのデタラメである。自然界にも技術的にも、引用に似たプロセスはたくさんあります。Fibo、 レベルやその他の属性で、相場に似た一連のPIを 簡単に取得することができます。 追記:現象のニョロニョロを見つけたいのであれば、-フラクタル!!!。:о) 123456789 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
乱数列を何度かシャッフルすることで、擬似乱数生成器の決定性を弱めることにしたんです。
シャッフル
for=1:1:10000
i1 = fix(rand*N)+1;))))
i2 = fix(rand*N)+1; ) )).
c=r(i1)です。
r(i1)=r(i2)とする。
r(i2)=cとする。
上の例では、全シークエンスを何度かシャッフルして、片方のシークエンスともう片方のシークエンスを表示しました。
一連の乱数をシャッフルして、擬似乱数生成器の決定性を低下させることにした。
シャッフル
for=1:1:10000
i1 = fix(rand*N)+1;))))
i2 = fix(rand*N)+1; ) )).
c=r(i1)です。
r(i1)=r(i2)とする。
r(i2)=cとする。
上の例では、全シークエンスを数回シャッフルして、片方のシークエンスともう片方のシークエンスを表示する例を挙げました。
fix(rand*N)+1 は 1 から N までの整数を返す。Matlabでは、インデックスが1からになります。
。
ファック
であり,それらは相関があることが知られている,つまり,ある期間内にある。
インデックスを取得する間にランダムな数の rand呼び出しを 行い、周期性を崩すようにします。
rand はシーケンスを順次クリックします。インデックスは隣接する擬似生成数の組としてとらえる。
であり、それらは相関があることが知られている、すなわち、それらは期間m内にある。
周期性mを破るために、インデックスを取得する間にランダムな数の randコールを実行 するようにしてください。
これについては、すでに説明したとおりです。
このプリセットのポイントは他にあります。
このシリーズにさらに数字を足し算するような形で、変化があってもいいと思うんです。
しかし、その変化の性質はまったく異なる。
もし、ランドとパーミュテーションの相関が大きいと考えるなら、このようなジェネレータは何の価値もない。
お分かりになりますか?
擬似乱数とはいえ、乱数から乱数呼び出しの偏執的な挿入をするわけではありません。
は、PSGと相関のある分布を持つことになります。
実は、データを混ぜることで、配列の性質は変わらないのです。
どのような相関性の話ですか?
close all;
N=1000;
r=NORMRND(0,0.0077,1,N);
r1=r;
for i=1:1:100000
i1 = fix(rand*N)+1
for j=1:1:1000
rand;
end
i2 = fix(rand*N)+1
cr(i1);
r(i1)=r(i2);
r(i2)=c;
end;
figure;
%r=r-0を 指定します。5;
for i=2:1:length(r)
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);
end
grid on;
plot(r);
figure;
plot(r1);
Before
後
さらにカッコよくなりました =))
ランダムな系列を形成する方法は、線形合同振動子のアルゴリズムと非常によく似ています。このアルゴリズム(およびその様々な修正版)がランダムな系列以外を生成することは、長い間証明されています。これは、「全体として」シーケンスを生成する場合にも、ランダムデータの生成器そのものにも当てはまります(備考:私の記憶違いでなければ、mathLabはこのようなアルゴリズムを実装していますが、これは簡単に確認 できます)。しかも、コンピュータができることは、ただ一つ、ランダムな配列を作ることだ。ニューラルネットワークの 利用は、この方向では有望で、人々はNSの助けを借りて、例えば「最大証明された確率変数」を得ることができ、企業にとっては、あらゆる種類の巧妙な博士論文を守ることができるのである。自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能するので、試してみるとよいでしょう。
相関関係、まさに相関関係。
J・フォーサイス数理計算のための 機械的方法
Knuth D.E. The Art of Programming.Vol.2のようです。
一般に、標準的な乱数列生成器は古くから不向きと認識されており、自分で書く必要がある場合は、自分で書くことになります。
D.ウィルへ
ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています
は、線形合同発電機に対してこのアルゴリズム(およびその
は、ランダムシリーズ以外の何物でもありません。この
を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る
さらに、コンピュータができることはただ一つ、すなわち、ランダムな
シリーズになります。この方向で有望なのが、ニューラルネットワークと
を手に入れることができるのです。
そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で
自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。
の予測は、実際に試してみて確認することができます。
カオス的な挙動をするニューラルネットワークがあるはずですが、リンクはありますか?
y(n+1)=a0*y(n)+b.noiseとする自己回帰型。♪具体的にどう良いの?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか?
ところで、この発言は、上記のようなプロセスが予測できるということでしょうか?
実は次のような意味で、kはサイクル数だと仮定しています。
i1 = fix(rand*N)+1
k=fix(rand*100000)+1
j=1:1:kの場合
ランドになります。
しゅうりょう
i2 = fix(rand*N)+1
c=r(i1)です。
r(i1)=r(i2)とする。
r(i2)=cとする。
を終了します。
D.ウィルへ
ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています
は、線形合同発電機に対してこのアルゴリズム(とその
は、ランダムシリーズ以外の何物でもありません。この
を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る
さらに、コンピュータができることはただ一つ、すなわち、ランダムな
シリーズになります。この方向で有望なのが、ニューラルネットワークと
を得ることができます。
そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で
自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。
の予測は、実際に試してみて確認することができます。
カオス的な振る舞いをするニューラルネットワークに違いない。
y(n+1)=a0*y(n)+b.ノイズとなる自己回帰的なもの。♪具体的にどう良いの?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか?
ところで、この発言は、上記のようなプロセスが予測できるということでしょうか?
しかし、すべてが秘密だからというわけではなく、インターネットで調べることが可能だと思います。
私は、「自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能 するので、自分で試して見てください」と明確に書いたつもりです。
もう一度。ARモデルで非常によく(統計的に)予測されている、自分を納得させてみてください。私のささやかな理解では、あなたの世代では微々たるものです。これって模型?モデルでないことは、あなた自身が正しく指摘していることです。まず、モデルを作成する必要があります。まず、単純に、どんな初期条件でも「価格」がマイナスにならないことを保証する、という条件を考案すれば、そう単純ではないことが理解できるだろう。そしてそれを調査し、今やっていることは文字通りの意味でのデタラメである。自然界にも技術的にも、引用に似たプロセスはたくさんあります。Fibo、 レベルやその他の属性で、相場に似た一連のPIを 簡単に取得することができます。
追記:現象のニョロニョロを見つけたいのであれば、-フラクタル!!!。:о)