一个完全随机的过程和FOREX。 - 页 5

 
D.Will писал (а):

我决定通过对一系列随机数进行多次洗牌来减少伪随机数发生器的确定性。

%洗牌
for=1:1:10000
i1 = fix(rand*N)+1;))))
i2 = fix(rand*N)+1; ) )
c=r(i1)。
r(i1)=r(i2)。
r(i2)=c。

如果你看上面,我举了一个例子,我 整个序列洗了几次,并同时显示了一个和另一个序列。




当像这样洗牌时--在没有两个人的情况下,在一个8上。烛台的先生们在哪里!?
 
Korey:
D.Will 写道(a)。



决定通过对一系列随机数进行多次洗牌来减少伪随机数发生器的确定性。



%洗牌

for=1:1:10000

i1 = fix(rand*N)+1;))))

i2 = fix(rand*N)+1; ) )

c=r(i1)。

r(i1)=r(i2)。

r(i2)=c。



如果你看上面,我举了一个例子,我 整个序列洗了几次,并同时显示了一个和另一个序列。









当像这样洗牌时--在没有两个人的情况下,在一个8上。烛台的先生们在哪里!?
这里有什么问题吗?随机选择了两个索引并交换了内容?

fix(rand*N)+1返回一个从1到N的整数。在Matlab中,索引从1开始。

卧槽
 
rand依次点击该序列。指数被当作一对相邻的伪生成器号码。
并且已知它们是相关的,即它们位于一个时期内。
试着在获取索引之间进行随机数量的 rand调用,以打破周期性。
 
Korey:
rand依次点击该序列。指数被当作一对相邻的伪生成器号码。

并且已知它们是相关的,也就是说,它们位于周期m之内。

尝试在获取索引之间执行随机数量的 rand调用,以打破周期性m。

关于这一点,我们已经讨论过了。

这个预设的重点是别的东西。
如果这个变化是以加法的形式,在这个系列中再加上一些数字,那就可以了。
但这种变化的性质完全不同。

如果你认为rand与permutation的相关性如此之大,那么这样的发生器就没有任何价值。
你明白吗?

尽管它是伪随机的,但这并不意味着你应该从一个随机数中偏执地插入随机调用。

所有这些呼叫也将有一个与PSG相关的分布。

事实是,通过混合数据,序列的性质保持不变。

你说的是什么关联性????????
 
特别是对于Korey

close all;

N=1000;
r=NORMRND(0,0.0077,1,N);

r1=r;

for i=1:1:100000
i1 = fix(rand*N)+1
for j=1:1:1000
rand;
end
i2 = fix(rand*N)+1
c=r(i1);
r(i1) =r(i2);
r(i2) = c;
end;

figure;
%r=r-05;
for i=2:1:length(r)
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);
end

grid on;

plot(r);
figure;
plot(r1);



Before


之后


这更酷了=))。






 
D.Will

形成随机数列的方式与线性全等振荡器的算法非常相似。早已证明,这种算法(及其各种修改)产生的东西不是随机数列。这对于生成序列 "整体 "和随机数据生成器本身都是如此(注:如果我没记错的话,mathLab已经实现了这种算法,但这很容易检查)。此外,计算机可以做任何事情,但只有一件事--即生成一个随机序列。在这个方向上,神经网络 的使用是有希望的,人们设法在NS的帮助下得到,比方说,"最大化证明的随机变量",并为一个公司辩护各种巧妙的博士论文。自回归预测模型在这样的系列上工作得很好(在统计学意义上),你可以尝试并确保。

 

相关性,正是相关性。

J. Forsyth.数学计算的 机器方法
Knuth D.E. The Art of Programming.第二卷,似乎是这样。
一般来说,标准的随机序列发生器早已被认为是不合适的,如果有必要自己编写的话。

 
grasn:
D.Will


你生成随机数列的方式与算法非常相似
为线性全等的生成器。早已证明,这种算法(以及它的
不同的修改)形成任何东西,而不是一个随机系列。这
关注序列 "整体 "的生成和随机数据发生器本身。更多
此外,计算机可以做任何事情,但只有一件事--即生成一个随机的
系列。在这个方向上有希望的是使用神经网络
人们设法获得,我们可以说,"最大限度的证明"。
随机变量",并在这个过程中为各种聪明的博士论文辩护。在这种情况下
自回归模型运作良好(在统计学意义上)。
预测,你可以自己试一试,看一看。





你有一个链接吗? 你一定有具有混乱行为的神经网络。
自回归,其中y(n+1)=a0*y(n)+b.噪声。他们到底是怎么好的?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5)+b.noise的结果是线性神经元+noise。它有什么好处?


顺便问一下,你的说法是否意味着上述过程可以被预测?
 

我其实是指下面的意思,我假设k是循环的数量。

i1 = fix(rand*N)+1
k=fix(rand*100000)+1
对于j=1:1:k
rand。
结束
i2 = fix(rand*N)+1
c=r(i1)。
r(i1)=r(i2)。
r(i2)=c。
结束。

 
D.Will писал (а):
格拉斯恩
D.Will


你生成随机数列的方式与算法非常相似
为线性全等的生成器。早已证明,这种算法(以及他们的
不同的修改)形成任何东西,而不是一个随机系列。这
关注序列 "整体 "的生成和随机数据发生器本身。更多
此外,计算机可以做任何事情,但只有一件事--即生成一个随机的
系列。在这个方向上有希望的是使用神经网络
人们设法获得,我们可以说,"最大限度的可证明的
随机变量",并在这个过程中为各种聪明的博士论文辩护。在这种情况下
自回归模型运作良好(在统计学意义上)。
预测,你可以自己试一试,看一看。





你有链接吗? 它一定是具有混乱行为的神经网络。
自回归的,即y(n+1)=a0*y(n)+b.噪声。他们到底是怎么好的?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5)+b.noise的结果是线性神经元+noise。它有什么好处?


顺便问一下,你的说法是否意味着上述过程可以被预测?

我得到了认识的材料,这就是所谓的在手。 但这并不是因为一切都很秘密,我想,在互联网上可以找到。

说到这里,你的说法是否意味着上述过程是可以预测的?

我想我清楚地写道:"自回归预测模型在这种系列上工作得很好(在统计学意义上),你可以自己尝试看看"。

再一次。很好地(从统计学角度)预测了AR模型,试着说服自己。以我个人的理解--对你们这一代人来说是微不足道的。那是一个模型吗?你自己已经很正确地指出,这不是一个模型。首先,创建一个模型。首先,简单地发明一个条件,即在任何初始条件下都保证 "价格 "不为负数--你会明白,这不是那么简单。并对其进行调查,你现在所做的是字面意义上的胡说八道。有很多过程,包括自然的和技术的,都类似于引言。你可以很容易地得到一些类似于报价的PI,有Fibo、水平 和其他属性。

PS:如果你想找到现象的gnomon,那么 - fractals!!!!。:о)