交易中的机器学习:理论、模型、实践和算法交易 - 页 1418

 
尤里-阿索连科

不要再胡闹了,小丑。

当你在说废话的时候,给我一些证据,你那带着一堆点的画已经被讨论过了,接下来呢?

什么方法呢,有人错过了什么吗?

你是我们两个人的小丑,去别的地方无聊的马戏团吧,"先生"。

你的帖子对任何人都不感兴趣,它们不有趣,没有信息,不相关......Anderstendish? 如果你觉得无聊,那是你的问题,那就走吧
 
马克西姆-德米特里耶夫斯基

当你在说废话的时候,给我一些证据,你那带着一堆点的画已经被讨论过了,接下来呢?

什么方法呢,有人错过了什么吗?

我们两个人中的小丑是你,去想念你的马戏团吧,"先生"。

你的帖子对任何人都不感兴趣,它们不有趣,没有信息,也没有任何......安德斯坦德? 如果你觉得无聊,那是你的问题,滚吧。

你有没有试着去看心理医生?

 
尤里-阿索连科
森林和NS有足够的智慧在内部组织自己的预测器,即最适合任务的预测器。

除非它不仅仅是无稽之谈,它是一个骗局,把你从脚手架上扔下来,把你引向一个滑坡。

在脚手架和NS中没有 "智能",它们是相当平凡的算法,如排序,也许更复杂一点,如矩阵反转......。

结果取决于预测器,就像混沌系统的状态来自初始条件一样。

添加一些噪声特征,对特征空间进行变形,你就完成了。


我在想...

你有没有向森林提交过净价?我不这么认为,因为一个尝试过的人不会在这里发表这种狗屁言论......

 
圣杯

除非它不仅仅是无稽之谈,它是一个骗局,要把你从脚手架上扔下去,把你引向一个滑坡。

在脚手架和NS中没有 "智能",它们是相当平凡的算法,如排序,也许更复杂一点,如矩阵反转......。

结果取决于预测器,就像混沌系统的状态来自初始条件一样。

添加一些噪声特征,对特征空间进行变形,你就完成了。


我在想...

你有没有向森林提交过净价?我有一种感觉,你没有,因为一个尝试过的人不会在这里发表这样的废话......

你似乎很容易 "混淆视听,在湿滑的斜坡上转向"。))

当然,我没有任何智力,但我甚至有足够的智力来从BP中形成自己内心的必要预测)。

是的,事实上,我做到了,而且不仅是我,也不仅是在森林里,而且是在NS。从20到50个样本。我对结果相当满意。如果我们阅读NS理论,他们在这种BP处理任务上是相当出色的。顺便说一下,几乎每个包都有直接与BP合作的实例,你可以自己看一下,没有任何问题)。

 
尤里-阿索连科

你似乎很容易 "混淆视听,在湿滑的斜坡上转向"。))

当然,我没有任何智力,但我甚至有足够的智力从BP中形成自己内心的必要预测)。

是的,事实上,我做到了,而且不仅是我,也不仅是在森林里,而且是在NS。从20到50个样本。我对结果相当满意。如果我们阅读NS理论,他们在这种BP处理任务上是相当出色的。顺便说一下,几乎每个包都有直接与BP合作的实例,你可以自己看一下,没有任何问题)。

Vasya,带着这样的 "知识 "出去走走吧,这里没有人对你感兴趣。

当我写到增量时,你就谈增量,当我写到价格时,你就写到价格。你只是听到铃声,但你不知道它在哪里。明天我会写别的东西,你会像鹦鹉一样重复一年,你会像最黑暗的森林一样做出反应。

 
马克西姆-德米特里耶夫斯基

Vasya,带着这样的 "知识 "出去走走吧,这里没有人对你感兴趣。

当我写增量时,你就谈增量,当我写价格时,你就写价格。你只是听到铃声,但你不知道它在哪里。明天我会写别的东西,你会像鹦鹉一样重复一年,你的反应是多年,像最密集的森林。

你最好去看看心理医生。你是有症状的。可能是一个急性期。他们不会治愈你,但你会缓解病情的恶化。

 
尤里-阿索连科

你似乎很容易 "混淆视听,在湿滑的斜坡上转向"。))

当然我没有任何智力,但我甚至有足够的智力在我体内从BP中独立形成必要的预测因素)。

是的,事实上,我做到了,而且不仅是我,也不仅是在森林里,而且是在NS。从20到50个样本。我对结果相当满意。如果我们阅读NS理论,他们在这种BP处理任务上是相当出色的。顺便说一下,几乎每个包都有直接与BP合作的实例,你可以自己看一下,没有任何问题)。

恕我直言(你懂的......),但你对MO的运作方式理解得很差,就像 "如果你把一个无人驾驶的程序放在价格运动上驱动,那么...... "那样的蒙昧主义水平,像你这样的人把图表的截图贴在CNN和LSTM的文字新闻上。Maxim Dmitrievsky正确地描述了你的"你听到了铃声,但你不知道它在哪里"的心态。 在MLP中,而且在森林中,没有神奇的特征搜索,所有愚蠢的启发式方法比 "准最佳 "的kNN和Parzen的窗口方法工作得更快,它们基本上是对一个点周围的邻居进行平均。阅读Mitchell,自己写kNN、parzen、MLP、les....。在一般的CNN中,卷积本身是一个硬编码的预处理启发式的局部相关特征,拍下照片,洗刷像素,单向的,就是这样。美国有线电视新闻网(CNN)会马上掐断,不会发现任何东西,因为所有东西都只在非常狭窄的范围内工作,没有任何东西是可以自己 "搜索 "的。

如果你把纯粹的价格贴在功能上,你会得到比普通的故事优化混搭好不了多少。
 
圣杯

恕我直言(你懂的......),但你对MLP的工作原理的理解非常差,在蒙昧主义的层面上,就像 "如果你把一个无人驾驶程序放在价格运动上驱动,那么......",像你这样的人在CNN里贴图表的截图,在LSTM里贴文字新闻。Maxim Dmitrievsky正确地描述了你的"你听到了铃声,但你不知道它在哪里"的心态。 在MLP中,而且在森林中,没有神奇的特征搜索,所有愚蠢的启发式方法比 "准最佳 "的kNN和Parzen的窗口方法工作得更快,它们基本上是对一个点周围的邻居进行平均。阅读Mitchell,自己写kNN、parzen、MLP、les....。在一般的CNN中,卷积本身是一个硬编码的预处理启发式的局部相关特征,拍下照片,洗刷像素,单向的,就是这样。CNN会马上搞砸,它不会找到任何东西,因为所有东西都只在一个非常狭窄的边界内工作,它不会自己去 "寻找 "任何东西。

如果你在筹码中贴上一个纯粹的价格,你得到的东西不会比一个普通的故事优化的向导好。

我对你没有什么可说的,因为没有问题可讨论。请记住:被愚弄的最可靠方式是认为自己比别人更聪明。(с)

是的,我在NS上使用这个系统已经一年多了,没有重新培训。最早的,仍然是审判,在这个线程中的交易。新系统?- 我不着急。

 

当输入端已经有准备好的数据时,激活函数应该被放弃,这样就不会失去最后一层的迹象。

只要你把数据塞进模板HH,就不会有任何影响。

 

恕我直言(你知道......),但我认为我会支持阿索伦科。几乎有一千五百多页,但只有一个结论:你需要寻找预测因素。

这个 结论是怎么来的?嗯,这很简单:人们在MO中插入蜡烛,得到50/50。而如果我们附上指标,误差就会减少。但是,先生们,如果你把一个假想的圣杯 总是猜测,你会在MO的输出中得到0的错误。如果你已经选择了一套圣杯式的指标,你就不需要MO。你可以用更简单的手段来做。