交易中的机器学习:理论、模型、实践和算法交易 - 页 3296

 
Maxim Dmitrievsky #:
我没有问题。我写的是为什么大量特征会导致因果推理结果不佳。

我告诉过你,这只是你的假设 "随着特征数量的增加,结果会越来越差"。

但我要提醒你,有些人已经对 GPT 进行了测试,异质信息的连接质量有了飞跃,从而有可能建立新的连接和推论。

 
Andrey Dik #:

我在给你的信中说,这只是你的假设,"随着特征的增加,结果会越来越糟"。

但我要提醒你,有人为 GPT 做了实验,异质信息的连接质量有了飞跃,以至于有可能建立新的连接并得出新的结论。

我在信中说,这是你的假设,我没有假设。这是经过严格证明的。

别拿手指和手指比,大型语言模型的训练方法完全一样。而且你根本不知道学习误差是多少。

还有其他问题吗?

 
Maxim Dmitrievsky #:
我在信中说,这是你的假设,我没有假设。这是经过严格验证的。

还有其他问题吗?

你所说的并没有被证明,它是一种经验判断,因此你的说法是一种假设。

我没有问题要问你。

 
Andrey Dik #:

你所说的并没有得到证明,它们都是经验判断,所以你的说法是一种假设。

我没有问题要问你。

它已经被证明了。你不知道它被证明了,并不意味着它没有被证明。我再一次给出了贝氏方差权衡的链接。

别跟我说什么是经过验证的,什么是未经验证的。外面还有更严肃的大师。
 
Maxim Dmitrievsky #:

别拿手指和手指比,大型语言模型的训练方法是完全一样的。你根本不知道会有什么样的学习误差。

什么手指与手指?

没错,大型语言模型的训练方法完全相同,它们都使用了优化算法(你可以问 GPT 他是用什么算法训练的,几个月前他回答得很明确,现在他幽默了,但我只能说 ADAM 是其中之一)。我不知道有什么样的学习误差,就像你不知道一样。作者之所以厉害,只是因为他们能够为一个大型模型建立评估标准,而这是非常困难的,因为仅仅收集信息是不够的,还需要能够正确评估训练的质量(正如我所说,建立评估标准并不不重要)。

 
Maxim Dmitrievsky #:

别跟我提什么是经过验证的,什么是未经验证的。还有更严重的教师问题。

你喜欢衡量自己。我不是在教你,如果你觉得自己是个超级专业人士,就应该明白这些事情。

 
Andrey Dik #:

你喜欢衡量自己。我不是在教你,如果你觉得自己是超级专家,就应该明白这些事情。

是你认为我是超级专家,你跑题了。我不喜欢喋喋不休,不着边际的争论,再加上引用权威之类的心理小把戏。如果你懒得看证据,我就帮不了你了。
 
Maxim Dmitrievsky #:
是你认为我是个超级专家,写的东西离题万里。我不喜欢胡言乱语,不着边际的争论,再加上心理学上的小把戏,比如引用权威人士的话。如果你懒得看证据,我也帮不了你。

我觉得你通常都是在炫耀引用权威和他们的文章。
我不是 MO 方面的专家,但我对优化很有研究,因为 MO 离不开优化,所以我可以毫不犹豫地参与这里的任何讨论。
 
Andrey Dik #:

我想你通常会炫耀权威人士和他们的文章。
我不是 MO 方面的专家,但我对优化非常了解,因为没有优化就没有 MO,所以我可以毫不犹豫地参与这里的任何讨论。
你引用 GPT 来证明你不懂的东西。你只是为了写作而写作。没有任何有意义的信息。我对优化不感兴趣,这是第三个问题。我没有写优化,也没有问优化。如果学习包括优化,并不意味着学习就是优化。我们的谈话根本不是针对这个问题。

你只是不明白我写的是什么,就开始写那些离你比较近的病句。
 
Maxim Dmitrievsky #:
你引用 GPT 作为不知道什么的某种证明。你只是为了写作而写作。没有任何有意义的信息。我对优化不感兴趣,这是第三个问题。我没有写优化,也没有问优化。如果学习包括优化,并不意味着学习就是优化。我们的谈话根本不是针对这个问题。

你又没写过关于优化的文章,为什么要到处刨根问底?
我又没给你写信。
而且,学习是优化的一种特殊情况,记住这一点。
你看,他没写!哈,所以现在我必须征求你的同意,才能写关于什么该写,什么不该写的内容? 已经冷静下来了。