交易中的机器学习:理论、模型、实践和算法交易 - 页 3296 1...328932903291329232933294329532963297329832993300330133023303...3399 新评论 Andrey Dik 2023.10.11 11:47 #32951 Maxim Dmitrievsky #: 我没有问题。我写的是为什么大量特征会导致因果推理结果不佳。 我告诉过你,这只是你的假设 "随着特征数量的增加,结果会越来越差"。 但我要提醒你,有些人已经对 GPT 进行了测试,异质信息的连接质量有了飞跃,从而有可能建立新的连接和推论。 Maxim Dmitrievsky 2023.10.11 11:49 #32952 Andrey Dik #:我在给你的信中说,这只是你的假设,"随着特征的增加,结果会越来越糟"。但我要提醒你,有人为 GPT 做了实验,异质信息的连接质量有了飞跃,以至于有可能建立新的连接并得出新的结论。 我在信中说,这是你的假设,我没有假设。这是经过严格证明的。别拿手指和手指比,大型语言模型的训练方法完全一样。而且你根本不知道学习误差是多少。还有其他问题吗? Andrey Dik 2023.10.11 11:52 #32953 Maxim Dmitrievsky #: 我在信中说,这是你的假设,我没有假设。这是经过严格验证的。 还有其他问题吗? 你所说的并没有被证明,它是一种经验判断,因此你的说法是一种假设。 我没有问题要问你。 Maxim Dmitrievsky 2023.10.11 11:54 #32954 Andrey Dik #:你所说的并没有得到证明,它们都是经验判断,所以你的说法是一种假设。我没有问题要问你。 它已经被证明了。你不知道它被证明了,并不意味着它没有被证明。我再一次给出了贝氏方差权衡的链接。别跟我说什么是经过验证的,什么是未经验证的。外面还有更严肃的大师。 Andrey Dik 2023.10.11 11:57 #32955 Maxim Dmitrievsky #: 别拿手指和手指比,大型语言模型的训练方法是完全一样的。你根本不知道会有什么样的学习误差。 什么手指与手指? 没错,大型语言模型的训练方法完全相同,它们都使用了优化算法(你可以问 GPT 他是用什么算法训练的,几个月前他回答得很明确,现在他幽默了,但我只能说 ADAM 是其中之一)。我不知道有什么样的学习误差,就像你不知道一样。作者之所以厉害,只是因为他们能够为一个大型模型建立评估标准,而这是非常困难的,因为仅仅收集信息是不够的,还需要能够正确评估训练的质量(正如我所说,建立评估标准并不不重要)。 Andrey Dik 2023.10.11 11:59 #32956 Maxim Dmitrievsky #: 别跟我提什么是经过验证的,什么是未经验证的。还有更严重的教师问题。 你喜欢衡量自己。我不是在教你,如果你觉得自己是个超级专业人士,就应该明白这些事情。 Maxim Dmitrievsky 2023.10.11 12:00 #32957 Andrey Dik #:你喜欢衡量自己。我不是在教你,如果你觉得自己是超级专家,就应该明白这些事情。 是你认为我是超级专家,你跑题了。我不喜欢喋喋不休,不着边际的争论,再加上引用权威之类的心理小把戏。如果你懒得看证据,我就帮不了你了。 Andrey Dik 2023.10.11 12:17 #32958 Maxim Dmitrievsky #: 是你认为我是个超级专家,写的东西离题万里。我不喜欢胡言乱语,不着边际的争论,再加上心理学上的小把戏,比如引用权威人士的话。如果你懒得看证据,我也帮不了你。我觉得你通常都是在炫耀引用权威和他们的文章。我不是 MO 方面的专家,但我对优化很有研究,因为 MO 离不开优化,所以我可以毫不犹豫地参与这里的任何讨论。 Maxim Dmitrievsky 2023.10.11 12:24 #32959 Andrey Dik #:我想你通常会炫耀权威人士和他们的文章。我不是 MO 方面的专家,但我对优化非常了解,因为没有优化就没有 MO,所以我可以毫不犹豫地参与这里的任何讨论。 你引用 GPT 来证明你不懂的东西。你只是为了写作而写作。没有任何有意义的信息。我对优化不感兴趣,这是第三个问题。我没有写优化,也没有问优化。如果学习包括优化,并不意味着学习就是优化。我们的谈话根本不是针对这个问题。你只是不明白我写的是什么,就开始写那些离你比较近的病句。 Andrey Dik 2023.10.11 12:29 #32960 Maxim Dmitrievsky #: 你引用 GPT 作为不知道什么的某种证明。你只是为了写作而写作。没有任何有意义的信息。我对优化不感兴趣,这是第三个问题。我没有写优化,也没有问优化。如果学习包括优化,并不意味着学习就是优化。我们的谈话根本不是针对这个问题。你又没写过关于优化的文章,为什么要到处刨根问底?我又没给你写信。而且,学习是优化的一种特殊情况,记住这一点。你看,他没写!哈,所以现在我必须征求你的同意,才能写关于什么该写,什么不该写的内容? 已经冷静下来了。 1...328932903291329232933294329532963297329832993300330133023303...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我没有问题。我写的是为什么大量特征会导致因果推理结果不佳。
我告诉过你,这只是你的假设 "随着特征数量的增加,结果会越来越差"。
但我要提醒你,有些人已经对 GPT 进行了测试,异质信息的连接质量有了飞跃,从而有可能建立新的连接和推论。
我在给你的信中说,这只是你的假设,"随着特征的增加,结果会越来越糟"。
但我要提醒你,有人为 GPT 做了实验,异质信息的连接质量有了飞跃,以至于有可能建立新的连接并得出新的结论。
我在信中说,这是你的假设,我没有假设。这是经过严格验证的。
你所说的并没有被证明,它是一种经验判断,因此你的说法是一种假设。
我没有问题要问你。
你所说的并没有得到证明,它们都是经验判断,所以你的说法是一种假设。
我没有问题要问你。
什么手指与手指?
没错,大型语言模型的训练方法完全相同,它们都使用了优化算法(你可以问 GPT 他是用什么算法训练的,几个月前他回答得很明确,现在他幽默了,但我只能说 ADAM 是其中之一)。我不知道有什么样的学习误差,就像你不知道一样。作者之所以厉害,只是因为他们能够为一个大型模型建立评估标准,而这是非常困难的,因为仅仅收集信息是不够的,还需要能够正确评估训练的质量(正如我所说,建立评估标准并不不重要)。
你喜欢衡量自己。我不是在教你,如果你觉得自己是个超级专业人士,就应该明白这些事情。
你喜欢衡量自己。我不是在教你,如果你觉得自己是超级专家,就应该明白这些事情。
是你认为我是个超级专家,写的东西离题万里。我不喜欢胡言乱语,不着边际的争论,再加上心理学上的小把戏,比如引用权威人士的话。如果你懒得看证据,我也帮不了你。
你引用 GPT 作为不知道什么的某种证明。你只是为了写作而写作。没有任何有意义的信息。我对优化不感兴趣,这是第三个问题。我没有写优化,也没有问优化。如果学习包括优化,并不意味着学习就是优化。我们的谈话根本不是针对这个问题。