交易中的机器学习:理论、模型、实践和算法交易 - 页 3394

 
СанСаныч Фоменко #:

我正在看我的代码。

有几个模型位于所有 R 代码的中间(?如果把模型从 R 代码中拿出来放到其他地方,那将是完全不同的代码,需要重新调试!

为什么呢?

因为 µl 和 R 有明显的 TC 功能分离。mcl 和 R 捆绑可稳定运行 .....而ONNX 属于哪里

尝试在市场上销售您的脚本
 

RL的安魂曲和因果变换器的颂歌

*任何 RL 算法都可视为任何全局优化器

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

 
Maxim Dmitrievsky #:

RL 的安魂曲和因果转换器的颂歌

*任何 RL 算法都可视为任何全局优化器

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

不幸的是...也没有 "揩油"(schmooze

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

法学硕士可能是语言学家们现在最喜欢的玩具 :)


 
Maxim Dmitrievsky #:
你是说你比我酷?

既然队友 这是圣杯、

请给我一个客观的评价。

在预告片信息中

和链接:

GitHub - alfiyandyhr/nn_ga_benchmark:NN+GA:使用神经网络和遗传算法的基于代理的优化框架

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 
Renat Akhtyamov #:

因为同伴说那是圣杯、

请客观评价

在预告片信息中

和链接:

GitHub - alfiyandyhr/nn_ga_benchmark:NN+GA:使用神经网络和遗传算法的基于代理的优化框架

当你不知道优化的内容和原因时,就不可能说什么。方法本身是好的,但它可能很慢,就像随机下降法一样。也就是说,它需要很长时间才能收敛。

 
Maxim Dmitrievsky #:

当你不知道优化的内容和原因时,是不可能说什么的。这种方法本身很好,但它可能很慢,就像随机下降法一样。也就是说,它需要很长时间才能收敛。

遗传算法 + 神经网络 = 两全其美 (skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

有帽子

很可能

配偶有一个信号,自然成功地传递给了 livantos。

 
Renat Akhtyamov #:

多半

配偶的信号进入了利凡托斯,自然就成功了。

首先,它说这会加快学习曲线。然后又说这需要大量的可扣除资源。这就是你的信息风格。


通常使用的是网格上的超参数优化,NN+GA则不同,应该通过GA来获取权重,而不是像adam这样的标准求解器。

链接中的文章令人困惑。