Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3394

 
Maxim Dmitrievsky #:

Réquiem por RL y oda al transformador causal

*cualquier algoritmo RL puede percibirse como cualquier optimizador global

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

Desgraciadamente... no schmooze tampoco

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

Los LLM son probablemente los juguetes favoritos de los lingüistas en estos momentos :)


 
Maxim Dmitrievsky #:
¿Estás diciendo que eres más guay que yo?

ya que el compañero dijo que es el grial,

por favor, dame una evaluación objetiva.

en la información del trailer

y enlace:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimisation Framework Using Neural Network and Genetic Algorithm (NN+GA: Un marco de optimización basado en sustitutos utilizando redes neuronales y algoritmos genéticos ).

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 

Es imposible decir nada cuando no se sabe qué se está optimizando y por qué. El método en sí está bien, pero puede ser lento, como el método de descenso estocástico. Es decir, puede tardar mucho en converger.

 
Maxim Dmitrievsky #:

Es imposible decir nada cuando no se sabe qué se está optimizando y por qué. El método en sí está bien, pero puede ser lento, como el método de descenso estocástico. Es decir, puede tardar mucho en converger.

Algoritmos genéticos + redes neuronales = lo mejor de ambos mundos (skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

Sí sombrero

más probable

un compañero tenía una señal que iba a livantos con éxito natural.

 
Renat Akhtyamov #:

más probable

un compañero tenía una señal que entró en los livantos con éxito natural.

Primero dice que acelerará la curva de aprendizaje. Luego dice que requiere muchos recursos deducibles. Ese es su estilo de información.


Normalmente se usa la optimización de hiperparámetros sobre una rejilla, NN+GA es diferente, ahí los pesos deben ser recogidos vía GA, no algún solucionador estándar como adam.

El artículo del enlace es confuso.

 
Maxim Dmitrievsky #:
Primero dice que acelerará la curva de aprendizaje. Luego dice que necesitas muchos recursos deducibles. Ese es tu estilo de información.


Normalmente se utiliza la optimización de hiperparámetros en la red, NN+GA es diferente, allí los pesos deben ser seleccionados a través de GA, no a través de algún solucionador estándar como adam.

El artículo en el enlace es confuso.

para nada

mi grial trabaja unos segundos al día y desde hace 2 años cada vez da más.

Es totalmente automático.

El ordenador se enciende y se apaga solo.

 
Renat Akhtyamov #:

en absoluto

mi grial funciona unos segundos al día y desde hace 2 años cada vez me da más.

Es lo que digo, mismo estilo. Nada de prufs ni constructivo :)