Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2396

 
Maxim Dmitrievsky:
Sí, puede obtenerlo de mis artículos. Bueno, el probador es el más fácil. Puedo enviarte algunos ejemplos de bots basados en Python.

Bueno, yo también tengo algo, basado en la prueba rápida de mis ideas. Pero es algo que se utiliza para terminar de ejecutarlo en un probador normal. ¿Crees que vale la pena deshacerse de este hábito? )

 
Aleksey Nikolayev:

Bueno, yo también tengo algo, perfeccionado para probar mis ideas rápidamente. Pero ya es una costumbre acabar ejecutándolo en el probador habitual. ¿Crees que vale la pena deshacerse de este hábito? )

Me gustan las dos cosas, siempre que se pueda portar el modelo rápidamente.
 

Los MacBooks se desgarran y maldicen con los nuevos procesadores en las tareas de la MdD. La mala noticia es que CatBoost aún no es compatible con la arquitectura del brazo, pero están trabajando en ello

Conclusión

De estas pruebas se desprende que

  • para el entrenamiento de MLP y LSTM, la CPU M1 es mucho más rápida que todos los servidores de gama alta probados
  • para el entrenamiento de CNN, M1 es sólo ligeramente más lento que los servidores de gama alta probados

Por supuesto, estas métricas sólo pueden considerarse para tipos de redes neuronales y profundidades similares a las utilizadas en esta prueba.

Para las grandes formaciones y los cálculos intensivos que duran más de 20 minutos, seguiré optando por las soluciones basadas en la nube, ya que proporcionan tarjetas construidas para cargas pesadas tan largas y permiten enviar varios trabajos simultáneamente. Pero este escenario es sólo para algunas investigaciones específicas que representan sólo el 10% de mi trabajo, sobre todo para el uso profesional en alguna área de negocio específica.

Como ingeniero de aprendizaje automático, para mi investigación personal diaria, el Mac M1 es claramente la mejor opción y la más rentable actualmente.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
¿Cómo van los cetreros? ¿Sus redes se han vuelto inteligentes o han hecho un gran avance tecnológico? ¡¡¡¡Dímelo a mí!!!!
 

¿Alguien conoce este tipo de formación de profesores?

Cuando el profesor no es una etiqueta, sino la propia persona, ésta hace clic en la imagen que le gusta y AMO intenta separar esta imagen de todo lo demás y encontrar...


¿Alguien sabe si existe este tipo de formación y, si es así, cómo se llama?

Sé cómo implementarlo, pero ¿quizás haya uno ya hecho?

 
Yo también tengo ganas de hablar en voz alta. Una reflexión sobre el tema de la no estacionalidad. Está claro cómo utilizar el método del vecino más cercano K en sus condiciones. Tomamos los últimos N patrones en el tiempo, de los cuales elegimos el K más cercano al patrón en formación y tomamos una decisión basada en él. La simplicidad proviene de la ausencia de aprendizaje. Me pregunto si hay otros algoritmos de MO que sean fáciles de usar de forma similar.
 
Aleksey Nikolayev:
Yo también quería expresar un pensamiento en voz alta. Una reflexión sobre el tema de la no estacionalidad. Está claro cómo utilizar el método del vecino más cercano K en sus condiciones. Tomamos los últimos N patrones en el tiempo de los cuales elegimos K vecinos más cercanos y tomamos una decisión basada en ellos. La simplicidad proviene de la ausencia de aprendizaje. Me pregunto si hay otros algoritmos de MO que sean fáciles de usar de forma similar.

He investigado e investigado mucho con este método así como el método en sí, no sé por qué pero es el más cercano e intuitivo para mí...

Este método pertenece a la familia de las "predicciones sin modelo".

Se conoce en la red como "predicción por análogos de la prehistoria" , "método de complejización de análogos del MSUA", etc.

Hace tiempo se utilizaba para la predicción del tiempo...

En esencia, es la agrupación habitual, sólo que más precisa... La diferencia es sólo que en el clustering habitual el centro de un cluster (prototipo) es algo en el medio entre los análogos, y el método dado el centro de un cluster es el precio actual o lo que sea, así es posible encontrar análogos para el momento actual más precisamente...

Incluso he buscado patrones multidimensionales, incluso he inventado mi propia mini metodología para buscar patrones en la prehistoria, así que estoy muy metido en este tema...

 
mytarmailS:

He investigado e investigado mucho con este método y el método en sí, no sé por qué pero es el más cercano e intuitivo para mí.

Pertenece a la familia de las "predicciones sin modelo".

Se conoce en la red como "predicción por análogos de la prehistoria" , "método de complejización de análogos del MSUA", etc.

Hace tiempo se utilizaba para la predicción del tiempo...

En esencia, es una agrupación normal, sólo que más precisa... La diferencia es sólo que en el clustering habitual el centro de un cluster (prototipo) es algo en el medio entre los análogos, y el método dado el centro de un cluster es el precio actual o lo que sea, así es posible encontrar análogos más precisamente para el momento actual...

Incluso he buscado patrones multidimensionales, incluso he inventado mi propio mini método para buscar patrones en la prehistoria, así que estoy muy metido en este tema...

El método es intuitivamente obvio, así que es imposible evitarlo. Pero quiero algún tipo de variedad. Por ejemplo, un simple reentrenamiento del modelo, cuando se añade un nuevo ejemplo y se descartan los obsoletos.

 

Aleksey Nikolayev:

Un simple reentrenamiento del modelo, en el que se añade un nuevo ejemplo y se desechan los obsoletos.

O tirar de ejemplos obsoletos cuando el tiempo es demasiado importante en comparación con otros.

 
Aleksey Nikolayev:

O bien, tirar ejemplos obsoletos cuando el tiempo resulta ser una característica demasiado importante en comparación con otras.

No veo cuál es la diferencia entre tu idea y el constante reciclaje de AMO en la ventana deslizante...


Coges las últimas n imágenes de la actual, ordenadas por tiempo, haces una predicción basada en ellas, ¿qué se supone que consigue eso?

Sólo tienes que volver a entrenar en una ventana deslizante como con AMO arriba, ¿cuál es la ventaja?