Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3030

 
Aleksey Vyazmikin #:

Tú hablas del método, yo hablo del objetivo. Puede haber métodos diferentes. Te lo diré así: los métodos empíricos suelen ser mejores que los matemáticos. Probablemente porque no tenemos datos completos sobre la muestra general.

Para los datos no estacionarios, no existe en absoluto el concepto de "muestra maestra", sólo hay colas. Ése es el problema, por eso cualquier estimación a partir de la formación es extremadamente difícil de obtener en el futuro.

 
СанСаныч Фоменко #:

Para los datos no estacionarios, no existe en absoluto el concepto de "muestra maestra", nada más que colas. Este es todo el problema, por lo que cualquier estimación obtenida en el entrenamiento es extremadamente difícil de obtener en el futuro.

No la conocemos. Más exactamente no conocemos la verdadera densidad de la distribución, y sólo observamos los fragmentos - por eso tales fluctuaciones...

No vivo de conceptos :)

Así que dime cómo se llama tal fenómeno, que no podemos observar, porque estamos en el proceso de la misma, y se completó hace mucho tiempo en los confines del espacio....

 
СанСаныч Фоменко #:

Para los datos no estacionarios, no existe en absoluto el concepto de "muestra maestra", nada más que colas. Este es todo el problema, por lo que cualquier estimación obtenida en el entrenamiento es extremadamente difícil de obtener en el futuro.

Así es, SanSanych.

Los datosno estacionarios siempre están sujetos a los efectos acumulativos de otros datosno estacionarios. De los que dependerán las colas.

 
Aleksey Vyazmikin #:

El rango de valores del predictor que describe los datos.

Aquí he descrito prácticamente el algoritmo - también hay una imagen con RSI.

Lo entiendo. Separar todo y todo y estudiarlo por separado.

No entiendo por qué son cuánticos.
 
Maxim Dmitrievsky #:
No entiendo por qué son cuánticos.

Porque el chico no vive según las reglas, escribió)

 
Maxim Dmitrievsky #:

Lo entiendo. Separa todo y a todos y estúdialo por separado.

No entiendo por qué son cuánticos.

Bueno, probablemente sean las traducciones. terminología.

Hay cuantificación y sus diferentes métodos, la tabla que contiene puntos de división - tabla cuántica - ya es de CatBoost instrucción.

Segmentos cuánticos - de la tabla cuántica, pero los extremos tienen límites. Ya es invención mía.

 
Aleksey Vyazmikin #:

Probablemente sea culpa de los traductores. la terminología.

Hay cuantificación y sus diferentes métodos, la tabla que contiene puntos de división - tabla cuántica - ya es de CatBoost instrucción.

Segmentos cuánticos - de la tabla cuántica, pero los extremos tienen límites. Ya es mi invención.

no cuántica, cuantificada probablemente, como aquí.

5.4 Cuantificación de redes neuronales convolucionales

Clásicamente, debido a las obvias dificultades de optimización, cuando se cuantifican redes neuronales no se utilizan sólo enteros, sino una aproximación de los números de coma flotante a través de enteros. Una aproximaciónampliamente utilizada en la literatura [52, 54, 60] para aproximar números de coma flotante a través de enteros de profundidad arbitraria es el algoritmo propuesto en la librería de Google GEMMLOWP [59]. Teniendo un array de entrada 𝑋, valores límite [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], número de bits 𝑀, el resultado se define como sigue:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,( 14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

Así, para cada matriz de números en coma flotante, obtenemos una matriz entera 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , entera 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡,que representa con precisión el cero, un número𝑠𝑐𝑎𝑙𝑒 de doble precisión que define la escala de cuantificación.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

 
Maxim Dmitrievsky #:

no cuántico, cuantificado, como aquí.

5.4 Cuantificación de redes neuronales convolucionales

Clásicamente, debido a las obvias dificultades de optimización, la cuantificación de redes neuronales no utiliza sólo enteros, sino una aproximación de números en coma flotante a través de enteros. Una aproximaciónampliamente utilizada en la literatura [52, 54, 60] para aproximar números de coma flotante a través de enteros de profundidad arbitraria es el algoritmo propuesto en la librería de Google GEMMLOWP [59]. Teniendo un array de entrada 𝑋, valores límite [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], número de bits 𝑀, el resultado se define como sigue:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,( 14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

Así, para cada matriz de números en coma flotante, obtenemos una matriz entera 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , entera 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, un número entero que representa con precisión el cero, un número de doble precisión𝑠𝑐𝑎𝑙𝑒 que define la escala de cuantificación.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

Ya te digo que es cuestión de traducción, son sinónimos. Aquí están los ajustes de CatBoost.


 
Me pregunto si es posible entrenar la neurona con genética, pero actualizando no todos los pesos a la vez, sino en pequeños trozos aleatorios, y así reducir gradualmente el error
 
Aleksey Vyazmikin #:

Te digo - el tema de la traducción es todo sinónimo. Aquí están los ajustes CatBoost.

quantisons forexus naturale