Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3105

 
Aleksey Nikolayev #:

Ya era hora de que todos nos pasáramos al lado bueno... ¡al matstat!).

o ejemplos reproducibles en forma de código

 
СанСаныч Фоменко #:

¿Qué tiene que ver Matstat?

El vídeo es un intento acertado de explicar cosas importantes para entender matstat a un nivel sencillo pero significativo.

SanSanych Fomenko #:

Un hombre se ejercita en filas ESTACIONARIAS, ¡y estamos discutiendo el video con toda seriedad! No tiene nada que ver con nosotros en absoluto junto con sus hipótesis nulas.

Y "hipótesis nulas" no es más que terminología básica de Matstat que hay que conocer y entender.

 
Aleksey Nikolayev #:


El vídeo es un intento acertado de explicar cosas importantes para entender matstat a un nivel sencillo pero significativo.

Desde un punto de vista educativo general, por supuesto, pero es mucho más importante discutir sólo lo que es aplicable a las series temporales financieras.


Tú, recuerdo, te ejercitabas con garchas, que también suelen ser estacionarias)

¿Desde cuándo las garchas son estacionarias?

La premisa en garchas es que la serie original NO es estacionaria, es más, una serie temporal diferenciada NO es estacionaria. Y garchas es un intento de modelar la NO estacionariedad de la serie original. Veamos rugarch, allí en la propia función se está modelando tres características de la serie prediferenciada, que (características) remiten la serie a no estacionaria.

 
Da la sensación (y no es una sensación) de que la profdeformación negativa ha alcanzado tales proporciones que ya no se percibe ningún material "tal cual", sino que toma un camino complejo a través de las adherencias de antiguas victorias neuronales, y esta "verdad" enriquecida se expulsa a presión de vuelta a través de la abertura bucal
 
СанСаныч Фоменко #:

¿Desde cuándo los garci son estacionarios?

Siempre ha sido estacionario (GARCH(p,q)) siempre que la suma de todos los coeficientes p+q sea menor que uno.

 
¿Qué problema hay en tomar alguna otra prueba para series no estacionarias y hacer lo mismo con ella? ¿Cambiará el punto?
 
Maxim Dmitrievsky #:
La sensación (y no es una sensación) es que la profdeformación negativa ha alcanzado tales proporciones que ningún material ya no se percibe "tal cual", sino que toma un camino complejo a través de las adherencias de antiguas victorias neuronales, y esta "verdad" enriquecida se expulsa de nuevo por la boca bajo presión

Tan cierto) Y muestra con una claridad aterradora que intelectualmente la mayoría de nosotros bien podría ser reemplazada por la IA)

 
Aleksey Nikolayev #:

Lo es) Y muestra con una claridad aterradora que intelectualmente la mayoría de nosotros bien podría ser reemplazada por la IA)

Sí, los límites ya se están sintiendo, me parece que tales procesos no están muy lejos :)
 
Aleksey Nikolayev #:

que intelectualmente la mayoría de nosotros podríamos muy bien ser reemplazados por la IA)

Sí....

Pero aún nos quedan algunos años, o meses, para lograrlo)).


Por ahora, hay dos problemas para lanzar una IA fuerte

1. Arquitecturas demasiado voraces

2. Hardware demasiado débil

Son esencialmente dos caras de la misma moneda...

Pero se está trabajando para resolver tanto el primer problema como el segundo...


No tienen prisa por cambiar la arquitectura (las redes neuronales lo son todo para nosotros), pero tendrán que hacerlo, pero con un hardware rápido (ordenadores cuánticos) todo es mucho más activo.

 

Aquí dicen que la prueba t a veces también funciona bien con datos anormales