Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1957

 
elibrarius:

Así es. Sería una buena idea describir la secuencia de acciones de inmediato...
Volviendo a pensar en su descripción, asumo la siguiente secuencia:

1. Calcular la correlación de todos los predictores en el tren
2. Construye el árbol
3. En el último parcial, recuerda, por ejemplo, los últimos 100 mejores parciales. Almacene hasta 100, para que haya mucho donde elegir.
4. De estos 100 elija 5 que no estén correlacionados con el predictor de la mejor división y que no estén correlacionados entre sí.

Además, no está claro cuál de estas 5 divisiones diferentes elegir.
Si es aleatorio, es análogo al bosque aleatorio, que da a cada árbol predictores aleatorios y construye un árbol sobre ellos.
Si la media, entonces de nuevo análogo de bosque aleatorio, el bosque entonces de árboles aleatorios encuentra la media aritmética.

¡Ahora sí que lo has hecho bien!

Por eso losbosques aleatorios son aleatorios, están llenos de basura y las condiciones descritas anteriormente no son necesariamente ciertas, aunque puede haber situaciones similares, y es posible que un modelo exitoso pueda surgir de un tipo de descomposición similar. Aquí, sin embargo, habrá un proceso más controlado.

Los pesos de cada división en la hoja serán pesados, por supuesto, y tal vez vamos a dar los mismos coeficientes, podemos recoger los coeficientes en la misma historia. Eso es lo que hago ahora en general al montar un modelo a partir de hojas.

 
Valeriy Yastremskiy:

No, las acciones análogas son la suma, la resta, la multiplicación, la división y posiblemente dependencias logarítmicas más complejas, relaciones de poder. Y no se trata de cálculos, sino de indicadores analógicos en cada celda. Y los DAC y ADC son una salida de entrada, no participan en los cálculos, sino que proporcionan lo digital.

En la arquitectura Neumann, tanto los procedimientos como los datos se almacenan en memoria y no hay acceso paralelo a los procedimientos y a los datos; se accede a los datos, luego al procedimiento y se vuelve a los datos, de ahí las limitaciones del procesamiento de datos. Y aquí los procedimientos se almacenan en cada celda por pequeño dispositivo y hay un acceso al procedimiento a la vez, con el acceso a los datos.

Este es el dato que no entiendo, ¿es condicional, cada instrucción tiene acceso directo a la memoria y a los resultados del cálculo sin el transportador?

 
Aleksey Vyazmikin:

¡Ahora sí lo has entendido!

Los bosques aleatorios son aleatorios porque están llenos de basura y no se cumplen necesariamente las condiciones descritas, aunque puede haber situaciones similares, y es posible que se obtenga un modelo exitoso por averías similares. Aquí, sin embargo, habrá un proceso más controlado.

Los pesos de cada división en la hoja se pesan, por supuesto, y tal vez vamos a dar los mismos coeficientes, podemos recoger los coeficientes en la misma historia. Así es como lo hago ahora, en general, al montar un modelo a partir de hojas.

No entiendo el paso final, - ¿cuál de las 5 divisiones elegir?
 
elibrarius:
No entendí el paso final - ¿cuál de las 5 divisiones elegir?

Hay que tener en cuenta las lecturas de las 5 divisiones, lo que aumenta la estabilidad.

Supongamos que a la mejor división se le da un peso de 0,6, y a las otras cuatro se les da 0,1 a cada una, y si la suma da 0,8 u otra puntuación, determinada por el muestreo, entonces la respuesta es un verdadero "1" o la otra clase esperada en la hoja.

También tenemos que comprobar el Recall , es decir, cuántos recalls tienen los splits en esta submuestra.
 
Aleksey Vyazmikin:

Lo que no entiendo de los datos es que son nocionales, cada instrucción tiene acceso directo a la memoria y los resultados del cálculo sin transportador?

No hay "datos", sólo electrones cuya corriente es controlada por transistores y demás. La propia arquitectura NS está impresa en la placa, no en forma digital. Hace tiempo que se fabrican este tipo de redes neuronales analógicas en forma de coprocesadores, por ejemplo en los iPhones.

No hay nada nuevo en el artículo.
 
Maxim Dmitrievsky:

No hay "datos", sólo electrones cuya corriente es controlada por transistores y demás. La propia arquitectura NS está impresa en la placa, no en forma digital. Hace tiempo que se fabrican este tipo de redes neuronales analógicas en forma de coprocesadores, por ejemplo en los iPhones.

No hay nada nuevo en el artículo.

Y entendí que estamos hablando de cálculos dinámicos, no estáticos, predeterminados.

 
Aleksey Vyazmikin:

Y entendí que se trataba de cálculos dinámicos, no estáticos y predeterminados.

Por ejemplo, la señal de la matriz de una cámara del iPhone se introduce directamente en el NS analógico, evitando la digitalización. La NS preprocesa la imagen para mejorar la calidad (filtrar el ruido, etc.)

y luego esto se convierte en fotos digitales

 
Aleksey Vyazmikin:

Entiendo que se trata de cálculos dinámicos, no de cálculos estáticos y predeterminados.

Una analogía aproximada es la de las válvulas de compuerta electrónicas y los compresores. Por supuesto, los dispositivos en las celdas son estáticos, pero hay muchos y hay acceso paralelo a ellos) Y los cálculos pueden ser dinámicos, si cambiamos la señal de entrada, obtenemos una salida dinámica.

 
Aleksey Vyazmikin:

Hay que tener en cuenta las lecturas de las 5 divisiones, lo que aumenta la estabilidad.

Supongamos que damos una ponderación de 0,6 a la mejor división y de 0,1 a las otras cuatro, y si la suma da 0,8 o algún otro valor, determinado por el muestreo, entonces suponemos que la respuesta es un verdadero "1" o alguna otra clase, lo que se espera en la hoja de cálculo.

También hay que comprobar el Recall, es decir, cuántos recalls tienen los splits en esa submuestra.
La división más limpia se mezclará con otras menos limpias. Es decir, empeoramos el resultado en la bandeja, en principio no importa. Pero no es seguro que mejore el resultado en la prueba, es decir, la generalizabilidad. Alguien debería probarlo... Personalmente, no creo que la generalización sea mejor que el caso de los andamios.

Es mucho más fácil limitar la profundidad del árbol y no hacer la última división, deteniéndose en la anterior. Acabaremos con la misma hoja menos clara que si hacemos una división extra. Su opción daría algo intermedio si hiciéramos una división o no. Es decir, por ejemplo, con su método promediará la hoja en el 7º nivel de profundidad. Será ligeramente más limpio que la hoja de nivel de profundidad 6. Creo que la generalización no cambiará mucho, y es mucho trabajo probar la idea. También puede promediar varios árboles con niveles de profundidad 6 y 7 - obtendrá aproximadamente el mismo resultado que su metodología.
 
Aleksey Vyazmikin:

¿Algún tipo de acción sobre las olas en esencia? Los datos entrantes se convierten en un polinomio y luego el polinomio se convierte en una onda y las ondas se "colisionan/fusionan" de alguna manera?

Pues sí.

Ya ha habido intentos de construir ordenadores analógicos, pero eran muy lentos o consumían mucha energía.