Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3399

 
mytarmailS #:

Ah, mira, me acuerdo.

Así que es una especie de concepto, cualquier información se puede reducir a un vector, está hablando de eembedding, sí, eso es correcto.

Pero es sólo un concepto, y LLM está entrenado en incrustaciones de texto y nada más, toda su estructura está entrenada para ello.

Así que, si decides darle tus propios eembeddings con OHLC, no pasará nada )))

La destilación de conocimiento puede ocurrir, cuando el modelo transfiere su "conocimiento" general a tu esfera. Estoy un poco confuso al respecto, pero es algo así.

Puede traducirse en números y texto e imágenes e incluso sonido, y en código de programa.
 
Maxim Dmitrievsky #:

La destilación de conocimientos puede producirse cuando el modelo transfiere sus "conocimientos" generales a tu dominio. Lo tengo un poco confuso, pero es algo así.

No va a pasar nada.

Imagina un ACP entrenado con algunos datos, eso son las tripas de una neurona.

Le añades datos desconocidos, es una especie de cúmulo aislado de puntos que Neura no ha conocido y no tiene ni idea de qué hacer con ellos.

No va a transferir el conocimiento porque ese cluster está en coordenadas en las que nunca ha trabajado antes.

 
mytarmailS #:

No va a pasar nada.

Imagina el PCA entrenado en algunos datos, esas son las tripas de Neira.

Si le añades datos desconocidos, simplemente aparecerán como una especie de cúmulo aislado de puntos que Neura nunca ha conocido y no tiene ni idea de qué hacer con ellos.

Ella no transferirá el conocimiento porque ese cluster está en coordenadas en las que ella nunca ha trabajado antes.

Bueno, eso es lo que hace todo el mundo hoy en día, los entrenan para sus tareas. Tendré que buscar ejemplos.

Actualizará los pesos (enlaces) del modelo, no añadirá nuevos puntos.
 
Maxim Dmitrievsky #:

Bueno, eso es lo que hace todo el mundo hoy en día, los entrenan para sus propias tareas. Tendré que buscar ejemplos.

Estás actualizando los pesos del modelo, no añadiendo nuevos puntos.

No lo entiendes. Te dejo con ello.

 
mytarmailS #:

No lo entiendes. Te dejo con ello.

Lo entiendo, pero no funciona así. Codifica cualquier información en vectores semánticos, no importa la naturaleza de los datos, son sólo símbolos. Ya conoce todos esos símbolos, es la secuencia lo que importa.

 
Sí, no interrumpes, sólo es un tema a "tratar" en un futuro próximo :)