Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2807
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
.
También he descubierto que los encabezados de la tabla (nombres de columna) se guardan entre comillas, ¿cómo puedo desactivarlo?
¿Qué hace este código? Para hacerlo más rápido, debería convertir todas las columnas al mismo tipo de datos (float 32, 16 - no es necesario, será más lento) y calcular coRRR a través de arrays rápidos.
si hablamos de la corrección real del kaRma
Su script consume casi 9 gigabytes de RAM en mi muestra, pero parece que funciona, los archivos se guardan. Ni siquiera sé dónde se utiliza la memoria, mientras que la muestra toma un poco más de un gigabyte.
¿Entonces?
R mal probablemente)
También he encontrado un problema - los encabezados en la tabla (nombres de columna) se guardan entre comillas - ¿cómo desactivarlo?
¿qué hiciste para resolver el problema?
¿Y qué?
R es malo, supongo).
¿qué hiciste para resolver el problema?
Malo/bueno es un juicio demasiado crítico.
Es obvio que el código del paquete no es eficiente en memoria pero puede ser rápido, o el script copia toda la tabla\selección muchas veces.
Y lo que hiciste - encontraste el problema y lo reportaste a un profesional esperando ayuda.
¿Qué hace este código? Por velocidad, deberías convertir todas las columnas al mismo tipo de datos (float 32, 16 - no es necesario, será más lento) y calcular el número de columnas usando arrays rápidos.
si hablamos de la corrección real del kaRma
Por lo que tengo entendido, no existe el concepto de diferentes tipos de datos (int, float, etc.) en R en absoluto. Y, reducirá el tamaño de la memoria, pero no afectará mucho a la velocidad. En tarjetas de video, sí, habrá un aumento.
Según tengo entendido, en R no existe el concepto de diferentes tipos de datos (int, float, etc.). Y, reducirá el tamaño de la memoria, pero no afectará mucho a la velocidad. En las tarjetas de vídeo, sí, habrá un aumento.
Todo está ahí. Afectará catastróficamente a la velocidad. Los dataframes son las bestias más lentas y con más sobrecarga.
No se trata de tarjetas de video, se trata de entender que esas cosas no cuentan a través de dataframes en un estado sobrio.
Consejo: ¿Es necesario utilizar vectores de 100.000 observaciones para ver la correlación entre ellos?
Busco vectores muy correlacionados, es decir, con una correlación superior a 0,9.Tu script lleva funcionando más de un día y todavía no ha creado ni un solo archivo basado en los resultados del cribado. No sé, ¿quizá sea el momento de desactivarlo?
Depende del zhekez y del tamaño de la muestra. Si su procesador es multinúcleo, paralelice la ejecución. A continuación se muestra una variante de la ejecución en paralelo
Cuatro veces más rápida que la serie. Hardware y software
Suerte
está todo ahí. La velocidad se verá catastróficamente afectada. Los dataframes son las bestias más lentas con gran sobrecarga.
No se trata de tarjetas de video, se trata de entender que esas cosas no cuentan a través de dataframes en un estado sobrio.
¿Qué se entiende por "dataframes" - explicar a los ignorantes en este idioma.