Redes neuronales, cómo dominarlas, por dónde empezar - página 8

 
Mathemat писал(а) >>
Parece haber alguna relación con el teorema demostrado por Kolmogorov de que cualquier función de cualquier número de variables puede expresarse exactamente en términos de funciones de dos variables. Puede que no lo haya expresado con precisión, pero se menciona a menudo en los artículos sobre NS.

Sí, sí. Las raíces del problema se remontan al 58.

 
Neutron >> :

No uso ninguna TF.

La razón es que los candelabros se utilizan en todos los marcos temporales, por lo que los PB basados en los precios de apertura (o de cierre) están más cerca de los PB aleatorios integrados que los PB basados en el original utilizando otros métodos (por ejemplo, el tiempo instrumental, etc.).

¿De qué tiempo instrumental estamos hablando?

 
Neutron >> :

Es complicado.

Sé que no hace mucho tiempo se demostraron dos teoremas. Según la primera, una red NS no lineal de tres capas (la que consta de tres capas de neuronas, con no linealidad en la salida de cada una) es un aproximador universal y aumentar más el número de capas no añade potencia a la red. Según el segundo teorema, la potencia de cálculo de la red no depende del tipo específico de no linealidad en las salidas de sus neuronas. Es importante que en principio haya no linealidad y no importa cuál sea exactamente: sigmoide o arctangente. Esto nos ahorra tratar de encontrar lo mejor de lo igual.

Vale, lo entiendo. La frase "poder de la red" era confusa.


De estos dos teoremas no se deduce en absoluto que 4 capas no sean más eficientes que 3.

Lo único que dice es que donde se entrenan 4 capas, se pueden entrenar 3. No dice nada sobre la eficacia de la formación.


Digamos que siempre es posible entrenar primero 3 capas. Y luego se puede intentar mejorar la eficiencia con otras arquitecturas, en particular aumentando las capas.


Sobre la no linealidad. Todo genial, pero aun así no importa la prueba, cada FA tiene sus méritos y deméritos. Por eso se me ocurrió la mía. Aunque también los tiene.

La prueba, estoy seguro, no dice nada sobre la eficiencia.


Por lo tanto, creo que la discusión ha terminado.

 
registred писал(а) >>

¿De qué tiempo instrumental estamos hablando?

Esto es cuando las velas no se construyen por tiempo, sino por piezas (ver búsqueda en el foro).

TheXpert escribió >>

Digamos que siempre puedes aprender primero 3 capas. Y luego se puede intentar mejorar la eficiencia con otras arquitecturas, en particular aumentando las capas.

Eso es cierto, pero tendrás que pagar un súper precio por la capa extra (no es crucial en absoluto) - ¡la complejidad del aprendizaje crece como P^3!

 
Neutron писал(а) >>

Es cierto, pero tendrás que pagar un superprecio por una capa extra (nada fundamental): ¡la complejidad del aprendizaje crece como P^3!

Y esto, por supuesto, llevará a resultados de red alternativos, pero si serán mejores es una cuestión. Si una red ha aprendido a ganar para 3 capas, la cuarta puede hacer mucho daño..... Así que la elección de la arquitectura no es lo mismo que aumentar las capas. La arquitectura es el tipo de red y cada tipo puede tener múltiples capas. Y la calidad del aprendizaje está fuertemente influenciada por la calidad de la entrada, por lo que las redes de dos capas también funcionan perfectamente.....

 

Estoy completamente de acuerdo.

 
Integer >> :

No te molestes en programar tú mismo las redes neuronales, hay programas ya hechos. El único programa para el que existe un libro en ruso es Statistica Neural Networks, y este libro da la impresión de estar escrito por expertos en redes neuronales, y tiene una introducción y una visión general bastante decente de las técnicas de redes neuronales y los tipos de redes neuronales existentes. El programa permite exportar las redes entrenadas como una dll que puede ser utilizada en los Asesores Expertos de MT (aunque no lo he probado yo, lo siento si me equivoco). Los programas especializados de comerciantes con no redes no son tan fáciles de acoplar a la MT, y si es posible, son torcidos o muy caros. Hay terminales de corredores que exportan los datos a metaficheros, no es tan fácil implementar un software especializado para trabajar con redes que no crecen. ¡Eh! Por qué los desarrolladores de MT no ofrecen la posibilidad de exportar los datos para poder utilizar cualquier otro programa del mercado sin cambios innecesarios.

Estoy totalmente en desacuerdo... Los productos preparados son como el champú 3en1... un poco de champú, un poco de acondicionador, un poco de bálsamo...

Pero tampoco en calidad normal...


La red está muy influenciada por muchos factores que se desconocen a la hora de aplicarlos en este programa...

El desarrollo de su propia implementación aumenta su comprensión de la red y crea una herramienta muy flexible...


¿Cómo puedo cambiar el cálculo del error de la red en el entrenamiento? ¿RMS estándar a otra cosa?

No puedes... Hay que cambiar el algoritmo... y no está disponible...

Y no hay forma de corregir los errores... ¿Imagina que después de un año de intentos descubra que hay un error en el programa que no se puede corregir?

Creo que sería genial... :)


Es indiferente para estudiantes o personas NO PROFESIONALES, es decir, que no ganan dinero haciendo redes neuronales...


Cuando se trata de dinero, hay que controlar todo el proceso de principio a fin...


Así que mi opinión es que, si es posible, deberías hacerlo todo tú mismo, o al menos utilizar herramientas que puedas controlar...

 
Solver.it писал(а) >>

¿Imagina que, tras un año de intentos, descubre que hay un error en el software que no se puede arreglar?

Creo que sería genial... :)

Así que hay que usar programas populares como neroshel nerosolushin etc para leer opiniones y cosas así. Pero si su programa no es conocido zilipupkin, entonces por supuesto que sí utilizarlo con precaución.

 
Solver.it писал(а) >>
¿Qué tienen los profesionales? ¿Con qué comercian los profesionales? ¿Cómo negocian?
 
Solver.it писал(а) >>

Totalmente en desacuerdo...

Si te dedicaras a los gráficos y la animación en 3D, ¿escribirías tu propio 3DStudioMAX?