"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 22
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Usted con los enlaces a la vez. No te entiendo del todo. O sin las abreviaturas :) .
Y, en mi opinión, cualquier red de modelización puede ser un clasificador.
¿Quién trató con SLTM?
Aquí sólo iba a preguntar si todas las neuronas tienen una estructura de carrera de trabajo como:
Ahora veo que no todas, hay que tenerlo en cuenta y hacer una variedad de algoritmos no sólo por tipo de activador sino también por tipo de neurona.
Primero intenta formular una opinión general o casi general sobre los requisitos para un especialista
Primero intenta formular una opinión general o casi general sobre los requisitos para un especialista
Vladimir gpwr me conviene personalmente, tal vez aparezcan un par más de los suyos, así que no es necesario invitarlos todavía.
La otra cosa es que la gente está acostumbrada a que las cosas se muevan por tactos de horas, pero esto es OpenSourse, esos proyectos pueden durar mucho más, porque la gente trabaja cuando hay tiempo.
¿Quién ha tratado con SLTM?
¿Por qué le interesa exactamente?
Usted con los enlaces a la vez. No te entiendo del todo. O sin las abreviaturas :) .
Y creo que cualquier red de simulación puede ser un clasificador.
SVM = Máquina de vectores de apoyo
RBN = Red de Base Radial
Aquí hay algunos enlaces:
Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
Bell, A. J., Sejnowski, T. J. (1997).
Los componentes independientes de las escenas naturales son filtros de borde.
Vis. Res., 37, 3327-3338, In.
Olshausen, B. A., Field, D. J. (1996).
Emergencia de las propiedades del campo receptivo de las células simples mediante el aprendizaje de un código disperso para las imágenes naturales.
Nature, 381(6583), 607-609.
http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf
No estoy familiarizado con el principio en absoluto. No es el único, puedo hacer más preguntas :)
Wiki dice que además de los circuitos habituales.
La neurona también utiliza la multiplicación de las entradas, y la señal de retroalimentación (aparentemente de retardo), también jura que el principal método BeckProP a menudo se atasca cuando un error de los ciclos en la retroalimentación, por lo que es deseable hacer híbridos de aprendizaje con GA. Los activadores están en la primera capa solamente, luego todo es lineal, la primera neurona (o comité que no entiendo bien) transforma las entradas, las otras juegan un papel de filtros (permitiendo o no pasar la señal).
Se puede llamar bloque neuronal o una sola neurona con una función compleja de paso, depende de cómo se mire, una red se construye a partir de tales bloques.
No estoy familiarizado con el principio en absoluto. No es la única, puedo hacer más preguntas :)