Redes neuronales, cómo dominarlas, por dónde empezar - página 4

 
Andrey4-min >> :

Si publico el código del EA y resalto los cofactores del mismo, ¿tendría que añadir dos líneas más para crear la red neuronal?

No. Esta neurona es una dos líneas de código. La red en su variante más tonta es una matriz tridimensional, cada elemento de la cual se calcula con estas dos líneas. Así que escribe una red, sin condiciones. O sólo una neurona para empezar.

 
arnautov >> :

Ahora estoy haciendo un pseptron multicapa (espero haberlo hecho bien :))

Perspectrón multicapa: ¡sin sentido!


Korey >> :

-¡¡Descarga NeuroShell 2 con el avatar de "LeoV equivocado" y adelante!!!


¿Dónde? Preferiblemente la última versión, en ruso y una vacuna para el tratamiento. Si tienes un enlace, envíamelo.
 
meta-trader2007 >> :

Un perseptrón multicapa no tiene sentido.

No tiene sentido.

En muchos problemas, un Perspectron de 4 capas muestra resultados y convergencia mucho mejores.

Y en algunos lugares se utiliza uno de 5 capas. Su capa oculta intermedia captura datos intermedios para un análisis adicional.


Por cierto, en este sentido, las redes de recirculación desplegadas no son más que un perseptrón. Y un RNS no lineal desplegado es precisamente un perseptrón de 5 capas.


Por ahora, no hablaré de las redes complejas (con múltiples capas de salida y acoplamientos complejos) basadas en un perseptrón.

 
TheXpert >> :

En muchos problemas el perseptrón de 4 capas muestra resultados y convergencia mucho mejores.

Menuda chorrada. Un perseptrón es una red neuronal formada por una sola neurona. Y, por supuesto, sólo puede ser de una sola capa.

Sin embargo, las redes neuronales formadas por varias neuronas se denominan redes neuronales multicapa.

 
meta-trader2007 >> :

Menuda chorrada. Un perseptrón es una red neuronal formada por una sola neurona. Y, por supuesto, sólo puede ser una única neurona.

Pero las redes neuronales formadas por varias neuronas se llaman multicapa.

Busca en Google MLP y verás que hay mucha información escrita sobre esta tontería.

Lo que quieres decir es el perseptrón de Rosenblatt y tiene unos 30 años de antigüedad. Sin embargo, los principios básicos siguen siendo los mismos.

 
meta-trader2007 >> :

Menuda chorrada. Un perseptrón es una red neuronal formada por una sola neurona. Y, por supuesto, sólo puede ser una única neurona.

Pero las redes neuronales de varias neuronas se llaman multicapa.


No me importa cómo se llame. Lo que importa es cómo funciona. Pero mi intuición me dice que una red de una neurona se llama neurona :) Y aunque sea una tontería, no cambia nada.

 
TheXpert >> :

Teclea MLP en google y verás que hay mucha información escrita sobre esta tontería.

Lo que quieres decir es el perseptrón de Rosenblatt y tiene unos 30 años de antigüedad. Aunque los principios básicos siguen siendo los mismos.

Sinceramente, he encontrado muchas cosas sobre esta consulta, pero no sobre el tema.

Me refiero a un simple perseptrón lineal como el que aplicó Reshetov. Rosenblatt creó su perseptrón como modelo del funcionamiento del cerebro), un modelo bastante primitivo...

Estoy de acuerdo con los principios básicos.

Hay que llamar a las cosas bien, no "me da igual cómo se llame". Lo que importa es cómo funciona".

 
meta-trader2007 >>:

Hay que llamar a las cosas por su nombre, no "me da igual cómo se llame". Lo que importa es cómo funciona".

¿Sí? Bueno, léelo.

http://www.scorcher.ru/neuro/science/perceptron/mem29.htm

>> http://alife.narod.ru/lectures/neural/Neu_ch06.htm

Hasta que tú y los autores de estos artículos os pongáis de acuerdo en la terminología, asumiré que tienen razón. Y llamar a las cosas como las llaman.

 
meta-trader2007 писал(а) >>

El perseptrón multicapa no tiene sentido.

>> ¿Y dónde? Es deseable que la versión sea la más reciente, el idioma ruso y la vacuna para el tratamiento esté disponible. Si tienes un enlace, envíame un MP.

reglas del torrente,
La última versión simplemente no aconsejan, en primer lugar no en ruso, y en segundo lugar, una gran cantidad de "extra", y este "extra" es necesario sólo después de que el desarrollo de Rusia

es decir, la cosecha NS-2 es mejor, sus ejemplos de formación.ru, sus redes en MQL-4.

 
Hmm... Lo encontré en la Wiki: Inexactitud #1. El perceptrón es una red neuronal sin capas ocultas.(https://ru.wikipedia.org/wiki/Персептрон) ¿Me equivoco? :(
Korey >> :

reglas del torrente,
La última versión simplemente no aconsejan, en primer lugar, no en ruso, y en segundo lugar, una gran cantidad de "extra", y este "extra" es necesario sólo después de que el desarrollo de Rusia

es decir, la cosecha NS-2 es mejor, sus ejemplos de formación.ru, sus redes en MQL-4.

Ya veo. Gracias. Voy a ver si encuentro la versión no afectada.

Pero, ¿los representantes oficiales de NS -NeuroProject.ru- venden una versión no rusa por 26000r?