Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Pero también aporté un argumento en contra. La cámara fotográfica ha superado muchas veces las capacidades del ojo, si es que también es un telescopio. ))
Dudosa afirmación, toda la astronomía fue elaborada antes del descubrimiento del telescopio por quienes tenían ojos normales, en este negocio lo principal no es la transmisión de la imagen sino su interpretación, aunque estoy de acuerdo en que el hombre con ojos de 10 metros es una visión que asusta :)
Por cierto, el ordenador también ha superado al ser humano en muchos aspectos, aunque no haya sido creado a semejanza del cerebro.
...
.... Y lo mejor es que al filtrar la información innecesaria y crear un modelo matemático del mercado, se puede construir un ST eficaz sin NS.
Dudosa afirmación, toda la astronomía fue elaborada antes del descubrimiento del telescopio por el ojo normal, lo principal en este negocio no es la transmisión de la imagen sino su interpretación, aunque estoy de acuerdo en que el hombre con ojos de 10 metros es una visión espeluznante :)
Por cierto, el ordenador también ha superado al hombre en muchos aspectos, aunque no fue creado a semejanza del cerebro.
Pero el modelo informático actual ya está "crujiendo en las costuras". Es difícil, e incluso casi imposible, seguir desarrollándolo. Por ello, Kwabena et al intentan aplicar un modelo similar al del cerebro.
Y si un hombre se agranda en proporción a los ojos del telescopio de 10 m, ya no parecerá espeluznante. O si se hacen los telescopios más pequeños al tamaño del ojo actual, claro. )))
Es triste la pérdida de tiempo: no se podía tratar con NS, sino analizar y filtrar los datos a la vez
ZS: No era mi intención, pero aun así diré cómo veo lo que todos los principiantes buscan en las NS, al menos en sentido figurado: si no fuera un nombre bonito"redes neuronales", sino por ejemplo "ajuste matemático de regresión exponencial", entonces habría menos interés y expectativas ante tal herramienta matemática, pero gracias al nombre sonoro la gente espera un milagro de la "regla logarítmica inteligente".
Pero el modelo informático actual ya está "crujiendo en las costuras". Es difícil, e incluso casi imposible, seguir desarrollándolo. Por ello, el mismo Kwabena et al. está intentando realizar un modelo similar al del cerebro.
Y si un hombre se agranda en proporción a los ojos del telescopio de 10 m, ya no parecerá espeluznante. O si se hacen los telescopios más pequeños al tamaño del ojo actual, claro. )))
La propia matemática informática implementó métodos de hace 300 años, por lo que es un punto muerto.
Las matemáticas prácticamente no desarrollan métodos paralelos es el quid del problema.
Lo principal que vale la pena tomar prestado es el paralelismo de los métodos y la NS es un paso adelante en este sentido, pero la copia del trabajo de la NS de acuerdo con la NS natural es un paso atrás.
Es estupendo que conozca personalmente a esos investigadores. ¿Conoce por casualidad a Henry Markram? Su predicción en 2009 fue de 10 años. :) Me pregunto en qué punto se encuentra ahora.
Henry Markram está construyendo un cerebro en un superordenador
No, no personalmente. Pero estoy familiarizado con su proyecto de cerebro azul. Markram cree que sólo podremos entender y copiar el funcionamiento de nuestro cerebro si modelamos con precisión el funcionamiento de una neurona (canales iónicos, ecuaciones de difusión que describen el movimiento de los iones y la propagación del impulso eléctrico por el cuerpo de la neurona, retrasos, etc.). En 2009, IBM anunció al mundo que había modelado un cerebro de gato. Markram se mostró bastante amargado(http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain), alegando que los investigadores de IBM habían utilizado neuronas acopladas por puntos, es decir, modelos matemáticos simples (como las neuronas de las redes clásicas con su suma de entradas ponderadas y su función de activación no lineal). Otro científico interesante en este campo es Penrose. Por eso afirma que incluso conocer todos los detalles de los intercambios de iones, las reacciones químicas y la propagación de los impulsos a través del cuerpo de las neuronas no es suficiente para comprender y explicar el funcionamiento del cerebro. Sostiene que sólo es posible teniendo en cuenta las reacciones cuánticas dentro de las neuronas (teoría Hameroff-Penrose). Lea aquí https://en.wikipedia.org/wiki/Quantum_mind. Penrose también afirma que, a través de estas reacciones cuánticas, nuestro cerebro es capaz de "ir" a otras dimensiones y extraer conocimientos de allí. Busca sus conferencias (Roger Penrose) en youtube. Son tremendamente interesantes.
No conozco las predicciones de Markram. Hasta la década de 1990, los neurobiólogos creían que la información entre las neuronas se intercambiaba como una serie de impulsos que podían describirse con un número, de donde procedían las redes clásicas. A mediados de los años 90, los científicos descubrieron que el momento en que se producían los impulsos individuales era más importante que su número en un periodo de tiempo. Markram y otros científicos descubrieron una nueva regla que modifica los pesos sinápticos, el STDP. En los últimos 10 años, muchos neurobiólogos han empezado a construir las llamadas redes de picos, en las que la información se distribuye en forma de pulsos (como una señal binaria 0/1), y los pesos varían según el STDP. Estos neurocientíficos empezaron a argumentar que la razón por la que las redes clásicas no conducían a los robots era porque describían de forma incorrecta la información (números en lugar de pulsos), la neurona (suma de entradas ponderadas en lugar de ecuaciones de diff) y los pesos cambiantes (regla de Hebb en lugar de STDP). Pero, por desgracia, estas nuevas redes de picos aún no han superado en capacidad a las redes clásicas. Además, requieren mucha más potencia informática. Por lo tanto, no hay muchos avances en neurobiología hasta ahora, y no debemos esperar nuevas redes capaces de revelar patrones.
Es decir, si se creara un modelo que describiera los cambios en las ponderaciones durante los movimientos del mercado, los resultados podrían ser diferentes, no tan deprimentes. ¿Has hecho este tipo de investigación?
Hágalo a su gusto.
Esto requeriría una segunda parrilla, que buscaría patrones de cambios en las ponderaciones de la primera parrilla en respuesta a los movimientos del mercado. Entonces se necesitaría una tercera parrilla, que también buscaría dependencias en la segunda parrilla con los cambios en la primera y en el mercado. Entonces un cuarto ...
Supongamos que hemos creado un modelo que describe los cambios de pesos en el mercado. ¿Qué hacemos ahora con él?
Hazlo a tu gusto.
Para ello, será necesaria una segunda parrilla, que buscará un patrón de cambios en las ponderaciones de la primera parrilla, en función de los cambios en el mercado. Entonces se necesita una tercera parrilla, que también buscará dependencias en la segunda parrilla cuando la primera parrilla y el mercado cambien. Entonces un cuarto ...
Y aquí estaba sacando dinero del mercado durante 3 años, sin saber que después de la primera red se necesitaría la segunda ...
Para mí, una persona con una mente analítica, es peligroso leer este tipo de hilos, dejo de ganar, no estoy pensando en ello....
Y aquí estaba sacando dinero del mercado durante 3 años sin saber que después de la primera red, necesitaría una segunda...
Es decir, si se creara un modelo que describiera los cambios en las ponderaciones durante los movimientos del mercado, los resultados podrían ser diferentes, no tan deprimentes. ¿Has hecho este tipo de investigación?
No, no lo he hecho. No creo que salga nada bueno de esto. Aquí están mis pensamientos. Supongamos que utilizamos una regresión polinómica en lugar de una red, que es otra forma de modelización universal no lineal. Así que nuestra tarea es ajustar el polinomio
y = a0 + a1*x + a2*x^2 + ...
en nuestros datos y(x) encontrando los coeficientes a0, a1, a2,... que reducen el error de nuestro modelo polinómico. Sabemos que nuestro modelo polinómico sólo es bueno en los datos sobre los que se realizó el ajuste. Esencialmente propones hacer los coeficientes del modelo a0, a1, a2,... (los mismos pesos de la red) se hagan depender de los datos de entrada, para que el modelo sea más robusto con los datos no aprendidos, es decir, hacer que a1(x), a2(x),... Ok. Describimos cada coeficiente por un polinomio diferente:
a1 = b0 + b1*x + b2*x^2 +...
a2 = c0 + c1*x + c2*x^2 +...
...
Sustituyendo estos coeficientes en nuestro primer modelo, ¿qué obtenemos? El mismo polinomio, pero de orden superior, que puede describir con mayor precisión los datos de entrenamiento, pero que tiene un mal rendimiento en los nuevos datos. Con las redes ocurre exactamente lo mismo. Una red forma a otra, que forma a una tercera y así sucesivamente, no es más que una gran red. No conseguiremos un comportamiento más preciso con los nuevos datos. Pero si alguien quiere probar esta idea, que nos comunique los resultados.