red neuronal y entradas - página 37

 

Por lo que he leído, parece que te gusta mucho la transformación de Hartley. Me pregunto por qué. No puedo opinar sobre su preferencia, pero creo que es muy complicado. Creo que es más fácil utilizar la descomposición de las series en tendencia/temporada, hacer una predicción para cada una por separado y devolver la suma al gráfico.

EN MI OPINIÓN.

Ya escribí más arriba que una red neuronal o un conjunto de redes neuronales no es el mejor modelo de previsión, especialmente para series no estacionarias.

Hoy en día existen modelos más eficientes.

Predecir los valores futuros de una serie (regresión) es tentador pero ingrato. He dedicado mucho tiempo a ello sin ningún resultado tangible.

Ahora sólo la clasificación, el resultado es excelente.

Buena suerte.

 
vlad1949:

Por lo que he leído, parece que te gusta mucho la transformación de Hartley. Me pregunto por qué.

Ahora sólo la clasificación, el resultado es excelente.



No tengo una preferencia especial por Hartley, lo elegí por ser más fácil de usar, sin el componente imaginario.

La clasificación es el poder. Estoy pensando en utilizar la clasificación para dividir una base de datos de entrenamiento en varias partes, cada parte con su propia clase.

Utilicé conjuntos de redes neuronales en mis experimentos porque quería mejorar la precisión de las previsiones, en el futuro creo que utilizaré conjuntos para entrenar sobre las bases de entrenamiento clasificadas.

Gracias por su interés.

 

Respondido en su hilo.

"Aplicación de conjuntos de redes neuronales en el excremento...." ¿puntualidad?

Buena suerte

 
Corregido.
 
vlad1949:
No. El conjunto es mejor que DT, mlp y svm. Las cifras de RF y ada se dan a continuación y son mejores.

En aras de la claridad, probablemente sea mejor tomar algo más sencillo...
...digamos que un clásico Iris de Fisher y mira y verás... + tiempo de cálculo aproximado...
(setosa = 1,virginica = 0,versicolor = -1 (también son posibles otros valores))
Color=entrada...negro=toque (vista de iris) en 1 pantalla...siguiente...
En todas las pantallas azul = ouch... rosa = salida del modelo...

50% graf= muestreo ob...50%= muestreo de prueba...


Archivos adjuntos:
 
kk (tarjetas koh)
15x15=2-3 seg.


20x20=3-4 seg.

Mbs (método del vecino) = 1 segundo o menos


 
Ns (capas de la red neuronal-skr))

3x-seg (4-2-1)=20 seg o más



Aquí es donde se pone interesante...
Puedes ver la charla a 0 (en nuestro ejemplo podemos eliminarla con una simple acción (filtro)
para no utilizar ns más pesados en el futuro)
Probablemente te ocurra algo parecido... en consecuencia, hay un cálculo de error peor ...
No sé qué es el Ratio de Asignación en R y cómo se calcula, y puedo estar equivocado...

ns más pesado...
3x scrsl (8-4-2)=30 seg o más
mejor corte...

etc. ....


======================

En resumen...

1. Es posible resolver problemas de clasificación con el mismo éxito utilizando diferentes algoritmos.
2.el tiempo de solución del problema depende del algoritmo aplicado

3.para clasificar los datos de frente, es mejor utilizar algoritmos especialmente desarrollados...

 
Vizard:

Probablemente sea mejor utilizar algo más sencillo para ilustrar el punto...
...digamos que un clásico Iris de Fisher y mira y verás... + tiempo de cálculo aproximado...
(setosa = 1,virginica = 0,versicolor = -1 (también son posibles otros valores))
Color=entrada...negro=toque (vista de iris) en 1 pantalla...siguiente...
En todas las pantallas azul=ouch... rosa= salida del modelo...

50% graff=muestra objetiva...50%=prueba...



Aquí está. ¿Clasificamos los iris? Toma datos concretos sobre nuestro tema y pon un ejemplo.

¿Por qué hay que hacer ejercicio en los iris? Que otros practiquen con los coños.

Discutir sobre los méritos de los métodos es una tarea ingrata. Cada uno tiene sus propias preferencias. A la hora de elegir un método, parto de una premisa sencilla: un método debe funcionar con varios datos de entrada (tanto numéricos como nominales) sin transformaciones previas . Déjeme explicarle por qué. Hay un gran número de métodos de preprocesamiento de datos de entrada (conozco más de 20). Y dependiendo de ello obtenemos diferentes resultados. Así que tenemos que seleccionar el conjunto óptimo de datos de entrada, la forma óptima de preparar estos datos y el método óptimo que da los mejores resultados según cualquier criterio. Y si no podemos deshacernos de la primera y la última, tenemos que deshacernos de la segunda al menos.

En cuanto a la pregunta sobre el criterio de exactitud, se trata de una relación entre los casos correctamente clasificados de una determinada clase y el número total de casos de la misma clase.

Buena suerte

 
vlad1949:


Personalmente, a la hora de elegir un método, parto de una premisa sencilla: el método debe funcionar con diferentes datos de entrada (tanto numéricos como nominales) sin ninguna transformación previa. Déjeme explicarle por qué. Hay un gran número de métodos de preprocesamiento de datos de entrada (conozco más de 20). Y dependiendo de ello obtenemos diferentes resultados. Así que tenemos que seleccionar el conjunto óptimo de datos de entrada, la forma óptima de preparar estos datos y el método óptimo que da los mejores resultados según cualquier criterio. Y si no podemos librarnos de la primera y la última , al menos tenemos que librarnos de la segunda.

Eresun "hombre de miedo" )))
para este enfoque sí...un bosque aleatorio está bien...
buena suerte...
 
Vizard:
Eres un "hombre de miedo" ))))
para este enfoque sí... las maderas al azar están bien...
buena suerte...


Por casualidad, ¿no te refieres a RandomForest?