rete neurale e ingressi - pagina 37

 

Da quello che ho letto, sembra che ti piaccia molto la trasformazione di Hartley. Mi chiedo perché? Non posso commentare la tua preferenza, ma penso che sia molto complicato. Penso che sia più facile usare la decomposizione delle serie in trend/stagione, fare una previsione per ciascuna separatamente e restituire la somma al grafico.

IMHO.

Ho già scritto sopra che una rete neurale o un insieme di reti neurali non è il miglior modello per le previsioni, specialmente per le serie non stazionarie.

Oggi ci sono modelli più efficienti.

Prevedere i valori futuri di una serie (regressione) è allettante ma ingrato. Ci ho speso molto tempo senza alcun risultato tangibile.

Ora solo classificazione, il risultato è eccellente.

Buona fortuna.

 
vlad1949:

Da quello che ho letto, sembra che ti piaccia molto la trasformazione di Hartley. Mi chiedo perché?

Ora solo la classificazione, il risultato è eccellente.



Nessuna preferenza particolare per Hartley, l'ha scelto perché è più facile da usare, senza la componente immaginaria.

La classificazione è potere. Sto pensando di usare la classificazione per dividere un database di allenamento in diverse parti, ogni parte con la propria classe.

Ho usato insiemi di reti neurali nei miei esperimenti perché volevo migliorare l'accuratezza delle previsioni, in futuro penso che userò insiemi per l'allenamento sulle basi di allenamento classificate.

Grazie per il vostro interesse.

 

Risposto nel tuo thread.

"Applicazione di insiemi di reti neurali negli escrementi...." refuso???

Buona fortuna

 
Corretto.
 
vlad1949:
No. Ensemble è meglio di DT, mlp e svm. Le cifre RF e ada sono date dopo e sono migliori.

Per amore della chiarezza è probabilmente meglio prendere qualcosa di più semplice...
...diciamo un classico Fisher's Iris e guarda e vedi... + tempo approssimativo di calcolo...
(setosa = 1,virginica = 0,versicolor = -1 (sono possibili anche altri valori))
Colore=input...nero=touch (vista iride) su 1 schermo...prossimo...
Su tutte le schermate blu = ahi... rosa = uscita del modello...

50% graf= campionamento ob...50%= campionamento test...


File:
 
kk (carte koh)
15x15=2-3 sec


20x20=3-4 sec

Mbs (metodo bl neighbour) =1 sec o meno


 
Ns (rete neurale-skr strati))

3x-sec (4-2-1)=20 sec o più



Qui è dove diventa interessante...
Possiamo vedere le chiacchiere a 0 (nel nostro esempio possiamo rimuoverle con una semplice azione (filtro)
in modo da non usare più pesantemente ns in futuro)
Probabilmente ti succede qualcosa di simile... di conseguenza c'è un errore di calcolo peggiore ...
Non so cosa sia il rapporto di assegnazione in R e come sia calcolato, e potrei sbagliarmi...

più pesante ns...
3x scrsl (8-4-2)=30 sec o più
meglio tagliare...

ecc....


======================

In conclusione...

1. È possibile risolvere problemi di classificazione con lo stesso successo usando diversi algoritmi.
2.il tempo di soluzione del problema dipende dall'algoritmo applicato

3.per classificare i dati a testa alta, è meglio usare algoritmi appositamente progettati per questo...

 
Vizard:

Probabilmente è meglio usare qualcosa di più semplice per illustrare il punto...
...diciamo un classico Fisher's Iris e guarda e vedi... + tempo approssimativo di calcolo...
(setosa = 1,virginica = 0,versicolor = -1 (sono possibili anche altri valori))
Colore=input...nero=touch (vista iride) su 1 schermo...prossimo...
Su tutti gli schermi, blu=ouch... rosa= uscita del modello...

50% graff = campionamento oggettivo... 50% = test...



Ecco qui. Vogliamo classificare gli iris? Prendete dati specifici sul nostro argomento e fate un esempio.

Perché dovremmo esercitarci sugli iris? Lascia che altri si esercitino sulle fighette.

Discutere sui meriti dei metodi è un compito ingrato. Ognuno ha le sue preferenze. Personalmente, quando scelgo un metodo, procedo da una semplice premessa - un metodo dovrebbe funzionare con vari dati di input (sia numerici che nominali) senza alcuna trasformazione preliminare . Lasciatemi spiegare perché. Esiste un gran numero di metodi di pre-elaborazione dei dati di input (ne conosco più di 20). E a seconda di questo si ottengono risultati diversi. Quindi dobbiamo selezionare l'insieme ottimale di dati di input, il modo ottimale per preparare questi dati e il metodo ottimale che dà i migliori risultati secondo qualsiasi criterio. E se non possiamo liberarci della prima e dell'ultima, dobbiamo liberarci almeno della seconda.

Per quanto riguarda la domanda sul criterio di accuratezza - è un rapporto di casi classificati correttamente di una certa classe rispetto al numero totale di casi della stessa classe.

Buona fortuna

 
vlad1949:


Personalmente, quando scelgo un metodo, parto da una semplice premessa - il metodo dovrebbe funzionare con diversi dati di input (sia numerici che nominali) senza alcuna pre-trasformazione. Lasciatemi spiegare perché. Esiste un gran numero di metodi di pre-elaborazione dei dati di input (ne conosco più di 20). E a seconda di questo si ottengono risultati diversi. Quindi dobbiamo selezionare l'insieme ottimale di dati di input, il modo ottimale per preparare questi dati e il metodo ottimale che dà i migliori risultati secondo qualsiasi criterio. E se non possiamo liberarci della prima e dell'ultima , dobbiamo almeno liberarci della seconda.

Sei un "uomo spaventoso" )))
per questo approccio sì...una foresta casuale va bene...
buona fortuna...
 
Vizard:
Sei un "uomo spaventoso" ))))
per questo approccio sì... i legni casuali vanno bene...
buona fortuna...


Per caso, non intende RandomForest?