L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 630
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non voglio affermare, ma mi sembra che queste siano illusioni. Solo per ragioni generali.
Perché, Vladimir Perevenko ha informazioni nei suoi articoli, sono addestrati molto velocemente su centinaia di input
Non ho letto gli articoli e non voglio discutere. Ho visto solo delle foto).
MLP, per esempio, può essere perfettamente addestrato in 10-15 minuti e funzionerà perfettamente. Sì, ma questo se i dati sono ben classificati, gli insiemi sono separati.
Se al contrario - se per esempio nel mercato (o nei vostri campioni di allenamento) semplicemente non ci sono insiemi separabili, allora insegnate qualsiasi cosa vi piaccia per sempre - non ci saranno risultati.
Perché, Vladimir Perevenko ha informazioni nei suoi articoli, imparano molto velocemente su centinaia di input
Tutto dipende dall'architettura e dalla quantità di dati.
Le reti per il riconoscimento dei modelli imparano per una settimana su GPU. E ci sono decine di strati con tensori tridimensionali.
Tutto dipende dall'architettura e dalla quantità di dati.
Le reti per il riconoscimento dei pattern impiegano una settimana per imparare su una GPU. Ci sono decine di strati con tensori tridimensionali.
lì ha descritto i più semplici - rete di Boltzmann + MLP, per esempio
https://www.mql5.com/ru/articles/1103#2_2_2
Non ho letto gli articoli e non voglio discutere. Ho visto solo delle foto).
MLP, per esempio, può essere perfettamente addestrato in 10-15 minuti e funzionerà perfettamente. Sì, ma questo se i dati sono ben classificati, gli insiemi sono separati.
Se sul mercato (o nei vostri campioni di allenamento) semplicemente non ci sono set separabili, allora potete allenare qualsiasi cosa vogliate per sempre e non ci saranno risultati.
Facciamo semplicemente un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, i dati di uscita.
E ognuno farà i propri test con i propri strumenti.
La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)
Facciamo un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, l'uscita.
E ognuno farà i propri test con i propri strumenti.
La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)
Sto condividendo i primi risultati della mia NS. L'architettura è la stessa descritta nel dio, non ho cambiato nulla.
Il plateau è abbastanza uniforme, il NS ha imparato bene già a 1000 passaggi, i risultati non sono migliorati molto oltre.
Ho studiato per 15 minuti il mese scorso. Ho speso ~0,65$ per la formazione. Il mio numero mensile di offerte è ~300.
I risultati dei 2 mesi precedenti non sono male, ma nemmeno troppo male.
Proverò ad aggiungere un altro strato nascosto e a cercare più errori :) e poi proverò ad allenarmi per un periodo più lungo.
Maxim Dmitrievsky:
Perché, Vladimir Perervenko ha informazioni nei suoi articoli, imparano molto velocemente su centinaia di input
Tutti gli articoli forniscono set di dati e script che possono essere riprodotti per ottenere dati reali sui tempi di apprendimento specificamente sul vostro hardware. Il tempo di addestramento DNN con due strati nascosti è fino a 1 minuto.
Buona fortuna
Facciamo un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, l'uscita.
E ognuno farà i propri test con i propri strumenti.
La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)
Sto condividendo i primi risultati della mia NS. L'architettura è la stessa descritta nel dio, non ho cambiato nulla.
Il plateau è abbastanza uniforme, il NS ha imparato bene già a 1000 passaggi, i risultati non sono migliorati molto oltre.
Ho studiato per 15 minuti il mese scorso. Ho speso ~0,65$ per la formazione. Il mio numero mensile di offerte è ~300.
I risultati dei 2 mesi precedenti non sono male, ma nemmeno troppo male.
Proverò ad aggiungere un altro strato nascosto e a cercare più errori :) e poi proverò ad allenarmi per un periodo più lungo.
Avete tre neuroni all'ingresso del secondo strato processati dalla sigmoide? Come si regolano i pesi sul secondo strato che va da -1 a 1 in passi di 0,1 per esempio.
Nella mia rete, dopo l'elaborazione del secondo strato , il numero di accordi è sceso e i miei risultati non sono migliorati molto. Questo è diverso dal montare un perceptron con 9 ingressi e un neurone di uscita e poi prendere un altro perceptron indipendente e montarlo di nuovo con le impostazioni salvate del primo, ecc.