L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3298
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
A quanto pare, a livello inconscio, il cervello umano è ancora in grado di trovare "schemi" su una quantità estremamente ridotta di dati. Non si può chiamare fortuna. È un mistero.
In realtà, un trader elabora molte più informazioni in modi diversi allo stesso tempo di quanto non facciano i modelli MO in relazione al trading. Inoltre, il cervello è armato di varie conoscenze che non sono legate al trading, ma che aiutano a risolvere i compiti del trading.
qui, tu stesso hai dimostrato che un cervello pre-addestrato con dati falsi risolve problemi specifici che prima non conosceva. e tu dici che non hai bisogno di "conoscenze" aggiuntive.
Si continua a confondere il concetto di "estremo" con quello di "picco" (il punto in cui una funzione non ha derivata).
Anche una superficie piana ha un estremo.
Un'altra cosa è che le FF cercano sempre di scegliere in modo che la superficie della FF sia il più liscia possibile e che l'estremo globale sia l'unico. L'unico estremo globale deve essere l'unica soluzione non ambigua del problema.
Se l'estremo globale della FF non è l'unico, e a maggior ragione se non ha una derivata, significa che la scelta della FF (il criterio di valutazione del modello) è errata. L'incomprensione di questo aspetto porta al termine "overfitting", l'incomprensione di questo aspetto porta alla ricerca di qualche estremo locale ambiguo.
Possiamo fare un'analogia: uno specialista - un medico - viene addestrato, vengono sviluppati esami di qualificazione (FF) per la certificazione, per un medico non può esistere il concetto di "overtrained" o "overfitted", se un medico non ottiene il punteggio massimo - significa che è sotto-addestrato. E secondo voi, un buon medico dovrebbe sempre essere un non scienziato poco preparato.
Ancora una volta, il problema dell'"overtraining" è la scelta sbagliata dei criteri di valutazione del modello. Sembra che sul forum siano presenti esperti di questo tipo, ma ripetono sempre gli stessi errori. Lo sviluppo di criteri di stima corretti non è meno importante della selezione dei predittori, altrimenti è semplicemente impossibile stimare adeguatamente il modello.
Prevedo una raffica di obiezioni, ma va bene così, ci sono abituato. Se sarà utile a qualcuno - ottimo, e a quelli che non lo saranno - pazienza, quindi pensano che vada bene così com'è.
Il super-adattamento dei modelli non ha assolutamente nulla a che fare con l'ottimizzazione.
Il modello ideale di super-adattamento di una citazione è la citazione stessa. Proprio come in qualsiasi altro caso di costruzione di modelli: non c'è ottimizzazione, la stima di un tale modello è degenerata, ecc.
Non si capisce il significato della parola "modello". Per esempio, un modello della legge di gravitazione universale di Newton. Un modello ideale, applicabile in alcune condizioni ideali: vuoto, assenza di altri corpi nell'universo. Tuttavia, permette di fare molti calcoli con una precisione sufficiente per la pratica.
L'intero problema della costruzione di un modello è quello di trovarne uno il cui errore con i dati reali sia adatto a noi. Bisogna capire che l'errore che vediamo non sarà necessariamente nel futuro, ma sarà in un certo intervallo di confidenza. Pertanto, cerchiamo un modello con un errore all'interno dell'intervallo accettabile nella pratica. Non abbiamo bisogno di estremi.
150 miliardi di neuroni, non un solo output per neurone, ma molti. L'IA non raggiungerà questo livello di intelligenza per molto tempo o mai.
La NS è paragonata per il livello di intelligenza a uno scarafaggio: scappa, morde - scappa.
Se moltiplicata per diversi miliardi di individui dell'umanità, l'attuale civiltà dimostra che su una piccolissima quantità di dati è possibile formulare ipotesi che possono prevedere con precisione molti fenomeni osservati e persino ricreare fenomeni non osservati.
Apprendimento one-shot. Quando un grande NS preaddestrato (cervello) viene preaddestrato su dati di sinistra con pochi esempi. Se il modello ha inizialmente appreso le leggi del mondo, può facilmente fare clic su un nuovo compito con un'occhiata superficiale.
Bene.... alberi hanno un'ottimizzazione. Per selezionare la divisione migliore. Vengono controllate tutte le colonne/attributi, vengono effettuate diverse suddivisioni e viene presa in considerazione quella con il valore minimo di impurità della classe per la classificazione o con la massima accuratezza per la regressione.
Per le foreste casuali, questo è il punto di arrivo. Poi si fa semplicemente la media dei risultati di un insieme di alberi a cui viene dato a caso, per esempio, il 50% delle caratteristiche.
Nel bousting, ogni albero successivo apprende l'errore della somma degli alberi precedenti e minimizza questo errore.
Ma tutto questo è nascosto all'utente sotto il cofano e non ha senso parlarne. Non è come l'ottimizzazione che facciamo nel tester cercando i valori di alcuni parametri che cambiano i segni o i maestri del modello (ad esempio, selezionando TP/SL).
Sarebbe interessante tracciare un grafico: la qualità dell'apprendimento One-shot dall'età del cucciolo.
Molto probabilmente il cervello dei NS è enormemente influenzato dall'ambiente (e dal digitale), soprattutto durante il periodo più rapido della formazione dei NS - la prima infanzia.
Sarebbe interessante confrontare questi NS della stessa età su compiti diversi, uno NS - gadget a partire da 2-3 anni, l'altro - senza gadget.
Cioè capire quale tipo di sviluppo dei NS influisce positivamente/negativamente sulla soluzione di determinati compiti.
Forse l'invenzione ponderata di TC ha meno successo del pensiero superficiale di clip.
Dove ho detto che l'ottimizzazione non ha nulla a che fare con il Ministero della Difesa?