L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3298

 
fxsaber #:

A quanto pare, a livello inconscio, il cervello umano è ancora in grado di trovare "schemi" su una quantità estremamente ridotta di dati. Non si può chiamare fortuna. È un mistero.

In realtà, un trader elabora molte più informazioni in modi diversi allo stesso tempo di quanto non facciano i modelli MO in relazione al trading. Inoltre, il cervello è armato di varie conoscenze che non sono legate al trading, ma che aiutano a risolvere i compiti del trading.

 
Andrey Dik #:

qui, tu stesso hai dimostrato che un cervello pre-addestrato con dati falsi risolve problemi specifici che prima non conosceva. e tu dici che non hai bisogno di "conoscenze" aggiuntive.

Non ho detto questo, smetti di mentire 😀
I segni non sono conoscenza.
 
Andrey Dik #:

Si continua a confondere il concetto di "estremo" con quello di "picco" (il punto in cui una funzione non ha derivata).

Anche una superficie piana ha un estremo.

Un'altra cosa è che le FF cercano sempre di scegliere in modo che la superficie della FF sia il più liscia possibile e che l'estremo globale sia l'unico. L'unico estremo globale deve essere l'unica soluzione non ambigua del problema.

Se l'estremo globale della FF non è l'unico, e a maggior ragione se non ha una derivata, significa che la scelta della FF (il criterio di valutazione del modello) è errata. L'incomprensione di questo aspetto porta al termine "overfitting", l'incomprensione di questo aspetto porta alla ricerca di qualche estremo locale ambiguo.

Possiamo fare un'analogia: uno specialista - un medico - viene addestrato, vengono sviluppati esami di qualificazione (FF) per la certificazione, per un medico non può esistere il concetto di "overtrained" o "overfitted", se un medico non ottiene il punteggio massimo - significa che è sotto-addestrato. E secondo voi, un buon medico dovrebbe sempre essere un non scienziato poco preparato.

Ancora una volta, il problema dell'"overtraining" è la scelta sbagliata dei criteri di valutazione del modello. Sembra che sul forum siano presenti esperti di questo tipo, ma ripetono sempre gli stessi errori. Lo sviluppo di criteri di stima corretti non è meno importante della selezione dei predittori, altrimenti è semplicemente impossibile stimare adeguatamente il modello.

Prevedo una raffica di obiezioni, ma va bene così, ci sono abituato. Se sarà utile a qualcuno - ottimo, e a quelli che non lo saranno - pazienza, quindi pensano che vada bene così com'è.

Il super-adattamento dei modelli non ha assolutamente nulla a che fare con l'ottimizzazione.

Il modello ideale di super-adattamento di una citazione è la citazione stessa. Proprio come in qualsiasi altro caso di costruzione di modelli: non c'è ottimizzazione, la stima di un tale modello è degenerata, ecc.

Non si capisce il significato della parola "modello". Per esempio, un modello della legge di gravitazione universale di Newton. Un modello ideale, applicabile in alcune condizioni ideali: vuoto, assenza di altri corpi nell'universo. Tuttavia, permette di fare molti calcoli con una precisione sufficiente per la pratica.

L'intero problema della costruzione di un modello è quello di trovarne uno il cui errore con i dati reali sia adatto a noi. Bisogna capire che l'errore che vediamo non sarà necessariamente nel futuro, ma sarà in un certo intervallo di confidenza. Pertanto, cerchiamo un modello con un errore all'interno dell'intervallo accettabile nella pratica. Non abbiamo bisogno di estremi.

 
Forester #:

150 miliardi di neuroni, non un solo output per neurone, ma molti. L'IA non raggiungerà questo livello di intelligenza per molto tempo o mai.
La NS è paragonata per il livello di intelligenza a uno scarafaggio: scappa, morde - scappa.

Se moltiplicata per diversi miliardi di individui dell'umanità, l'attuale civiltà dimostra che su una piccolissima quantità di dati è possibile formulare ipotesi che possono prevedere con precisione molti fenomeni osservati e persino ricreare fenomeni non osservati.

 
Maxim Dmitrievsky #:
Apprendimento one-shot. Quando un grande NS preaddestrato (cervello) viene preaddestrato su dati di sinistra con pochi esempi. Se il modello ha inizialmente appreso le leggi del mondo, può facilmente fare clic su un nuovo compito con un'occhiata superficiale.

È così che i modelli linguistici di grandi dimensioni, in particolare, vengono preaddestrati per nuovi compiti. Ma se lo si costringe a imparare questi nuovi esempi per molto tempo, inizierà a dimenticare l'esperienza precedente e diventerà prevenuto verso i nuovi dati.
Sarebbe interessante tracciare un grafico: la qualità dell'apprendimento One-shot rispetto all'età del cucciolo.
 

Bene.... alberi hanno un'ottimizzazione. Per selezionare la divisione migliore. Vengono controllate tutte le colonne/attributi, vengono effettuate diverse suddivisioni e viene presa in considerazione quella con il valore minimo di impurità della classe per la classificazione o con la massima accuratezza per la regressione.
Per le foreste casuali, questo è il punto di arrivo. Poi si fa semplicemente la media dei risultati di un insieme di alberi a cui viene dato a caso, per esempio, il 50% delle caratteristiche.
Nel bousting, ogni albero successivo apprende l'errore della somma degli alberi precedenti e minimizza questo errore.

Ma tutto questo è nascosto all'utente sotto il cofano e non ha senso parlarne. Non è come l'ottimizzazione che facciamo nel tester cercando i valori di alcuni parametri che cambiano i segni o i maestri del modello (ad esempio, selezionando TP/SL).

 
Maxim Dmitrievsky #:
I segni non sono conoscenza.

Cosa pensate che siano i segni? Calmatevi.
E cos'è la conoscenza?

Oggi hai detto che l'ottimizzazione non ha nulla a che fare con il MO, poi hai ammesso che ce l'ha.
Aspetta, ora stiamo arrivando al punto in cui i segni sono conoscenza.
 
fxsaber #:
Sarebbe interessante tracciare un grafico: la qualità dell'apprendimento One-shot dall'età del cucciolo.

Molto probabilmente il cervello dei NS è enormemente influenzato dall'ambiente (e dal digitale), soprattutto durante il periodo più rapido della formazione dei NS - la prima infanzia.

Sarebbe interessante confrontare questi NS della stessa età su compiti diversi, uno NS - gadget a partire da 2-3 anni, l'altro - senza gadget.

Cioè capire quale tipo di sviluppo dei NS influisce positivamente/negativamente sulla soluzione di determinati compiti.


Forse l'invenzione ponderata di TC ha meno successo del pensiero superficiale di clip.

 
Andrey Dik #:

Cosa pensate che siano i segni? Stiamo calmi.
E cos'è la conoscenza?

Oggi hai detto che l'ottimizzazione non ha nulla a che fare con il MO, poi hai ammesso che ce l'ha.
Aspetti, ora stiamo arrivando al punto in cui i segni sono conoscenza.
Dove ho detto che l'ottimizzazione non ha nulla a che fare con l'IO?

Per favore, vieni senza di me.
 
Maxim Dmitrievsky #:
Dove ho detto che l'ottimizzazione non ha nulla a che fare con il Ministero della Difesa?

Per favore, vieni senza di me.

Lo sapevo.
Rileggi quello che hai detto.