L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2829

 
Di certo non in un'università o con valori liberali.
 
СанСаныч Фоменко #:

Utilizziamo algoritmi di discesa del gradiente, che in generale non sono per i neuroni e che hanno un'enorme barba. Lo cerchiamo su Google e non facciamo domande infantili, avendo imparato come la discesa del gradiente supera diversi tipi di trappole degli estremi locali. Si tratta di qualcosa che si fa in modo specifico da anni.

Vi è stato chiesto di testare l'apprendimento/ottimizzazione su alcune funzioni rappresentative, questa è una buona pratica.

Se pensate che le reti neurali lo facciano perfettamente, probabilmente vi sbagliate.

 
Maxim Dmitrievsky #:

Vi è stato suggerito di testare l'apprendimento/ottimizzazione su alcune funzioni rappresentative, questa è una buona pratica.

Se pensate che le reti neurali lo facciano perfettamente, probabilmente vi sbagliate.

Già... francamente mi sorprende che non tutti abbiano percepito adeguatamente le semplici verità - tutto dovrebbe essere testato, e credere nei dogmi espressi da qualcuno significa stagnazione e degrado.

e la discesa del gradiente e il bekprop sono metodi così antichi e miserabili che è strano che possano ancora essere presi sul serio da alcune persone.

tra l'altro, la genetica non è l'algoritmo più robusto al giorno d'oggi. dovrebbe essere incluso nella tabella per... beh, solo per chiarire che c'è sempre spazio per i miglioramenti.

 
Andrey Dik #:

Già... francamente mi sorprende che non tutti abbiano percepito adeguatamente le semplici verità - tutto dovrebbe essere controllato, e credere nei dogmi espressi da qualcuno significa stagnazione e degrado.

e la discesa del gradiente e il bekprop sono metodi così antichi e miserabili che è strano che possano ancora essere presi sul serio da qualcuno.

La percezione è specifica, a livello di kargo-cult e di credenza nella R divina, che porta i doni della civiltà.

 

Da un lato, l'apprendimento è un caso speciale di ottimizzazione, ma dall'altro presenta alcune peculiarità.

1) L'ottimizzazione in MO di solito implica intrinsecamente l'ottimizzazione in uno spazio di funzioni infinito-dimensionale. Questo si presenta in forma esplicita(gradient bousting, per esempio), ma può anche essere implicito. Questo porta a un'incredibile flessibilità dei modelli, ma si perde la chiarezza e la semplicità che si trovano nell'ottimizzazione finite-dimensionale. Ad esempio, qualsiasi estremo su un sottospazio a dimensione finita può rivelarsi un punto di sella su un sottospazio di dimensione superiore (che può essere quanto si vuole).

2) Si utilizza un insieme finito di funzioni di perdita ben educate. In questo modo si evitano i problemi derivanti dal primo punto. Ma se si vuole personalizzare la funzione di perdita, sarà impossibile o molto difficile.

 
Aleksey Nikolayev #:

Da un lato, l'apprendimento...

Alexei, sai qualcosa sull'ottimizzazione di una funzione rumorosa?
 
Esiste una ricerca completa e un'ottimizzazione. È necessario ridurre il tempo per trovare una soluzione ottimale. Essendo così, si tratta sempre di un compromesso. È possibile ottimizzare con il metodo del gradiente stocastico e ottenere un risultato migliore rispetto a quello ottenuto con Adam, ma sacrificando il tempo. E bisogna scegliere. Per alcuni compiti, la precisione può essere più importante della velocità, ad esempio per aumentare l'aspettativa di TC.
In questo caso è interessante osservare i risultati visivi.
 
Andrey Dik #:

è terribile.

L'orrore è che una persona arrivi ad articoli sull'ottimizzazione e non conosca l'argomento nemmeno del 20%, quindi non riconosca le conoscenze comuni e si stupisca di questo....

L'orrore è che persone con ancora meno qualifiche si ficcano in testa del pus, considerandolo come conoscenza da guru, il risultato è un branco di storpi intellettuali...


E tutti i tipi di non-guru sono felicemente d'accordo, perché sono già storpi e versano loro stessi del pus chiamando i loro ego articoli....

questo è il vero orrore!!!

 
Dovresti masticare il tuo moccio prima di fare discorsi patetici, ptuschik.

Non è così buono.
 
mytarmailS #:

L'orrore è che una persona arriva agli articoli sull'ottimizzazione e non conoscendo l'argomento nemmeno al 20%, non riconosce le conoscenze comuni e ne rimane sorpresa....

L'orrore è che persone con ancora meno qualifiche si versino in testa del pus, considerandolo conoscenza da guru, il risultato è un branco di storpi intellettuali....

è meglio che tu stia zitto, sembrerai molto più intelligente o almeno più educato.