L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2829
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Utilizziamo algoritmi di discesa del gradiente, che in generale non sono per i neuroni e che hanno un'enorme barba. Lo cerchiamo su Google e non facciamo domande infantili, avendo imparato come la discesa del gradiente supera diversi tipi di trappole degli estremi locali. Si tratta di qualcosa che si fa in modo specifico da anni.
Vi è stato chiesto di testare l'apprendimento/ottimizzazione su alcune funzioni rappresentative, questa è una buona pratica.
Se pensate che le reti neurali lo facciano perfettamente, probabilmente vi sbagliate.
Vi è stato suggerito di testare l'apprendimento/ottimizzazione su alcune funzioni rappresentative, questa è una buona pratica.
Se pensate che le reti neurali lo facciano perfettamente, probabilmente vi sbagliate.
Già... francamente mi sorprende che non tutti abbiano percepito adeguatamente le semplici verità - tutto dovrebbe essere testato, e credere nei dogmi espressi da qualcuno significa stagnazione e degrado.
e la discesa del gradiente e il bekprop sono metodi così antichi e miserabili che è strano che possano ancora essere presi sul serio da alcune persone.
tra l'altro, la genetica non è l'algoritmo più robusto al giorno d'oggi. dovrebbe essere incluso nella tabella per... beh, solo per chiarire che c'è sempre spazio per i miglioramenti.
Già... francamente mi sorprende che non tutti abbiano percepito adeguatamente le semplici verità - tutto dovrebbe essere controllato, e credere nei dogmi espressi da qualcuno significa stagnazione e degrado.
e la discesa del gradiente e il bekprop sono metodi così antichi e miserabili che è strano che possano ancora essere presi sul serio da qualcuno.
La percezione è specifica, a livello di kargo-cult e di credenza nella R divina, che porta i doni della civiltà.
Da un lato, l'apprendimento è un caso speciale di ottimizzazione, ma dall'altro presenta alcune peculiarità.
1) L'ottimizzazione in MO di solito implica intrinsecamente l'ottimizzazione in uno spazio di funzioni infinito-dimensionale. Questo si presenta in forma esplicita(gradient bousting, per esempio), ma può anche essere implicito. Questo porta a un'incredibile flessibilità dei modelli, ma si perde la chiarezza e la semplicità che si trovano nell'ottimizzazione finite-dimensionale. Ad esempio, qualsiasi estremo su un sottospazio a dimensione finita può rivelarsi un punto di sella su un sottospazio di dimensione superiore (che può essere quanto si vuole).
2) Si utilizza un insieme finito di funzioni di perdita ben educate. In questo modo si evitano i problemi derivanti dal primo punto. Ma se si vuole personalizzare la funzione di perdita, sarà impossibile o molto difficile.
Da un lato, l'apprendimento...
è terribile.
L'orrore è che una persona arrivi ad articoli sull'ottimizzazione e non conosca l'argomento nemmeno del 20%, quindi non riconosca le conoscenze comuni e si stupisca di questo....
L'orrore è che persone con ancora meno qualifiche si ficcano in testa del pus, considerandolo come conoscenza da guru, il risultato è un branco di storpi intellettuali...
E tutti i tipi di non-guru sono felicemente d'accordo, perché sono già storpi e versano loro stessi del pus chiamando i loro ego articoli....
questo è il vero orrore!!!
L'orrore è che una persona arriva agli articoli sull'ottimizzazione e non conoscendo l'argomento nemmeno al 20%, non riconosce le conoscenze comuni e ne rimane sorpresa....
L'orrore è che persone con ancora meno qualifiche si versino in testa del pus, considerandolo conoscenza da guru, il risultato è un branco di storpi intellettuali....