L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3394
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Sto guardando il mio codice.
Diversi modelli si trovano nel mezzo(?) di tutto il codice R. Se si tolgono i modelli dal codice R e li si mette da un'altra parte, si otterrebbe un codice completamente diverso che dovrebbe essere sottoposto a debug da capo!
E perché?
Esistono µl e R con un'ovvia separazione funzionale delle TC. Il pacchetto mcl e R funziona in modo stabile ..... e dove si colloca ONNX?
Requiem per RL e ode al trasformatore causale
*Qualsiasi algoritmo RL può essere pensato come un qualsiasi ottimizzatore globale
https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841
Requiem per RL e un'ode al trasformatore causale
*Qualsiasi algoritmo RL può essere percepito come un qualsiasi ottimizzatore globale.
https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841
Purtroppo... non c'è nemmeno schmooze
https://www.mql5.com/ru/articles/13712
I LLM sono probabilmente i giocattoli preferiti dai linguisti in questo momento :)
Stai dicendo che sei più figo di me?
visto che il compagno ha detto che è il Graal,
ti prego di darmi una valutazione obiettiva.
nelle informazioni del trailer
e link:
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimisation Framework Using Neural Network and Genetic Algorithm (Rete Neurale e Algoritmo Genetico )
perché il compagno ha detto che è il Graal,
per favore, date una valutazione obiettiva
nelle informazioni sul trailer
e il link:
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimisation Framework Using Neural Network and Genetic Algorithm (Struttura di ottimizzazione basata su surrogati utilizzando reti neurali e algoritmo genetico )
È impossibile dire qualcosa quando non si sa cosa si sta ottimizzando e perché. Il metodo in sé va bene, ma può essere lento, come il metodo della discesa stocastica. Cioè, può richiedere molto tempo per convergere.
È impossibile dire qualcosa quando non si sa cosa si sta ottimizzando e perché. Il metodo in sé va bene, ma può essere lento, come il metodo di discesa stocastica. Cioè, può richiedere molto tempo per convergere.
Algoritmi genetici + reti neurali = il meglio dei due mondi (skine.ru)
sì cappello
Si cappello
molto probabilmente
un compagno aveva un segnale che andava a livantos con successo naturale.
molto probabilmente
un compagno ha avuto un segnale che è entrato nel livantos con successo naturale.
Di solito si usa l'ottimizzazione degli iperparametri su una griglia, NN+GA è diverso, i pesi devono essere raccolti tramite GA, non con un solutore standard come adam.
L'articolo nel link è confuso.