L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 563
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Whew... ho letto tutto il thread dall'inizio alla mia apparizione... ora ho visto tutto
ma nessun graal lì... peccato, continuerà a scavare allora
Questa è una soluzione corretta. La teoria NS qui sul forum è tutt'altro che ideale.
l'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del mistero diYuriy Asaulenko
Questa è la decisione giusta. La teoria NS qui sul forum è tutt'altro che ideale.
L'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del mistero diYuriy Asaulenko
L'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del misterodi Yuriy Asaulenko
E dove hai trovato il mistero.
MLP è ~60 neuroni. L'algoritmo è BP standard. Imparare - andare di qua e di là, cioè non so che cosa NS sta imparando lì. Inoltre, tutti i principi dell'apprendimento sono delineati nelle monografie classiche - Heikin, Bishop. Soft non è MQL.
I principi di base sono dati in questo argomento.
E dove hai trovato il mistero.
La MLP è di ~60 neuroni. Algoritmo - BP standard. Imparare - andare dove non so dove. cioè non so cosa impara il NS lì. Inoltre, tutti i principi dell'apprendimento sono delineati nelle monografie classiche - Heikin, Bishop. Soft non è MQL.
I principi di base sono delineati in questo argomento.
Questo era una specie di scherzo :))
Era una specie di scherzo :))
No. Non c'è davvero nient'altro. Pensate che Haykin e Bishop siano irrimediabilmente superati e cercate qualcosa di nuovo. Sono abbastanza per me.
No, voglio dire che è come se stessi scherzando ... sei l'unico nel thread che è venuto con qualcosa alla fine :)
devi cercare su Google l'addestramento del perceptron usando il metodo Monte Carlo.
In generale, questo metodo è molto simile alla RL (apprendimento per rinforzo) quando c'è un agente che impara e il NS sta imparando a trovare la soluzione migliore.
Questo è il modo in cui Alpha Go è addestrato (anche se in precedenza si pensava che fosse un gioco creativo e una macchina non poteva battere un umano in esso)
ed ecco il vincitore.
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
No, voglio dire che è come se stessi scherzando ... sei l'unico nel thread che è venuto con qualcosa alla fine :)
devi cercare su Google l'addestramento del perceptron usando il metodo Monte Carlo.
In generale, questo metodo è molto simile al RL (apprendimento per rinforzo) quando si ha un agente che impara e il NS sta imparando a trovare la soluzione migliore
A proposito, è in gran parte grazie a voi. Quando ho iniziato, sei stato tu a darmi il link dell'articolo di Reshetov. In generale l'articolo è inutile, più che altro un esempio di applicazione, ma è diventato più o meno chiaro dove imbrigliare il cavallo.
Non so se ci sono questi metodi in Google, dato che io stesso alla fine sono arrivato a Monte Carlo.
Nemmeno io conosco la RL, ma dalla tua breve descrizione sembrano i miei metodi.
Ho trovato Monte Carlo in Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Solo che è assolutamente diverso.