L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 530

 
Maxim Dmitrievsky:

Supponiamo di avere una BP più o meno stazionaria e di avere la sua decomposizione in frequenza. Domanda: cosa è meglio per il modello - 1 caratteristica o 5, e perché?


Se vi capita di avere tale decomposizione ed è corretta e reversibile, allora aumentare il numero di caratteristiche per il modello è solo vantaggioso e aumenta la sua flessibilità, la cosa principale è che gli strumenti MO non falliscono, tra l'altro ora ci sono nuove reti neurali avanzate che rendono i risultati di apprendimento profondo in velocità per ordini di grandezza.
 
Ivan Negreshniy:
Bene, se ti capita di avere tale decomposizione ed è corretta e reversibile, allora aumentare il numero di caratteristiche per il modello è solo vantaggioso e aumenta la sua flessibilità, la cosa principale è che gli strumenti MO non siano compromessi; a proposito, ora sono apparse nuove reti neurali progressive che rendono i risultati di apprendimento profondo in velocità per ordini di grandezza.

Bene + gli elementi più rumorosi rimossi. Cosa sono i ns, come si chiamano? e che dire di xgboost, lo fanno anche loro? )

 


c'è l'allenamento dell'acqua ..... per "ricordarla" e farla uscire da sola

 
Maxim Dmitrievsky:

Bene + gli elementi più rumorosi sono stati rimossi. Cos'è il ns, come si chiamano? e l'xgboost, fanno anche quello? )

Si tratta di una nuova architettura n-network ancora poco conosciuta, senza discese di gradiente, tutto è primitivamente semplice come il cervello del compagno di cui sopra).
 
Ivan Negreshniy:
Questa è una nuova architettura n-network ancora poco conosciuta, senza discese di gradiente, tutto è primitivamente semplice, come il cervello del compagno di cui sopra).

Dove posso leggere? Non riesco nemmeno a trovare qualcosa su Google.

Ecco tutte le opzioni https://tproger.ru/translations/neural-network-zoo-2/

Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
  • 2016.10.13
  • tproger.ru
В первой части мы разобрались с базовыми, не очень сложными видами архитектур искусственных нейронных сетей. Настало время закончить начатое.
 
Maxim Dmitrievsky:

Dove posso leggere? Non riesco nemmeno a trovare qualcosa su Google.

Ecco tutte le opzioni https://tproger.ru/translations/neural-network-zoo-2/

non c'è molto scritto su di esso nel dominio pubblico, ma la ricerca va avanti https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra

 
Yuriy Asaulenko:
Suppongo che sarà ancora meglio durante il giorno. A giudicare dal modello e dalle corse preliminari di debug. Ma è troppo presto per dire qualcosa, naturalmente.
Come sta andando?
 
Renat Akhtyamov:
Come va?
Il volo è ok. Metterò a punto le transazioni reali, ma non ho ancora tempo.
 
Ivan Negreshniy:

non c'è molto scritto su di esso nel dominio pubblico, ma la ricerca va avanti https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra

Una specie di descrizione da favola) Anche se può succedere. L'implementazione, a quanto pare, non sarà vista di dominio pubblico.
 
Ivan Negreshniy:

Non c'è molto scritto su di esso nel dominio pubblico, ma la ricerca è in corso https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra


ah, beh, non ci sono ancora librerie... non puoi scriverle tu stesso )