L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2451

 
Alexei Tarabanov #:

È tutto davanti a noi.

Cosa vuoi dire?

 

Mia nipote sta imparando il farsi e il cinese. Chiede anche dei giapponesi per poterli spiare

 
Alexei Tarabanov #:

Mia nipote sta imparando il farsi e il cinese. Chiede anche dei giapponesi per poterli spiare.

Fico certo, ma non lungimirante (colpa dei genitori), sarebbe meglio per lei imparare linguaggi di programmazione, che sviluppano anche capacità di pensiero...

I traduttori sono molto buoni ora, in 10 anni penso che possiamo impiantare chip nel cervello con molte chicche, tra cui la traduzione di tutte le lingue, hanno imparato a connettersi al cervello, è solo una questione di tempo ...

Quindi imparare molte lingue è come sognare di diventare un pilota, un camionista, un tassista, senza accorgersi che la Tesla ti sta già passando davanti con il pilota automatico... Molto presto molti lavori spariranno per sempre e bisogna pensarci...

 
Ti dai del tu con Python
 
Alexei Tarabanov #:
Su un nome di battesimo con Python

cool

 
Maxim Dmitrievsky #:
Metà delle attivazioni neuronali sono per la classe 1, metà sono per l'altra classe. Sulla base di una logica così primitiva. Se è sbilanciato, allora forse le classi sono mal bilanciate. E i valori estremi sembrano causare l'esplosione o la dissolvenza del gradiente

Max, non saltare alle conclusioni.

La parola "possibilmente" nel tuo post suggerisce che non hai pensato a questa formulazione della domanda, vero?

La rete neurale in generale e la MLP in particolare è una cosa molto flessibile, e lo stesso insieme di caratteristiche può essere partizionato ugualmente dalla stessa rete ma a diversi valori di pesi dei neuroni.... Giusto? - Quindi si pone la domanda: quale di queste varianti dell'insieme dei pesi è più robusto?

E con il secondo, che ha risposto al mio post, non credo che sia necessario mantenere più un dialogo - è inutile.

 
Alexei Tarabanov #:

Zhi, shi sono scritti con una i.

Ci sono delle eccezioni. ;)

 
Andrey Dik #:

Max, non saltare alle conclusioni.

La parola "forse" nel tuo post suggerisce che non hai pensato a questa formulazione della domanda, vero?

La rete neurale in generale e la MLP in particolare è una cosa molto flessibile, e lo stesso insieme di caratteristiche può essere partizionato ugualmente dalla stessa rete ma a diversi valori di pesi dei neuroni.... Giusto? - Quindi si pone la domanda: quale di queste varianti dell'insieme dei pesi è più robusto?

E con il secondo, che ha risposto al mio post, non credo che sia necessario mantenere più un dialogo - non ha senso.

Non impegnarsi in sciocchezze. Ti è stato risposto correttamente che dovresti scegliere un modello nel test. E ancora meglio nella convalida incrociata o nell'inoltro delle valutazioni.

Anche se l'esperienza si acquisisce con la pratica... Studiare) Poi si arriva ai test.

 
elibrario #:

Non fare sciocchezze. Vi è stato detto correttamente che dovreste scegliere un modello sul test. O ancora meglio sulla convalida incrociata o sul valving in avanti.

Anche se l'esperienza si acquisisce con la pratica... Arriverai ai test più tardi.

sul test...? una prova è la stessa della derivata di una funzione, può essere la stessa curva, tangente allo stesso punto ma a due funzioni diverse.

Non voglio offendere nessuno dei veterani in questo thread, ma dovresti conoscere le basi dopo tanti anni.

 

.