L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2827

 
mytarmailS #:
h ttps:// youtu.be/4yrp71kAZxU
.

Cosa c'è di così interessante?

 
quando si allenano i neuroni, quanto si è sicuri che non siano bloccati da qualche parte?
 
Andrey Dik #:
quando si allenano i neuroni, quanto si è sicuri che non siano bloccati da qualche parte?

Nella neuronica, la suddivisione in batch aiuta a evitare

In altri algoritmi di ottimizzazione, è anche utile eseguire o dividere in batch più volte, ad esempio

oltre a regolare il passo del gradiente e altri accorgimenti.

È comunque opportuno esplorare le vicinanze dell'optimum modificando gli iperparametri per verificare la sopravvivenza del sistema.
 
Algoritmo di ottimizzazione per la suddivisione in lotti????? )
 
Maxim Dmitrievsky #:

in neuronici, la suddivisione in lotti aiuta ad evitare

In altri algoritmi di ottimizzazione, è utile eseguire o suddividere in batch più volte, ad esempio

oltre a regolare il passo del gradiente e altri trucchi.

È comunque necessario esplorare i dintorni dell'ottimo, modificando gli iperparametri per verificare la sopravvivenza del sistema.

Mi imbarazza chiedere: cosa sono i batch?

No, voglio dire, come si fa a essere sicuri che il neurone non si blocchi da qualche parte? Viene testata la resistenza all'inceppamento?

 
Andrey Dik #:

Mi vergogno a chiederlo: cosa sono i lotti?

No, voglio dire, come si può essere sicuri che il neurone non si blocchi da qualche parte? Viene testata la resistenza al blocco?

Viene testato su nuovi dati, ad esempio attraverso l'arresto anticipato.

Quando l'errore diminuisce sui dati di addestramento e inizia a crescere sui nuovi dati. Se non inizia a crescere sui nuovi dati, significa che non è ancora bloccato.

I batch sono pacchetti di dati per l'addestramento: non è necessario addestrare l'intero set di dati in una sola volta, è possibile dividere i dati in pacchetti e addestrarli a ogni iterazione.

Poiché gli ottimali di ogni pacchetto variano, la media sarà qualcosa di meno che ottimale per tutti i pacchetti.

In linea di principio, è difficile stabilire quale sia l'optimum. E se il campione è spostato, cosa fare? Come trovare questo optimum globale in un sottocampione spostato?

Beh, se la domanda riguarda in linea di principio gli algoritmi di ottimizzazione, hai ragione a chiederlo. Ma poi si inizia a spostare i campioni, il che crea più problemi di questa domanda.

se si passa dalla teoria alla pratica un po' :)

 
Maxim Dmitrievsky #:

è testato su nuovi dati, attraverso l'arresto anticipato, ad esempio.

quando l'errore diminuisce sui dati di addestramento e inizia a crescere sui nuovi dati. Finché non inizia a crescere sui nuovi dati, significa che non siamo ancora bloccati.

I batch sono pacchetti di dati per l'addestramento: non è necessario addestrare l'intero set di dati in una sola volta, è possibile dividere i dati in pacchetti e addestrarli a ogni iterazione.

Poiché gli ottimali di ogni pacchetto variano, la media sarà qualcosa di meno che ottimale per tutti i pacchetti.

In linea di principio, è difficile stabilire quale sia l'optimum. E se il campione è spostato, cosa fare? Come trovare questo optimum globale in un sottocampione spostato?

Beh, se la domanda riguarda in linea di principio gli algoritmi di ottimizzazione, hai ragione a chiederlo. Ma poi si inizia a spostare i campioni, il che crea più problemi di questa domanda.

se si passa dalla teoria alla pratica un po' :)

Ah, quindi ho capito bene la tua prima risposta. non c'è modo di controllare la resistenza della marmellata.

Quello che dici "l'errore cala su quelli di allenamento e inizia a crescere su quelli nuovi" non è un test per l'inceppamento, ma solo un criterio per interrompere l'allenamento.

la mia domanda riguarda gli algoritmi di ottimizzazione che le persone qui usano per addestrare i neuroni, non l'aumento della stabilità dei neuroni sui nuovi dati, che è la seconda fase. beh, la prima fase non è stata affatto discussa qui ancora))))

 
Andrey Dik #:

Ah, quindi ho capito bene la tua prima risposta: non c'è modo di testare la resistenza all'inceppamento.

Quello che dici riguardo a "l'errore diminuisce su quelli in allenamento e inizia a crescere su quelli nuovi" non è un test per l'inceppamento, ma solo un criterio per interrompere l'allenamento.

La mia domanda riguarda gli algoritmi di ottimizzazione che le persone qui usano per addestrare i neuroni, non l'aumento della stabilità dei neuroni sui nuovi dati, che è la seconda fase. beh, la prima fase non è stata affatto discussa qui ancora))))

Beh, come se sì, non fosse stata discussa. Il più popolare tra i neuroni è l'algoritmo di ottimizzazione Adam. Forse potete testarlo anche voi in qualche modo
 
Maxim Dmitrievsky #:
Beh, più o meno, sì, non è stato discusso. Nei neuroni, il più diffuso è l'algoritmo di ottimizzazione Adam. Forse è possibile testarlo in qualche modo

Ecco, non se ne parla affatto.

In pratica, questo significa che il neurone sarà sottoaddestrato, cioè l'errore sui nuovi dati inizierà a crescere prima di quanto accadrebbe se si utilizzasse un AO più resistente all'inceppamento.