L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 500

 
Maxim Dmitrievsky:

Scusa, ma non hai dimostrato il tuo valore in nessuna delle mie domande finora, almeno non l'ho visto

E non ha senso scrivere come Capitan Ovvio e mettere tutto sottosopra per sembrare ancora un po' importante.


Stai confondendo le basi. Impara - hai bisogno di imparare, per il tuo bene. Impara invece di reagire di scatto...


ss

E non ho bisogno di provarti nulla.

 
Oleg avtomat:

Sei confuso sulle basi. Impara - hai bisogno di imparare, per il tuo bene. Impara invece di reagire di scatto...


.

E non ho bisogno di dimostrarle nulla.


un altro fuori... invece di rispondere alla semplice domanda se si può o meno estrapolare dall'impalcatura :D

Ho dato un esempio chiaro: no. Sono stato discusso, ma nessuno poteva spiegare, e ora devo andare a leggere un libro, perché nessuno sa un cazzo :)

Era una domanda molto semplice per coloro che sanno molto di MO, ma si scopre che nessuno lo sa.

E naturalmente tutti sono stupidi, specialmente su hubra e tutti quelli che scrivono articoli, e apparentemente anche Leo Brayman è stupido

 
Maxim Dmitrievsky:

un altro supremo... invece di rispondere alla semplice domanda se l'impalcatura è in grado o meno di estrapolare :D

Ho dato un esempio chiaro: no. Sono stato discusso, ma nessuno poteva spiegare, e ora devo andare a leggere un libro perché nessuno sa un cazzo :)

Era una domanda molto semplice per coloro che sanno molto di MO, ma a quanto pare nessuno lo sa.


Se fai una domanda del genere, stai già dimostrando il livello della tua comprensione e consapevolezza.

 
Oleg avtomat:

Se poni la domanda in questo modo, stai già dimostrando il tuo livello di comprensione e consapevolezza.


tutti, addio )

 
Maxim Dmitrievsky:

Addio, allora).


Salute, impara.

 
Ildottor Trader:

Quasi giusto, c'è anche un bias che si aggiunge al risultato

Molto probabilmente i valori y1, y2, y3 sono usati nello strato interno del neurone, e questi stessi valori dovrebbero essere usati anche come valori di input per lo strato successivo

Oppure se Y1,Y2,Y3 sono valori di uscita, allora diversi neuroni di uscita sono usati per la classificazione - per esempio se il valore più grande tra Y1,Y2,Y3 è Y1, allora il risultato è "classe 1", se il valore più grande è Y2, allora il risultato è "classe 2", se il valore più grande è Y3, allora il risultato è "classe 3". Se il neurone sarà usato per la regressione invece della classificazione, allora il neurone di uscita sarà solo uno. Se abbiamo due classi, possiamo usare un solo neurone di uscita (se il risultato è <0,5, allora sarà classe1, se >=0,5, allora sarà classe2).

È molto facile aggiungere una sigmoide per la funzione di attivazione di un neurone, avete bisogno di una tale funzione

E con esso avete già un neurone completo con uno strato interno (con tre perceptron) e un perceptron di uscita.

risultato = perceptron4[0]


Grazie per la risposta! È abbastanza informativo per me.

Suppongo che sia un neurone di polarizzazione? La descrizione dice che aiuta quando l'input è zero. Secondo voi, a cosa serve un neurone di bias e quali pesi dovrebbe selezionare? Fondamentalmente è solo un peso.

Qual è il modo migliore per controllare il valore di soglia dopo la trasformazione sigmoidea o dopo?

 
Ildottor Trader:

Il numero di pesi in un neurone può essere di decine di migliaia o più. In mql e R ci sono bibilotek speciali per creare e addestrare i neuroni, è meglio lavorare con loro, e non programmare il proprio neurone da zero.


Intendevo dire che per esempio in mql4 era possibile ottimizzare simultaneamente fino a 15 parametri, e in mql5 di più.

E sembra che uno strato sia regolato, e poi il secondo strato con il primo ottimizzato, ecc. Ma sarebbe bello se potessimo ottimizzare tutti i livelli in una volta sola, ma la potenza di calcolo non ci permette di farlo.

Ho una supposizione: quando i livelli sono ottimizzati uno per uno, in quel caso qualche modello non viene visto dal sistema.

Anche se uno strato viene analizzato, gli strati successivi saranno basati sulle assunzioni del primo strato.

 
Maxim Dmitrievsky:

un altro supremo... invece di rispondere alla semplice domanda se le foreste sono in grado o meno di estrapolare :D


un altro alto... invece di rispondere a una semplice domanda - le foreste possono estrapolare o no :D

E puoi anche fare una domanda: le foreste casuali sono dolci o salate? In generale, puoi fare un mucchio di domande idiote e anche prendere dei riferimenti su internet.


Non si dovrebbe rispondere se alcuni membri del forum, più sistematicamente istruiti, non fossero mollicci sull'argomento.


Le foreste casuali NON possono estrapolare perché la parola EXTRAPOLATION non si applica affatto a loro. Le foreste casuali, come altri modelli di apprendimento automatico, possono prevedere valori futuri, ma NON è un'ESTRAPOLAZIONE, infatti il termine ESTRAPOLAZIONE non è affatto applicabile in statistica.


Ed ecco perché.

Originariamente, il termine EXTRAPOLATION a funzioni, funzioni ordinarie che hanno una formula.

Per esempio.

у = а+ bх

Secondo questa formula, è possibile calcolare i valori di una funzione all'interno del campo originale di definizione (interpolazione) e all'esterno - estrapolazione.


Non ci sono formule del genere in statistica.

E tutta questa cosa del "può una foresta casuale estrapolare" ha qualcosa a che fare con questo, perché in statistica l'analogo appare come:

у ~ а + bх

Per distinguere una funzione lineare da una regressione lineare usa una tilde invece di un uguale.

Questa distinzione coglie il fatto che "a" in un'equazione lineare non è "a" in una regressione lineare, come indicato dalla tilde. Lo stesso vale per "b".

Mentre nella prima equazione "a" è una costante, nella seconda equazione "a" è l'aspettativa matematica, che è accompagnata da un valore di varianza e una stima con la probabilità dell'ipotesi nulla che quel valore di "a" che vediamo non esiste. Se la probabilità che questo NON esista è più del 10%, allora il valore di "a" può essere ignorato.


Ora alla tua domanda:

- Possiamo estrapolare dall'equazione di regressione?

- No, non puoi. Ma è possibile prevedere il valore futuro di una variabile casuale che assumerà un valore all'interno di un intervallo di confidenza. Se quell'intervallo di confidenza è del 95% (5% di probabilità sotto l'ipotesi nulla), allora otteniamo "y" all'interno di quell'intervallo di confidenza. E se si ottiene una stima per "a" con una varianza multipla di quel valore, non si può prevedere assolutamente nulla.


Spero di aver spiegato in dettaglio che la tua domanda che ha senso in presenza di funzioni, non ha affatto senso in statistica.

 
SanSanych Fomenko:


Ora alla tua domanda:

- Puoi estrapolare dall'equazione di regressione?

- No, non puoi. Ma è possibile prevedere il valore futuro di una variabile casuale che assumerà un valore all'interno dell'intervallo di confidenza. Se quell'intervallo di confidenza è del 95% (5% di probabilità sotto l'ipotesi nulla), allora otteniamo "y" all'interno di quell'intervallo di confidenza. E se si ottiene una stima per "a" con una varianza multipla di quel valore, non si può prevedere proprio nulla.


Ora, fate attenzione, non c'era nessuna domanda del genere... )

C'era una domanda, come ad esempio

Ildottor Trader:

L'estrapolazione implica la previsione di nuovi dati oltre i valori dei predittori conosciuti durante l'allenamento.

Aggiungerei che non si tratta di predittori, ma di obiettivi, perché se si tratta di predittori allora si tratta di interpolazione e non di estrapolazione.

Quindi, una foresta casuale può interpolare (non ha nemmeno bisogno di normalizzare gli input) ma non può estrapolare.

Instatistica, è l'estensione delle tendenze passate stabilite a un periodo futuro (l'estrapolazione nel tempo è usata per le stime prospettiche della popolazione); l'estrapolazione dei dati del campione a un'altra parte della popolazione che non è stata osservata (estrapolazione nello spazio).

Se prendete un albero di regressione, non sarà in grado di propagare i suoi risultati a dati NUOVI, per esempio alle quotazioni sopra 1,4500, e darà sempre una previsione di 1,4500 ma mai più e mai meno di 1,3000, perché è stato addestrato su un campione di 1,3000-14500, per esempio (come obiettivo) e questo viene dal principio degli alberi di decisione

A differenza degli alberi, la regressione lineare e una rete neurale possono farlo facilmente perché sono costruiti secondo principi diversi

Ancora una volta: nuovi dati al di fuori dell'intervallo di addestramento possono essere alimentati agli ingressi del nuovo campione RF ed esso li interpola perfettamente. Ma all'uscita non estrapola, cioè i valori predetti non andranno mai oltre l'intervallo di uscita su cui è stato addestrato.

 
Maxim Dmitrievsky:

Ora, fate attenzione, non c'era nessuna domanda del genere... )

C'era una questione, come, per esempio, sottolineato

Ildottor Trader:

L'estrapolazione implica la previsione di nuovi dati oltre i valori dei predittori conosciuti durante l'allenamento.

Aggiungerei che non sono predittori, ma obiettivi, perché se sono predittori allora abbiamo a che fare con l'interpolazione e non con l'estrapolazione.

Quindi, una foresta casuale può interpolare (non ha nemmeno bisogno di normalizzare gli input) ma non può estrapolare.

Instatistica, è l'estensione delle tendenze passate stabilite a un periodo futuro (l'estrapolazione nel tempo è usata per le stime prospettiche della popolazione); l'estrapolazione dei dati del campione a un'altra parte della popolazione che non è stata osservata (estrapolazione nello spazio).

Se prendete un albero di regressione, non sarà in grado di propagare i suoi risultati a dati NUOVI, per esempio alle quotazioni sopra 1,4500, e darà sempre una previsione di 1,4500 ma mai più e mai meno di 1,3000, perché è stato addestrato su un campione di 1,3000-14500, per esempio (come obiettivo) e questo viene dal principio degli alberi di decisione

A differenza degli alberi, la regressione lineare e una rete neurale possono farlo facilmente perché sono costruiti secondo principi diversi

Ancora una volta: nuovi dati al di fuori dell'intervallo di addestramento possono essere alimentati agli ingressi del nuovo campione RF ed esso li interpola perfettamente. Ma all'uscita non estrapola, cioè i valori predetti non andranno mai oltre l'intervallo di uscite su cui è stato addestrato.


Non hai capito nulla del mio post. Niente di niente.


Scusa per il post a causa della tua presenza.