L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3386

 


mytarmailS #:

Proverò da Khabarovsk...


Qualsiasi modello è una certa somma di modelli, esagerando, un modello può essere etichettato come una TS.


Immaginiamo che un modello sia composto da 100 TS.


Può darsi che nel modello n. 1 100 TC abbiano concluso un accordo.

Può essere che nel modello #2 un TS abbia concluso 100 accordi e gli altri 99 non abbiano concluso alcun accordo.


Come calcolare le statistiche per ogni TS?

Se il modello proviene dalle regole, può essere fatto facilmente e chiaramente.

Se il modello èneurale?

Il problema non è il numero di volte in cui il modello viene utilizzato.

Il problema è che lo stesso modello (albero?) sugli stessi dati predice un'etichetta in alcuni casi e un'etichetta diversa in altri. Questo è il cosiddetto errore di classificazione. Non esistono predittori, almeno per noi, i cui valori possano essere classificati rigorosamente in classi. e tutti i problemi con foglie, alberi e quant'altro derivano dai valori dei predittori.

 
Maxim Dmitrievsky #:
Se l'errore ha già smesso di diminuire o è uguale a zero, è possibile dividere gli esempi rimanenti in modelli in base a qualche misura di vicinanza :) Ad esempio, il clustering. E contare quanti ne rimangono. E anche scrivere una condizione media per ogni modello/cluster (prendere i centroidi dei cluster), si otterrà una regola in uscita.
Si può fare, ma dov'è la garanzia che la suddivisione sia stata fatta correttamente, in accordo con la suddivisione interna dei neuroni?

Dov'è la garanzia che la misura di prossimità scelta per il clustering sia stata scelta correttamente?

Ecc...

Non sarebbe più semplice partizionare il modello in legno e non dover creare una Franklinstein

 
mytarmailS #:
Si può fare, ma dov'è la garanzia che la suddivisione sia corretta, in base alla suddivisione interna dei neuroni?
Dov'è la garanzia che la misura di prossimità scelta per il raggruppamento sia scelta correttamente?
Questa è una domanda filosofica.
 
È qui che dovrebbe essere raggruppato l'ultimo strato di neuroni, non gli esempi, se non gli esempi
 
mytarmailS #:
Se si vuole fare un cluster, non sono gli esempi, ma l'ultimo strato di neuroni.
No, sono gli esempi. Non si possono costruire regole sugli ultimi strati neuronici.
 
Maxim Dmitrievsky #:
No, solo esempi. Non si possono costruire regole dagli ultimi strati neuronici.
Lasciatemi creare un campione di dati e ognuno applichi la propria metodologia e vedremo.
 
mytarmailS #:
Lasciate che crei un campione di dati e che ognuno applichi la propria metodologia e vedremo.
Non ho provato questo approccio, sto solo pensando ad alta voce a come ottenere regole da qualsiasi modello. Possiamo giocarci più tardi.
 
Maxim Dmitrievsky #:
Non ho provato questo approccio, sto solo pensando ad alta voce a come ottenere regole da qualsiasi modello. Puoi giocarci in seguito.
Nemmeno io l'ho provato, è la mia teoria contro la tua.
 

Sembra che gli articoli abbiano smesso di essere tradotti o che non abbiano tempo. La sezione inglese è già piena di articoli su python e onnx :)) Ed è apparso un articolo su R.

In generale, gli articoli sono inutili in termini di TC. Più o meno come su Medium, scrivono per scrivere.

 
mytarmailS #:

Identificare ora tutte le regole linearmente correlate e rimuoverle come regole ridondanti.

Come viene definito questo accoppiamento lineare? Può spiegarci meglio?

Rimuovo solo le regole che sono molto simili, la somiglianza è determinata dai punti di attivazione.