L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3386
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Proverò da Khabarovsk...
Qualsiasi modello è una certa somma di modelli, esagerando, un modello può essere etichettato come una TS.
Immaginiamo che un modello sia composto da 100 TS.
Può darsi che nel modello n. 1 100 TC abbiano concluso un accordo.
Può essere che nel modello #2 un TS abbia concluso 100 accordi e gli altri 99 non abbiano concluso alcun accordo.
Come calcolare le statistiche per ogni TS?
Se il modello proviene dalle regole, può essere fatto facilmente e chiaramente.
Se il modello èneurale?
Il problema non è il numero di volte in cui il modello viene utilizzato.
Il problema è che lo stesso modello (albero?) sugli stessi dati predice un'etichetta in alcuni casi e un'etichetta diversa in altri. Questo è il cosiddetto errore di classificazione. Non esistono predittori, almeno per noi, i cui valori possano essere classificati rigorosamente in classi. e tutti i problemi con foglie, alberi e quant'altro derivano dai valori dei predittori.
Se l'errore ha già smesso di diminuire o è uguale a zero, è possibile dividere gli esempi rimanenti in modelli in base a qualche misura di vicinanza :) Ad esempio, il clustering. E contare quanti ne rimangono. E anche scrivere una condizione media per ogni modello/cluster (prendere i centroidi dei cluster), si otterrà una regola in uscita.
Si può fare, ma dov'è la garanzia che la suddivisione sia corretta, in base alla suddivisione interna dei neuroni?
Se si vuole fare un cluster, non sono gli esempi, ma l'ultimo strato di neuroni.
No, solo esempi. Non si possono costruire regole dagli ultimi strati neuronici.
Lasciate che crei un campione di dati e che ognuno applichi la propria metodologia e vedremo.
Non ho provato questo approccio, sto solo pensando ad alta voce a come ottenere regole da qualsiasi modello. Puoi giocarci in seguito.
Sembra che gli articoli abbiano smesso di essere tradotti o che non abbiano tempo. La sezione inglese è già piena di articoli su python e onnx :)) Ed è apparso un articolo su R.
In generale, gli articoli sono inutili in termini di TC. Più o meno come su Medium, scrivono per scrivere.
Identificare ora tutte le regole linearmente correlate e rimuoverle come regole ridondanti.
Come viene definito questo accoppiamento lineare? Può spiegarci meglio?
Rimuovo solo le regole che sono molto simili, la somiglianza è determinata dai punti di attivazione.