L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2385
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Penso che Alexey abbia suggerito la potenza di calcolo, gli piace calcolare qualcosa di lungo, forse dovresti fare una coop :)
R senza vettorizzazione sarà ancora lento. Si potrebbe usare un qualche tipo di database veloceHo parti lente vettorializzate, la logica dell'algoritmo dovrebbe essere ottimizzata, sto cercando di capirlo ora, ho già provato a velocizzarlo 5 volte, ho riscritto il codice...
Altri segni sono così pochi, così primitivi, dovrei fare qualcosa anch'io, non mi piace l'obiettivo...
Oh, merda... è come una riparazione, l'ego può solo iniziare ...
Certo che no)), e anche se lo facessi, non mi influenzerebbe in alcun modo).
Provaci, ma il risultato sarà al massimo lo stesso di Random Forest, cioè nessuno...
L'output di Forrest è una somma di regole attivate, le regole non sono filtrate e respinte in alcun modo, e le regole respinte sono circa il 100%)
Le regole non sono controllate per la ripetibilità (ci può essere solo una risposta) o l'adeguatezza (funziona); le regole sono solo allungate ai dati (il modello si adatta ai dati)
Il modello approssima un campione di allenamento in modo casuale, sperando che la validazione incrociata aiuti, ma non lo farà per ragioni oggettive (ci sono troppo pochi eventi importanti nel mercato)
Ho provato un approccio diverso, non adatto il modello ai dati ma formulo ipotesi e le verifico.
1) Formulo ipotesi plausibili(già filtrate) sotto forma di regole.
2) Le ipotesi sono testate su piccoli dati
3) Le ipotesi che sono state testate su dati piccoli vengono testate su dati grandi.
In effetti, solo una su un milione di regole plausibili rimane
È difficile per il lettore inesperto capire la differenza tra i due approcci, ma la differenza tra loro è abissale
Una specie di filosofia. Niente di concreto...
Beh perché, il percorso è annunciato prima, e tutto è rigorosamente come previsto. Generare regole e controllarle non è il solito approccio in cui le regole sono selezionate in base alla logica/obiettivi del problema. Cioè di solito le regole vengono generate inizialmente per la soluzione. Questo porta alla perdita di regole che non sono logiche ma producono risultati.
Una specie di filosofia. Niente di concreto...
Perché, il percorso è stato annunciato prima e tutto è rigorosamente come previsto. Generare regole e controllarle non è il solito approccio in cui le regole sono selezionate in base alla logica/obiettivi del compito. Cioè di solito le regole vengono generate inizialmente per la soluzione. Questo porta alla perdita di regole che non sono logiche ma producono risultati.
+++
+++
Un po' più di filosofia))
È tipico per tali approcci avere risultati che possono essere convenzionalmente chiamati "anti-criceto" - nel senso che il criceto è visto ma non visto. Questo è abbastanza tipico delle file simili alle implementazioni SB.
Non sono d'accordo. Il problema del gran numero di regole e logiche di selezione è certamente presente. Gli obiettivi sono gli stessi in entrambi gli approcci.
E che la strada è completamente sbagliata, beh, stiamo controllando le regole e correggendo il percorso))))
Ho qualche altra astrazione MO che dovrebbe trovare accuratamente i modelli reali (se ce ne sono), ma non è certo
Non sono riuscito a trovare alcun riferimento massonico o pentagoniano su google, quindi lo tengo nascosto per ora
L'astrazione mi è venuta in mente mentre stavo fotografando i semi di girasole.Ho qualche altra astrazione MO che dovrebbe trovare accuratamente i modelli reali (se ce ne sono), ma non è certo
Non sono riuscito a trovare alcun riferimento massonico o pentagoniano su google, quindi per ora lo tengo nascosto.
astrazione inventata mentre schioccavi i semi di girasoleMi sembra di aver dimenticato: i veri modelli di SB (se ce ne sono) ))))
Penso che Alexei abbia suggerito la potenza di calcolo, gli piace fare lunghi calcoli, forse si può fare una co-op :)
Sarà ancora lento su R senza vettorizzazione. Potresti usare qualche database veloceInoltre, ho fatto questo approccio per anni.
Tuttavia, ora l'ho rimandato un po', perché è davvero molto lento, il che rende impossibile cambiare rapidamente l'obiettivo (cercarne uno buono), e anche le singole regole smettono di funzionare, non importa come le controlli sulla storia.
Maxim, puoi aiutare, fare uno script in python che ciclicamente creerà un modello (o 100 modelli) dal file CSV, poi analizzarlo sulla validità dei predittori con gli strumenti standard di CatBoost, poi vietare/consentire l'uso dei predittori (CatBoost può farlo) su certe condizioni e creare di nuovo un nuovo modello. Questo metodo permetterà di assegnare i predittori importanti che porteranno al miglioramento del modello. Sto usando un metodo simile ma è davvero scomodo per me, perché dopo aver aggiunto/rimosso i predittori devo riavviare manualmente il ciclo.