L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1798
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
meglio incanalare l'energia nella generazione di nuovi tratti... IMHO...
Se i segni sono buoni allora possiamo anche provare a predire gli estremi, ho circa 400 e 10 modelli, ma vedo che ho bisogno di decine di volte di più, i campioni di formazione possono raggiungere > 100 GB, non c'è modo )))) non ho tale potenza...
Quando ci sono molti predittori - inizia il sovrallenamento, soprattutto se è un booster - ci sono foglie che si attivano su un campione di solo 0,01% - è chiaramente spazzatura.
Quindi è importante lavorare in due direzioni: cercare modi per migliorare i modelli attraverso la loro struttura e l'elaborazione pre/post dei dati, così come aggiungendo nuovi predittori.
Non ha funzionato niente con i dati che ti ho mandato prima per gli esperimenti?
Ho messo quell'EA su un conto reale ora - e vedo che ci sono altri problemi - per esempio, il finecorsa non è riempito completamente, mercato sottile - grandi slittamenti...
Quando ci sono molti predittori, inizia l'apprendimento eccessivo,
Non lo fa, c'è una convalida incrociata + un campionamento extra da controllare...
E il sovrallenamento è solo perché hai dei segni che hanno il 5% di informazioni utili, e vuoi ottenere il 70% da loro, e mancano solo... nessuna informazione utile...
Per questo servono molti cartelli.
ci sono foglie che si attivano su un campione di solo 0,01% - è ovviamente spazzatura.
Per esempio, quando fai trading con le mani, guardi i grafici, diversi TF, vedi alcuni pattern e prendi delle decisioni, poi vai su un piccolo TF e cerchi un punto di entrata, poi aspetti il momento giusto ed entri... Cos'era quello? È una compressione di informazioni.
1) diversi TF e modelli in essi - compressione
2) TF poco profondo, punto di ingresso - compressione
3) punto di ingresso - compressione
Di conseguenza non sarà nemmeno lo 0,01% e nemmeno lo 0,001% rispetto al campione, ma non lo consideri spazzatura, vero?
Non è venuto fuori niente con i dati che ti ho mandato prima per gli esperimenti?
Quali dati? Me li sono persi...
non iniziare, c'è una convalida incrociata + un ulteriore campionamento per la verifica...
È possibile controllare, ma non influisce sull'apprendimento.
E il sovrallenamento solo perché hai dei segni che hanno il 5% di informazioni utili, e vuoi ottenere il 70% da loro, ma non c'è proprio... nessuna informazione utile...
Se ogni predittore porta il 5% di informazioni utili, va bene, o quanto vi aspettate? Come si definisce l'utilità in generale - mi sto basando sulla deviazione dalla media di tutti gli obiettivi nel campione.
Quando fai trading a mano, guardi i grafici, per esempio, a diversi TF, vedi alcuni pattern e prendi delle decisioni, poi vai su un piccolo TF e cerchi un punto di entrata, poi aspetti il momento giusto ed entri... Cos'era quello? È una compressione di informazioni.
1) diversi TF e modelli in essi - compressione
2) TF poco profondo, punto di ingresso - compressione
3) punto di ingresso - compressione
Di conseguenza, per quanto riguarda il campione, non sarà nemmeno lo 0,01% e nemmeno lo 0,001%, ma voi non lo considerate spazzatura, vero?
No, sarebbe una casualità, un'intuizione, ma non un sistema.
Con quali dati? Mi sfugge qualcosa...
Link.
Sì, certo )))) Mi piacerebbe vedere come usano "if, then, else" per riconoscere immagini o generare discorsi, sarebbe una cosa tosta). Scherzi a parte, stai dicendo sciocchezze!
Finerider riconosce senza ns.
Una volta ho letto un'intervista con uno dei loro impiegati che chiamava le reti neurali "analisi discriminante per i poveri".
Una volta ho letto un'intervista con uno dei loro impiegati che chiamava le reti neurali "analisi discriminante per i poveri".
Link.
Ahhhh non l'avevo visto, pensavo non avessi mai rifatto nulla... No, non l'ho fatto.
Probabilmente ha frainteso. Finerider riconosce senza ns. Il lavoro sull'attività cerebrale dei topi ha determinato ciò che il topo avrebbe fatto mezzo secondo prima dell'azione negli anni 90. Quando ns ha vinto gli scacchi e poi con MOs il comp è diventato invincibile questi eventi non sono stati coperti in questo modo, anche se più significativo. Il riconoscimento del passaporto di lavoro è stato incontrato circa 10 anni fa. Il riconoscimento era ok. Ora la notizia del riconoscimento del passaporto con ns sarà installato sulle biglietterie ferroviarie.... C'è più hype che lavoro.
È tutto un equivoco.... C'è molto clamore perché hanno bisogno di un haip, hanno bisogno di un haip perché non ci sono risorse umane, è necessario suscitare interesse tra la gente, o meglio la biomassa inutile che non può nemmeno andare in bagno senza uno smartphone.
Come si può paragonare il riconoscimento di un passaporto con la guida di un'automobile seguendo il riconoscimento di oggetti? O il riconoscimento di soggetti video su YouTube? O la generazione di discorsi umani? Sono passati 30 anni, i problemi sono diventati migliaia di volte più complicati e si stanno risolvendo, e voi state parlando di qualche passaporto sfigato degli anni 90, ma è ancora lì negli anni 90.
E paragonare i compiti degli anni '90 con quelli di oggi è anche stupido, come si può paragonare il riconoscimento dei passaporti con la guida di un'auto con il riconoscimento degli oggetti incidentali? O il riconoscimento dei soggetti video su YouTube? O la generazione del discorso umano? Sono passati 30 anni, i compiti sono diventati migliaia di volte più complicati e sono risolti, e voi state parlando di qualche povero passaporto degli anni '90, ma è ancora negli anni '90.
Non sarei d'accordo, i problemi devono essere compresi fin dall'inizio e la storia della loro origine e delle loro soluzioni aiuta in questo senso. Gli algoritmi MO sono stati per lo più formulati e implementati prima degli anni 90, in Fortran 77, lo stesso Cat Boost. Oggi gli strumenti, la potenza e il software sono diventati più disponibili. I compiti di riconoscimento seguono lo stesso algoritmo, cioè, bibliografia impostata, catalogazione, confronto. L'unica cosa che cambia è il numero e la velocità (anche i metodi di ricerca del catalogo, ma non è fondamentale). Galileo ha inventato il primo Hash)))
Prima 10K era grande oggi 100Gb può essere implementato a casa. Se le capacità di oggi permettessero di fare la ricerca completa e i passaggi di ricerca completi per ottimizzare GA non sarebbero necessari)))))
Informazioni sul passaporto) https://open-dubna.ru/ekonomika/9057-razrabotka-rezidenta-oez-dubna-sokrashchaet-ocheredi-v-kassakh-rzhd
Le soluzioni costavano (in vendita) circa 500 dollari. Quanto costa l'IA? Non credo che sia più economico. La soluzione ha più di 15 anni. Il problema principale è quello di rimuovere la griglia protettiva )))) Su uno sfondo omogeneo e su una griglia sono compiti diversi).
Ahhhh non l'avevo visto, pensavo non avessi mai rifatto nulla... No, non l'ho fatto.
Lo guarderai ora?
Stai guardando ora?
Ho fatto...
il file del saldo corrente non contiene prezzi, i prezzi che mi hai dato prima non corrispondono alla dimensione del saldo corrente
UPD==============
Se ci penso, questa idea è un fallimento. non dovrei analizzare e prevedere il grafico dell'equilibrio, ma cercare punti di entrata buoni/cattivi