L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 494
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Leggi le reti neurali di Heikin e la teoria di Bishop in inglese - nessuna traduzione, ma sembra essere imminente.
È semplice. Scambi casuali per l'input e risultati per l'output. Il metodo Monte Carlo è chiamato, e non è molto veloce di per sé. E la sistematizzazione è un compito del Sistema Nazionale.
Beh, c'è un nome speciale per la NS? Come una rete neurale di ricottura stocastica di tipo sconosciuto, con o senza insegnante, e ottimizzando gli ingressi invece delle uscite :)) leggerò alcuni libri,
Heikin "NS Complete Course Second Edition" è disponibile in russo.
Beh, c'è un nome speciale per NS stesso? Come una rete neurale di annealing stocastico di apprendimento poco chiaro con o senza un insegnante, e ottimizzando gli ingressi invece delle uscite :))) leggerò libri,
Haikin "NS Complete Course Second Edition" è disponibile in russo
Heikin è, Bishop non è disponibile in russo.
NS è il solito MLP, l'allenamento è il solito BP, solo con regolari aggiustamenti manuali lungo il percorso. Se non si fanno questi aggiustamenti, o si mischia solo il campione, impara molto rapidamente, ma funziona bene solo su sequenze di apprendimento.
Heikin è lì, Bishop non è disponibile in russo.
Il NS è il solito MLP, l'allenamento è il solito BP, solo con regolari aggiustamenti manuali man mano che si procede. Se non si fanno questi aggiustamenti o si mischia solo il campione, impara molto velocemente, ma funziona bene (anche perfettamente)) solo sulla sequenza di apprendimento.
Per ora mi accontento del lavoro di Haykin. Mi sono sempre limitato ad articoli e descrizioni di modelli, i libri sono troppo superflui (così c'è abbastanza spazio per le vendite).
E quello di Haykin è roba vecchia :) per ora mi accontento, mi sono sempre limitato ad articoli e descrizioni di modelli, i libri hanno un sacco di roba inutile (per avere un volume da vendere)
Dichiarazione falsa. Le foreste e i boost non sono diversi dai NS nell'estrapolazione.
Tutti gli articoli che incontro dicono la stessa cosa
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
L'estrapolazione è difficile per gli alberi! - Le statistiche di Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest non è in grado di prevedere al di fuori dei dati di allenamento
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La regressione della foresta casuale non predice più in alto dei dati di addestramento
Tutti gli articoli che incontro dicono la stessa cosa
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
L'estrapolazione è difficile per gli alberi! - Le statistiche di Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest non è in grado di prevedere al di fuori dei dati di allenamento
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La regressione della foresta casuale non predice più in alto dei dati di addestramento
La spazzatura è scritta da persone non istruite. Non hanno sentito parlare di overtraining, non hanno idea di datamining, non hanno sentito parlare di predittori di rumore e non sono bravi nella stima del modello. Sono solo una specie di snob immaturi che fanno giochi intellettuali.
La spazzatura è scritta da persone non istruite. Non hanno sentito parlare di retraining, non hanno il concetto di datamining, non hanno sentito parlare di predittori di rumore e non sono bravi a stimare i modelli. Sono solo il tipo di snob troppo cresciuti che fanno giochi mentali.
Cosa c'entra tutto questo con l'estrapolazione...
anche quelli che hanno scritto RF nella libreria alglib sono persone non istruite?
e anche i blogger r sono zoppi, a quanto pare
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
Tutti sono perdenti tranne la FA.
solo i FA sono stati istruiti.
;))
Tutti sono perdenti tranne la FA.
solo ai FA è stato insegnato.
;))
È così che la gente usa la RF senza capirne i principi, e poi dice che non funziona. Dall'ultimo articolo è ovvio che la RF non può estrapolare, quindi dovrebbe funzionare solo con dati familiari.
Ahimè, ma si sbagliano ed è normale non solo per gli "ignoranti" e gli snob, ricordate Minsky e la sua autorevole opinione sull'"inutilità" dei perseptrons multistrato)))
Non parlo degli articoli su hubra, è lo stesso della spazzatura sui forum, 99,9% pubblicità naychpop e 0,1% di pensieri sensati in forma implicita "tra le righe".l'uomo ha dato un esempio su R, in quale punto ha fatto un errore? purtroppo non uso R, ma posso anche riprodurlo da solo