L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 494

 
Yuriy Asaulenko:

Leggi le reti neurali di Heikin e la teoria di Bishop in inglese - nessuna traduzione, ma sembra essere imminente.

È semplice. Scambi casuali per l'input e risultati per l'output. Il metodo Monte Carlo è chiamato, e non è molto veloce di per sé. E la sistematizzazione è un compito del Sistema Nazionale.


Beh, c'è un nome speciale per la NS? Come una rete neurale di ricottura stocastica di tipo sconosciuto, con o senza insegnante, e ottimizzando gli ingressi invece delle uscite :)) leggerò alcuni libri,

Heikin "NS Complete Course Second Edition" è disponibile in russo.

 
Maxim Dmitrievsky:

Beh, c'è un nome speciale per NS stesso? Come una rete neurale di annealing stocastico di apprendimento poco chiaro con o senza un insegnante, e ottimizzando gli ingressi invece delle uscite :))) leggerò libri,

Haikin "NS Complete Course Second Edition" è disponibile in russo

Heikin è, Bishop non è disponibile in russo.

NS è il solito MLP, l'allenamento è il solito BP, solo con regolari aggiustamenti manuali lungo il percorso. Se non si fanno questi aggiustamenti, o si mischia solo il campione, impara molto rapidamente, ma funziona bene solo su sequenze di apprendimento.

 
Yuriy Asaulenko:

Heikin è lì, Bishop non è disponibile in russo.

Il NS è il solito MLP, l'allenamento è il solito BP, solo con regolari aggiustamenti manuali man mano che si procede. Se non si fanno questi aggiustamenti o si mischia solo il campione, impara molto velocemente, ma funziona bene (anche perfettamente)) solo sulla sequenza di apprendimento.


Per ora mi accontento del lavoro di Haykin. Mi sono sempre limitato ad articoli e descrizioni di modelli, i libri sono troppo superflui (così c'è abbastanza spazio per le vendite).

 
Maxim Dmitrievsky:

E quello di Haykin è roba vecchia :) per ora mi accontento, mi sono sempre limitato ad articoli e descrizioni di modelli, i libri hanno un sacco di roba inutile (per avere un volume da vendere)

Beh, non direi così. La teoria non invecchia. Ma c'è una comprensione più profonda dell'argomento. Articoli, certo, ma senza teoria generale non sono molto compresi, e solo percepiti superficialmente e acriticamente - un sacco di sciocchezze che scrivono).
 
Alyosha:

Dichiarazione falsa. Le foreste e i boost non sono diversi dai NS nell'estrapolazione.


  • Il modello può solo interpolare, ma non estrapolare (lo stesso vale per la foresta e il boosting sugli alberi). Cioè, l'albero decisionale fa una predizione costante per gli oggetti nello spazio delle caratteristiche al di fuori del parallelepipedo che copre tutti gli oggetti nel campione di allenamento. Nel nostro esempio con palle gialle e blu, questo significa che il modello dà la stessa previsione per tutte le palle con coordinate > 19 o < 0.

Tutti gli articoli che incontro dicono la stessa cosa

https://habrahabr.ru/company/ods/blog/322534/


  • come gli alberi decisionali, l'algoritmo è totalmente incapace di estrapolazione
 
Maxim Dmitrievsky:

  • Il modello può solo interpolare, ma non estrapolare (lo stesso vale per il potenziamento delle foreste e degli alberi). Cioè, l'albero decisionale fa una predizione costante per gli oggetti nello spazio delle caratteristiche al di fuori del parallelepipedo che copre tutti gli oggetti nel campione di allenamento. Nel nostro esempio con palle gialle e blu, questo significa che il modello dà la stessa previsione per tutte le palle con coordinate > 19 o < 0.

Tutti gli articoli che incontro dicono la stessa cosa

https://habrahabr.ru/company/ods/blog/322534/


  • come gli alberi decisionali, l'algoritmo è totalmente incapace di estrapolazione

La spazzatura è scritta da persone non istruite. Non hanno sentito parlare di overtraining, non hanno idea di datamining, non hanno sentito parlare di predittori di rumore e non sono bravi nella stima del modello. Sono solo una specie di snob immaturi che fanno giochi intellettuali.

 
SanSanych Fomenko:

La spazzatura è scritta da persone non istruite. Non hanno sentito parlare di retraining, non hanno il concetto di datamining, non hanno sentito parlare di predittori di rumore e non sono bravi a stimare i modelli. Sono solo il tipo di snob troppo cresciuti che fanno giochi mentali.


Cosa c'entra tutto questo con l'estrapolazione...

anche quelli che hanno scritto RF nella libreria alglib sono persone non istruite?

e anche i blogger r sono zoppi, a quanto pare

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

Tutti sono perdenti tranne la FA.

solo i FA sono stati istruiti.

;))

 
Oleg avtomat:

Tutti sono perdenti tranne la FA.

solo ai FA è stato insegnato.

;))


È così che la gente usa la RF senza capirne i principi, e poi dice che non funziona. Dall'ultimo articolo è ovvio che la RF non può estrapolare, quindi dovrebbe funzionare solo con dati familiari.

 
Aliosha:

Ahimè, ma si sbagliano ed è normale non solo per gli "ignoranti" e gli snob, ricordate Minsky e la sua autorevole opinione sull'"inutilità" dei perseptrons multistrato)))

Non parlo degli articoli su hubra, è lo stesso della spazzatura sui forum, 99,9% pubblicità naychpop e 0,1% di pensieri sensati in forma implicita "tra le righe".

l'uomo ha dato un esempio su R, in quale punto ha fatto un errore? purtroppo non uso R, ma posso anche riprodurlo da solo