L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 858

 
Maxim Dmitrievsky:

Non uso gli algoritmi di altre persone.

Certo, lo spirito Kulibin è una buona cosa, ma le cose più interessanti e necessarie sono già state inventate, e sono proprio nel palmo della mia mano. Non rifiuterei decenni di ricerche in tutto il mondo.

 
Maxim Dmitrievsky:

Ho anche quelli, e ci sono anche quelli che fanno soldi ma non sempre, e io voglio farli sempre (o quasi sempre). E solo allora potrò dare consigli.

Nel salvadanaio! Lo inserirò ogni volta che comincerai a dare consigli dove non sai :)

 
Ildottor Trader:

Certo, lo spirito Kulibin è una buona cosa, ma le cose più interessanti e necessarie sono già state inventate, e sono proprio lì nel palmo della tua mano. Non mi dispiacerebbero decenni di ricerca in tutto il mondo.

Rapporto? Mi stai uccidendo con le tue vuote affermazioni.

 
Ildottor Trader:

Nel salvadanaio! Lo metterò ogni volta che comincerai a dare consigli dove non lo sai :)

Ho imparato che è inutile chiedere a un cavallo morto di dire qualcosa di comprensibile, è più facile scendere e non reagire

 
Vizard_: Ci siamo! Grasso fresco per i segaioli...


Dopo 2 minuti di lavoro con una matrice 13x6400 (10 volte più grande dell'esempio)
Questo succede.
Errore: non posso piazzare un vettore da 3,2 Gb.
E sta cercando di prendere 12-13 Gb, mentre io ho un totale di 16 Gb


 
R di solito occupa la memoria in pezzi un po' alla volta. Ne ha già presi 12-13, ne vuole altri 3, e non si sa di quanti altri ne avrà bisogno in seguito.
 
Ildottor Trader:
R di solito occupa la memoria in pezzi un po' alla volta. Ne ha già presi 12-13, ne vuole altri 3, e chissà di quanti altri ne avrà bisogno più tardi.

Ridotto la matrice - non poteva nemmeno contare 13x500... A quanto pare i dati di mercato senza uno schema lo fanno impazzire)). Non è che si usa il glucosio per determinare il diabete.

Qualcuno ha provato con i dati di mercato? Hai avuto fortuna?

Finalmente... Ci sono riuscito con 13x100: (ma è stupido setacciare qualcosa per 100 linee). Qualcosa dell'input #2 sembrava essere il più importante, sui pacchetti precedenti era alla fine. Probabilmente, questo è causato dal fatto che la valutazione è basata su 100 linee, non 6400.

Variabili ordinate ( importanza decrescente):
2 5 10 12 64 7 8 9 1 11
Punteggi 0,24 0,025 0,019 -0,048 -0,055 -0,057 -0,05 -0,063 -0,067 -0,072
3
Punteggi NA

---

Matrice dei punteggi:
2 5 10 12 64 7 8 9 1 11
2 0.24
5 0.128 0.025
10 0.186 -0.002 0.019
12 0.015 -0.043 -0.051 -0.048
6 0.086 -0.053 -0.011 -0.068 -0.05
4 0.066 -0.029 -0.073 -0.054 -0.065 -0.055
7 0.134 -0.088 -0.101 -0.188 -0.121 -0.099 -0.057
8 0.12 -0.202 -0.069 -0.1 -0.068 -0.089 -0.061 -0.05
9 0.092 -0.004 -0.138 -0.097 -0.088 -0.069 -0.112 -0.088 -0.063
1 0.086 -0.06 -0.088 -0.107 -0.083 -0.084 -0.066 -0.081 -0.076 -0.067
11 0.095 -0.017 -0.183 -0.115 -0.083 -0.078 -0.066 -0.086 -0.066 -0.082 -0.072
3 0.059 -0.132 -0.102 -0.146 -0.114 -0.126 -0.109 -0.113 -0.131 -0.117 -0.135


 

Ciao!


È pronta la neuro robotica con l'IA?


Fate una prova. )))



nel frattempo ho scoperto come fare un tick bot - per farlo funzionare proprio come sul tester ))))

 

Un'introduzione a Greta


Sono stato sorpreso daGreta. Avevo ipotizzato che i pacchettitensorflow ereticulate avrebbero alla fine permesso agli sviluppatori di R di guardare oltre le applicazioni di deep learning e sfruttare la piattaformaTensorFlow per creare tutti i tipi di applicazioni statistiche di produzione. Ma non stavo pensando al Bayesiano. Dopo tutto,Stan è probabilmente tutto ciò che un modellista bayesiano potrebbe desiderare. Stan è un potente motore di modellazione della distribuzione di probabilità a livello di produzione con un'interfaccia R brillante, una profonda documentazione e un team di sviluppo dedicato.

Ma greta permette agli utenti di scrivere modelli bayesiani basati su TensorFlow direttamente in R! Cosa c'è di più affascinante? greta rimuove la barriera dell'apprendimento di un linguaggio di modellazione intermedio mentre promette ancora di fornire modelli MCMC ad alte prestazioni che girano ovunque TensorFlow possa andare.

In questo post, vi introdurrò a greta con un semplice modello usato da Richard McElreath nella sezione 8.3 del suo libro iconoclasta:Statistical Rethinking: A Bayesian Course with Examples in R and Stan. Questo modello cerca di spiegare il log del PIL di un paese sulla base di una misura di asperità del terreno mentre controlla se il paese è in Africa o no. Lo userò solo per illustrare il campionamento MCMC con greta. L'esempio esteso nel libro di McElreath, tuttavia, è una meditazione sulle sottigliezze delle interazioni di modellazione, e vale la pena studiare.

Per prima cosa, carichiamo i pacchetti richiesti e recuperiamo i dati. DiagrammeR serve a tracciare il diagramma di flusso TensorFlow del modello, e bayesplot è usato per tracciare i diagrammi di traccia delle catene di Markov. Il set di dati robusto che fornisce 52 variabili per 234 è abbastanza interessante, ma useremo un set di dati ridotto con solo 170 contee e tre variabili.


library(rethinking)
library(greta)
library(DiagrammeR)
library(bayesplot)
library(ggplot2)

Il seguente è il codice da usare.


Ciao inventori ciclisti!

 
Vizard_:

)))

Per la prima ricerca, si consiglia di usare o "peng" (più veloce) o "esteves"
(più affidabile ma molto più lento per grandi insiemi di dati) e, nel caso in cui il numero di
variabili è grande (>100), limitate la ricerca "in avanti" a "n.var = 100". Il
La barra di progresso vi darà un'idea del tempo di esecuzione rimanente.


libreria(varrank)

dati(nassCDS, pacchetto = "DAAG")

nassCDS.varrank <- varrank(data.df = nassCDS,
metodo = "peng",
variabile.importante = "morto",
variable.method = "dead", variable.method = "sturges",
algoritmo = "avanti",
schema = "mid",
verboso = FALSO)

riassunto(nassCDS.varrank)
plot(nassCDS.varrank, notecex = 0.5)

Questo particolare algoritmo, seleziona i predittori bene o male?


In generale, nella selezione dei predittori, cosa è buono e cosa è cattivo?

In superficie, si tratta di collegare la selezione dei predittori alla performance di un modello.

Questo mi sembra un secondo passo.

Il primo passo è SEMPRE quello di affrontare l'overtraining del modello, una situazione in cui il comportamento del modello nel futuro non corrisponde al suo comportamento nel passato. Se non abbiamo pensieri su questo, allora è tutto un gioco di numeri.


Per tornare al tuo post.

Credo che il comportamento futuro del modello sarà poco diverso dal comportamento sui dati storici se la PRESCRIZIONE dei predittori al muoversi della finestra non cambierà molto.

I ranghi che il pacchetto calcola cambieranno su alcuni set di predittori o no? Chiaramente il risultato può essere diverso per diversi insiemi di predittori, tuttavia se (come ho fatto sopra) tali post fossero pubblicati qui...