L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 815

 
Maxim Dmitrievsky:

Ora prendete la stima storica del byssel/hold di ogni predittore e convertitela in una stima di probabilità.

prendere diversi predittori, fare lo stesso per ciascuno

trovare le probabilità condizionali dei profitti su un insieme di caratteristiche

e poi lo metti in NS o insiemi fuzzy come in questo esempio

la stima media oscillerà intorno a 0,5 per ogni predittore, ma le meraviglie dell'approccio bayesiano porteranno i totali a un livello accettabile

è in teoria :)

In tutti i modelli di classificazione che conosco, il risultato può essere ordinato come classe, o può essere ordinato come probabilità di classe. Di solito questa probabilità è divisa a metà per le due classi. Ma c'è un programma che divide questa probabilità non per la metà ma per alcune altre considerazioni.

 
Vizard_:

)))

Wizard_, ho letto attentamente i tuoi post

Spiega le immagini, cosa c'è?

 
SanSanych Fomenko:

In tutti i modelli di classificazione che conosco, il risultato può essere ordinato come classe, o può essere ordinato come probabilità di classe. Di solito questa probabilità è divisa a metà per le due classi. Ma c'è un programma che divide questa probabilità non per la metà, ma per alcune altre considerazioni.

Sì, la regressione logistica si chiama ))

 
Maxim Dmitrievsky:

Sì, la regressione logistica si chiama ))

No, voglio dire.

CORElearn::calibrate()

Dati i punteggi di probabilità predictedProb forniti per esempio da una chiamata a predict.CoreModel

e usando uno dei metodi disponibili dati da metodi la funzione calibra le probabilità previste

in modo che corrispondano alle effettive probabilità di una classe binaria 1 fornite da correctClass.

calibrate(correctClass, predictedProb, class1=1,
method = c("isoReg","binIsoReg","binning","mdlMerge"),
weight=NULL, noBins=10, assumeProbabilities=FALSE)


PS.

Ci sono molte regressioni che hanno una classe come output.

Il più famoso e relativamente semplice è glm().


VEDERE .

In realtà è altamente auspicabile che i post siano più specifici, con riferimento alla fonte originale, e meglio, a funzioni specifiche.

 
Vizard_:

Fa, hai preso per il culo per anni. glm(.~...,famiglia = "binomiale")
logistico)) Lascia perdere, cazzo. Solo Doc e Toxic sono adeguati in questo thread...

Che cosa ha detto Toxic una volta nella sua vita che è diventato improvvisamente sano di mente?

Non scrive nulla.

Cocco è totalmente inadeguato e perso, e lo sei anche tu.

 
Vizard_:

Solo Doc e Toxic sono adeguati in questo thread...

solo Tossico

 
Non abbattermi per niente. Non so niente......
 
Vizard_:

Fa, sono anni che spari cazzate. glm(.~...,famiglia = "binomiale") è
logistico)) Lascia perdere, cazzo. Solo Doc e Toxic sono adeguati in questo thread...

Cittadino nella maschera, vai sotto la panchina e prima di postare stronzate:

  • leggete che il mio post riguarda la calibrazione, per la quale ho lo strumento che ho menzionato, non la regressione logistica
  • lascia perdere quello che cazzo stai facendo e leggi l'allegato, forse starai zitto per qualche anno nelle gioie di una varietà di regressioni logistiche. Dopo averlo letto, illuminatevi qui su come usare le regressioni logistiche per calibrare le classi.
C'è di più su questa idea nell'allegato

File:
 

Il messaggio di questo thread non ha senso, perché ognuno ha un modello diverso. L'unica cosa che unisce i partecipanti è l'integrazione di strumenti esterni con MQL5. Ho un convertitore da Spark Random Forest in formato Alglib (MQL5). Se volete postare sull'integrazione, sentitevi liberi di usare questo come idea generale, è per questo che è buono per tutti.

P.s. Preferisco Git

 
(Ha molto senso. ) Ci sono alcune cose interessanti qui. Solo che non è più realistico leggere tutto l'argomento.