L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3355

 
Maxim Dmitrievsky #:
Speravo che qualcuno cercasse almeno su Google il suggerimento.

Anche se avete curve di probabilità nella vostra formazione, di quali nuovi dati potete parlare. E Busting e Forrest peccano di grande importanza in questo senso. Busting è eccessivamente fiducioso, Forrest è poco fiducioso. Sempre che, ovviamente, si intenda utilizzare la soglia.

Io stesso ho osservato che quando si aumenta la soglia, la qualità dei trade non migliora, nemmeno sulle traine. Poi la probabilità di cosa rende? Niente :)

In qualche modo non stai prestando attenzione ai miei post, concentrandoti sulle probabilità. Non importa come si chiama la probabilità, ciò che conta è che se non migliora, il modello è sovrallenato, nel cestino. L'errore di previsione su OOV, OOS e VNU dovrebbe essere più o meno lo stesso.

Ecco un altro istogramma

Algoritmo diverso - istogramma diverso, anche se le etichette e i predittori sono gli stessi. Se state cercando una sorta di probabilità teorica, che implichi che algoritmi di classificazione diversi producano gli stessi istogrammi... non mi viene in mente, dal momento che si deve lavorare con algoritmi specifici, che faranno previsioni e che devono essere valutati, non con un ideale teorico. La valutazione principale è l'overfitting del modello, non la vicinanza delle probabilità a un ideale teorico.

 
СанСаныч Фоменко #:

In qualche modo non stai prestando attenzione ai miei post, concentrandoti sulle probabilità. Non importa come si chiama la probabilità, ciò che conta è che se non migliora, il modello è sovrallenato, nel cestino. L'errore di previsione su OOV, OOS e VNE dovrebbe essere più o meno lo stesso.

Un modello fuori dagli schemi non fornisce probabilità corrette, qualsiasi modello. Questa è la storia. È possibile che le etichette previste corrispondano completamente, ma le probabilità non riflettono la probabilità effettiva del risultato.
Mi capite?
 
Maxim Dmitrievsky #:
Il modello non fornisce le probabilità corrette, nessuna di esse. Questa è la storia. Potreste aver previsto etichette che corrispondono completamente, ma le probabilità non lo fanno.
Mi capite?

Ho aggiunto il mio post. Qualsiasi modello fornisce probabilità corrette nel senso che l'errore di classificazione non fluttua.

 
СанСаныч Фоменко #:

In qualche modo non stai prestando attenzione ai miei post, concentrandoti sulle probabilità. Non importa come si chiama la probabilità, ciò che conta è che se non migliora, il modello è sovrallenato, nel cestino. L'errore di previsione su OOV, OOS e VNU dovrebbe essere più o meno lo stesso.

Ecco un altro istogramma

Algoritmo diverso - istogramma diverso, sebbene le etichette e i predittori siano gli stessi. Se state cercando una sorta di probabilità teorica, che implica che diversi algoritmi di classificazione produrranno gli stessi istogrammi... non mi viene in mente, dal momento che si deve lavorare con algoritmi specifici, che faranno previsioni e che devono essere valutati, non con un ideale teorico. La valutazione principale è l'overfitting del modello, non la vicinanza delle probabilità a un ideale teorico.

Rinunciare? Cercate su Google Calibrazione delle probabilità di classificazione, dovrebbe essere in R.

E tracciate la curva di probabilità del vostro modello rispetto al benchmark.
 
Maxim Dmitrievsky #:
Rinunciare? Cercate su Google Calibrazione della probabilità di classificazione, dovrebbe essere in R.
.

E tracciate la curva di probabilità del vostro modello rispetto al benchmark.

Stiamo parlando di cose diverse.

Io sto scrivendo del risultato, mentre voi state scrivendo dell'ideale dei dati intermedi.

Per me è ovvio che i valori di probabilità di etichette specifiche date da RF e ada saranno diversi, ma le previsioni di etichette specifiche sono quasi le stesse. Non mi interessano i valori di probabilità, ma l'errore di previsione.

Se si teorizza, è molto probabile che sia impossibile ottenere la probabilità di classe nel senso da voi indicato, poiché bisogna dimostrare che la probabilità soddisfa il teorema del limite, il che è molto dubbio.

 
СанСаныч Фоменко #:

Stiamo parlando di cose diverse.

Io sto scrivendo del risultato e voi state scrivendo dell'ideale dei dati intermedi.

I valori di probabilità di classe forniti da RF e ada saranno diversi, ma le previsioni di etichette specifiche sono quasi le stesse. Non mi interessano i valori di probabilità, ma l'errore di previsione.

Se si teorizza, molto probabilmente è impossibile ottenere la probabilità della classe nel senso da voi indicato, poiché bisogna dimostrare che la probabilità soddisfa il teorema del limite, il che è molto dubbio.

Tuttavia, la domanda originale era lì, nessuno ha risposto. Sto parlando esattamente di ciò che ho chiesto.
Quindi c'è qualcosa per cui lottare.
 
Maxim Dmitrievsky #:
Tuttavia, la domanda originale è stata posta e nessuno ha risposto.
Quindi c'è qualcosa da aspettare.

Perché? Se nel senso di una tesi....

 
СанСаныч Фоменко #:

Perché? Se nel senso di una tesi....

Perché fare trading con le curve di probabilità significa subire perdite anziché guadagni. Qualsiasi classificatore ha bisogno di essere calibrato se si tratta di un'applicazione sensibile al rischio.
 
Infine.