L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 417

 
Mihail Marchukajtes:

questa è effettivamente la risposta...blah, blah, blah.... e nessun risultato.....

pubblica il tuo rapporto di trading, ci sarà un risultato e sarà positivo, quindi discorso serio...

 
Ivan Negreshniy:

pubblica il tuo rapporto di trading, ci sarà un risultato e se è positivo, allora forse una conversazione seria


che tipo di conversazione????? non capisco..... mi sono offerto di costruire un modello per un compito diverso dal forex ma non meno redditizio, e tu mi parli di trading..... strano!!!!

 
Mihail Marchukajtes:

quale conversazione????? non capisco..... mi sono offerto di costruire un modello per un compito diverso dal forex, ma non meno redditizio, e tu mi parli di trading..... strano!!!!

se mi hai offerto un compito non meno redditizio del forex, allora ho il diritto di sapere quanto è redditizio il tuo forex, cosa c'è di strano?

 
Ivan Negreshniy:

Se mi offrite un compito non meno redditizio del forex, ho il diritto di sapere quanto è redditizio il forex, cosa c'è di strano?


cosa c'entra il forex???? leggere i miei post precedenti o l'articolo..... non sto parlando di forex....

 
Mihail Marchukajtes:

Cosa c'entra il forex???? leggere i miei post precedenti o l'articolo..... Non sto parlando di forex....

è andato a leggere...
 
elibrario:
inizialmente seleziona solo il tipo di rete in base al tipo di uscita, non c'è bisogno di riscrivere nulla (e tutti gli strati interni sono cablati come non lineari)
Hai provato a riqualificare la stessa rete creata in alglib? Per esempio, ho addestrato MLP e poi la riqualifico... è riqualificata, nessun errore, ma forse questo non è corretto e dovrebbe essere creato un nuovo oggetto di rete? Oppure è in qualche modo riqualificata lì e non addestrata di nuovo... di nuovo, non c'è niente su questo in aiuto, e sono un po' pigro per scavare nel codice e cercare lì)
 
Maxim Dmitrievsky:
Hai provato a riqualificare la stessa rete creata in alglib? Diciamo che ho addestrato MLP e poi la riqualifico... si riqualifica, senza errori, ma forse questo è sbagliato e dovrebbe essere creato un nuovo oggetto di rete? Oppure è in qualche modo riqualificata lì e non addestrata di nuovo... di nuovo, non c'è niente su questo in aiuto, ma è un po' pigro scavare nel codice e guardare lì)
Se si riallena di nuovo, non ci sarà nessun errore (non è riallenamento, perché i coefficienti saranno azzerati) e si troverà solo una nuova combinazione di essi.
 
Maxim Dmitrievsky:
Non ho ancora sperimentato la riqualificazione della stessa rete creata in alglib? Diciamo che ho addestrato una MLP e poi la riqualifico... è riqualificata, senza errori, ma può essere che non sia giusta e che sia necessario creare un nuovo oggetto di rete? Oppure è in qualche modo riqualificata lì e non riqualificata... Di nuovo, non c'è niente su questo nell'aiuto, ma è un po' pigro scavare e cercare il codice lì)

Un approccio molto interessante e vecchio come il mondo. Ci alleniamo un po' di volte, otteniamo i risultati e poi alleniamo di nuovo la rete sui dati di alcune altre reti. Una sorta di apprendimento profondo di un formato diverso.... A proposito, questo approccio è buono...

 
Mihail Marchukajtes:

Un approccio molto interessante e vecchio come il mondo. Fai un po' di allenamento, ottieni i risultati e poi allena di nuovo la rete sui dati di diverse altre reti. Una sorta di apprendimento profondo di un formato diverso.... A proposito, questo è un buon approccio...

No, è solo un riallenamento a certi intervalli nel tester, per esempio ad un determinato drawdown e così via. Se si utilizzano più reti, ci sono ns ensemble in allieb, giocherò con loro più tardi, è estate, pigro... mare spiaggia pulcini mojito, solo scherzando che cosa il... il mare in Siberia, c'è solo un fiume e una palude

e poi ci sono tutti i tipi di boosting, shmusting e altre cose, e LSTM come un ideale lontano delle mie aspirazioni che non ho ancora raggiunto

 
Vladimir Perervenko:
Mihail Marchukajtes:

Bene, ora che sei sul punto, ti dirò un pensiero sulla raccolta dei dati per l'elaborazione. È davvero difficile addestrare un modello con un alto livello di generalizzazione su un'area abbastanza grande, perché il mercato è un organismo vivente e bla, bla, bla. Più lungo è il periodo di addestramento, peggio si comporta il modello, ma più a lungo. Obiettivo: fare un modello di lunga durata. Dividere o metodo due, tuttavia per coloro che utilizzano un comitato di due reti.

Abbiamo tre stati "Sì", "No" e "Non so" quando le griglie mostrano in direzioni diverse.

Addestriamo la rete su tutta la sezione, nel nostro caso 452 voci. La rete ha imparato questo set al 55-60%, supponendo che le risposte "Non so" nel set di allenamento fossero il 50%, quindi 226 segnali che la rete non poteva imparare. OK, ora costruiamo un nuovo modello SOLO sugli stati "Non so", cioè cerchiamo di costruire il modello su tali quasi stati che hanno fuorviato il primo modello. Il risultato è più o meno lo stesso, su 226 solo la metà sarà riconosciuta, il resto otterrà lo stato "Don't Know", poi costruite di nuovo il modello. il risultato è 113, poi 56, poi 28, poi 14. Su 14 voci non note a nessuno dei modelli precedenti, il Jprediction Optimizer calcolerà di solito fino al 100% di generalizzabilità.

Come risultato abbiamo un "Pattern System" che riconosce l'intero mercato in un periodo di tre mesi.

Ecco un altro modo oltre a "Context of the Day" Come si può scomporre il mercato in sottospazi e produrre formazione ottenendo esattamente un "Pattern System" Ecco un esempio....

------------------------------------------------------------

Questo metodo è chiamato "boosting" -Boosting è una procedura di composizione sequenziale di algoritmi di apprendimento automatico dove ogni algoritmo successivo cerca di compensare gli svantaggi della composizione di tutti gli algoritmi precedenti.Boosting è un algoritmo greedy per costruire una composizione di algoritmi.

L'applicazione recente più famosa è XGBoost.

Buona fortuna

Che cosa ha a che fare XGBoost con una libreria ottimizzata per il gradient boosting distribuito e la composizione di algoritmi di apprendimento automatico?