L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 460

 
Mihail Marchukajtes:

Stai menando il can per l'aia ...... Mi faccia un esempio specifico... Allora possiamo continuare la conversazione, ma altrimenti....

Non ha argomenti, se trova qualcosa che considera un errore e lo dice a Reshetov. Lui, a sua volta, non l'ha riconosciuto come un errore, il che significa che i suoi argomenti sono deboli o sbagliati. Quindi tace.


Discussioni in uno studio!

 
Sempre a tergiversare, senza argomenti per sostenere quello che dici.
 
Vizard_:

Mishek, perché non dici qualcosa? Sostieni tuo fratello)))

Ma che cialtronate, avete degli affari? Almeno la gente fa qualcosa di interessante.

Scrivi qualcosa di buono

 

Questa è una versione molto vecchia, e sono al 100% d'accordo con Wizard che è meglio non usarla. Il modello si riaddestra, e anche quando alla fine mostra una stima di precisione su dati fuori campione - la mostra con un errore, sovrastimandola notevolmente. Ho anche postato in questo thread del forum un esempio in cui il modello in info dopo l'addestramento ha mostrato il 90% di precisione sui nuovi dati e dopo aver aggiunto questi dati alla formula e dopo aver calcolato il risultato usando la formula almeno in excel le previsioni erano completamente casuali e solo il 50% di precisione.

Yuri ha poi sistemato tutto, ha aggiunto un comitato di diversi modelli, ha accelerato e chiamato tutto jPrediction, ha creato un sito web per questo particolare modello. Il sito non c'è più, chiedete a Mikhail l'ultima versione e le fonti.
Imho questo modello è risultato ok, ma considerando la lentezza ci sono cose molto più produttive in R.

 
Ildottor Trader:

Questa è una versione molto vecchia, e sono al 100% d'accordo con Wizard che è meglio non usarla. Il modello si riaddestra, e anche quando alla fine mostra una stima di precisione su dati fuori campione - la mostra con un errore, sovrastimandola notevolmente. Ho anche postato in questo thread del forum un esempio in cui il modello in info dopo l'allenamento ha mostrato un'accuratezza del 90% sui nuovi dati e dopo aver aggiunto questi dati alla formula e calcolato i risultati usando la formula almeno in excel c'era una completa casualità e solo il 50% di accuratezza nelle previsioni.

Yuri l'ha poi portato alla mente, ha aggiunto un comitato di diversi modelli, ha accelerato e chiamato tutto jPrediction, ha creato un sito web per questo modello. Il sito non c'è più, chiedete a Michael l'ultima versione e le fonti.
Imho questo modello è ok, ma considerando la lentezza ci sono cose molto più produttive in R.

Ce l'ho, penso che sia anche riqualificato, solo un link alla descrizione
 
Vizard_:

Perché gridate allora? Non è stupido. Wizard è sempre sul punto, anche quando è divertente)))
Buttate via il sonaglio, non perdete tempo. Strumenti e le loro possibili combinazioni espresse ieri.
Non perdete il vostro tempo con Mishek, scrive una cosa implica un'altra, e la res sull'oos è la terza...


Sì, sto sussurrando. ) non ha potuto trovare altri post, cancellati dai moderatori o qualcosa del genere
 

Sto bene... Sono stato via per un po'....

In realtà quello che è descritto su google è una vecchia versione di esso.... MA!!!!!!!

Per dimostrare ragionevolmente che JPrediction è riqualificato e non funziona correttamente, facciamo un esperimento. Dopo tutto, tutto si impara dal confronto. Questo è esattamente quello che volevo fare.

Supponiamo di avere un set di dati, addestrarlo e far lavorare questo modello per qualche tempo, e poi vediamo il risultato...

Io alleno il dataset su JPrediction, tu alleni lo stesso dataset sulla tua AI, scegli un intervallo e vedi quale modello funziona più a lungo e meglio.....

Questo è ciò che intendevo quando vi ho chiesto di addestrare il mio set di dati sulle vostre IA.

E così.... non è chiaro quali criteri siano stati usati per decidere che il predittore fosse sovrastimolante????? Da dove l'hai preso, mago? Avete prove concrete che l'ottimizzatore non funziona ???? Lo faccio???? Fammi un esempio.....

Allo stesso modo posso addestrare il tuo set di dati e poi puoi vedere da solo quale modello funziona meglio. Quello addestrato da te o quello addestrato da me con l'ottimizzatore....

 
Vizard_:

No. Reshetov non ha capito che non dobbiamo avere una normalizzazione rigidamente fissata secondo la formula conosciuta. Avremmo dovuto fare
un sezionatore. Anche la ripartizione casuale è discutibile e avremmo dovuto almeno segnalarla, ma è meglio disabilitarla ecc...

Oh sì, ho scritto anche della rottura. Quindi per i dati normali ok, ma specificamente per il forex avremmo dovuto fare una sorta di roll-forward. O almeno dividerlo in due parti in base al tempo - allenamento prima della data, e test dopo la data.

Cosa c'è di sbagliato nella normalizzazione? Per i neuroni non fa differenza in quale gamma si trova l'input, i pesi correttamente inizializzati digeriranno tutto. La normalizzazione non interferisce, ma non aiuta affatto.
Anche se l'intuizione dice che se l'input contiene numeri positivi e negativi, è meglio non spostare lo zero. E R dice di scalare i predittori non a 0-1, ma che sd(x) = 1

 
Vizard_:

No. Reshetov non ha capito che non avremmo dovuto fare la normalizzazione rigidamente in base alla formula conosciuta. Avremmo dovuto fare
un sezionatore. Anche la ripartizione casuale è in discussione e avremmo dovuto almeno segnalarla, ma è meglio disattivarla ecc...


Sulla ripartizione casuale, sono disposto a discutere.

Quando facciamo una previsione con l'IA allora SI, la sequenza dei dati conta dal passato al futuro, stiamo facendo una previsione.

Ma quando si tratta di classificazione, la sequenza dei dati non gioca assolutamente alcun ruolo, perché abbiamo un'area da dividere e trovare l'iperpiano che lo farà meglio nella speranza che la legge trovata sia valida ancora per qualche tempo.

Proprio come la legge che abbiamo trovato quando abbiamo costruito il modello di previsione.......

 

Senza contare che la descrizione mostra che il modello insegna deliberatamente gli esempi che sono i più difficili da imparare, scartando quelli che sono facili da imparare. Beh, sono solo io... leggere dalla descrizione.... se ho capito bene...

Quando si divide il campione in campioni di allenamento e di prova, è come se i due valori più vicini cadessero in campioni diversi. Da quanto ho capito, se abbiamo due vettori identici, entreranno in campioni diversi, uno nell'addestramento e un altro nel campione di prova... Quindi...