L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 888
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Quindi prenderò solo quelli che hanno un alto supporto e affidabilità. Questo è il modo in cui vedo il lavoro - io genero i predittori nell'indicatore in tempo reale e sulla storia, li aggiungo in una stringa, e poi questa stringa viene cercata nell'array, se viene trovata, allora segniamo la barra come favorevole per entrare, e se no, non facciamo nulla. Di conseguenza, le stringhe raddoppiate aumenteranno solo l'array. Naturalmente, possiamo fare una gradazione per colore, con informazioni su affidabilità e supporto (moltiplicando uno per l'altro otteniamo il coefficiente, che cambierà colore a seconda del valore), ma per questo è più facile fare semplicemente un array separato di tipo int con indice. O forse non capisco qualcosa....
Teoricamente - se NS alimenta tutti senza setacciare le stringhe non valide, dovrebbe trovarle e aumentare la loro importanza. Ma puoi naturalmente farlo da solo, come hai descritto. Allo stesso tempo è interessante e confrontare - cosa è meglio.
Anche se ci sono esempi di stringhe di rumore negli articoli.Sono d'accordo, Python è il top della GPU per gli HFT, sono quelli con l'errore negativo, ho menzionato sopra, fanno anche ricerca sull'entanglement quantistico per trasmettere il segnale più velocemente della luce, ci sono librerie anche in Python, nella darknet.
non c'è bisogno di parlare ancora di sciocchezze, mostra il tuo livello
Sto solo scherzando con un 90% di ahtungs, non prendetelo sul serio, python è un linguaggio per studenti, per provare velocemente un mucchio di bibbie e disegnare grafici, per esempio per rinforzare il corso di Vorontsov, e la "ricerca" è solo per studenti laureati o qualcosa di lontano dalla realtà, Nelle aziende serie tutti gli strumenti sono scritti in C++, più della metà degli algoritmi sono esclusivi o modificati ben noti, i problemi sono molto specifici e altamente specializzati, che non richiedono parametri di esecuzione di 100500 librerie, quindi Python è presente in tracce.
Aleshenka, vai oltre a padroneggiare MO, su api C++ e Cython e la migrazione di modelli e moduli individuali e la distribuzione su server dopo la ricerca/formazione non hai sentito?
E senza un errore negativo nel cercare di prevedere i ritorni non tornano più. Sei molto frustrato - hai troppa arroganza e troppo poca informazione utile.
Teoricamente, se NS recupera tutte le stringhe senza quelle preliminarmente non valide, dovrebbe trovarle e aumentare la loro importanza. Ma naturalmente si può fare da soli, come hai descritto. Allo stesso tempo è interessante confrontare ciò che è meglio.
Anche se ci sono esempi negli articoli con lo screening delle stringhe rumorose.In generale, non capisco bene come organizzare NS se prende dati dalla storia, teoricamente da qualsiasi punto... Ma con un albero/foresta, tutto è più facile, non analizzano la storia, quindi hanno bisogno di inserire un numero limitato di variabili, e i risultati di uscita sono già noti, e li ho scritti in un array; dopo l'addestramento, l'albero non può creare qualcosa di nuovo, ma la rete neurale può reagire ai nuovi dati in modi diversi, Dal momento che immette i pesi (coefficienti) e sono costanti per ogni neurone, ma se ho 10 o più neuroni, e per ogni caratteristica un coefficiente diverso, allora qualcosa si rivela essere un sacco di scelte - la rete ovviamente non può allenarsi da tutte le varianti, quindi può avere diverse sorprese, o non capisco qualcosa.
E ho fatto un indicatore, ma l'enumerazione dell'array non è molto veloce e il codice stesso è molto lento - ho bisogno di ottimizzazione.
In generale, non capisco bene come organizzare NS se prende dati dalla storia, teoricamente da qualsiasi punto... Ma con un albero/foresta, tutto è più facile, non analizzano la storia, quindi hanno bisogno di inserire un numero limitato di variabili, e i risultati di uscita sono già noti, e li ho scritti in un array; dopo l'allenamento, l'albero non può creare qualcosa di nuovo, ma la rete neurale può reagire ai nuovi dati in modi diversi, Dal momento che immette i pesi (coefficienti) e sono costanti per ogni neurone, ma se ho 10 o più neuroni, e per ogni caratteristica un coefficiente diverso, allora qualcosa si rivela essere un sacco di scelte - la rete ovviamente non può allenarsi da tutte le varianti, quindi può avere diverse sorprese, o non capisco qualcosa.
Ho creato un indicatore ma la ricerca dell'array non è molto veloce e il codice stesso è molto lento - ho bisogno di ottimizzazione.
Il NS usa la stessa tabella con i dati, nessuna differenza con la foresta. Solo gli algoritmi sono diversi all'interno.
La stessa tabella di dati è alimentata al NS - nessuna differenza nella foresta. Solo gli algoritmi sono diversi all'interno.
Allora perché la NS dovrebbe guardare la storia nell'addestramento se non la usa in funzione?
Non ho sentito ovviamente, cosa me ne importa di te, ora saprò che la cosa più figa non è una api python a bibbie c ma il contrario, api c++ a python, con deployment su server. continua a bruciare)))
Il mercurio nel termometro del tuo sarcasmo si è ristretto in una bolla ed è appena esploso, o si è espanso così tanto che è esploso per la stupidità e la bava sopra le righe, qualunque cosa
api a framework in diversi linguaggi, tra cui python e ++
o è solo triste?
Impossibile! Il miovagabondare a caso è una previsione ripida come il forex! 90% acurasi se senza riqualificazione, e 100% con la riqualificazione.
Whoo! I nativi sembrano iniziare a capire che il sovrallenamento non solo non è fatale, ma, in molti casi, anche il migliore).
Beh, ecco un terribile overfit, ma ancora commerciabile nella prima metà di oos :) Potrei fare ancora peggio, ma non ha senso. I soldi sono da qualche parte nel mezzo tra gli over e gli underfit.
Il denaro è ovunque, tranne che sotto. È solo una questione di applicazione.
Allora perché la NS dovrebbe guardare la storia nella formazione se non la usa nel suo lavoro?
Durante l'addestramento ha ottenuto pesi e compensazioni per i neuroni, e in base ad essi calcola l'output sui nuovi dati.