L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 887
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
non è nemmeno Bassa latenza, hft è millisecondi o addirittura microsecondi, ogni metro in più di cavo conta
Stai solo facendo scalping.
Sì, ne sono consapevole. Voglio dire che la metodologia HFT può essere utilizzata anche a distanze maggiori. Con qualche adattamento.
Qui ci sono altri articoli con esempi di codice
https://www.mql5.com/ru/users/vlad1949/publications
Ho letto alcuni di essi 3 volte e ho cercato di capire come funzionano quegli esempi. E poi si può già fare qualcosa di proprio.
Sì, grazie, ottimo, l'ho letto, ma leggerò di più - è molto astruso, bisogna tornare indietro ad ogni livello di apprendimento, altrimenti metà delle parole non sono chiare.
Ma vorrei capire come caricare un nuovo campione in Rattle :)
Sì, ne sono consapevole. Il mio punto è che la metodologia HFT può essere usata anche per distanze più lunghe. Con qualche adattamento.
Beh, puoi, se hai lo stomaco per farlo :D Ma non può essere nel forex, almeno nel mercato ECN
Vergogna! Vergogna!!! Ma ora è un errore del 5% sul vagabondaggio casuale, come quelli fighi!
Si sono resi conto che il mercato è una divagazione casuale e questo è il suo stato naturale, mentre tutti i tipi di salti e balli sono un'aberrazione dalla norma).
Ho aggiunto un predittore come l'ora del bar - c'è stato un salto significativo.
Si è scoperto che Deductor Studio nella versione tutorial non blocca il caricamento del modello su un file di testo, e blocca solo il caricamento su tutti i tipi di sottigliezze in excel e html. Quindi ho un insieme di regole che assomiglia a questo
Sorge una domanda: come questi array di dati possono essere meglio collazionati (organizzati) per comodità e velocità di lavoro?
Ho aggiunto un predittore come l'ora del bar - c'è stato un salto significativo.
Si è scoperto che Deductor Studio nella versione tutorial non blocca il caricamento del modello su un file di testo, ma blocca solo il caricamento su tutti i tipi di sottigliezze in excel e html. Quindi ho un insieme di regole che assomiglia a questo
Una domanda sorge spontanea: come fare per collassare (organizzare) meglio questi insiemi di dati per comodità e velocità?
Googled - CollapseArray(nArray) - Rimuove i valori ripetitivi in un array.
È questo? Rimuovere le righe duplicate?
Non ho mai fatto collassare gli array. Spiegare come farlo e soprattutto - perché?
L'ho cercato su Google - collapseArray(nArray) - Rimuove i valori ripetuti nell'array.
È questo? Rimuovere i duplicati?
Ora camminando in giro pensando a come farlo... In generale, sì, suppongo che ci sono ripetizioni e dovrebbero essere rimosse, ma la cosa principale mi ha colpito che tutti i dati non sono necessari, ma solo quelli che confermano il minore di due 1 o 0. Poi ho pensato di organizzare gli array per scala, come fare il troncamento delle parti che si ripetono ... o forse solo scrivere su una riga, e rispettivamente anche combinare i dati in una riga da predittori (dati di input in tempo reale ricevuti), ma questo è fino a quando si va oltre il limite di lunghezza della stringa per numero di predittori.
Ora camminando in giro pensando a come farlo... In generale, sì, suppongo che ci siano ripetizioni, e dovrebbero essere rimosse, ma la cosa principale mi ha colpito, che tutti i dati non sono necessari, ma solo quelli che confermano il minore dei due 1 o 0. Poi ho pensato di organizzare gli array per scala, come fare il troncamento delle parti che si ripetono... o forse solo scrivere su una riga, e rispettivamente anche combinare i dati in una riga dai predittori (dati di input in tempo reale ricevuti), ma è fino a quando si va oltre il limite di lunghezza della stringa per numero di predittori.
Sono d'accordo, python è il kernel di punta per gli HFT.
Per la ricerca forse, per la produzione - non ci credo.
Penso che la ripetizione sia necessaria, rafforzerà l'importanza della situazione. Se è stato ripetuto 100 volte in passato, è probabile che accada in futuro, piuttosto che quello che è successo 1-2 volte
Quindi prenderò solo quelli che hanno un alto supporto e affidabilità. Questo è il modo in cui vedo il lavoro - io genero i predittori nell'indicatore in tempo reale e sulla storia, li aggiungo in una stringa, e poi questa stringa viene cercata nell'array, se viene trovata, allora segniamo la barra come favorevole per entrare, e se no, non facciamo nulla. Di conseguenza, le stringhe raddoppiate aumenteranno solo l'array. Naturalmente, possiamo fare una gradazione per colore, con informazioni sull'affidabilità e il supporto (moltiplicando uno per l'altro otteniamo il coefficiente, che cambierà colore a seconda del valore), ma per questo è più facile fare semplicemente un array separato di tipo int con indice. Oppure non capisco qualcosa....