L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 887

 
Maxim Dmitrievsky:

non è nemmeno Bassa latenza, hft è millisecondi o addirittura microsecondi, ogni metro in più di cavo conta

Stai solo facendo scalping.

Sì, ne sono consapevole. Voglio dire che la metodologia HFT può essere utilizzata anche a distanze maggiori. Con qualche adattamento.

 
elibrario:

Qui ci sono altri articoli con esempi di codice
https://www.mql5.com/ru/users/vlad1949/publications

Ho letto alcuni di essi 3 volte e ho cercato di capire come funzionano quegli esempi. E poi si può già fare qualcosa di proprio.

Sì, grazie, ottimo, l'ho letto, ma leggerò di più - è molto astruso, bisogna tornare indietro ad ogni livello di apprendimento, altrimenti metà delle parole non sono chiare.

Ma vorrei capire come caricare un nuovo campione in Rattle :)

 
Yuriy Asaulenko:

Sì, ne sono consapevole. Il mio punto è che la metodologia HFT può essere usata anche per distanze più lunghe. Con qualche adattamento.

Beh, puoi, se hai lo stomaco per farlo :D Ma non può essere nel forex, almeno nel mercato ECN

 
Aliosha:

Vergogna! Vergogna!!! Ma ora è un errore del 5% sul vagabondaggio casuale, come quelli fighi!

Si sono resi conto che il mercato è una divagazione casuale e questo è il suo stato naturale, mentre tutti i tipi di salti e balli sono un'aberrazione dalla norma).

 

Ho aggiunto un predittore come l'ora del bar - c'è stato un salto significativo.


Si è scoperto che Deductor Studio nella versione tutorial non blocca il caricamento del modello su un file di testo, e blocca solo il caricamento su tutti i tipi di sottigliezze in excel e html. Quindi ho un insieme di regole che assomiglia a questo

Sorge una domanda: come questi array di dati possono essere meglio collazionati (organizzati) per comodità e velocità di lavoro?

 
Aleksey Vyazmikin:

Ho aggiunto un predittore come l'ora del bar - c'è stato un salto significativo.


Si è scoperto che Deductor Studio nella versione tutorial non blocca il caricamento del modello su un file di testo, ma blocca solo il caricamento su tutti i tipi di sottigliezze in excel e html. Quindi ho un insieme di regole che assomiglia a questo

Una domanda sorge spontanea: come fare per collassare (organizzare) meglio questi insiemi di dati per comodità e velocità?

Non ho mai fatto collassare un array prima d'ora. Spiegare come questo viene fatto e, soprattutto, perché?
Googled - CollapseArray(nArray) - Rimuove i valori ripetitivi in un array.
È questo? Rimuovere le righe duplicate?
 
elibrario:
Non ho mai fatto collassare gli array. Spiegare come farlo e soprattutto - perché?
L'ho cercato su Google - collapseArray(nArray) - Rimuove i valori ripetuti nell'array.
È questo? Rimuovere i duplicati?

Ora camminando in giro pensando a come farlo... In generale, sì, suppongo che ci sono ripetizioni e dovrebbero essere rimosse, ma la cosa principale mi ha colpito che tutti i dati non sono necessari, ma solo quelli che confermano il minore di due 1 o 0. Poi ho pensato di organizzare gli array per scala, come fare il troncamento delle parti che si ripetono ... o forse solo scrivere su una riga, e rispettivamente anche combinare i dati in una riga da predittori (dati di input in tempo reale ricevuti), ma questo è fino a quando si va oltre il limite di lunghezza della stringa per numero di predittori.

 
Aleksey Vyazmikin:

Ora camminando in giro pensando a come farlo... In generale, sì, suppongo che ci siano ripetizioni, e dovrebbero essere rimosse, ma la cosa principale mi ha colpito, che tutti i dati non sono necessari, ma solo quelli che confermano il minore dei due 1 o 0. Poi ho pensato di organizzare gli array per scala, come fare il troncamento delle parti che si ripetono... o forse solo scrivere su una riga, e rispettivamente anche combinare i dati in una riga dai predittori (dati di input in tempo reale ricevuti), ma è fino a quando si va oltre il limite di lunghezza della stringa per numero di predittori.

Penso che tu abbia bisogno di ripetizioni, renderà la situazione più importante. Se è stato ripetuto 100 volte in passato, è più probabile che accada in futuro che se è successo 1-2 volte
 
Aliosha:

Sono d'accordo, python è il kernel di punta per gli HFT.

Per la ricerca forse, per la produzione - non ci credo.

 
elibrario:
Penso che la ripetizione sia necessaria, rafforzerà l'importanza della situazione. Se è stato ripetuto 100 volte in passato, è probabile che accada in futuro, piuttosto che quello che è successo 1-2 volte

Quindi prenderò solo quelli che hanno un alto supporto e affidabilità. Questo è il modo in cui vedo il lavoro - io genero i predittori nell'indicatore in tempo reale e sulla storia, li aggiungo in una stringa, e poi questa stringa viene cercata nell'array, se viene trovata, allora segniamo la barra come favorevole per entrare, e se no, non facciamo nulla. Di conseguenza, le stringhe raddoppiate aumenteranno solo l'array. Naturalmente, possiamo fare una gradazione per colore, con informazioni sull'affidabilità e il supporto (moltiplicando uno per l'altro otteniamo il coefficiente, che cambierà colore a seconda del valore), ma per questo è più facile fare semplicemente un array separato di tipo int con indice. Oppure non capisco qualcosa....