Il filtro perfetto - pagina 7

 
hrenfx:

La ricerca e il commercio sono attività completamente diverse.

Pensavo ancora che il thread riguardasse la ricerca.

È esattamente così, è esattamente quello che pensi. Forse mi sbagliavo se sembrava che mi stessi affezionando a una piattaforma, una lingua, ecc. Sto sperimentando i mezzi che trovo più convenienti, o come mi appaiono al momento. Poi riscrivere la logica per un altro linguaggio o un'altra piattaforma è di secondaria importanza, forse anche 10 secondi - questa è un'attività di routine, non scalabile che vale un centesimo. La cosa principale è l'algoritmo.

Ecco perché ho iniziato a speculare su criteri di efficienza quantitativi e rappresentati visivamente per un particolare filtro per il csvr finanziario. Avere un modo rapido e visivo per valutare il filtraggio durante la BP, per vedere come e dove si accumula e si scarica, e non solo la quantità finale come nel tester. Come hai ragione, il TS costruito con qualche algoritmo può fallire in un mercato e salire nell'altro, per capire meglio dove e come succede, sto cercando un modo per valutare solo il filtro dei prezzi, poi penserò alla stima del complesso, tenendo conto di spread, ritardi, MM e così via.

Al contrario, io sostengo gli algoritmi invarianti per piattaforma, concisi e belli in senso scientifico quando possibile)).

Quindi sono iperconvinto per difetto.

 
J.B: ......

Riscrivere la logica in un altro linguaggio, o per un'altra piattaforma, è una questione minore, forse anche 10 maggiore; è un'attività di routine, non scalabile, che costa pochi centesimi. La cosa principale è l'algoritmo.

......

Non arriverei a dire che il toolkit è secondario all'implementazione dell'algoritmo. Inoltre, c'è una stretta connessione tra gli strumenti di implementazione e il modo in cui la logica è fatta di essi. Io, per esempio, devo anche usare diversi ambienti per la ricerca, ma è piuttosto uno svantaggio che un vantaggio, sarebbe molto più fresco combinare i vantaggi di molti ambienti e lavorare in uno solo, diviso in contesti, su misura per le specificità.

Solo una ricerca molto primitiva può essere fatta sulla carta, ma l'ambiente di modellazione (piattaforma) è molto importante. Con il tempo, lavorando con certi strumenti, un insieme di funzioni, modelli di codice, ecc., ci si abitua e si comincia a pensare a livello di automatismi, per poi passare ad altri blocchi logici e ricostruire la logica da capo, non la cosa più piacevole da fare. IMHO

 

Con tutto il rispetto, ma vorrei accennare a una deviazione dalla corrente principale della discussione, cioè, sono molto interessato a discutere anche di software, ma in un thread diverso preferibilmente. Capisco che questa è una discussione vivace e non particolarmente attenta a seguire il contesto, ma il dibattito sull'utilità/danno statistico (come all'inizio del topic) e quale software è migliore, concorda ha poca relazione con la sottovoce sull'analisi dell'efficacia degli algoritmi di filtraggio. Scusate la moralizzazione)

 
J.B:

Con tutto il rispetto, ma vorrei accennare a una deviazione dalla corrente principale della discussione, cioè, sono anche molto interessato a discutere di software, ma in un thread diverso preferibilmente. Capisco che questa è una discussione vivace e non particolarmente attenta a seguire il contesto, ma il dibattito sull'utilità/danno statistico (come all'inizio del topic) e quale software è migliore, concorda ha poca relazione con la sottovoce sull'analisi dell'efficacia degli algoritmi di filtraggio. Scusate la moralizzazione)

Quindi quale è ancora irrisolto? Prendere BP, filtrare, calcolare "punti di rottura" negativi sui minimi, positivi sui massimi, calcolare la somma per ogni barra di tutti i punti di rottura precedenti tenendo conto della deduzione dello spread. Se volete un rapporto relativo all'ideale, calcolate lo stesso, per ZZ con la relativa profondità e dividete. Questa è tutta l'alchimia. L'argomento può essere chiuso. Quello che tutti hanno cercato è stato dichiarato trovato! Amen.

 
gunia:

Quindi quale è ancora irrisolto? Prendiamo la BP, la filtriamo, calcoliamo "punti di rottura" negativi sui minimi, positivi sui massimi, calcoliamo la somma per ogni barra di tutti i punti di rottura precedenti tenendo conto della deduzione dello spread. Se volete un rapporto relativo all'ideale, calcolate lo stesso, per ZZ con la relativa profondità e dividete. Questa è tutta l'alchimia. L'argomento può essere chiuso. Quello che tutti hanno cercato è stato dichiarato trovato! Amen.

Concettualmente sembra essere vero, ma o sono muto, o c'è qualcosa di sbagliato nel modo in cui il problema è formulato. Quando tornerò dalle vacanze in ufficio, cercherò di spiegare in dettaglio, in modo raffinato, con immagini, qual è il problema. Forse qualcuno suggerirà qualcosa.

 
J.B:

Concettualmente sembra essere vero, ma o sono muto, o c'è qualcosa di sbagliato nel modo in cui il problema è formulato. Quando tornerò dalle vacanze in ufficio, cercherò di spiegare in dettaglio, in modo raffinato, con immagini, qual è il problema. Forse qualcuno suggerirà qualcosa.

Beh, il mio lavoro è quello di indicare la strada, dovete seguirla voi stessi.
 
gunia:
Beh, il mio compito è quello di indicare la strada, sta a voi seguirla.

Sono grato per la guida. In generale, il risultato è più o meno lo stesso se non abbiamo uno spread:

Se sottraiamo da ogni scambio uno spread di 2 vecchi punti (Eurobucks), allora il quadro è rovinato:

Nell'immagine è chiaro che l'algoritmo di questo filtro spilla abbastanza prevedibilmente in certe ore del giorno in un mercato attivo, e perde di notte sugli appartamenti. Ma il 95% delle perdite sono spread. Quindi sono soddisfatto. Quindi sono soddisfatto, devo solo usare questo algoritmo su un mercato con un trend attivo e spegnerlo di notte.

P.S Ha fatto dei test con EMA e MACD semplici, anche senza prendere in considerazione lo spread MO il profitto è zero, con lo spread un drenaggio difficile.


 
J.B:

Se togliamo da ogni transazione lo spread di 2 vecchi punti (eurobucks) allora il quadro è rovinato:

Da dove viene questa crudeltà verso i loro stessi prodotti? Dimenticate lo spread e fate come dite voi:

hrenfx:

Costruisci gli ZigZag allo stesso modo, ma metti le parti superiori su Bid BP e le parti inferiori su Ask BP. Poi la somma delle ginocchia terrà conto dello"spread fluttuante".

Prendi i dati di Bid e Ask su FXOPEN ECN ...

Ma anche se non vuoi preoccuparti in questo modo, tieni conto che per lo stesso EURUSD lo spread medio è ~ 0,3 + commissione standard (o puoi ridurla) ~ 0,65. Quindi, anche se si toglie semplicemente lo spread, non sarà più di un pip.

Ma ci sono anche altri simboli...

 
hrenfx:

Perché siete così crudeli con il vostro artigianato? Dimenticate lo spread e fate come dite voi:

Ma anche se non vuoi preoccuparti, considera che per lo stesso EURUSD lo spread medio è ~ 0,3 + commissione standard (e puoi ridurla) ~ 0,65. Quindi, anche se si toglie semplicemente lo spread, non sarà più di un pip.

Ma ci sono anche altri simboli...

Grazie. Se 1 punto, allora non è altro che un graal, se lo includo dalle 9 alle 20. E questa frequenza giornaliera è molto stabile. Ora dobbiamo capire qual è la fregatura. Dopo tutto, il trend non è nemmeno considerato in questo sommatore - gli ordini sono semplicemente catturati nelle pause e invertiti. Se lo filtriamo in base al trend, penso che l'efficienza aumenterà del 10-20%. Sono sicuro che ci deve essere una montatura da qualche parte, non può essere così semplice.

 
Meglio ancora, fatelo senza lo stupido spread, allora aggirerete molte delle sfumature idiote in una volta sola. Per quanto riguarda la cattura, non è realistico senza il codice sorgente.