Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
100 barre non ha senso. 120 - 132 ha più senso per me. 10 anni, 2 anni, trimestre, 3 settimane, orario di lavoro della settimana)
C'è qualcosa nello zoom))) Non ho ancora trovato la verità. Sermyazhnaya verità contro il vecchio TF non andare così, ma forse c'è qualcosa)
Ho preso 100 dal soffitto, ci sono ancora molte cose da fare, numero di barre, parametri del modello, parametro per l'ottimizzazione, numero di valori per il calcolo del parametro di ottimizzazione, ecc.
Non funzionerà con le barre (candele); il campionamento temporale aggiunge una componente casuale, dovremmo usare altri metodi di campionamento.
Ho la seguente idea per determinare il numero ottimale di barre iniziali: in primo luogo, dovremmo decidere il tipo di modello per il quale stiamo preparando i dati iniziali. Iniziamo il calcolo dal modello selezionato con la quantità minima di dati di input. Determinare l'errore del modello rispetto ai dati reali. Poi aumentate la quantità di dati sorgente di un'unità, ripetete il processo di ricerca dell'errore relativo e salvate anche questo. La quantità di dati iniziali che dà un errore minimo è presa come la quantità ottimale di dati iniziali al momento. Tale ricerca viene eseguita ogni volta che appare una nuova barra. Non conosco un altro modo. Cosa ne pensate? Ho intenzione di aprire presto un thread speciale per discutere questo problema.
Le barre (candele) non funzionano, il campionamento temporale introduce una componente casuale, dovremmo usare altri metodi di campionamento.
Lo stavo capendo in termini di Tsos, Kotelnikov, si scopre che è necessario prendere le zecche, smussarle e solo allora dividerle in TF. Altrimenti si ottiene l'aliasing, l'apparizione di frequenze inesistenti. D'altra parte, lo smoothing aggiungerà un ritardo.
In generale, dovremmo cercare di preprocessare il prezzo, il filtraggio, i render e le azioni. Dovremmo anche cercare di scomporre le coppie di valute in valute individuali.
Ho la seguente idea per determinare il numero ottimale di barre iniziali: in primo luogo, dovremmo decidere il tipo di modello per il quale stiamo preparando i dati iniziali. Iniziamo il calcolo dal modello selezionato con la quantità minima di dati di input. Determinare l'errore del modello rispetto ai dati reali. Poi aumentate la quantità di dati sorgente di un'unità, ripetete il processo di ricerca dell'errore relativo e salvate anche questo. La quantità di dati iniziali che dà un errore minimo è presa come la quantità ottimale di dati iniziali al momento. Tale ricerca viene eseguita ogni volta che appare una nuova barra. Non conosco un altro modo. Cosa ne pensate? Presto ho intenzione di aprire un thread speciale per discutere questo problema.
Approccio da un'altra prospettiva quando inizialmente raccogliamo abbastanza barre per un risultato affidabile e vediamo quale modello matematico si adatta meglio con il minor numero di parametri/polinomi. E poi ridurre il numero di barre.
Lo stavo capendo in termini di Tsos, Kotelnikov, si scopre che è necessario prendere le zecche, smussarle e solo allora dividerle in TF. Altrimenti si ottiene l'aliasing, l'apparizione di frequenze inesistenti. D'altra parte, lo smoothing aggiungerà un ritardo.
In generale, dovremmo cercare di preprocessare il prezzo, il filtraggio, i render e le azioni. Dovremmo anche cercare di dividere le coppie di valute in valute separate.
Smussare i tic attraverso qualche passo di scala è un compito interessante ma costoso. E c'è la possibilità, e sembra logico, di trovare cicli condizionati da fattori esterni reali che sono legati al tempo della loro influenza, cioè un grafico di lavoro.
Ci sono troppi parametri da ottimizzare, la disponibilità di una soluzione ottimale dipende dalla scelta. Se i parametri sono scelti in modo sbagliato, potrebbe non esserci alcuna soluzione.
Smussare i tic in qualche passo di scala è un compito interessante ma costoso. E c'è la possibilità, e sembra logico, di trovare cicli dovuti a fattori esterni reali che sono legati al tempo del loro impatto, cioè un orario di lavoro.
Ci sono troppi parametri da ottimizzare, la disponibilità di una soluzione ottimale dipende dalla scelta. Se i parametri sono scelti in modo sbagliato, potrebbe non esserci alcuna soluzione.
Non ci sono cicli, è controllato.
Ho eseguito il modello nell'ottimizzatore e non mi è piaciuto il fatto che i parametri cambiano drasticamente su ogni barra - vorrei una migliore stabilità.
Non ci sono cicli, è stato testato.
Ho eseguito il modello nell'ottimizzatore, non mi è piaciuto il fatto che ad ogni barra i parametri cambiano drasticamente, vorrei più stabilità.
Non ce l'ho nella sua forma pura. Ci sono ripetizioni simili di movimenti di prezzo). Non c'è stabilità dei parametri nei processi simili a SB per definizione. Se c'è stabilità, si tratta di altri processi).
Nella sua forma più pura, non esiste. Ci sono ripetizioni simili di movimenti di prezzo). Non c'è stabilità dei parametri nei processi simili a SB per definizione. Se c'è stabilità, questi sono altri processi).
Ecco cosa ci serve allora, il riconoscimento, il raggruppamento
Lo stavo capendo in termini di Tsos, Kotelnikov, si scopre che è necessario prendere le zecche, smussarle e solo allora dividerle in TF. Altrimenti si ottiene l'aliasing, l'apparizione di frequenze inesistenti. D'altra parte, lo smoothing aggiungerà un ritardo.
In generale, dovremmo cercare di preprocessare il prezzo, il filtraggio, i render e le azioni. Dovremmo anche cercare di dividere le coppie di valute in valute separate.
Abbiamo bisogno di un metodo di campionamento che non introduca la casualità. Il tempo non ha alcun significato per il mercato, una candela di un'ora può contenere qualsiasi numero di scambi e un turnover arbitrario. Il prezzo è guidato dal denaro, dagli scambi e dalla riallocazione dei fondi. Per capire perché le candele non sono adatte e cosa è necessario, possiamo fare un semplice modello: prendere un seno, campionarlo ad una frequenza di campionamento casuale e ottenere un grafico casuale in uscita. Cioè, il processo è noto e semplice e l'abbiamo rotto. È ora possibile ricostruire il segnale originale con un campione abbastanza grande? Probabilmente in qualche modo, ma non so come.
Va meglio con le zecche, ma non è nemmeno perfetto. Il principale driver del prezzo è l'operazione di trading eseguita e il suo volume. Se prendiamo un tick, non conosciamo il volume e il numero di accordi.
Ecco cosa ci serve allora, il riconoscimento, il raggruppamento.
Sì.
Avete bisogno di un metodo di campionamento che non introduca una componente casuale. Il tempo non ha alcun significato per il mercato, una candela di un'ora può contenere qualsiasi numero di scambi e un turnover arbitrario. Il prezzo è guidato dal denaro, dagli scambi e dalla riallocazione dei fondi. Per capire perché le candele non sono adatte e cosa è necessario, possiamo fare un semplice modello: prendere un seno, campionarlo ad una frequenza di campionamento casuale e ottenere un grafico casuale in uscita. Cioè, il processo è noto e semplice e l'abbiamo rotto. È ora possibile ricostruire il segnale originale con un campione abbastanza grande? Probabilmente in qualche modo, ma non so come.
Va meglio con le zecche, ma non è nemmeno perfetto. Il principale driver del prezzo è l'operazione di trading eseguita e il suo volume. Se prendiamo un tick, non sappiamo il volume e quante operazioni sono passate.
Le lezioni di Kantarovich sull'econometria nella prima lezione danno una panoramica della materia. La conclusione è che la rottura di un modello matematico abbastanza accurato per il periodo storico fino ad oggi non può essere previsto nella stima dei parametri economici temporali.