Previsione di mercato basata su indicatori macroeconomici - pagina 41

 
Sergiy Podolyak:

Cosa vuoi dire? Ho predetto la crisi globale nel 2007.


Tutte le "previsioni" in questa vita non valgono nulla - solo il denaro vale qualcosa.

Ha guadagnato un milione con questa previsione?

Ci sono milioni di persone nel mondo che hanno "predetto" qualcosa - solo pochi hanno fatto soldi.

Ero sicuro - avrei dovuto ipotecare il mio appartamento e aprirmi a tutto.

 
Дмитрий:

Tutte le "previsioni" in questa vita non valgono nulla - solo il denaro vale qualcosa.

Ha guadagnato un milione con questa previsione?

Ci sono milioni di persone nel mondo che hanno "predetto" qualcosa - solo pochi hanno fatto soldi.

Ero sicuro - avrei dovuto ipotecare il mio appartamento e aprirmi a tutto.

Cossack, la tua avidità puzza di Goldman Sachs. Dovresti almeno camuffarti in qualche modo, sai -.....

Non tutto si misura in denaro. L'unico modo per capirlo è diventare un economista o un trader.

 
Sergiy Podolyak:

Cossack, la tua avidità puzza di Goldman Sachs. Dovresti almeno camuffarti in qualche modo, sai -.....

Non tutto si misura in denaro. L'unico modo per capirlo è diventare un economista o un trader.

)))

Non puoi essere un TRADER senza misurare tutto in termini di denaro!

Puoi essere un economista, ma non un trader.

Se aveste aperto tutto nel 2007, sareste usciti dal mercato nell'autunno del 2008.

 
)))) bisogno di fermarsi da Lomonosov e calciare Chernyak nelle orecchie - chi ha insegnato......
 
Vladimir: Le altre colonne sono diversi predittori economici. Il PIL è in 1166 colonne.......
I dati non sono grandiosi a dir poco. + Troppa roba.))
Buttare fuori -
PIL = 144,1876*COL83
PIL = COL226
PIL = COL739
PIL = 62 + COL1128
GDP = 0,001*COL1168
ecc...
(COL83 = colonna 83)
Non ha scavato molto (meno di matlab cercato))
Esportazione da matlab con separatori ; = dlmwrite('myfile',Data,';')
Da un suggerimento due modelli 1 pt avanti (rosso e verde).

Lato destro della linea verticale = applicazione dei modellatori a nuovi dati...


 
Vizard_:
I dati non sono grandiosi a dir poco. + Troppa roba.))
Scartare -
PIL = 144,1876*COL83
PIL = COL226
PIL = COL739
PIL = 62 + COL1128
GDP = 0,001*COL1168
ecc...
(COL83 = colonna 83)
Non ha scavato molto (meno di matlab cercato))
Esportazione da matlab con separatori ; = dlmwrite('myfile',Data,';')
Hopscotch due modelli 1 pt avanti (rosso e verde).

Lato destro della linea verticale = applicazione dei modelli ai nuovi dati...


Non male per iniziare. A quale anno corrisponde la linea verticale? E quanti predittori ci sono nei modelli?
 
Vladimir:

Beh, è primavera, l'orso è sveglio, affamato...

Devo mostrarvi come l'S&P500 è sceso nel 2008 durante la crescita negativa del PIL o devo mostrarvelo?

Vai all'inizio del thread e leggi i miei obiettivi - prevedere i crash ed evitare posizioni lunghe prima che si verifichino. Non sono interessato al trading, quindi uso dati trimestrali. La cosa principale è la conservazione del capitale. E come l'S&P500 fluttua intorno ai suoi trend e flat non mi interessa.

>> Sbarazzati di quell'arroganza radiotecnica di pensare che tutti gli economisti sono idioti... Cosa le fa pensare di essere l'unico a leggere queste migliaia di indicatori economici? Anche loro li leggono.

Non penso che siano tutti idioti, ma la maggior parte di loro lo sono, postulano cose a venire o prevedono costantemente una recessione fino a quando non accade, e poi si dichiarano geni. Finora nessun economista ha previsto il crollo del 2008, quindi sì, idioti tranne un paio. La Fed Bank usa il suo modello SDGE con 16 indicatori generalmente accettati per prevedere l'economia, e quel modello è muto. E probabilmente non avete nemmeno sentito parlare di un tale modello.

Non ha niente a che vedere con l'ingegneria radio e la correlazione. Non uso metodi di ingegneria radiofonica, ma non ci vedo nulla di male. Siete arroganti nel senso che non ammettete l'esistenza di metodi di analisi e la creazione di modelli diversi da quelli generalmente accettati in economia. Ignorare i progressi della modellazione e dell'apprendimento automatico in altre branche della scienza è arroganza, o addirittura stupidità, non permettendo nuove scoperte.

Esatto, non ci sono autorità in prima linea. Rispetto e rispetto per le autorità, ma dovresti pensare con la tua testa, e dubitare di tutto, anche se sei sicuro, lascia una piccola percentuale di dubbio, e poi improvvisamente questa piccola percentuale può portare ad una svolta.

Il meme "durante la crescita negativa del PIL" è una delizia :))))

 
Vladimir:
Non male per iniziare. A quale anno corrisponde la linea verticale? E quanti predittori ci sono nei modelli?
Non va bene. Ho guardato per curiosità e li ho subito cancellati tutti. Non ci sono predittori normali nei dati, secondo me. Penso di aver tagliato le prime quattro righe, c'erano molti valori vuoti.
Ho costruito modelli sulle prime 100 osservazioni. Risulta 104, e con 105 è già OOS. Green è molto semplice, 6-7 predittori senza trasformazione. Quello rosso costa il doppio.
+ ho preso i valori assoluti e i seni, ecc. e questo è visibile sull'LSS, comincia a tempestare)))) In entrambi (per la stabilità) - nessun coefficiente, solo semplici formule
tra i predittori utilizzati. Non normalizzato, alle prime differenze (incrementi) poi portato a rendere più chiaramente visibile dove un difetto. Le osservazioni sono insufficienti, ci dovrebbe essere
Per far sì che un modello abbia più o meno "senso fisico". Come - la disoccupazione e (o) blah-blah-blah, il loro rapporto ... ecc. Provato, fallito))) Se con una riqualificazione su
ogni osservazione (trimestre) come stai facendo tu, non fa alcuna differenza cosa stai inserendo, basta che ci sia un taglio. Per quanto ho capito la griglia si sta selezionando da sola, tuttavia i dati
è meglio cancellare i dati in anticipo...
 

Il mio codice Matlab prima rimuove i predittori che hanno NaN nella storia simulata, poi converte tutti i dati con lo stesso metodo, poi percorre tutta la storia provando ognuno dei 2 mila predittori e le loro versioni ritardate per la capacità predittiva del futuro passato, calcola l'errore di predizione accumulato di ogni predittore e infine dà una lista di predittori ordinati per il loro errore. Se questo viene fatto per ogni momento passato della storia e prende i migliori predittori e predice il futuro, il risultato è abbastanza decente per alcuni anni fino a quando non avviene una recessione. In questi momenti i migliori previsori del passato non prevedono bene la caduta del PIL e vengono sostituiti da nuovi previsori. E così si va avanti fino a quando si verifica una nuova recessione. Non so se esiste una formula universale per la dipendenza del PIL da alcuni previsori chiave. Se aggiungiamo altri cento anni di storia, alla fine di questi cento anni abbiamo una lista di pronosticatori che hanno previsto tutte le recessioni più o meno bene, ma quando arriva la prossima recessione possono essere sostituiti da nuovi pronosticatori.

Anche scegliere intuitivamente i predittori è sbagliato. Per esempio, il tasso di disoccupazione è un predittore principale o secondario? Un alto tasso di disoccupazione causa una recessione o viceversa una recessione causa un alto tasso di disoccupazione? Mi sembra che la recessione causi un'alta disoccupazione, quindi usare la disoccupazione per prevedere le recessioni non è un'opzione. Ma la decisione di usare qualsiasi predittore nel modello è presa dal mio codice in base agli errori di predizione accumulati. Finora il ruolo principale nel mio modello è assunto dai predittori basati sugli investimenti privati nella costruzione di case e sul consumo interno. Questo è probabilmente logico, perché le case e gli elettrodomestici sono una grande parte del PIL. Se la gente non compra case, frigoriferi e televisori, la produzione scende, il PIL scende, le fabbriche licenziano i lavoratori, la disoccupazione sale, il consumo scende ancora di più. Repubblicani e democratici stanno facendo uscire il paese dalla recessione in modi diversi. I democratici danno soldi alla popolazione a basso salario (voucher) per aumentare il loro consumo o incoraggiano l'immigrazione per creare una nuova consumistocrazia. I repubblicani sostengono che un sussidio una tantum di 500-700 dollari per le famiglie povere non permetterà loro di comprare una nuova casa o un'auto e di far progredire l'economia. Preferiscono dare soldi ai poveri abbassando le tasse, specialmente sugli investimenti. La loro teoria è che i ricchi, risparmiando più soldi in tasse più basse, compreranno cose più costose (case, automobili, ecc.) che aumenteranno il consumo dove conta, oppure investiranno i soldi in imprese che ridurranno la disoccupazione, aumenteranno la capacità di pagare e aumenteranno il consumo. La Reaganomics era basata su questo.

 
Vladimir:

1. Calcolare le velocità relative: r[i] = x[i]/x[i-1]-1. Questa trasformazione normalizza automaticamente i dati, non si guarda al futuro, non c'è bisogno di fare altro. Ma esiste un grosso problema con i dati zero (x[i-1]=0) e i dati negativi, e ce ne sono molti negli indicatori economici.

2. Calcolare gli incrementi d[i] = x[i] - x[i-1]. Questa trasformazione non si preoccupa dei dati zero e negativi, ma gli incrementi crescono nel tempo per i dati a crescita esponenziale come il prodotto lordo annuale. Cioè la varianza non è costante. Per esempio, non è possibile tracciare la dipendenza degli incrementi del GWP dal tasso di disoccupazione perché il tasso di disoccupazione fluttua all'interno di un intervallo con varianza costante, mentre il GWP cresce esponenzialmente, con varianza crescente in modo esponenziale. Quindi gli incrementi devono essere normalizzati alla varianza variabile nel tempo. Ma calcolare quest'ultimo non è facile.

3. Rimuovere dai dati la tendenza calcolata per esempio dal filtro di Hodrick-Prescott e normalizzare il residuo ad alta frequenza per la varianza variabile nel tempo e usarlo come input del modello. Il problema qui è che il filtro Hodrick-Prescott e altri filtri basati sull'adattamento polinomiale(filtro Savitzky-Golay, lowess, ecc.) guardano avanti. Il mooving ritarda i dati ed è inadatto alla rimozione della tendenza, specialmente su dati in crescita esponenziale.

Qualche altra idea?

Uso (x[i] - x[i-1]) / (x[i] + x[i-1]). I dati negativi sono buoni come quelli positivi. La normalizzazione in [-1, +1] è imho migliore che in [0, 1].