L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3397

 

Vorrei scrivere un ottimizzatore per un portafoglio di modelli, dato che vengono generati abbastanza rapidamente, su scala industriale.

Ma se ne abbiamo molti, non vogliamo trascinarli tutti nel terminale. In via puramente ipotetica, se non salviamo i modelli, ma impiliamo i dataset su cui sono stati addestrati, e poi addestriamo un modello finale su di essi, i risultati dovrebbero essere paragonabili all'ensemble di modelli, giusto?

Причинно-следственный вывод в задачах классификации временных рядов
Причинно-следственный вывод в задачах классификации временных рядов
  • www.mql5.com
В этой статье мы рассмотрим теорию причинно-следственного вывода с применением машинного обучения, а также реализацию авторского подхода на языке Python. Причинно-следственный вывод и причинно-следственное мышление берут свои корни в философии и психологии, это важная часть нашего способа мыслить эту реальность.
 

Ho anche intenzione di sperimentare non il matchmaking posizionale, come nell'articolo, ma il Propensity score. Ciò consentirà di calibrare le probabilità allo stesso tempo.

Poi userò la libreria di Google per vedere cosa riesco a ricavarne.

Forse più tardi presenterò i risultati.

 
Se nelle righe inferiori dei parametri di ottimizzazione sono presenti valori negativi per il deposito, il profitto o il capitale proprio, quando si ottengono i risultati, questi ultimi verranno sicuramente sparati un giorno. Tutte le ottimizzazioni devono ottenere dati solo per questo periodo. Anche se non è triste, è così.
 
Maxim Dmitrievsky #:

Ho anche intenzione di sperimentare non il matchmaking posizionale, come nell'articolo, ma il Propensity score. Questo permetterà di calibrare le probabilità allo stesso tempo.

In teoria, è possibile cercare e abbinare i campioni attraverso questo strumento.

Ad esempio, contrassegnare casualmente un pezzo del campione come 0 e un altro come 1. Insegnare ai NS a separarsi per classificare quale campione appartiene a quale campione. Questa operazione è chiamata anche validazione adversariale.

Idealmente, il NS non dovrebbe identificare il campione, l'errore dovrebbe essere di circa 0,5. Questo significa che il campione originale è ben definito. Ciò significa che il campione originale è ben randomizzato.

propensity
0.38        3
0.40        3
0.41        3
0.42       20
0.43       27
0.44       40
0.45       56
0.46      140
0.47      745
0.48     3213
0.49     8041
0.50    11718
0.51     5324
0.52     1187
0.53      749
0.54      209
0.55       95
0.56       54
0.57       29
0.58       12
0.59       14
0.60        8
0.61        6
0.63        1

Qualunque valore vicino a 0,5 è buono e questi dati possono essere utilizzati per l'addestramento. I valori estremi sono valori anomali.

Per ogni "probabilità" è possibile calcolare la percentuale di casi indovinati.

Finora, questo approccio è un po' sconcertante.

 

Un interessante concorso in corso - per chi vuole confrontare il proprio successo nel prevedere le quotazioni con gli altri partecipanti.

Numerai
Numerai
  • numer.ai
The hardest data science tournament on the planet. Build the world's open hedge fund by modeling the stock market.
 
Aleksey Vyazmikin #:

Interessante concorso in corso - per chi vuole confrontare il proprio successo nella previsione delle quotazioni con gli altri partecipanti.

Questo link è già stato inserito qui molte volte
 
mytarmailS #:
Questo link è già stato inserito molte volte

Non me lo ricordavo - credo che allora non fosse chiaro cosa fare, ma ora ho letto la guida e mi è diventato più chiaro. Comunque, è un fatto che questa idea funziona da molto tempo. Da quanto ho capito, pagano con una sorta di criptovaluta per le buone previsioni.

Lo svantaggio, ovviamente, è che il codice è aperto e deve essere trasferito per la partecipazione.

 

Il futuro è qui. Sto gestendo l'LLM di Google a livello locale. Ora non ho bisogno di moglie e amici.


 
Maxim Dmitrievsky #:

Il futuro è qui. Sto gestendo l'LLM di Google a livello locale. Ora non ho bisogno di moglie e amici.

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

Una buona sintesi dell'intero thread