Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3397

 

Gostaria de escrever um otimizador para um portfólio de modelos, já que eles são gerados muito rapidamente, em escala industrial

Mas se tivermos muitos deles, não queremos arrastar e soltar todos no terminal. Hipoteticamente, se não salvarmos os modelos, mas empilharmos os conjuntos de dados nos quais eles foram treinados e, em seguida, treinarmos um modelo final neles, os resultados deverão ser comparáveis ao conjunto de modelos, certo?

Причинно-следственный вывод в задачах классификации временных рядов
Причинно-следственный вывод в задачах классификации временных рядов
  • www.mql5.com
В этой статье мы рассмотрим теорию причинно-следственного вывода с применением машинного обучения, а также реализацию авторского подхода на языке Python. Причинно-следственный вывод и причинно-следственное мышление берут свои корни в философии и психологии, это важная часть нашего способа мыслить эту реальность.
 

Também planejo fazer experimentos não com a correspondência posicional, como no artigo, mas com a pontuação de propensão. Isso permitirá calibrar as probabilidades ao mesmo tempo.

Em seguida, usarei a biblioteca do Google para ver o que consigo obter com ela.

Talvez mais tarde eu apresente os resultados.

 
Se houver valores negativos para depósito, lucro ou patrimônio líquido nas linhas inferiores dos parâmetros de otimização, ao obter resultados, esse resultado definitivamente disparará algum dia. Todas as otimizações devem obter dados apenas para esse período. Embora não seja triste, é assim mesmo.
 
Maxim Dmitrievsky #:

Também planejo fazer experimentos não com a correspondência posicional, como no artigo, mas com a pontuação de propensão. Isso permitirá calibrar as probabilidades ao mesmo tempo.

Em teoria, você pode pesquisar e combinar amostras por meio dele

Por exemplo, marque aleatoriamente uma parte da amostra como 0 e outra como 1. Ensine o NS a separar para classificar qual amostra pertence a qual amostra. Isso também é chamado de validação adversarial.

Idealmente, o NS não deve identificar a amostra, o erro deve ser em torno de 0,5. Isso significa que a amostra original é bem aleatória.

propensity
0.38        3
0.40        3
0.41        3
0.42       20
0.43       27
0.44       40
0.45       56
0.46      140
0.47      745
0.48     3213
0.49     8041
0.50    11718
0.51     5324
0.52     1187
0.53      749
0.54      209
0.55       95
0.56       54
0.57       29
0.58       12
0.59       14
0.60        8
0.61        6
0.63        1

Qualquer valor próximo de 0,5 é bom, pois esses dados podem ser usados para treinamento. Os valores extremos são outliers.

Em seguida, para cada "probabilidade", você pode calcular a porcentagem de casos adivinhados.

Até o momento, essa abordagem é um pouco surpreendente.

 

Um concurso interessante em andamento - para aqueles que desejam comparar seu sucesso na previsão de cotações com o de outros participantes.

Numerai
Numerai
  • numer.ai
The hardest data science tournament on the planet. Build the world's open hedge fund by modeling the stock market.
 
Aleksey Vyazmikin #:

Interessante competição contínua - para aqueles que desejam comparar seu sucesso na previsão de cotações com outros participantes.

Portanto, este link já apareceu aqui muitas vezes
 
mytarmailS #:
Esse link já apareceu aqui muitas vezes

Eu não me lembrava dele - acho que na época não estava claro o que fazer, mas agora li a ajuda e ficou mais claro. De qualquer forma, é fato que essa ideia vem funcionando há muito tempo. Pelo que entendi, eles pagam lá com algum tipo de criptografia por boas previsões.

A desvantagem, é claro, é que o código é aberto e deve ser transferido para participação.

 

O futuro está aqui: estou executando o LLM do Google localmente. Agora não preciso de uma esposa e amigos.


 
Maxim Dmitrievsky #:

O futuro está aqui: estou executando o LLM do Google localmente. Agora não preciso de uma esposa e amigos.

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

Um bom resumo de toda a discussão