L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3397

 

J'aimerais écrire un optimiseur pour un portefeuille de modèles, étant donné qu'ils sont générés assez rapidement, à l'échelle industrielle

Mais si nous en obtenons beaucoup, nous ne voulons pas les glisser et les déposer tous dans le terminal. En toute hypothèse, si nous ne sauvegardons pas les modèles, mais empilons les ensembles de données sur lesquels ils ont été entraînés, et que nous entraînons ensuite un modèle final sur ces ensembles, les résultats devraient être comparables à l'ensemble de modèles, n'est-ce pas ?

Причинно-следственный вывод в задачах классификации временных рядов
Причинно-следственный вывод в задачах классификации временных рядов
  • www.mql5.com
В этой статье мы рассмотрим теорию причинно-следственного вывода с применением машинного обучения, а также реализацию авторского подхода на языке Python. Причинно-следственный вывод и причинно-следственное мышление берут свои корни в философии и психологии, это важная часть нашего способа мыслить эту реальность.
 

Je prévois également d'expérimenter non pas l'appariement positionnel, comme dans l'article, mais le score de propension. Cela permettra de calibrer les probabilités en même temps.

Je vais ensuite utiliser cette librairie Google pour voir ce que je peux en tirer.

Peut-être que plus tard, je présenterai les résultats.

 
S'il y a des valeurs négatives pour le dépôt, le profit ou les capitaux propres dans les lignes inférieures des paramètres d'optimisation, lors de l'obtention des résultats, ce résultat sera certainement tiré un jour. Toutes les optimisations doivent obtenir des données pour cette période seulement. Ce n'est pas triste, mais c'est ainsi.
 
Maxim Dmitrievsky #:

Je prévois également d'expérimenter non pas l'appariement positionnel, comme dans l'article, mais le score de propension. Cela permettra de calibrer les probabilités en même temps.

En théorie, il est possible de rechercher et d'apparier des échantillons à l'aide du score de propension

Par exemple, marquer au hasard une partie de l'échantillon comme 0 et une autre comme 1. Apprenez au NS à séparer pour classer quel échantillon appartient à quel échantillon. C'est ce qu'on appelle aussi la validation adversariale.

Idéalement, le NS ne devrait pas identifier l'échantillon, l'erreur devrait être d'environ 0,5. Cela signifie que l'échantillon original est bien randomisé.

propensity
0.38        3
0.40        3
0.41        3
0.42       20
0.43       27
0.44       40
0.45       56
0.46      140
0.47      745
0.48     3213
0.49     8041
0.50    11718
0.51     5324
0.52     1187
0.53      749
0.54      209
0.55       95
0.56       54
0.57       29
0.58       12
0.59       14
0.60        8
0.61        6
0.63        1

Toute valeur proche de 0,5 est bonne, ces données peuvent être utilisées pour la formation. Les valeurs extrêmes sont des valeurs aberrantes.

Ensuite, pour chaque "probabilité", vous pouvez calculer le pourcentage de cas devinés.

Jusqu'à présent, cette approche est un peu étonnante.

 

Un concours intéressant en cours - pour ceux qui veulent comparer leur succès dans la prédiction des citations avec les autres participants.

Numerai
Numerai
  • numer.ai
The hardest data science tournament on the planet. Build the world's open hedge fund by modeling the stock market.
 
Aleksey Vyazmikin #:

Concours intéressant en cours - pour ceux qui veulent comparer leur succès dans la prédiction des cotations avec les autres participants.

Ce lien a donc déjà été cité à plusieurs reprises
 
mytarmailS #:
Ce lien a déjà été cité à plusieurs reprises

Je ne m'en souvenais pas - je suppose que ce n'était pas clair à l'époque ce qu'il fallait faire, mais maintenant j'ai lu l'aide et c'est devenu plus clair. Quoi qu'il en soit, c'est un fait que cette idée fonctionne depuis longtemps. Si j'ai bien compris, ils paient avec une sorte de crypto pour les bonnes prévisions.

L'inconvénient, bien sûr, est que le code est ouvert et doit être transféré pour participer.

 

L'avenir est là : je fais fonctionner localement le LLM de Google. Maintenant, je n'ai plus besoin d'une femme et d'amis.


 
Maxim Dmitrievsky #:

L'avenir est là : je fais fonctionner localement le LLM de Google. Maintenant, je n'ai plus besoin d'une femme et d'amis.

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

Un bon résumé de l'ensemble de la discussion