L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3397
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
J'aimerais écrire un optimiseur pour un portefeuille de modèles, étant donné qu'ils sont générés assez rapidement, à l'échelle industrielle
Mais si nous en obtenons beaucoup, nous ne voulons pas les glisser et les déposer tous dans le terminal. En toute hypothèse, si nous ne sauvegardons pas les modèles, mais empilons les ensembles de données sur lesquels ils ont été entraînés, et que nous entraînons ensuite un modèle final sur ces ensembles, les résultats devraient être comparables à l'ensemble de modèles, n'est-ce pas ?
Je prévois également d'expérimenter non pas l'appariement positionnel, comme dans l'article, mais le score de propension. Cela permettra de calibrer les probabilités en même temps.
Je vais ensuite utiliser cette librairie Google pour voir ce que je peux en tirer.
Peut-être que plus tard, je présenterai les résultats.
Je prévois également d'expérimenter non pas l'appariement positionnel, comme dans l'article, mais le score de propension. Cela permettra de calibrer les probabilités en même temps.
En théorie, il est possible de rechercher et d'apparier des échantillons à l'aide du score de propension
Par exemple, marquer au hasard une partie de l'échantillon comme 0 et une autre comme 1. Apprenez au NS à séparer pour classer quel échantillon appartient à quel échantillon. C'est ce qu'on appelle aussi la validation adversariale.
Idéalement, le NS ne devrait pas identifier l'échantillon, l'erreur devrait être d'environ 0,5. Cela signifie que l'échantillon original est bien randomisé.
Toute valeur proche de 0,5 est bonne, ces données peuvent être utilisées pour la formation. Les valeurs extrêmes sont des valeurs aberrantes.
Ensuite, pour chaque "probabilité", vous pouvez calculer le pourcentage de cas devinés.
Jusqu'à présent, cette approche est un peu étonnante.
Un concours intéressant en cours - pour ceux qui veulent comparer leur succès dans la prédiction des citations avec les autres participants.
Concours intéressant en cours - pour ceux qui veulent comparer leur succès dans la prédiction des cotations avec les autres participants.
Ce lien a déjà été cité à plusieurs reprises
Je ne m'en souvenais pas - je suppose que ce n'était pas clair à l'époque ce qu'il fallait faire, mais maintenant j'ai lu l'aide et c'est devenu plus clair. Quoi qu'il en soit, c'est un fait que cette idée fonctionne depuis longtemps. Si j'ai bien compris, ils paient avec une sorte de crypto pour les bonnes prévisions.
L'inconvénient, bien sûr, est que le code est ouvert et doit être transféré pour participer.
L'avenir est là : je fais fonctionner localement le LLM de Google. Maintenant, je n'ai plus besoin d'une femme et d'amis.
L'avenir est là : je fais fonctionner localement le LLM de Google. Maintenant, je n'ai plus besoin d'une femme et d'amis.
https://blog.google/technology/developers/gemma-open-models/
Un bon résumé de l'ensemble de la discussion