L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3296
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je n'ai pas de question. J'ai écrit pourquoi un grand nombre de caractéristiques donne de mauvais résultats dans l'inférence causale.
et je vous ai dit que c'est simplement votre hypothèse "à mesure que le nombre de caractéristiques augmente, les résultats se détériorent" et j'ai énoncé mon hypothèse.
Mais je vous rappelle que certaines personnes l'ont fait pour le GPT, et qu'il y a eu un saut dans la qualité des connexions d'informations hétérogènes au point qu'il a été possible de créer de nouvelles connexions et inférences.
et je vous ai écrit qu'il s'agit simplement de votre hypothèse "au fur et à mesure que les traits augmentent, les résultats s'aggravent".
J'ai énoncé mon hypothèse. Personne ici au MO n'a encore essayé de la tester en raison du coût des expériences. Mais je vous rappelle que certaines personnes l'ont fait pour le GPT, il y a eu un saut dans la qualité des connexions d'informations hétérogènes à tel point qu'il est devenu possible de créer de nouvelles connexions et de tirer de nouvelles conclusions.
Je vous ai écrit que c'est votre hypothèse, je n'ai pas émis d'hypothèse. C'est strictement prouvé.
Ce que vous avez dit n'est PAS prouvé, c'est un jugement empirique, donc votre déclaration est une hypothèse.
Je n'avais aucune question à vous poser.
ce que vous avez dit n'est PAS prouvé, il s'agit de jugements empiriques, votre affirmation est donc une hypothèse.
Je n'avais aucune question à vous poser.
Quel doigt d'honneur ?
Exactement, les grands modèles de langage sont formés exactement de la même manière, et ils utilisent des algorithmes d'optimisation (vous pouvez demander à GPT avec quels algorithmes il a été formé, il y a quelques mois il a répondu sans ambiguïté, maintenant il fait de l'humour, mais je dirai simplement qu'ADAM est l'un d'entre eux). et je n'ai aucune idée du type d'erreur d'apprentissage qu'il y a, tout comme vous n'en avez aucune idée. Les auteurs sont bons parce qu'ils ont été capables de construire des critères d'évaluation pour un grand modèle, ce qui est très difficile, parce qu'il ne suffit pas de collecter des informations, vous devez être capable d'évaluer correctement la qualité de la formation (comme je l'ai dit, la construction de critères d'évaluation n'est pas moins importante).
Vous aimez vous mesurer. Je ne vous apprends rien, vous devriez comprendre ces choses si vous pensez être un super-professionnel.
Vous aimez vous mesurer. Je ne vous apprends rien, vous devriez comprendre ces choses si vous vous prenez pour un super pro.
C'est vous qui me prenez pour un super pro et qui écrivez hors sujet. Je n'aime pas le blabla, une bouillie d'arguments sans rapport les uns avec les autres, saupoudrée d'astuces psychologiques, comme les références à des autorités. Si vous êtes trop paresseux pour lire les preuves, je ne peux pas vous aider davantage.
Vous avez cité GPT comme une sorte de preuve de ce que vous ne savez pas du tout. Vous écrivez juste pour le plaisir d'écrire. Il n'y a pas de message significatif. L'optimisation ne m'intéresse pas, c'est la troisième question. Je n'ai pas écrit sur l'optimisation et je n'ai pas posé de question à ce sujet. Si l'apprentissage inclut l'optimisation, cela ne signifie pas que l'apprentissage est une optimisation. Ce n'est pas du tout le sujet de la conversation.