L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3298

 
fxsaber #:

Apparemment, à un niveau subconscient, le cerveau humain est encore capable de trouver des "modèles" à partir d'une quantité extrêmement faible de données. On ne peut pas parler de chance. C'est un mystère.

En fait, un trader traite beaucoup plus d'informations de différentes manières en même temps que les modèles MO en ce qui concerne la négociation. En outre, le cerveau est armé de diverses connaissances qui ne sont pas liées à la négociation, mais qui aident à résoudre les tâches de négociation.

 
Andrey Dik #:

ici, vous avez vous-même montré qu'un cerveau pré-entraîné avec de fausses données résout des problèmes spécifiques qu'il ne connaissait pas auparavant. et vous dites que vous n'avez pas besoin de "connaissances" supplémentaires.

Je n'ai pas dit cela, arrêtez de mentir 😀
Les signes ne sont pas des connaissances.
 
Andrey Dik #:

Vous continuez à confondre le concept d'"extremum" avec celui de "pic aigu" (le point où une fonction n'a pas de dérivée).

Même une surface plane a un extremum.

Par ailleurs, les FF essaient toujours de choisir de manière à ce que la surface des FF soit aussi lisse que possible et que l'extremum global soit le seul. L'unique extremum global doit être la seule solution non ambiguë du problème.

Si l'extremum global de la FF n'est pas le seul, et plus encore s'il n'a pas de dérivée, cela signifie que le choix de la FF (le critère d'évaluation du modèle) est incorrect. Une mauvaise compréhension de ce point conduit au terme "overfitting", une mauvaise compréhension de ce point conduit à la recherche d'un extremum local ambigu.

Nous pouvons faire une analogie : un spécialiste - un médecin - est formé, des examens de qualification (FF) sont développés pour la certification, pour un médecin il ne peut y avoir de concept de "surformation" ou de "suradaptation", si un médecin n'obtient pas le score maximum - cela signifie qu'il est sous-formé. Et selon vous, un bon médecin devrait toujours être un non-scientifique sous-formé.

Une fois de plus, le problème du "surentraînement" réside dans le mauvais choix des critères d'évaluation du modèle. Il semble que de tels experts soient présents sur le forum, mais ils répètent sans cesse les mêmes erreurs. L'élaboration de critères d'estimation corrects n'est pas moins importante que la sélection des prédicteurs, sans quoi il est tout simplement impossible d'estimer correctement le modèle.

Je m'attends à une avalanche d'objections, mais ce n'est pas grave, j'y suis habitué. Si cela peut être utile à quelqu'un, tant mieux, et ceux qui ne le seront pas, peu importe, alors ils pensent que c'est très bien comme ça.

Le surajustement des modèles n'a RIEN à voir avec l'optimisation.

Le modèle idéal de surajustement d'une citation est la citation elle-même. C'est comme pour tout autre cas de construction de modèle : il n'y a pas d'optimisation, l'estimation d'un tel modèle est dégénérée, etc.

Vous ne comprenez pas le sens du mot "modèle". Par exemple, un modèle de la loi de Newton sur la gravitation universelle. Il s'agit d'un modèle idéal, applicable dans des conditions idéales : vide, aucun autre corps dans l'univers. Néanmoins, il permet d'effectuer de nombreux calculs avec une précision suffisante pour la pratique.

Et tout le problème de la construction d'un modèle est de trouver celui dont l'erreur par rapport aux données réelles nous convient. Il faut comprendre que l'erreur que nous voyons ne sera pas nécessairement dans le futur, mais dans un certain intervalle de confiance. Par conséquent, nous recherchons un modèle dont l'erreur se situe dans l'intervalle acceptable dans la pratique. Nous n'avons pas besoin d'extrema.

 
Forester #:

150 milliards de neurones, pas seulement une sortie par neurone, mais plusieurs. L'IA n'atteindra pas ce niveau d'intelligence avant longtemps, voire jamais.
Le niveau d'intelligence des NS est comparé à celui d'un cafard : courir, mordre, s'enfuir.

Multipliée par plusieurs milliards d'individus de l'humanité, la civilisation actuelle montre qu'il est possible, à partir d'un très petit nombre de données, d'émettre des hypothèses qui peuvent prédire avec précision un grand nombre de phénomènes observés et même recréer des phénomènes non observés.

 
Maxim Dmitrievsky #:
Apprentissage en une seule fois. Lorsqu'un grand NS préformé (cerveau) est préformé sur des données de gauche avec seulement quelques exemples. Si le modèle a initialement appris les lois du monde, il peut facilement cliquer sur une nouvelle tâche d'un simple coup d'œil.

C'est ainsi que les grands modèles de langage, en particulier, sont préformés pour de nouvelles tâches. Mais si vous le forcez à apprendre ces nouveaux exemples pendant une longue période, il commencera à oublier son expérience antérieure et sera biaisé par rapport aux nouvelles données.
Il serait intéressant de tracer un graphique : la qualité de l'apprentissage en une seule fois en fonction de l'âge du cube.
 

Bien.... Les arbres sont optimisés. Pour sélectionner la meilleure division, toutes les colonnes/attributs sont vérifiés. Toutes les colonnes/attributs sont vérifiés, différents découpages sont effectués et celui qui présente une valeur d'impureté de classe minimale pour la classification ou une précision maximale pour la régression est utilisé.
Pour les forêts aléatoires, cela s'arrête là. Il suffit alors de faire la moyenne des résultats d'un ensemble d'arbres auxquels on a attribué au hasard, par exemple, 50 % des caractéristiques.
Dans le bousting, chaque arbre suivant apprend l'erreur de la somme des arbres précédents et minimise cette erreur.

Mais tout cela est caché à l'utilisateur sous le capot et il n'y a pas lieu d'en parler. Ce n'est pas comme l'optimisation que nous faisons dans le testeur en recherchant les valeurs de certains paramètres qui changent les signes ou les enseignants du modèle (par exemple, en sélectionnant TP/SL).

 
Maxim Dmitrievsky #:
Les signes ne sont pas des connaissances.

Calmez-vous.
Et qu'est-ce que la connaissance ?

Vous avez dit aujourd'hui que l'optimisation n'avait rien à voir avec l'OM, puis vous avez admis que c'était le cas.
Attendez, nous en arrivons maintenant au point où les signes sont des connaissances.
 
fxsaber #:
Il serait intéressant de tracer un graphique de la qualité de l'apprentissage en une seule fois en fonction de l'âge de l'enfant.

Il est très probable que le cerveau du NS soit fortement influencé par l'environnement (et le numérique), en particulier pendant la période la plus rapide de la formation du NS, à savoir la petite enfance.

Il serait intéressant de comparer de tels SN du même âge sur différentes tâches, l'un avec un gadget à partir de 2-3 ans, l'autre sans gadget.

En d'autres termes, il s'agirait de comprendre quel type de développement du SN affecte positivement/négativement la résolution de certaines tâches.


Peut-être que l'invention réfléchie de la CT a moins de succès que la pensée superficielle du clip.

 
Andrey Dik #:

Qu'est-ce qu'un signe, d'après vous ?
Et qu'est-ce que la connaissance ?

Vous avez dit aujourd'hui que l'optimisation n'avait rien à voir avec l'OM, puis vous avez admis que c'était le cas.
Attendez, nous en arrivons maintenant au point où les signes sont des connaissances.
Où ai-je dit que l'optimisation n'a rien à voir avec l'OI ?

S'il vous plaît, venez sans moi.
 
Maxim Dmitrievsky #:
Où ai-je dit que l'optimisation n'avait rien à voir avec le ministère de la défense ?

Venez sans moi, s'il vous plaît.

Je le savais.
Relisez ce que vous avez dit.