L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3388

 
Maxim Dmitrievsky #:

Pourquoi un grand nombre de signes sont-ils néfastes ? Graphique intéressant tiré d'un livre sur le kozulu.

Probabilité de trouver le même exemple dans l'échantillon d'apprentissage, en fonction du nombre de caractéristiques.

Ce n'est pas clair. Probabilité de trouver le même exemple que dans l'échantillon de formation ?

 
Aleksey Vyazmikin #:

Rien n'est clair. Probabilité de trouver où se trouve le même exemple que dans l'échantillon de formation ?

la même ligne dans l'ensemble de données

si vous n'avez que 1 000 lignes

En gros, si vous avez plus de 18 caractéristiques, vous entraînez un classificateur à se souvenir de chaque ligne parce qu'elles ne se répètent même pas.

et dans l'inférence causale, vous ne pouvez pas faire correspondre des exemples pour calculer des statistiques.
 
Aleksey Vyazmikin #:

1. Comment obtient-on cette matrice ? Quels sont les nombres qui y figurent ?

2. Je parle de règles. Dans mon approche, je ne me soucie pas de savoir comment et à partir de quoi la règle est dérivée, mais si la réponse est similaire à une autre dans l'échantillon d'apprentissage, elle ne contient pas d'informations supplémentaires.

1. les valeurs des caractéristiques

2. Je vais vous surprendre, personne ne se soucie de la manière dont les caractéristiques ont été créées, tout le monde évalue les caractéristiques sur la base de la réponse seule.
 
Maxim Dmitrievsky #:

Pourquoi un grand nombre de signes sont-ils néfastes ? Graphique intéressant tiré d'un livre sur le kozulu.

Probabilité de trouver le même exemple dans l'échantillon d'apprentissage, en fonction du nombre de caractéristiques.

Si vous avez plus de 14 (et même 10) caractéristiques, vous obtenez un grand nombre de règles que vous ne pouvez pas réduire sans perte.


Tout cela se passe dans le cadre occasionnel.
Dans les modèles avec des caractéristiques non structurées (texte, images).
Quelques milliers d'attributs sont la norme.
 
mytarmailS #:
Tout cela est du domaine de l'occasionnel...
Dans les modèles avec des caractéristiques non structurées (texte, images).
Quelques milliers d'attributs sont normaux.

Ils utilisent des algorithmes de compression efficaces à l'intérieur des neurones, comme sec2sec, ce qui est également vrai.

 
Maxim Dmitrievsky #:

Il utilise des algorithmes de compression efficaces à l'intérieur des neurones, comme sec2sec, ce qui le rend également équitable.

Si nous parlons de texte, il utilise dans 95 % des cas le comptage de mots habituel comme - combien de fois un mot est-il apparu dans une observation donnée ? 0, 1, 103..

Et pour que la matrice de caractéristiques occupe moins d'espace, elle est conservée sous la forme d'une "matrice éparse", ce qui est avantageux car 95 % des valeurs de la matrice sont des zéros.

Les images sont des convolutions.

Et seq2seq est exotique pour un problème rare.
 
mytarmailS #:
S'il s'agit d'un texte, on utilise dans 95 % des cas le compteur de mots habituel : combien de fois un mot est-il apparu dans cette observation ? 0, 1, 103..

Et pour que la matrice des caractéristiques soit moins occupée, elle est conservée sous la forme d'une "matrice clairsemée", ce qui est favorable car 95 % des valeurs de la matrice sont des zéros
.

Dans les images, la convolution.

Et seq2seq est exotique pour un problème rare.

Il s'agit d'architectures différentes, de gâteaux en couches. Il est difficile de les comparer. Nous parlons de classification ou de régression normale. Dans ce cas, on dirait une loi universelle.

 
Maxim Dmitrievsky #:

Il s'agit d'autres architectures, de gâteaux en couches. Il est difficile de comparer. Nous parlons de classification ou de régression ordinaire. Dans ce cas, on dirait une loi universelle.

C'est la même chose.

Je ne parle pas de neurones, je parle de la structure du feedforward.

----------------------------------------------------------------------

Oh, je me souviens, cela s'appelle un sac de mots.



Qu'est-ce qui est nouveau, inconnu, incompréhensible, compliqué ?


Le même tableau de signes + n'importe quel MO


Il s'agit de travailler avec des données non structurées (texte), puis de les traduire en une structure de sac de mots et ensuite tout ce que l'on veut.

 
mytarmailS #:
C'est du pareil au même.

Je ne parle pas de neurones, je parle de la structure de l'alimentation des traits.

----------------------------------------------------------------------

Oh, je me souviens, cela s'appelle un sac de mots.



Qu'est-ce qui est nouveau, inconnu, incompréhensible, compliqué ?


Le même tableau de signes + n'importe quel MO


Il s'agit de travailler avec des données non structurées (texte), puis de les traduire en une structure de sac de mots et ensuite tout ce que l'on veut.

Il s'agit d'un sujet différent. Quelle que soit la façon dont vous les transformez, la dimensionnalité du vecteur d'entrée doit être inférieure au seuil spécifié, sinon vous ne pourrez pas déterminer de modèle. Pour les données catégorielles, la limite de la longueur du vecteur est probablement plus importante. En outre, il faut tenir compte de la dépendance par rapport au nombre de lignes. Sur des données volumineuses, le nombre de caractéristiques peut être plus important.
 
Maxim Dmitrievsky #:
Il s'agit d'une question différente. Quelle que soit la façon dont vous les transformez, la dimensionnalité du vecteur d'entrée doit être inférieure au seuil spécifié, sinon vous ne pouvez pas détecter de modèle. Pour les données catégorielles, la limite de longueur du vecteur est probablement plus élevée. En outre, tenez compte de la dépendance du nombre de lignes. Sur des données volumineuses, le nombre de caractéristiques peut être plus important.
Quoi d'autre)))
Le monde entier le fait et tout le monde est content))