L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3388
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Pourquoi un grand nombre de signes sont-ils néfastes ? Graphique intéressant tiré d'un livre sur le kozulu.
Probabilité de trouver le même exemple dans l'échantillon d'apprentissage, en fonction du nombre de caractéristiques.
Ce n'est pas clair. Probabilité de trouver le même exemple que dans l'échantillon de formation ?
Rien n'est clair. Probabilité de trouver où se trouve le même exemple que dans l'échantillon de formation ?
la même ligne dans l'ensemble de données
si vous n'avez que 1 000 lignes
En gros, si vous avez plus de 18 caractéristiques, vous entraînez un classificateur à se souvenir de chaque ligne parce qu'elles ne se répètent même pas.
et dans l'inférence causale, vous ne pouvez pas faire correspondre des exemples pour calculer des statistiques.1. Comment obtient-on cette matrice ? Quels sont les nombres qui y figurent ?
2. Je parle de règles. Dans mon approche, je ne me soucie pas de savoir comment et à partir de quoi la règle est dérivée, mais si la réponse est similaire à une autre dans l'échantillon d'apprentissage, elle ne contient pas d'informations supplémentaires.
Pourquoi un grand nombre de signes sont-ils néfastes ? Graphique intéressant tiré d'un livre sur le kozulu.
Probabilité de trouver le même exemple dans l'échantillon d'apprentissage, en fonction du nombre de caractéristiques.
Si vous avez plus de 14 (et même 10) caractéristiques, vous obtenez un grand nombre de règles que vous ne pouvez pas réduire sans perte.
Tout cela est du domaine de l'occasionnel...
Ils utilisent des algorithmes de compression efficaces à l'intérieur des neurones, comme sec2sec, ce qui est également vrai.
Il utilise des algorithmes de compression efficaces à l'intérieur des neurones, comme sec2sec, ce qui le rend également équitable.
S'il s'agit d'un texte, on utilise dans 95 % des cas le compteur de mots habituel : combien de fois un mot est-il apparu dans cette observation ? 0, 1, 103..
.
Il s'agit d'architectures différentes, de gâteaux en couches. Il est difficile de les comparer. Nous parlons de classification ou de régression normale. Dans ce cas, on dirait une loi universelle.
Il s'agit d'autres architectures, de gâteaux en couches. Il est difficile de comparer. Nous parlons de classification ou de régression ordinaire. Dans ce cas, on dirait une loi universelle.
----------------------------------------------------------------------
Oh, je me souviens, cela s'appelle un sac de mots.
Qu'est-ce qui est nouveau, inconnu, incompréhensible, compliqué ?
Le même tableau de signes + n'importe quel MO
Il s'agit de travailler avec des données non structurées (texte), puis de les traduire en une structure de sac de mots et ensuite tout ce que l'on veut.
C'est du pareil au même.
----------------------------------------------------------------------
Oh, je me souviens, cela s'appelle un sac de mots.
Qu'est-ce qui est nouveau, inconnu, incompréhensible, compliqué ?
Le même tableau de signes + n'importe quel MO
Il s'agit de travailler avec des données non structurées (texte), puis de les traduire en une structure de sac de mots et ensuite tout ce que l'on veut.
Il s'agit d'une question différente. Quelle que soit la façon dont vous les transformez, la dimensionnalité du vecteur d'entrée doit être inférieure au seuil spécifié, sinon vous ne pouvez pas détecter de modèle. Pour les données catégorielles, la limite de longueur du vecteur est probablement plus élevée. En outre, tenez compte de la dépendance du nombre de lignes. Sur des données volumineuses, le nombre de caractéristiques peut être plus important.