L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 637
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
:)))) Dans ce cas, il faut appeler le Sorcier à l'aide :))))
La seule chose que je peux dire, c'est que c'est la non-entropie qui est responsable de la tendance/de l'état plat. La tendance est la "mémoire" du processus, sa "queue" de distribution et la non-entropie est énorme, alors que dans l'état plat elle est presque nulle. Je ne m'en occupe que moi-même, mais je comprends l'importance de ce paramètre peu étudié.
Rien ne peut l'aider maintenant. Le passage de la tendance à la flotte, comme une cuillère au dîner, devrait être bon à temps.
La ligne rouge correspond à la réalité. Syn.-modèle. Dans cet exemple, il est tard. En bas de l'image, le modèle est en retard.
Mes frères, ce n'est qu'un petit pas pour nous, mais ce sera un grand pas pour toute l'humanité......
Misha, je l'ai cru ! Je le savais ! Beau gosse ! Vous êtes les meilleurs !))
Misha, j'ai cru ! Je le savais ! Beau gosse ! Tu es le meilleur !)))
Merci pour votre soutien mate !!!!! J'en ai vraiment besoin. Epelle-le correctement la prochaine fois que tu t'adresses à moi. HandsomeGGGG !!!! Ça semble beaucoup plus solide de cette façon.....
Continuons...
Il y a deux colonnes avec des valeurs, j'ai calculé la probabilité d'un événement dans la colonne A et la probabilité d'un autre événement dans la colonne B. La condition est très simple >0. J'ai compté le nombre d'événements supérieurs à zéro dans la colonne A et divisé par le nombre total de lignes, de même j'ai compté le nombre de valeurs dans la colonne B et divisé par le nombre total d'observations.
Ensuite, en utilisant mes valeurs, comment puis-je calculer la probabilité conditionnelle ???? Considérant que j'ai deux colonnes et que les deux ont 40 lignes ????
OK, je vais voir ça de l'autre côté. Supposons que je dispose d'un ensemble de 100 entrées. Je calcule l'entropie pour chaque entrée et j'obtiens des résultats de -10 à 10. Question : Quelles sont les entrées préférables à prendre ????
Disons que j'ai 10 entrées inférieures à zéro, les autres supérieures, MAIS toutes les valeurs sont comprises entre -10 et 10......
Et aussi... pas moyen de calculer l'information mutuelle.... Ou plutôt la probabilité conditionnelle, pour le calcul ultérieur de l'entropie et du VI.
Quelqu'un peut-il expliquer sur les doigts ou un meilleur exemple.
première colonne 40 lignes variable d'entrée
deuxième colonne 40 lignes sortie....
J'ai fait beaucoup de travail pendant la nuit pour identifier l'hypothèse. Je suis tombé sur ces trucs et pas moyen. S'il vous plaît, aidez-moi et je vous donnerai mon avis sur mon hypothèse...
Je n'ai pas étudié la théorie de l'information, mais j'ai une certaine expérience de l'entropie dans R.
Essentiellement, plus l'entropie est grande, plus les données sont désordonnées. Un prédicteur avec une entropie élevée est plutôt mal relié à la cible. Inversement, une faible entropie indique que le prédicteur est facilement identifiable du prédicteur.
La non-entropie est le contraire de l'entropie, elle n'apporte aucune nouvelle connaissance par rapport à l'entropie, elle est juste introduite par commodité. Si le prédicteur a une grande entropie, alors la non-entropie est faible. Si l'entropie est petite, alors la non-entropie est grande. C'est comme la chaleur et le froid, la lumière et l'obscurité, etc., l'un s'intègre parfaitement à l'autre.
Mais ce n'est pas tout, il y a aussi l'entropie croisée. Il s'agit de la façon dont les deux prédicteurs ensemble sont liés à la cible, une forte entropie croisée est mauvaise, une faible est bonne. Dans l'apprentissage automatique, il arrive souvent que deux prédicteurs à forte entropie, lorsqu'ils sont utilisés ensemble, donnent une faible entropie croisée, ce dont nous avons tous besoin. Même si chacun des prédicteurs peut être mal associé à la cible par lui-même (entropie élevée pour les deux), mais ensemble ils peuvent faire mouche (entropie croisée faible). On ne peut donc pas simplement mesurer l'entropie de chaque prédicteur séparément, et choisir un ensemble en fonction de l'estimation. Vous devez sélectionner l'ensemble des prédicteurs ayant une faible entropie croisée, je ne regarde pas, par exemple, quelle est leur entropie individuelle.
Voici quelques exemples -
1) Prédicteur à forte entropie. Il n'y a aucun moyen de prédire la classe cible.
2) Prédicteur à faible entropie. Si vous regardez bien, si la valeur du prédicteur est comprise entre 0 et 0,25 ou inférieure à 0,4, alors la valeur de la classe = 1. Sinon, la classe = 2. C'est un prédicteur très pratique à utiliser en MO.
3) Deux prédicteurs, chacun a une entropie élevée, et le modèle ne sera jamais capable de prédire la cible en utilisant seulement le premier ou seulement le second prédicteur. Mais en les dessinant ensemble (l'axe des X est la valeur du premier, et l'axe des Y la valeur du second), on voit immédiatement qu'ils donnent ensemble de très bonnes informations sur la classe de la cible (même signe pour les deux prédicteurs = classe1, signe différent = classe2). C'est un exemple de faible entropie croisée.
Merci pour votre soutien Fellow !!!!! J'en ai vraiment besoin. Epelle-le correctement la prochaine fois que tu t'adresses à moi. HandsomeGGGGG !!!! Cela semble tellement plus solide....
C'est pour ça qu'on vous aime, professeur ! Il est toujours là, il nous corrige toujours. Vous êtes notre cher homme ! !!))
"Les témoins de Mishanin". Février 2018.
Encore une fois, une question. Il existe huit modèles de SN. Au signal actuel, les entropies des sorties NS sont les suivantes
5,875787568 -5,702601649 5,066989592 9,377441857 7,41065367 1,401022575 4,579082852 5,119647925
Lequel dois-je choisir ? Le rouge ? parce qu'il a une entropie négative ou le bleu ? il est plus proche de zéro. Je dirai que ces deux modèles regardent dans des directions différentes, mais nous savons que le temps dira qui avait raison..... Au final, l'un d'entre eux gagnera. Qui y pense ?
Pour résumer ce que j'ai écrit ci-dessus, il faut d'abord déterminer l'entropie croisée des combinaisons de prédicteurs, et prendre la combinaison de prédicteurs où l'entropie croisée est la plus faible. C'est étrange que ce soit négatif, dans mon cas c'est juste l'infini à zéro, mais peu importe, prenez le plus négatif alors.
L'entropie de la sortie NS est, à mon avis, mauvaise comme estimation de la neuronique elle-même. Vous pouvez ajuster les sorties du réseau pour qu'il donne une réponse correcte dans 100% des cas, et il aura une faible entropie, mais il peut avoir un grand overfit. La suralimentation est mauvaise.
Le fait est que j'ai trouvé un module complémentaire pour Excel, qui calcule l'entropie. Je l'ai terminé de la façon dont je le souhaite, sans changer la logique du calcul et j'ai donc cette question. Expliquez ce qui se passe ici dans le calcul de ces cyclopes. Ce qu'ils font exactement, je le comprends, mais d'une autre manière..... HM....
Pour chaque valeur dans ActiveSheet.Range(Data1)
X(I) = Valeur
Nn = Nn + Valeur
I = I + 1
Valeur suivante
Dans cette boucle, le tableau X est écrit et il y a aussi une somme cumulée, comme s'il n'y avait pas de question, mais en plus.....
Pour I = 1 à N
X(I) = X(I) / Nn
Suivant I
Nous divisons chaque élément du tableau par la somme totale des valeurs, je soupçonne que c'est juste la recherche de fréquence. Droit ????
Ok... Je crois que j'ai compris, on doit additionner toutes les fréquences pour trouver la probabilité. N'est-ce pas ?
Pour résumer ce que j'ai écrit ci-dessus, il faut d'abord déterminer l'entropie croisée des combinaisons de prédicteurs, puis prendre la combinaison de prédicteurs ayant l'entropie croisée la plus faible. C'est étrange qu'il soit négatif, dans mon cas c'est juste l'infini à zéro, mais peu importe, prenez le plus négatif alors.
L'entropie de la sortie NS est, à mon avis, mauvaise comme estimation de la neuronique elle-même. Vous pouvez ajuster les sorties du réseau pour qu'il donne une réponse correcte dans 100% des cas, et il aura une faible entropie, mais il peut avoir un grand overfit. La suralimentation est mauvaise.
Pour trouver l'entropie croisée, vous devez d'abord trouver l'entropie conditionnelle de deux événements, ce que je fais maintenant.....
Et l'estimation de l'entropie du modèle est nécessaire lorsque le modèle est en OOS. Après avoir émis un signal, nous pouvons calculer l'entropie de ce signal et l'utiliser pour tirer des conclusions. L'entropie du signal a augmenté. Putain, c'est en panne - c'est notre locomotive à vapeur....