L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 633

 
Maxim Dmitrievsky:

d'un homme intelligent.

Il dit des bêtises non scientifiques. Il parle de la mémoire de l'eau, puis il ricane devant un microscope électronique, montrant des résultats très éloignés des résultats modernes. Je n'ai pas regardé plus loin, j'ai peur qu'il commence à parler de la terre plate :)

 
Dr. Trader:

Il dit des bêtises non-scientifiques. Il mentionne la mémoire de l'eau, puis se moque du microscope électronique en montrant des résultats très éloignés des résultats modernes.

Qu'y a-t-il de différent dans les modèles modernes ? Utilisent-ils des électrons différents ?

l'eau était ironique au cas où vous ne l'auriez pas compris.

 

Il montre une image floue au niveau moléculaire. Et voici une vidéo d'il y a 5 ans, par exemple, où ils en sont déjà au point de reconnaître les atomes (pas les molécules) et de créer un modèle 3D avec leur emplacement.https://www.youtube.com/watch?v=yqLlgIaz1L0

On ne sait pas exactement quelles ondes magnétiques il veut voir sur le CD, où les bits sont représentés par des creux physiques dans le plastique. Et pourquoi, sur sa photo de CD sous un microscope, on peut voir des fragments d'information marcher dans un petit cercle, alors qu'à cette échelle, ils s'inscrivent visuellement dans une ligne droite ? Quel spectacle avec de faux faits et des photos prises sur Internet.

Maxim Dmitrievsky:

Le truc de l'eau était ironique, au cas où tu ne l'aurais pas compris.

Il y a de l'ironie partout. Que voulait-il dire exactement par l'expérience de l'eau ? Il l'a dit et oublié, il n'a pas donné de conclusions. Sérieusement ou non, ce n'est pas clair. Il ironise également sur les molécules, il semble vouloir dire qu'elles n'existent pas et que lui seul sait ce qui existe vraiment.

Les 20 premières minutes de la vidéo suffisent à mettre en doute ses arguments et sa crédibilité.

 
Dr. Trader:

Il montre une image floue au niveau moléculaire. Mais voici une vidéo d'il y a 5 ans, par exemple, où ils sont déjà arrivés au point de reconnaître les atomes (pas les molécules) et de créer un modèle 3D avec leur emplacement.

On ne sait pas exactement quelles ondes magnétiques il veut voir sur un CD, où les bits sont représentés par des creux physiques dans le plastique. Et pourquoi sur sa photo du CD sous un microscope, on peut voir des fragments d'information marcher dans un petit cercle, alors qu'à cette échelle, ils s'inscrivent visuellement dans une ligne droite ? Quel spectacle avec de faux faits et des photos prises sur Internet.

Il a de l'ironie partout. Que voulait-il dire exactement par son expérience de l'eau ? Il l'a dit et oublié, il n'a pas donné de conclusions. Sérieusement ou non, ce n'est pas clair. Il est également ironique à propos des molécules, il semble qu'il veuille dire qu'elles n'existent pas et que lui seul sait ce qui existe dans la réalité.

Les 20 premières minutes de la vidéo suffisent à mettre en doute ses arguments et sa crédibilité.

La vidéo parle du hasard ; elle parle de tout et de rien, mais en fait, elle parle du fait que quelque chose que nous ne pouvons pas encore calculer est aléatoire. Il montre un réseau atomique et non au niveau moléculaire. Je n'ai pas porté beaucoup d'attention au disque.

Il a une autre vidéo dans laquelle il explique que la lumière est une particule et non une onde (exemple de l'interférence) et que les ondes (et un champ) ont été inventées parce que nous ne pouvons pas calculer toutes les options.

Au fait, les rails sont en lignes droites, l'image est juste filmée en biais.


 

OK, je vais voir ça de l'autre côté. Supposons que je dispose d'un ensemble de 100 entrées. Je calcule l'entropie pour chaque entrée et j'obtiens des résultats de -10 à 10. Question : Quelles sont les entrées préférables à prendre ????

Disons que j'ai 10 entrées inférieures à zéro, les autres supérieures, MAIS toutes les valeurs sont comprises entre -10 et 10......

 

Et aussi... je ne peux pas calculer l'information mutuelle.... Ou plutôt la probabilité conditionnelle, pour le calcul ultérieur de l'entropie et du VI.

Quelqu'un peut-il expliquer sur les doigts ou un meilleur exemple.

première colonne 40 lignes variable d'entrée

deuxième colonne 40 lignes sortie....

J'ai fait beaucoup de travail pendant la nuit pour identifier l'hypothèse. Je suis tombé sur ces trucs et pas moyen. S'il vous plaît, aidez-moi et je vous donnerai mon avis sur mon hypothèse...

 
Mihail Marchukajtes:

Et aussi... Je ne trouve pas de moyen de calculer l'information mutuelle..... Ou plutôt la probabilité relative, pour le calcul ultérieur de l'entropie et du VI.

Quelqu'un peut-il expliquer sur les doigts ou un meilleur exemple.

première colonne 40 lignes variable d'entrée

deuxième colonne 40 lignes sortie....

J'ai fait beaucoup de travail pendant la nuit pour identifier l'hypothèse. Je suis tombé sur ces trucs et pas moyen. S'il vous plaît, aidez-nous et je vous donnerai mon avis sur mon hypothèse...

Avez-vous bu la nuit ?

 
Maxim Dmitrievsky:

Avez-vous bu la nuit ?

Non... pas drunk..... pourquoi ?

Je n'arrivais pas à dormir, et c'est généralement la seule chose qui me vient à l'esprit dans ces moments-là. Ce n'est pas la peine de perdre du temps quand on a beaucoup de travail à faire...

 

Il semble que l'entropie et l'information mutuelle n'aient pas grand-chose à voir avec l'économétrie.

corrélation, covariance, variance sont généralement utilisés :) pas de cette façon

L'entropie croisée est un concept utilisé en NS pour la formation... mais pourquoi en avez-vous besoin ?

 
Maxim Dmitrievsky:

Il semble que l'entropie et l'information mutuelle n'aient pas grand-chose à voir avec l'économétrie.

corrélation, covariance, variance sont généralement utilisés :) pas de cette façon

L'entropie croisée est un concept utilisé en Nouvelle-Zélande dans le cadre de l'entraînement... mais pourquoi en avez-vous besoin ?

Eh bien, tout d'abord. Avec VI, je prévois de réduire le nombre d'entrées pour réduire le temps d'apprentissage.

Je n'ai choisi que les entrées qui ont une entropie négative et qui sont proches de zéro. L'apprentissage avec une constance enviable a commencé à aboutir aux mêmes paramètres de modèle.

Obtenir un modèle est la moitié de la bataille, l'autre moitié de cette affaire pas simple est de choisir exactement celui qui fonctionnera à l'avenir. Pour ce faire, j'enregistre les données du réseau non pas sous forme de trenar, mais sous forme de dowble et je regarde l'entropie du réseau et comment elle évolue dans le temps, d'ailleurs voici un tableau de l'évolution de l'entropie dans le temps pour les sorties polynomiales binaires.....

1 7.481151166 5.100318157 4.593448434 8.798740335 10.34478836 4.480187448 4.462974562 4.864834535

2 7,675977242 5,395113191 4,647719201 9,658965819 -17,34873011 4,511112896 4,529873469 4,925396515

3 7.512766799 5.414556649 4.644887426 8.929776132 -976.6274612 4.644286062 4.386822711 5.050380326

4 8.045096956 5.079259638 4.671147058 9.875423555 9.171932774 4.623802531 3.917309752 4.941859173

5 8.045378868 5.007650592 4.290382249 9.433280634 10.64451391 4.647512921 3.790881638 4.990994671

6 7.814542877 3.644626791 4.344130499 8.980821417 10.5023546 4.637264293 3.831404183 5.032854966

7 -26.55886859 3.781908903 4.516251137 8.797781513 10.54684501 4.883377949 3.86512079 4.659267439

8 -161.3020423 3.718875753 4.564760685 9.184890078 9.157325707 5.074360669 3.785251605 4.364874679

9 1.909633919 3.825969935 4.579305659 8.739113103 8.280835877 5.009919646 4.242339336 4.39432571

10 6,213306097 -10,87341467 5,067862079 10,18574585 8,07128492 1,73846346 4,299916662 4,567998062

11 6.171390883 1.962160448 5.081660438 8.650951109 7.510213446 1.596086413 4.313971802 4.55943716

12 6.120246115 3.948723109 4.801258198 8.235748448 7.127388358 1.698956287 4.082715891 4.781776645

13 6,138878328 -3,010948518 4,804114984 8,523101895 7,177670414 1,698630529 4,082338047 4,82267867

14 6,212129971 -3,922803979 4,757739216 9,25848968 7,66609198 1,698756132 4,125811197 4,874060339

15 6,090848662 -7,954277387 4,76183886 10,81234021 7,701949544 1,540056412 4,062605741 4,915433819

16 5,99824787 -59,32132062 4,806934783 9,083600192 7,697975097 1,5404069 4,097070448 4,978901083

17 5,83493287 4,565768504 4,899180184 -28,38726036 7,830286358 1,543100257 4,25790422 5,043798266

18 5,758509171 -3,4626244 4,895859118 -1237,359668 8,484082841 1,706466252 4,177809837 5,037940939

19 5,744674247 -12,48734205 4,961865536 1,569990079 8,915892511 1,682437372 4,336780002 5,057555915

20 5,738253623 -10,20442198 4,98732747 9,795996355 8,842880831 1,539687763 4,344159624 5,106441146

21 5,731628697 -1,706645474 5,005196184 10,75926151 8,059670516 1,432952506 4,391768977 4,729395732

22 5,874802768 -0,43939394479 4,970298578 10,33058781 7,832786294 1,431618527 4,568893332 4,715744749

23 5,953727915 -3,949602879 5,017109405 9,668521648 7,941416688 1,425216096 4,646327857 4,745979757

De façon surprenante, à un moment donné, lorsqu'on ajoute une valeur, l'entropie devient brusquement négative. A quoi cela peut-il être dû ? ? ???

Si nous supposons que la valeur positive est une mesure de l'incertitude, et la valeur négative une mesure de l'ordre, alors nous sélectionnons les lectures du réseau avec une valeur d'entropie minimale, cependant je crois qu'un indicateur trop élevé dans la zone négative n'est pas bon non plus. C'est pourquoi il existe deux variantes, soit pour choisir le réseau avec la plus petite entropie, soit celui dont l'entropie est la plus proche de zéro.....

Lorsque le calcul des VI sera organisé, il sera alors possible de voir combien de VI se trouvent dans la sortie d'un réseau par rapport à l'entrée. Je pense que cette approche permettra de mettre beaucoup de points sur les "i" et beaucoup de barres sur les "t".

Il est facile de se procurer de nombreux modèles, mais choisir le bon est une autre affaire et pas du tout facile.

J'attends des commentaires sur cet article, et surtout une explication sur les raisons de cette situation. Théories de l'hypothèse, etc. Je vous en serais reconnaissant. Merci !!!!