L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1510

 
Mihail Marchukajtes:

Wow, quel groupe de personnes. Êtes-vous le Trickster dont je parle ? Remarquez que je l'ai mis en majuscule :-)

Parce que tu dis la vérité, qu'est-ce qui te prend ? Bien joué, assis, cinq. Je peux ajouter que lors de la division de l'espace des points décrits par les valeurs d'entrée données, dans notre cas, il s'agit d'un espace multidimensionnel, l'essentiel est de diviser l'espace de sorte qu'ils tombent dans le groupe Oui ou Non, et il est important que les valeurs FUTURES des vecteurs d'entrée les mêmes dispersés correctement sur les deux parties des barricades. Les nôtres et ceux de l'ennemi. Mais pour que le réseau fonctionne à l'avenir, il est nécessaire non seulement de diviser les actuels, mais de le diviser de telle sorte que les coefficients polynomiaux puissent fonctionner d'eux-mêmes sans données d'entrée. Ce n'est que dans ce cas que la maille fonctionnera. Long rack mes cerveaux pour calculer le niveau de généralisation du polynôme résultant, mais puisque le résultat de la généralisation se trouve également dans l'avenir et de calculer de manière fiable il n'est pas possible que de supposer, donc toutes les méthodes de détermination de la généralisation sont indirects. Autre solution : lors de l'obtention des coefficients du polynôme, faire une optimisation à rebours.......xm.... il faut essayer...

 

J'ajouterai qu'un réseau neuronal devrait clairement "comprendre" et deviner qu'il s'agit d'un seul et même schéma. Il est possible d'exprimer le "sens" de l'évacuation de dizaines d'autres façons, une personne qui s'y connaît en règles de circulation et en organisation du trafic déterminera facilement qu'il s'agit essentiellement du même schéma.L'élément principal de ce modèle particulier est "l'évacuation" - comment l'évacuateur et la voiture évacuée sont marqués schématiquement, quelle est la couleur et la taille est une dixième chose. Il en va de même sur les marchés, les mêmes modèles ayant la même signification peuvent être visuellement très différents (en raison des distorsions causées par la fractalitédes graphiques du marché) et vice versa, les mêmes gribouillis de graphique à première vue - pour être des modèles / tablettes "significatifs et différents". C'est juste la façon dont les vagues de différentes dimensions sont formées à un moment donné. Les hiboux ne sont pas ce qu'ils semblent être (c) Twin Peaks :)

Un réseau neuronal doit comprendre le "sens", sans lequel il n'y a pas de solution - il peut mal identifier les modèles, se tromper, ne pas fonctionner aussi clairement que le cerveau, mais il doit saisir au moins un certain sens - c'est plus important que la reconnaissance claire des "images".

Vous pouvez imaginer des signes très similaires, comme sur la photo, les neuro-réseaux ordinaires sont susceptibles de les confondre avec celui-ci, mais en termes de logique MA ils auront une signification complètement différente. Vous pouvez même imaginer et dessiner vous-même pour entraîner votre propre neuro-réseau naturel - je suis trop paresseux :)


 
Wizard2018:

Même s'il définit mal les modèles, fait des erreurs, ne fonctionne pas clairement comme un cerveau, mais il doit saisir le sens au moins un peu, c'est plus important que la reconnaissance claire des "images".

Vous savez à quoi ressemble une voiture, n'est-ce pas ? Vous souvenez-vous de vos dessins d'enfant ? .... et imaginez que vous n'avez jamais vu d'autres moyens de transport que les chevaux, et voici un signe aussi stupide - un "carré avec des trous" noir )))).

Avez-vous confiance dans la force de votre intellect pour comprendre la signification d'un tel signe ?



 
Mihail Marchukajtes:

Wow, quel groupe de personnes. Êtes-vous le Trickster dont je parle ? Remarquez que je l'ai mis en majuscule :-)

Cet homme (est-ce un homme ?) est l'avers du Graal, et Vizard_ est son revers. Le Graal lui-même ne peut pas être vu par les gens, ce n'est pas permis.

Eh, c'est dommage qu'il n'y ait plus de fils Aleshy dans cette branche, tué par des méchants investisseurs..... C'était le bon temps, la vie était bouillante ici. Et maintenant... Ugh !

 
Alexander_K:

Cet homme (est-ce un homme ?) est l'avers du Graal, et Vizard_ est son revers. Le Graal lui-même ne peut être vu par les gens, ce n'est pas permis.

Eh, c'est dommage qu'il n'y ait plus de fils Aleshy dans cette branche, tué par des méchants investisseurs..... C'était le bon temps, la vie était bouillante ici. Et maintenant... Ugh !

Je me suis juste fait une idée. Pas de recherche. Optimisation monotone et ennuyeuse, temps après temps, sans recherche ni aventure.

 
Igor Makanu:


"Reprenez cette chose" :))

 
Maxim Dmitrievsky:

"Reprenez cette chose" :))

droite ;))

Eh bien, un peu plus de réflexion - les gens ont tendance à être piégés (dans une illusion ? en général, dans des distorsions cognitives - c'est ainsi qu'on appelle les délires de nos jours).

c'est la même chose avec MO et toutes les discussions sur la technologie informatique ou les robots - c'est des conneries, les humains sont bien plus cool !



Prenons des exemples simples :

1. Newton a été frappé par une pomme (ce qui n'était pas le cas) et a inventé ses ingénieuses formules ! - quel échantillon de personnes faut-il prendre pour qu'en les frappant sur le crâne avec des pommes, on obtienne le même résultat ? ou peut-être est-il plus facile d'exécuter un tel problème sur un PC et de le laisser tourner toutes les données possibles et il trouvera quand même la solution de ce problème ?

2. Prenez l'équipe de développement de l'aviation, elle a de l'expérience et de bons logiciels, alors pourquoi, après avoir développé un nouveau fuselage, le tester dans une soufflerie ? - Ce sont des gens géniaux et même le PC les aide ?


Pourquoi est-ce que j'éc écris ça ? - le fait est que 99% des inventions sont des accidents et que l'appareil mathématique lui-même, avec toute sa complexité, ne peut pas décrire des choses élémentaires (comment souffle le vent !).

et penser qu'un être humain est une couronne de création et que les programmes informatiques sont des "maths débiles", je pense que c'est une autre illusion - un être humain se fait un génie par des actions aléatoires (physiques ou mentales), le MO est engagé dans la même démarche - chercher la solution d'un problème en effectuant des actions aléatoires.

ЗЫ : l'avantage d'un être humain sur une machine est uniquement la présence d'une pensée associative, bien qu'ici il soit possible de discuter de l'importance de cet avantage ? - Parfois, l'expérience antérieure de l'homme entrave plus qu'elle n'aide la résolution d'un nouveau problème, alors que la mémoire associative suggérera de rechercher une solution basée sur son expérience antérieure positive ((()

 
Igor Makanu:

Au début, ils lançaient des pommes, puis ils ont réalisé que c'était Monte Carlo:))

 
Maxim Dmitrievsky:

Au début, ils pensaient que les pommes rebondissaient, mais ensuite ils ont réalisé que c'était Monte Carlo :))

Monte Carlo est bon parce qu'il n'a pas de règles précises pour les conditions initiales, mais a une assez bonne erreur statistique dans l'estimation des résultats.

Je veux faire un mélange de Q-learning + Monte Carlo, mais pas dans le testeur, mais en mode visualisation, comme ils apprennent à NS à jouer à Angry Birds

 
Igor Makanu:

Monte Carlo est bon parce qu'il n'a pas de règles claires pour les conditions initiales, mais il a une assez bonne erreur statistique dans l'estimation des résultats.

Je ne sais pas comment, je voudrais faire un mélange de Q-learning + Monte Carlo, mais pas dans le testeur, mais en mode visualisation, comme ils enseignent NS jeu Angry Birds

https://medium.com/datadriveninvestor/teaching-a-robot-to-buy-low-sell-high-c8d4f061b93d

Sur des données artificielles, cela fonctionne comme dans l'article, je l'ai exécuté. Mais alors tout revient à la non-stationnarité :)

peut-être que si on utilise une série stationnaire différenciée de mon article, ça pourrait être quelque chose d'intéressant.

Et oui, pour autant que le cunneling fonctionne avec le MDP, ils essaient maintenant d'insérer des couches LSTM pour que le modèle ait plus de mémoire. Comme dans l'article de l'auteur de ce fil sur Habra.

Teaching a Robot to ‘Buy Low, Sell High’ - Data Driven Investor - Medium
Teaching a Robot to ‘Buy Low, Sell High’ - Data Driven Investor - Medium
  • G. Lemus
  • medium.com
“If we can put a man on the moon, we must be able to X”. (informal fallacies or false analogies) But now it uses Alpha Go or Watson examples: If “AlphaGo Zero: Google DeepMind supercomputer [can learn] 3,000 years of human knowledge in 40 days” [link] In AI in Finance: Cutting Through the Hype I explained several examples of the application of...