Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Soit dit en passant, les grammaires génératives ont été inventées par Chomsky précisément pour représenter les dépendances à longue portée dans les textes. Par exemple, si une phrase contient le mot "si", il est probable que le mot "que" apparaîtra tôt ou tard. Il a explicitement opposé cette approche à celle des chaînes de Markov primitives, où une séquence de lettres détermine simplement les probabilités de la lettre suivante(dans le commerce, on essaie parfois de faire de même en remplaçant les lettres par des bougies).
Selon moi, l'approche de Chomsky n'est pas un rejet du markovisme, mais plutôt une recherche du markovisme avec un espace plus complexe d'états dans un processus initialement non-markovien.
Eh bien, il convient de noter que l'approche de Chomsky ne traite que de la syntaxe, et non de la sémantique.
Une analogie très pertinente ! (sur le fragment surligné en jaune)
Dans une secte privée, ils ont vérifié toute la bibliothèque de modèles classiques par pur plaisir, avec le résultat périssable attendu - la courbe de rendement des marches aléatoires autour de zéro.
La présence d'effets de mémoire sur le marché est certainement supérieure aux chaînes simples et à l'autorégression simple.
Le fait est qu'il n'y aura probablement pas de "langage" ou de "bibliothèques" en tant que tels. Dans tous les cas, l'objectif est différent. Si je parviens à comprendre suffisamment la question de la structure, de l'émergence et de l'interaction des systèmes, il sera possible d'entamer le processus de leur genèse au moins dans un mode semi-automatique, où la participation humaine se limitera à des "influences-corrections" minimales qui fixent la direction générale du développement des objets logiciels. Probablement, alors il n'y aura plus besoin du bon vieux codage à l'ancienne où des générations de programmeurs "végètent" en perdant leur santé).
Il est déjà évident que la hiérarchie des conditions dans le système ne doit pas nécessairement être statique et peut être modifiée "à la volée". Il en va de même pour l'héritage et l'encapsulation des propriétés des objets, qui, dans la programmation classique, restent toujours inchangées après la compilation du code. Ainsi, l'émergence d'une bibliothèque ou d'un langage quelconque me semble une réalisation douteuse, compte tenu des tendances modernes.
Oui, il serait intéressant de combiner des modèles de taux de change équitables et des prévisions de CSP fondées sur des statistiques, mais même un tel modèle ne permettrait pas de faire face à une approche volontariste, comme la Turquie a stupéfié tout le monde à la fin de l'année.
J'ai plutôt en tête des modèles simples dans le cadre de la théorie des jeux qui peuvent au moins se rapprocher de la "physique" même du processus. Pour la composante purement spéculative, je considère que le modèle du "jeu minoritaire" est approprié. Mais elle est totalement erronée dans les moments de crise, lorsque l'État dépense d'énormes ressources uniquement pour faire fonctionner le marché. En période plus calme, l'influence de l'État n'est pas négligeable non plus, mais d'un autre type.
Le PPM est administré par la Banque centrale et le ministère des Finances, et il y a ensuite le ministère de l'Économie, le ministère de la Justice, le ministère de l'Intérieur, le ministère de la Défense, etc.) Probablement, nous pouvons dire (comme base pour le modèle simple que nous recherchons) qu'en temps de panique, l'État donne de l'argent au marché, et en temps calme, il le reprend sous forme de taxes. Mais c'est souvent l'État lui-même qui crée la panique).
Je pense plutôt à des modèles simples de théorie des jeux qui peuvent au moins se rapprocher de la "physique" même du processus. Pour la composante purement spéculative, je considère que le modèle du " jeu minoritaire " est approprié. Mais elle est totalement erronée dans les moments de crise, lorsque l'État dépense d'énormes ressources uniquement pour faire fonctionner le marché. En période plus calme, l'influence de l'État n'est pas négligeable non plus, mais d'un autre type.
Le PPM est administré par la Banque centrale et le ministère des Finances, et il y a ensuite le ministère de l'Économie, le ministère de la Justice, le ministère de l'Intérieur, le ministère de la Défense, etc.) Probablement, nous pouvons dire (comme base pour le modèle simple que nous recherchons) qu'en temps de panique, l'État donne de l'argent au marché, et en temps calme, il le reprend sous forme de taxes. Mais souvent, c'est l'État lui-même qui crée la panique).
Oui, il y a certainement une ou deux dissertations à défendre dans le processus. 😉
Oui, il y a certainement une ou deux dissertations à défendre dans le processus. 😉
On dit que soutenir une thèse est une opération très spécifique, qui n'intéresse pas tout le monde et qui n'a pas grand-chose à voir avec la science). J'aimerais simplement en savoir plus sur quelque chose de nouveau et d'intéressant avant de sombrer, pour ainsi dire, dans le grand sommeil).
Partie 4.1
Après avoir commencé à démonterle modèle événementiel(ME), nous allons avancer quelques thèses pour aller de l'avant :
Au sens figuré, le Modèle d'événement est une"régulation des relations" ou une"politique d'interaction" de l'Objet avec l'Environnement externe à travers laquelle il met en œuvre le programme d'interaction et sa propre exécution.
Essayons ensuite de comprendre le mécanisme de "synthèse" du modèle d'événement et du processus qui le conduit.
À ce stade, j'approche de la limite de ma compréhension et il me faudra un certain temps pour passer à l'étape suivante. Dans l'original, le concept est beaucoup plus large, mais par souci de concision, j'ai résumé les plus importants pour tenter d'en saisir l'essence. J'espère l'avoir fait.
Puis un brouillard recouvre le concept, où dans de vagues contours certains processus de classification globale ordonnant les entités en catégories, à partir du contenu desquelles de nouveaux Objets sont construits... Quelque chose comme ça. Je vais m'assurer d'aller au fond des choses, mais en attendant, je dois faire une pause.
L'objectif est de simuler les"milieux des systèmes" et les"systèmes dans les milieux". Imaginez qu'il existe un ensemble chaotique de divers paramètres ("proto-environnement") qui sont assemblés de manière aléatoire ou délibérée en complexes - les objets. Ensuite, les premiers proto-blocs "dérivent" d'eux et les objets statiques (après la construction de leurs modèles événementiels et logiques) se transforment en systèmes fonctionnels, formant l'environnement du système. C'est-à-dire que le proto-environnement primaire n'existe plus - il renaît, ce qui signifie que de nouveaux Objets se formeront dans d'autres conditions que les premières, et en entrant dans l'Environnement, ils continueront à le modifier. Le milieu deviendra plus complexe parce que les Objets qui le remplissent seront plus complexes, parce que, à son tour, le milieu dans lequel ils sont "nés" était plus complexe que le proto-milieu primaire. Il s'agit d'une évolution particulière du programme Objects.
Il reste à comprendre comment les utilisateurs sont nécessaires ici).
On ne sait pas encore à quoi cela pourrait servir.
L'objectif est d'exécuter une autosynthèse de programmes basée sur un modèle d'objet commun.