L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1956
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Au fait, qui a assisté au webinaire de l'ICP ? ???? ? Je vous ai envoyé un lien vers ce site plus tôt ?
C'est drôle, ils veulent développer un dispositif et un logiciel pour taper avec la pensée d'ici décembre. Dans l'ensemble, j'ai aimé ce dont ils ont parlé et c'était intéressant !!!!!. Qui était là ?
Je ne peux pas en être sûr, mais je soupçonne que le nombre analogique est immédiatement une valeur, et que le nombre numérique doit être converti en cette valeur.
Mais le processeur chauffe et j'ai peur que leurs analogues flottent avec le temps (donnent une erreur) et qu'il y ait beaucoup d'interférences en plus...
Les entrées analogiques peuvent réduire l'incertitude et le bruit à zéro.
Un exemple simple : les équipements audio haut de gamme ne sont que la technologie à tubes pour éviter l'échantillonnage et la perte de précision qui en découle.
Au fait, qui a assisté au webinaire de l'ICP ? ???? ? Je vous ai envoyé un lien vers ce site plus tôt ?
C'est drôle, ils veulent développer un dispositif et un logiciel pour taper avec la pensée d'ici décembre. Dans l'ensemble, j'ai aimé ce dont ils ont parlé et c'était intéressant !!!!!. Qui a été ???
Nous avons déjà inventé un moteur génial pour les bicyclettes électriques et vendu le brevet à l'étranger, mais personne n'en veut ici.
De plus, la dactylographie et la fabrication de puces sont du satanisme et vont à l'encontre de l'Église, on peut être brûlé pour cela.
Je voulais souligner que ce ne sont pas les données qui seront différentes, mais le résultat, mais maintenant je pensais, et si on ajoutait des informations sur les données environnantes aux échantillons qui n'ont pas été impliqués dans la construction du modèle ? Si nous utilisons simplement l'arbre comme exemple, alors avant la dernière division, nous examinons les statistiques pour d'autres prédicteurs, nous identifions ceux qui montrent une option de classification statistiquement positive et nous cherchons à nous assurer que dans l'échantillon global, ces prédicteurs ne sont pas corrélés avec le prédicteur de la dernière division, alors nous avons des informations supplémentaires sur les conditions du marché qui ne sont pas prises en compte lors de la sélection de la dernière division. Les arbres, en revanche, sont construits selon le principe de l'avidité et le dernier partage est certainement une compétition entre les prédicteurs.
Notre répartition ne sera pas seulement A>X, mais A>X1 && B>X2&& C>X3- c'est-à-dire que nous prendrons en compte les informations sur l'environnement.
Pour chaque fractionnement, et pas seulement le dernier, le meilleur fractionnement de tous les prédicteurs est choisi. La boucle passe en revue les prédicteurs, les subdivise de différentes manières et se rappelle à quel point les données sont devenues plus propres avec cette division. Puis ils prennent le meilleur.
Dans l'article, la phrase clé est la suivante : "La technologie "analogique" permet d'obtenir presque le même résultat lors de la multiplication de matrices vectorielles en supposant une précision moindre que lors de l'utilisation de données numériques 0 et 1. "
La précision fluctuera en fonction de la température ambiante de la toundra/du désert, de la chaleur de la puce elle-même après la mise sous tension, avec le temps les paramètres de certains éléments fluctuent également. De plus, le bruit change les valeurs, dans les champs il y en a peu, sous les lignes électriques certains, en ville d'autres, près des émetteurs radio d'autres, etc.
Pour des calculs approximatifs, +-20% peuvent convenir.
Quels sont les calculs analogiques dans l'article - qui en bénéficie ?
Ils additionnent et soustraient, puis vous pouvez les multiplier et les diviser, et c'est certainement plus rapide que de compter, car il s'agit d'une seule opération), puis vous numérisez. Je pense en termes de structure à des entrées analogiques, puis un additionneur ou un diviseur de signal analogique et à la fin un compteur dans une certaine cellule et il y a beaucoup de cellules et d'accès à celles-ci. Comme les dispositifs à couplage de charge, comme les matrices dans les caméras, les télémètres laser. Ils reçoivent un signal analogique d'une cellule photoélectrique, mesurent le signal, pour ainsi dire, et émettent un signal numérique.
Corrigé, à la fin de la cellule est ADC, au début est DAC. Le CCD a une sortie 0 ou 1 de la cellule. Il n'est donc pas tout à fait exact qu'ils mesurent quelque chose.
Chaque fractionnement, et pas seulement le dernier, sélectionne le meilleur fractionnement de tous les prédicteurs. Il suffit de passer en boucle les prédicteurs, en les subdivisant de différentes manières et en se rappelant à quel point les données sont devenues plus propres avec cette division. Puis ils prennent le meilleur.
C'est intéressant de voir à quel point il est difficile de trouver une idée :) Bien sûr, ce que vous avez écrit est connu de tous ici, ce n'est pas une nouvelle. Je parle exactement de garder les mesures des valeurs parallèles des prédicteurs sur le dernier split, mais pas tous, mais ceux dont les résultats sont proches de celui sélectionné, mais ils ne sont pas corrélés entre eux sur l'échantillon total. Dans ce cas, la décision ne sera pas prise dans la sous-région sur la base d'une seule répartition, mais sur la base des autres répartitions. Je fais quelque chose de similaire lorsque je regroupe les feuilles, mais les prétendants deviennent incontrôlables, alors qu'ici je suis censé le faire de force pour toutes les feuilles.
Sur l'article : la phrase clé est " La technologie "analogique" permet d'obtenir presque le même résultat lors de la multiplication de matrices vectorielles, en supposant une précision moindre que lors de l'utilisation de données numériques 0 et 1. "
La précision varie en fonction de la température ambiante de la toundra ou du désert, de la chaleur de la puce elle-même après la mise sous tension, et, avec le temps, les paramètres de certains éléments varient également. De plus, le bruit change les valeurs, dans les champs il y en a peu, sous les lignes électriques certains, en ville d'autres, près des émetteurs radio d'autres, etc.
Pour des calculs approximatifs, +-20% peuvent convenir.
La température peut être stabilisée, il est possible d'effectuer des corrections pour les résultats numériques intermédiaires en connaissant la dépendance à la variation de température, et à la sortie.
Quelque chose comme des transistors à tube, il semble, mais en très petit.
Une sorte d'action sur les ondes en substance ? Les données entrantes sont converties en un polynôme, puis le polynôme est converti en une onde et les ondes sont en quelque sorte "en collision/fusion" ?
Ce ne sont pas des calculs, mais des mesures directement sur la carte des signaux analogiques, ils s'additionnent et se soustraient, et ensuite vous pouvez multiplier et diviser, et c'est certainement plus rapide que de compter, parce que c'est une seule opération) et ensuite la numérisation. Je pense en termes de structure à des entrées analogiques, puis un additionneur ou un diviseur de signal analogique et à la fin un compteur dans une certaine cellule et il y a beaucoup de cellules et d'accès à celles-ci. Comme les dispositifs à couplage de charge, comme les matrices dans les caméras, les télémètres laser. Ils reçoivent un signal analogique d'une cellule photoélectrique, mesurent le signal, pour ainsi dire, et émettent un signal numérique.
Corrigé, à la fin de la cellule est ADC, au début est DAC. Le CCD a une sortie 0 ou 1 de la cellule. Il n'est donc pas tout à fait juste qu'ils mesurent quelque chose.
Plus tôt, j'ai posté ici un article sur les NS sous la forme de platine transparente avec des réfractions à l'intérieur - la lumière entre d'un côté, puis selon les lois de l'optique, elle se redistribue et ressort à un autre endroit - je pense qu'il devrait y avoir quelque chose de similaire ici, ce qui permettra vraiment d'augmenter la vitesse du traitement des données.
Mais comment faire des calculs analogiques, comment faire des exponentiations, ce n'est pas très clair avec l'ADC...
Mais c'est intéressant de voir à quel point il peut être difficile de faire passer une idée :) Bien sûr, ce que vous avez écrit n'est pas une nouvelle pour tout le monde ici. Je parle spécifiquement de garder les mesures des valeurs prédicteurs parallèles sur le dernier split, mais pas toutes, mais celles dont les résultats sont proches de celui sélectionné, mais qui ne sont pas corrélées entre elles dans l'échantillon global. Dans ce cas, la décision ne sera pas prise dans la sous-zone sur la base d'une seule répartition, mais sur la base des autres répartitions. Je fais quelque chose de similaire maintenant quand je regroupe les feuilles, mais avec moi les demandeurs deviennent incontrôlables, alors qu'ici il est censé être forcé sur toutes les feuilles.
C'est vrai. Il serait bon de décrire la séquence d'actions en une seule fois...
En repensant à votre description, je suppose la séquence suivante :
1. Calculer la corrélation de tous les prédicteurs sur le train
2. Construisez l'arbre
3. Sur le dernier fractionnement, rappelez-vous, par exemple, les 100 derniers meilleurs fractionnements. Stockez-en jusqu'à 100, pour avoir l'embarras du choix.
4. Parmi ces 100, choisissez-en 5 non corrélées avec le prédicteur de la meilleure répartition et non corrélées entre elles.
De plus, il n'est pas évident de savoir laquelle de ces 5 divisions différentes choisir ?
Si elle est aléatoire, elle est analogue à la forêt aléatoire, qui donne à chaque arbre des prédicteurs aléatoires et construit un arbre à partir de ceux-ci.
S'il s'agit d'une moyenne, il s'agit là encore d'un analogue de la forêt aléatoire, la forêt tirant alors la moyenne arithmétique des prédictions finales des prédictions de l'arbre aléatoire.
Plus tôt, j'ai parlé d'un système nerveux sous la forme de platine transparente avec des réfractions à l'intérieur - la lumière entre d'un côté, puis selon les lois de l'optique, elle est redistribuée et repart à un autre endroit - je pense qu'il devrait y avoir quelque chose de similaire ici, ce qui donnerait vraiment une grande vitesse de traitement des données.
Mais comment faire des calculs analogiques, de la conversion de degré là - ce n'est pas très clair avec un ADC...
Non, les opérations analogues sont la somme, la soustraction, la multiplication, la division et éventuellement des relations logarithmiques plus complexes, des relations de puissance. Et ce ne sont pas des calculs, mais des jauges analogiques dans chaque cellule. Et les DACs et ADCs sont une entrée-sortie, ils ne participent pas aux calculs, mais fournissent le numérique.
Dans l'architecture Neumann, les procédures et les données sont stockées en mémoire et il n'y a pas d'accès parallèle aux procédures et aux données ; l'accès aux données, puis aux procédures, et enfin aux données, d'où les limitations du traitement des données. Et ici, les procédures sont stockées dans chaque cellule par un petit dispositif et il y a accès à la procédure à la fois, avec l'accès aux données.