L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2496

 
Vladimir Baskakov #:
Quand l'application pratique commencera-t-elle ?

quand tu te bougeras le cul et que tu commenceras à postuler... au lieu de terroriser ce fil (pour la énième fois) avec des signaux d'échange... - mon métier n'est pas votre métier ....votre pratique n'est pas mon mal de tête ... - appliquer comme vous le voulez et comme bon vous semble...

 
JeeyCi #:

quand vous lèverez votre cul de votre chaise et commencerez à postuler... et non pas en terrorisant toute la branche (pour la énième fois) en me harcelant pour des signaux commerciaux... - mon métier n'est pas votre métier ....votre pratique n'est pas mon mal de tête ... - appliquer comme vous le voulez et comme bon vous semble...

L'agression non motivée ne suggère aucune mise en œuvre pratique, juste du blabla.
 
Vladimir Baskakov #:
... témoigne du fait que...

dit que tous vos précédents trolls et grossièretés s'avèrent être des Réactions et Conséquences de ne pas vous répondre -- vous n'apportez rien de constructif en retour.... et personne n'est obligé de générer des entrées sur le marché pour vous (simplement parce que vous ne savez rien faire d'autre que de prendre les insistants et les inadéquats)

 
JeeyCi #:

dit que tous vos précédents trolls et grossièretés s'avèrent être des Réactions et Conséquences de ne pas vous répondre -- vous n'apportez rien de constructif à la table en retour... Et personne n'est obligé de générer des entrées de marché pour vous (simplement parce que vous ne savez rien faire d'autre que pousser, mendier et être inadéquat).

Des exemples sont possibles ?
 
Vladimir Baskakov #:
Des exemples sont possibles ?

et tu ne peux pas prendre mon temps pour toi... vous êtes 0 sur la branche (voir les ~3000 pp précédentes)

 
JeeyCi #:

et il n'y a aucune chance que tu obtiennes mon temps pour toi... vous êtes 0 sur la branche

Je vois, pas d'exemples
 
Vladimir Baskakov #:
Quand l'application pratique commencera-t-elle ?
déjà commencé
Интеграция прогнозов нейросети в MetaTrader 5
Интеграция прогнозов нейросети в MetaTrader 5
  • www.mql5.com
⚠️  Файлы обновились 08.11.21, текущая версия 1.4        Что нового:        1. Качество прогноза по EURUSD поднялось до 63%, по BTCUSD
 
JeeyCi #:

d'ailleurs tensorflow.keras (comme Evgeny Dyuka) - alors

SKLearn semble plus intéressant - Interprétation des résultats de l'apprentissage automatique (la bibliothèque n' est peut-être pas très bonne, mais la logique d'évaluation est donnée).

p.s.

vous n'avez pas attaché...

Je suis d'accord pour dire que le classement des caractéristiques que nous transmettons au SN est intéressant, mais pas plus que cela. Qu'obtenons-nous comme résultat ? Si nous prenons comme axiome (ou postulat) l'affirmation selon laquelle le prix actuel contient tout, alors n'importe lequel des signes est important, quelle que soit sa place dans le classement, d'autant plus qu'ils ne sont pas nombreux et que je peux les classer sans SKLearn. Ou expliquez-moi si j'ai raté quelque chose. Seulement de manière plus simple et ensuite je me suis assis avec votre prochain message pendant 15 minutes, ce qui permettrait d'atteindre l'essence de ce qui est déclaré)))).
 
JeeyCi #:

à la logique ... que le NS est utilisé lorsqu'il est nécessaire de contourner l'absence de formule décrivant la dépendance d'un trait par rapport à un facteur... la pondération est utilisée... mais avant et après NS le traitement statistique standard/classique... par exemple, avec seulement PDF=F'(X)=dF(x)/dx (bien que nous n'ayons pas besoin de CDF, puisque toutes les conclusions de l'analyse de population sont faites par PDF) et avec des données volatiles - tout d'abord, j'ai besoin d'uniformiser les distributions pour pouvoir les analyser ensemble - et ici la pondération est utile (je n'aspire pas aux mathématiques ici)... mais l'analyse elle-même n'a rien à voir avec NS, pas plus que ses conclusions à ce sujet (ns)... bien que cette estimation puisse être grossière, la statique classique est également imparfaite (par exemple, l'utilisation des logarithmes des incréments introduit déjà par elle-même une tendance dans les conclusions - un défaut purement mathématique)... en effet, tout modèle a ses Hypothèses...

les acteurs du marché n'attendent PAS les prédictions mais évaluent le risque et la volatilité et prennent leurs décisions de trading (et de couverture) en fonction de cela... c'est juste qu'il y a 2 facteurs variables dans cette analyse - la volatilité et la fenêtre temporelle - et NS aide à uniformiser les échantillons (mais vous pouvez aussi utiliser GARCH) pour qu'ils puissent être analysés ensemble dans un seul modèle statistique et aide à déterminer l'horizon... Dans ces moments-là, quand il n'y a pas de formule mathématique, qui n'est pas nécessaire (tout change dans ce monde)... mais en pondérant, pondérant et pondérant encore (pour des raisons de compression à une certaine régression) - pour faire une analyse conjointe dans un seul modèle statistique, et de préférence sans bruit ou au moins avec sa minimisation...

Il convient de garder à l'esprit la logique d'inférence bayésienne pour les gaussiens ...

L'essentiel, je suppose, est de construire une architecture NS telle que, lorsque les couches neuronales passent sur le chemin de la sortie, la dispersion n'augmente pas... imho (pourquoi l'accumuler, si elle est disponible telle quelle, est une question rhétorique)... et puis la logique classique des statistiques... et même dans une histoire très profonde, il n'y a pas assez d'échantillons pour analyser qualitativement des moments robustes (tout arrive dans la vie)... Je suppose que dans le modèle de classification de Mihail Marchukajtes , les valeurs aberrantes peuvent aussi arriver... (nous devons réfléchir à la manière dont le séquenceur doit les traiter).

jusqu'à présent, mon avis est ... Je vais aussi regarder import scipy.stats as stats

p.s.

merci pour le lien

Je suis un peu confus par votre déclaration suivante " NS aide à uniformiser les échantillons". Comment ça ?

En outre, "l'essentiel est de construire une architecture du SN telle que la variance n'augmente pas lorsque les couches de neurones passent sur le chemin de la sortie ". J'ai une question, qu'entendez-vous par là, plus de détails et plus de concret. Je suppose qu'il y a un certain bon sens que je n'arrive pas à saisir. Au fait, si vous voulez éviter la prolifération des idées, prenons un compte personnel, je serais également heureux de partager et d'entendre vos points de vue. J'ai quelques réflexions sur le fait que ce n'est pas la NS qui ne nous donne pas un résultat fiable et que nous ne pouvons pas voir la forêt pour les arbres. Avez-vous des idées (et des expériences avec le code correspondant) pour contourner ce problème ?

 
eccocom #:
. Ou expliquez-moi si j'ai raté quelque chose. J'ai dû le simplifier, car il m'a fallu environ 15 minutes pour arriver au bout de votre message) )))

Jason Brownlee (auteur de Deep Learning With Python et de Statistical Methods for Machine Learning) -

- Les 3 erreurs commises par les débutants :

Les praticiens ne connaissent pas les statistiques
2. Les praticiens étudient les mauvaises statistiques
3. Les praticiens étudient les statistiques de la mauvaise façon

eccocom #:
alors tous les attributs sont importants, quelle que soit la place qu'ils occupent dans le classement, d'autant plus qu'ils ne sont pas si nombreux et que je peux les classer par ordre d'importance sans SKLearn.

Différents attributs deviennent importants dans différentes conditions... mais si vous êtes sûr de pouvoir les classer correctement dans l'élan, alors vous êtes IA (je ne sais pas quelle est la précision et quelle est l'erreur)...

que saisir - décidez par vous-même, testez vous-même, n'oubliez pas de vérifier vos hypothèses (le test t de Student est dans la classe de statistiques du module scipy) ... en général, le neuronki est un outil pratique pour surmonter les difficultés de travailler avec de grands échantillons en statistiques, mais il ne remplace pas la logique statistique, il l'implémente... y compris la compréhension que l'échantillon doit être représentatif, et non pas du plafond (y compris le nombre ! et la qualité [hétérogénéité] des échantillons)... quelque chose comme ceci