Une cachette folle d'agents de test - page 3

 
Renat Fatkhullin:
J'ai oublié de vous dire un secret : les gens trouveront des centaines de raisons pour ne pas utiliser un service payant, même s'il coûte un dollar.

C'est l'explication sous-jacente de la difficulté de la vente. Mais au lieu de cela, les gens avancent des raisons soi-disant rationnelles :)

Alors s'ils ne l'essaient pas, comment peuvent-ils l'aimer ? Pourquoi ne pas donner aux gens la possibilité d'utiliser le réseau gratuitement une fois par mois pendant une heure ?

 
Renat Fatkhullin:

Et vous vous regardez vous-mêmes au lieu de fonctionner avec des déclarations de forum.

Vous avez peut-être raison.

Espérons que les sérieux freins du côté de MQ-Demo seront bientôt définitivement résolus.

 
fxsaber:

Vous avez peut-être raison.

Espérons que les sérieux freins du côté de MQ-Demo seront bientôt résolus.

Essayez la nouvelle version du vendredi de MT5 1545 - quelque chose a été amélioré.

Notez également que nous avons plus de 230 000 comptes constamment actifs sur MetaQuotes-Demo MT5 et qu'il y a une véritable bacchanale du trading.
 
Renat Fatkhullin:

Devoir lire plusieurs gigaoctets de données sur un disque est une "organisation dégoûtante" ? Même la lecture de 1 Go de données sur un disque dur à une vitesse moyenne de 200 Mbps prend 5 secondes. Et s'il y a 4-32 agents dans la nature ?

Vous ne pensez qu'à l'aspect technique de la tâche. Rien n'est gratuit et personne ne multiplie les exigences techniques par zéro.

La solution technique et le niveau d'optimisation de l'agent sont étonnants - nous y avons consacré beaucoup de travail et avons gratté des millisecondes dans tous les processus. N'oubliez pas les volumes de données, mettez plus de RAM, mettez des ssd plus gros, mettez des disques frame et tout sera accéléré.

Les prix de tout cela sont déjà raisonnables, mais la classe et le volume à résoudre exigent une approche sérieuse.

J'ai 64 Go de RAM dans mon système. Et le testeur pour 32 agents utilise un maximum de 40 Go et réinitialise ensuite les données sur le disque d'environ 1,1 à 2 Go, oui je suis d'accord - tout cela ne pourrait pas tenir dans la RAM. Mais si je désactive la moitié des agents, les agents restants se comportent exactement de la même manière, même s'il reste une tonne d'espace RAM.

Cher Admin :

1)Pensez-vous vraiment qu'une telle charge sur le disque (des centaines de gigaoctets de réécritures par jour) est normale ? Combien de temps pensez-vous qu'un SSD normal durera dans ce mode ?

2) Pensez-vous vraiment que l'absence de tout ajustement de l'utilisation des ressources dans le testeur est correcte ?

Encore une fois, j'ai résolu mon problème en utilisant les mêmes méthodes que celles que vous suggérez. Mais il m'a fallu assez longtemps et ne pas dire que cette solution fonctionne toujours correctement (par exemple, quand il ya plusieurs copies du testeur dans le système sur différents disques - conduit parfois à la suppression spontanée des agents, j'ai écrit sur ce sujet en vain au service-desk. Là encore, j'ai résolu le problème moi-même). Et tous les utilisateurs ne seront pas en mesure de le faire.

Renat Fatkhullin:

Le topikstarter a lancé le fil de discussion en mode "combien de temps ?" et a fait des déclarations non fondées. S'il avait fourni des données correctement collectées, 50 % des questions seraient tombées au moment de la collecte des données.

Quelle preuve vous faut-il ? Ne savez-vous pas combien de RAM un agent peut utiliser, combien de cache sur le disque, combien de données peuvent être écrasées par jour ? Multipliez et obtenez le résultat.

En général, pourquoi me prouver quelque chose, je vous accuse de quelque chose ? L'idée du thème est qu'il y a un problème, comment le résoudre ? Vous, comme dans un service d'assistance, vous commencez à dire les choses évidentes pour une raison quelconque et vous louez l'optimisation du testeur. Alors que tout programmeur sain d'esprit sait qu'aucun programme n'est parfait.
 
À propos du nuage. L'idée est géniale. Et voici à quoi cela ressemble dans la réalité :



32 cents/jour est une bonne journée pour mes agents)) Et le nuage utilise 2 systèmes de 32 agents chacun et 2 de 8 agents. Un total de 80 agents pratiquement 24 heures sur 24. Le record par jour était d'environ 2,00 $, souvent sans aucun profit. La barre rouge représente le coût par 5 minutes de test dans le nuage, soit environ 40 000 exécutions sur 3 mois (si je me souviens bien). Les gains pour 287 781 courses dépassent à peine 20 livres, il a fallu six mois)))).
C'est dommage, mais pour l'instant, le nuage n'a aucun sens pour moi.

Ce serait génial si c'était comme un tracker torrent : faites 100 passes, obtenez 80 (-20% au développeur).

Lier vos agents à un réseau n'est pas non plus une tâche facile. C'est pourquoi toutes les associations de commerçants ont disparu il y a quelques années.

Ou bien il aurait été possible d'établir un réseau moyennant rémunération. Personne n'utilisera les services payants - vous avez tort. Il ne s'agit que d'une question de tarification adéquate
 
alrane:
La barre rouge représente le coût de 5 minutes de test dans le nuage, soit environ 40 000 exécutions sur 3 mois (si je me souviens bien). Gagné pour 287 781 courses, un peu plus de 20 livres, il a fallu six mois pour le compléter)))).

Et si vous faisiez le test sur votre PC, combien de temps cela prendrait-il ?

 
alrane:
J'ai 64 Go de RAM dans mon système. Et le testeur pour 32 agents utilise un maximum de 40 Go et réinitialise les données sur le disque d'environ 1,1 à 2 Go, oui je suis d'accord - tout ne tiendrait pas dans la RAM. Mais si je désactive la moitié des agents, les agents restants se comportent exactement de la même manière, même s'il reste une tonne d'espace RAM.

Cher Admin :

1)Pensez-vous vraiment que ce type de charge sur le disque (des centaines de gigaoctets de réécritures par jour) est normal ? Combien de temps pensez-vous qu'un SSD normal durera dans ce mode ?

2) Pensez-vous vraiment que l'absence de tout ajustement de l'utilisation des ressources dans le testeur est correcte ?

Encore une fois, j'ai résolu mon problème en utilisant les mêmes méthodes que celles que vous suggérez. Mais il m'a fallu assez longtemps et ne pas dire que cette solution fonctionne toujours correctement (par exemple, quand il ya plusieurs copies du testeur dans le système sur différents disques - conduit parfois à la suppression spontanée des agents, j'ai écrit sur ce sujet en vain au service-desk. Là encore, j'ai résolu le problème moi-même). Et tous les utilisateurs ne seront pas en mesure de le faire.

Quelle preuve vous faut-il ? Ne savez-vous pas combien de RAM un agent consomme, combien de cache sur le disque, combien de données peuvent être écrasées par jour ? Multipliez et obtenez le résultat.

En général, pourquoi dois-je prouver quelque chose, je vous accuse de quelque chose ? L'idée du thème est qu'il y a un problème, comment le résoudre ? Vous, comme dans le bureau de service, vous commencez à dire les choses évidentes pour une raison quelconque et vous louez l'optimisation du testeur. Alors que tout programmeur sain d'esprit sait qu'aucun programme n'est parfait.

Vous êtes allé à la guerre et vous demandez ensuite "pourquoi il faut beaucoup de munitions".

Mon avis - vous ne comprenez absolument pas quelles tâches vous résolvez et pour vous la longévité mythique du ssd est plus importante que les tâches à résoudre. Oui, une telle charge est absolument normale et attendue.

De plus, vous ne voulez pas admettre que le testeur exécute VOS programmes avec des besoins absolument inconnus. Et c'est vous qui êtes responsable des volumes de ressources consommés.

Il n'y a pas de problème. Sauf celle qu'Aleks a démontrée - les gens sont prêts à tout pour éviter de payer la facture.

 
alrane:
À propos du nuage. L'idée est géniale. Et voici à quoi cela ressemble en réalité :



32 cents/jour est une bonne journée pour mes agents)) Et le nuage utilise 2 systèmes de 32 agents chacun et 2 de 8 agents. Un total de 80 agents pratiquement 24 heures sur 24. Le record par jour était d'environ 2,00 $, souvent sans aucun profit. La barre rouge représente le coût par 5 minutes de test dans le nuage, soit environ 40 000 exécutions sur 3 mois (si je me souviens bien). Les gains pour 287 781 courses dépassent à peine 20 livres, il a fallu six mois)))).

Laissez-moi être direct :

  • Bien que vous mettiez des agents en ligne, ils ne travaillaient presque jamais car ils ne recevaient pas assez de commandes. Pas même 0,1% du temps où ils ne travaillaient pas. Vous ne pouvez donc pas du tout parler de "80 agents 24 heures sur 24".
  • Vous avez dépensé environ 10 $ pour une tâche qui a été attribuée à plus de 8 800 agents et qui, cumulativement, a représenté près de 8 jours de travail. C'est un très bon prix à payer pour ce genre d'accélération.
  • Vos propres agents n'ont pas effectué cette quantité de travail pour le réseau, ce qui vous permet de comparer les revenus et les dépenses.
  • Vous ne pouvez pas comparer les courses - elles sont toutes différentes pour des tâches différentes. Il suffit de comparer la puissance équivalente - les quanta sont calculés.
  • Les chiffres montrent que le réseau est très rentable pour les consommateurs.

 
-Aleks-:

Et si vous faisiez le test sur votre PC, combien de temps cela prendrait-il ?

Sur mon classeur de 4 ordinateurs avec 80 agents - environ 6-10 heures.
Renat Fatkhullin:

Tu es parti à la guerre et tu te demandes ensuite "pourquoi ça me prend autant de munitions".

Mon avis - vous ne comprenez absolument pas quelles tâches vous résolvez et la longévité mythique du ssd est plus importante pour vous que les tâches à résoudre. Oui, une telle charge est absolument normale et attendue.

De plus, vous ne voulez pas admettre que le testeur exécute VOS programmes avec des besoins absolument inconnus. Et c'est vous qui êtes responsable des volumes de ressources consommés.

Il n'y a pas de problème. À l'exception de celle démontrée par Aleks, les gens sont prêts à tout pour éviter de payer la facture.

Quel genre de guerre ? Relisez le premier message :
alrane:

Quelqu'un a-t-il rencontré un tel problème ? Comment y faire face ? Qu'est-ce qui peut causer de tels volumes de cache ?

Si la longévité des SSD était plus importante pour moi, je ne les utiliserais probablement pas. Le fait est que, pour le testeur,le goulot d'étranglement du système est le disque dur! Heureusement, j'ai un SSD, alors que la grande majorité des utilisateurs ont des disques durs ordinaires, ce qui rend la situation encore plus triste.
Donnez-moi
un exemple de logiciel qui serait limité par ses performances sur le disque dur, et non sur le processeur, la mémoire ou la carte graphique. Personnellement, je n'ai pas été confronté à une telle situation, et elle n'est donc pas normale pour moi.
Et il est impossible d'étendre ce goulot d'étranglement (en utilisant les ressources libres du système) au moyen du testeur. Et vous pensez que c'est normal ? Tu penses vraiment que c'est si génial ? Alors vous n'avez pas à répondre
 

Arrêtez de faire des histoires.

Vous voulez jouer à une véritable épreuve de force sur l'efficacité et les performances des testeurs ? Essayez de prendre une instance d'agent, une tâche simple, et d'enregistrer toutes les ressources en mode simple, repasse et optimisation. Puis je vous ramènerai rapidement sur terre. Si vous ne vous rétractez pas vous-même après avoir réellement évalué la tâche.

Et le ssd est plus important pour vous - vous n'avez pas passé autant de temps à le décrire pour rien. Et vous n'avez même pas daigné penser à mes explications. Vous venez d'appuyer sur un bouton, et tout à coup, vous gaspillez des ressources. Et vous ne vous souciez pas d'évaluer ce qui se trouve réellement sous le capot, quelle est la quantité de données.