Question pour les développeurs - utilisation de tous les cœurs de calcul pendant l'optimisation - page 10

 
Boris Egorov:

3. Le problème"un noyau, un emploi" n'a pas été et ne sera probablement pas résolu.

C'est inefficace pour le nuage, les tâches doivent être transmises par paquets, donc elles ne le seront pas. Une partie de la solution consiste à ne distribuer qu'une partie des tâches, puis à distribuer des mini-paquets aux agents qui sont libérés. Mais pour les agents locaux et les exploitations agricoles, il faut donner un travail à chacun, le maître est le patron, et le trafic ne joue pas de rôle.

 
Edgar Akhmadeev:

C'est inefficace pour le nuage, les emplois doivent être distribués par paquets, donc ils ne le seront pas. Vous pouvez améliorer partiellement la situation en distribuant une partie seulement des emplois, puis en donnant aux agents libres des mini-paquets. Mais pour les agents locaux et la ferme doit être donné une tâche chacun, le maître est le patron, et le trafic n'est pas royal.

Vous avez tout à fait raison.

 
Edgar Akhmadeev:

C'est inefficace pour le nuage, les emplois doivent être distribués par paquets, donc ils ne le seront pas. Vous pouvez améliorer partiellement la situation en distribuant une partie seulement des emplois, puis en donnant aux agents libres des mini-paquets. Mais pour les agents locaux et la ferme doit être donné un travail, le maître est son propre patron, et le trafic ne joue pas royalement.

C'est ainsi que cela fonctionne maintenant - des paquets sont ajoutés, si des agents sont libres et d'autres occupés, alors les agents libérés sont chargés, et s'ils sont plus rapides, alors les tâches précédemment données sont annulées. C'est le cas s'il y a beaucoup d'emplois, s'il n'y en a que quelques-uns, cela ne se produit probablement pas.

 
Aleksey Vyazmikin:

C'est ce qui se passe maintenant - des paquets sont ajoutés, si des agents sont libérés et que d'autres sont occupés, alors les agents libérés sont chargés et s'ils sont plus rapides, les tâches précédemment émises sont annulées. C'est le cas s'il y a beaucoup d'emplois, s'il n'y en a que quelques-uns, cela ne se produit probablement pas.

Je suppose que ce que je veux dire, c'est qu'un tel système (lot) est inadéquat pour les agents locaux .....

c'est-à-dire que 1 à 5 cœurs sont occupés en permanence et que des dizaines d'autres cœurs sont inactifs. .... De plus, ces 1-5 cœurs doivent calculer de nombreuses tâches ....

et écoutez-moi :

Les cœurs plus rapides vont maintenant calculer 3-4 fois plus de tâches dans le même temps... c'est pourquoi le calcul sera dix fois plus rapide.

et donc vous ne pouvez pas donner plus d'une tâche à un noyau

 
Boris Egorov:

Je dis probablement simplement qu'un tel système (lot) est inadéquat pour les agents locaux .....

car 1 à 5 cœurs sont occupés en permanence et des dizaines d'autres sont inactifs .... De plus, ces 1-5 cœurs doivent calculer de nombreuses tâches ....

et écoutez-moi :

Les cœurs plus rapides vont maintenant calculer 3-4 fois plus de tâches dans le même temps... c'est pourquoi le calcul sera dix fois plus rapide.

et c'est pourquoi on ne peut pas donner plus d'une tâche à un noyau.

Avez-vous des cœurs inactifs pour tout type d'optimisation ou seulement pour la génétique ?

 
Aleksey Vyazmikin:

C'est ce qui se passe maintenant - des paquets sont ajoutés, si des agents sont libérés et que d'autres sont occupés, alors les agents libérés sont chargés et s'ils sont plus rapides, les tâches précédemment émises sont annulées. C'est le cas s'il y a beaucoup d'emplois, s'il y en a peu, cela ne se produit probablement pas.

Les paquets ont été distribués presque tous en même temps. Seul le reste de la division du nombre total d'emplois par le nombre d'agents a été laissé en réserve pour la distribution (à mon avis). Cela a été fait, je pense, au printemps. Est-ce que quelque chose a changé depuis ? Je ne l'ai pas beaucoup suivi, mon EA est optimisé avec une charge régulière, je n'utilise pas encore le cloud, et la situation d'indisponibilité de l'agent local est moins pertinente pour moi maintenant.

 
Edgar Akhmadeev:

Les paquets ont été distribués presque tous en même temps. Seul le reste de la division du nombre total de tâches par le nombre d'agents a été laissé en réserve pour la distribution (à mon avis). Cela a été fait, je pense, au printemps. Est-ce que quelque chose a changé depuis ? Je ne l'ai pas beaucoup suivi, mon EA est optimisé avec une charge régulière, je n'utilise pas encore le cloud, et la situation d'indisponibilité de l'agent local est moins pertinente pour moi maintenant.

Des observations récentes chez moi ne révèlent pas un tel problème.

 
Aleksey Vyazmikin:

Avez-vous des cœurs inactifs pour tout type d'optimisation ou seulement pour la génétique ?

J'utilise la surenchère totale

 
Renat Fatkhullin:
Reconstruire le testeur est notre priorité pour le moment. Nous réécrivons beaucoup de choses.

Problème de Rational task manager résolu.

Confirmez le problème avec les noyaux inactifs. Question aux développeurs : quand y aura-t-il une mise à jour et y a-t-il une solution temporaire à ce PROBLÈME ? On m'a promis une solution, je regarde les posts du début des années 20... déjà 21 !


J'utilise l'algorithme génétique pour la vente en gros


Par conséquent, la vente en gros prend quelques heures, puis plus d'une journée...

 
Boris Egorov:

J'utilise une surcharge totale

Vous avez trouvé une solution à ce problème ? J'ai essayé de déconnecter les cœurs et de les faire tourner, mais le dernier ne se déconnecte pas, tout le monde finit par attendre...


Je n'utilise que les cœurs de l'unité centrale de mon ordinateur sans réseau.


sur 12 cœurs, la plupart sont au ralenti...