Frage an Entwickler - Nutzung aller Rechenkerne während der Optimierung - Seite 10

 
Boris Egorov:

3. Das Problem"ein Kern, ein Job" ist nicht gelöst und wird es wahrscheinlich auch nicht.

Dies ist für die Cloud ineffizient, da Aufträge in Paketen weitergegeben werden müssen, was sie nicht tun werden. Ein Teil der Lösung besteht darin, nur einen Teil der Aufträge zu verteilen und dann den frei werdenden Agenten Minipakete zuzuwerfen. Aber für die lokalen Agenten und Betriebe sollte jeder einen Job bekommen, der Meister ist der Chef, und der Verkehr spielt keine Rolle.

 
Edgar Akhmadeev:

Das ist für die Cloud ineffizient, denn die Aufträge müssen in Paketen verteilt werden, was sie nicht tun werden. Sie können die Situation teilweise verbessern, indem Sie nur einen Teil der Stellen verteilen und dann den freien Mitarbeitern Mini-Pakete geben. Aber für lokale Agenten und die Farm muss jeweils eine Aufgabe gegeben werden, der Meister ist der Chef, und der Verkehr ist nicht königlich.

Sie haben völlig Recht.

 
Edgar Akhmadeev:

Das ist für die Cloud ineffizient, denn die Aufträge müssen in Paketen verteilt werden, was sie nicht tun werden. Sie können die Situation teilweise verbessern, indem Sie nur einen Teil der Stellen verteilen und dann den freien Mitarbeitern Mini-Pakete geben. Aber für lokale Agenten und die Farm muss ein Job gegeben werden, der Meister ist sein eigener Chef, und der Verkehr spielt nicht königlich.

So funktioniert es jetzt - Pakete werden hinzugefügt, wenn Agenten frei sind und andere beschäftigt sind, werden die freien Agenten geladen, und wenn sie schneller sind, werden die zuvor erteilten Aufgaben abgebrochen. Dies ist der Fall, wenn es viele Arbeitsplätze gibt, wenn es nur wenige gibt, passiert dies wahrscheinlich nicht.

 
Aleksey Vyazmikin:

Das ist, was jetzt passiert - Pakete werden hinzugefügt, wenn Agenten frei werden und andere beschäftigt sind, dann werden die freien geladen und wenn sie schneller sind, werden die vorher ausgegebenen Aufgaben abgebrochen. Das ist der Fall, wenn es viele Arbeitsplätze gibt, wenn es nur wenige gibt, passiert das wahrscheinlich nicht.

Ich denke, was ich damit sagen will, ist, dass ein solches System (Batch) für örtliche Bedienstete ungeeignet ist ....

d.h. 1-5 Kerne sind die ganze Zeit beschäftigt und Dutzende anderer Kerne sind im Leerlauf .... Außerdem müssen diese 1-5 Kerne viele Aufgaben berechnen ....

Und hören Sie mir zu:

schnellere Kerne können nun 3-4 mal so viele Aufträge in der gleichen Zeit berechnen... Deshalb wird die Berechnung zehnmal schneller sein.

und deshalb kann man einem Kernel nicht mehr als einen Auftrag erteilen

 
Boris Egorov:

Wahrscheinlich will ich damit nur sagen, dass ein solches System (Los) für örtliche Bedienstete ungeeignet ist ....

weil 1-5 Kerne die ganze Zeit beschäftigt sind und Dutzende weitere im Leerlauf sind .... Außerdem müssen diese 1-5 Kerne viele Aufgaben berechnen ....

Und hören Sie mir zu:

schnellere Kerne können nun 3-4 mal so viele Aufträge in der gleichen Zeit berechnen... Deshalb wird die Berechnung zehnmal schneller sein.

und deshalb kann man einem Kernel nicht mehr als eine Aufgabe zuweisen.

Haben Sie Kerne im Leerlauf für jede Art von Optimierung oder nur für die Genetik?

 
Aleksey Vyazmikin:

Das ist, was jetzt passiert - Pakete werden hinzugefügt, wenn Agenten frei werden und andere beschäftigt sind, dann werden die freien geladen und wenn sie schneller sind, werden die vorher ausgegebenen Aufgaben abgebrochen. Das ist der Fall, wenn es viele Arbeitsplätze gibt, wenn es nur wenige gibt, wird es wahrscheinlich nicht passieren.

Die Päckchen wurden fast alle auf einmal verteilt. Nur der Rest, der sich aus der Division der Gesamtzahl der Stellen durch die Zahl der Bediensteten ergibt, wurde für die Verteilung zurückbehalten (meiner Meinung nach). Dies geschah, glaube ich, im Frühjahr. Hat sich seither etwas geändert? Ich habe das nicht weiter verfolgt, mein EA ist auf gleichmäßige Auslastung optimiert, ich nutze die Cloud noch nicht, und die Ausfallzeiten der lokalen Agenten sind für mich jetzt weniger relevant.

 
Edgar Akhmadeev:

Die Pakete wurden fast alle auf einmal ausgeteilt. Nur der Rest, der sich aus der Division der Gesamtzahl der Aufgaben durch die Zahl der Bearbeiter ergibt, wurde (meiner Meinung nach) für die Verteilung zurückbehalten. Dies geschah, glaube ich, im Frühjahr. Hat sich seither etwas geändert? Ich habe das nicht weiter verfolgt, mein EA ist auf gleichmäßige Auslastung optimiert, ich nutze die Cloud noch nicht, und die Ausfallzeiten der lokalen Agenten sind für mich jetzt weniger relevant.

Die jüngsten Beobachtungen bei mir lassen ein solches Problem nicht erkennen.

 
Aleksey Vyazmikin:

Haben Sie die Kerne bei jeder Art von Optimierung im Leerlauf oder nur bei der Genetik?

Ich verwende den vollen Overkill

 
Renat Fatkhullin:
Der Wiederaufbau des Testers hat für uns im Moment Priorität. Wir schreiben eine Menge Dinge neu.

Rational Task Manager Problem gelöst.

Bestätigen Sie das Problem mit Leerlaufkernen. Frage an die Entwickler: Wann wird es ein Update geben und gibt es eine vorübergehende Lösung für dieses PROBLEM? Versprochene Lösung, ich schaue mir Beiträge von Anfang 20 an an... schon 21!


Ich verwende dengenetischen Algorithmus für den Großhandel


Das führt dazu, dass der Großhandel ein paar Stunden und dann mehr als einen Tag dauert...

 
Boris Egorov:

Ich benutze einen totalen Overkill

Haben Sie eine Lösung für dieses Problem gefunden? Ich habe versucht, die Kerne zu trennen und dann zu starten, aber der letzte der laufenden Kerne lässt sich nicht trennen, und alle warten auf einen...


Ich verwende nur Kerne der CPU meines PCs ohne Netzwerk


Von den 12 Kernen sind die meisten im Leerlauf...