Domanda per gli sviluppatori - usare tutti i core di calcolo durante l'ottimizzazione - pagina 10

 
Boris Egorov:

3. Il problema"un nucleo, un lavoro" non è stato e probabilmente non sarà risolto.

Questo è inefficiente per il cloud, i lavori devono essere passati in pacchetti, quindi non lo saranno. Parte della soluzione è distribuire solo una parte dei lavori, e poi gettare in mini-pacchetti agli agenti che si liberano. Ma per gli agenti locali e le fattorie, un lavoro dovrebbe essere dato a ciascuno, il padrone è il capo, e il traffico non gioca un ruolo.

 
Edgar Akhmadeev:

Questo è inefficiente per il cloud, i lavori devono essere distribuiti a pacchetti, quindi non lo saranno. Si può migliorare parzialmente la situazione distribuendo solo una parte dei lavori, e poi dando agli agenti liberi dei mini-pacchetti. Ma per gli agenti locali e la fattoria deve essere dato un compito ciascuno, il maestro è il capo, e il traffico non è reale.

Avete assolutamente ragione.

 
Edgar Akhmadeev:

Questo è inefficiente per il cloud, i lavori devono essere distribuiti a pacchetti, quindi non lo saranno. Si può migliorare parzialmente la situazione distribuendo solo una parte dei lavori, e poi dando agli agenti liberi dei mini-pacchetti. Ma per gli agenti locali e la fattoria deve essere dato un compito ciascuno, il padrone è il capo, e il traffico non gioca alla pari.

È così che funziona ora - i pacchetti vengono aggiunti, se gli agenti sono liberi e gli altri sono occupati, allora gli agenti liberati vengono caricati, e se sono più veloci, allora i compiti precedentemente dati vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, questo probabilmente non succede.

 
Aleksey Vyazmikin:

Questo è quello che succede ora - i pacchetti vengono aggiunti, se gli agenti si liberano e gli altri sono occupati, allora quelli liberati vengono caricati e se sono più veloci, i compiti precedentemente emessi vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, probabilmente non succede.

Credo che quello che sto dicendo è che un tale schema (batch) è inadeguato per gli agenti locali ....

cioè 1-5 core sono occupati tutto il tempo e decine di altri core sono inattivi .... Inoltre questi 1-5 core devono calcolare molti compiti ....

Inoltre, ascoltami:

i core più veloci ora elaboreranno 3-4 volte più lavori nella stessa quantità di tempo... Ecco perché il calcolo sarà dieci volte più veloce.

e quindi non si può dare più di un lavoro a un kernel

 
Boris Egorov:

Probabilmente sto solo dicendo che un tale schema (batch) è inadeguato per gli agenti locali ....

perché 1-5 core sono occupati tutto il tempo e altre decine sono inattivi .... Inoltre questi 1-5 core devono calcolare molti compiti ....

Inoltre, ascoltami:

i core più veloci ora elaboreranno 3-4 volte più lavori nella stessa quantità di tempo... Ecco perché il calcolo sarà dieci volte più veloce.

ed è per questo che non si può dare più di un lavoro a un kernel.

Avete core inattivi per qualsiasi tipo di ottimizzazione o solo per la genetica?

 
Aleksey Vyazmikin:

Questo è quello che succede ora - i pacchetti vengono aggiunti, se gli agenti si liberano e gli altri sono occupati, allora quelli liberati vengono caricati e se sono più veloci, i compiti precedentemente emessi vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, probabilmente non succede.

I pacchi sono stati distribuiti quasi tutti insieme. Solo il resto dalla divisione del numero totale di compiti per il numero di agenti è stato lasciato in riserva per la distribuzione (secondo me). Questo è stato fatto, credo, in primavera. È cambiato qualcosa da allora? Non l'ho seguito molto, il mio EA è ottimizzato con un carico uniforme, non uso ancora il cloud, e la situazione del downtime dell'agente locale è meno rilevante per me ora.

 
Edgar Akhmadeev:

I pacchetti sono stati distribuiti quasi tutti insieme. Solo il resto dalla divisione del numero totale di compiti per il numero di agenti è stato lasciato in riserva per la distribuzione (secondo me). Questo è stato fatto, credo, in primavera. È cambiato qualcosa da allora? Non l'ho seguito molto, il mio EA è ottimizzato con un carico uniforme, non uso ancora il cloud, e la situazione del downtime dell'agente locale è meno rilevante per me ora.

Le recenti osservazioni con me non rivelano un tale problema.

 
Aleksey Vyazmikin:

Avete core inattivi su qualsiasi tipo di ottimizzazione o solo sulla genetica?

Io uso l'overkill completo

 
Renat Fatkhullin:
Ricostruire il tester è la nostra priorità in questo momento. Stiamo riscrivendo molte cose.

Problema di Rational task manager risolto.

Confermare il problema con i core inattivi. Domanda agli sviluppatori: quando ci sarà un aggiornamento e c'è qualche soluzione temporanea a questo PROBLEMA? Promesso una soluzione, sto guardando i post di inizio anno 20... già 21!


Uso l'algoritmo genetico per il commercio all'ingrosso


Di conseguenza, la vendita all'ingrosso richiede un paio d'ore e poi più di un giorno...

 
Boris Egorov:

Sto usando un totale overkill

avete trovato una soluzione a questo problema? ho provato a scollegare i core e poi a correre, l'ultimo di quelli che corrono non si scollega, tutti finiscono per aspettarne uno...


Uso solo i core della CPU del mio pc senza rete


su 12 core la maggior parte è al minimo...