Domanda per gli sviluppatori - usare tutti i core di calcolo durante l'ottimizzazione - pagina 10
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
3. Il problema"un nucleo, un lavoro" non è stato e probabilmente non sarà risolto.
Questo è inefficiente per il cloud, i lavori devono essere passati in pacchetti, quindi non lo saranno. Parte della soluzione è distribuire solo una parte dei lavori, e poi gettare in mini-pacchetti agli agenti che si liberano. Ma per gli agenti locali e le fattorie, un lavoro dovrebbe essere dato a ciascuno, il padrone è il capo, e il traffico non gioca un ruolo.
Questo è inefficiente per il cloud, i lavori devono essere distribuiti a pacchetti, quindi non lo saranno. Si può migliorare parzialmente la situazione distribuendo solo una parte dei lavori, e poi dando agli agenti liberi dei mini-pacchetti. Ma per gli agenti locali e la fattoria deve essere dato un compito ciascuno, il maestro è il capo, e il traffico non è reale.
Avete assolutamente ragione.
Questo è inefficiente per il cloud, i lavori devono essere distribuiti a pacchetti, quindi non lo saranno. Si può migliorare parzialmente la situazione distribuendo solo una parte dei lavori, e poi dando agli agenti liberi dei mini-pacchetti. Ma per gli agenti locali e la fattoria deve essere dato un compito ciascuno, il padrone è il capo, e il traffico non gioca alla pari.
È così che funziona ora - i pacchetti vengono aggiunti, se gli agenti sono liberi e gli altri sono occupati, allora gli agenti liberati vengono caricati, e se sono più veloci, allora i compiti precedentemente dati vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, questo probabilmente non succede.
Questo è quello che succede ora - i pacchetti vengono aggiunti, se gli agenti si liberano e gli altri sono occupati, allora quelli liberati vengono caricati e se sono più veloci, i compiti precedentemente emessi vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, probabilmente non succede.
Credo che quello che sto dicendo è che un tale schema (batch) è inadeguato per gli agenti locali ....
cioè 1-5 core sono occupati tutto il tempo e decine di altri core sono inattivi .... Inoltre questi 1-5 core devono calcolare molti compiti ....
Inoltre, ascoltami:
i core più veloci ora elaboreranno 3-4 volte più lavori nella stessa quantità di tempo... Ecco perché il calcolo sarà dieci volte più veloce.
e quindi non si può dare più di un lavoro a un kernel
Probabilmente sto solo dicendo che un tale schema (batch) è inadeguato per gli agenti locali ....
perché 1-5 core sono occupati tutto il tempo e altre decine sono inattivi .... Inoltre questi 1-5 core devono calcolare molti compiti ....
Inoltre, ascoltami:
i core più veloci ora elaboreranno 3-4 volte più lavori nella stessa quantità di tempo... Ecco perché il calcolo sarà dieci volte più veloce.
ed è per questo che non si può dare più di un lavoro a un kernel.
Avete core inattivi per qualsiasi tipo di ottimizzazione o solo per la genetica?
Questo è quello che succede ora - i pacchetti vengono aggiunti, se gli agenti si liberano e gli altri sono occupati, allora quelli liberati vengono caricati e se sono più veloci, i compiti precedentemente emessi vengono cancellati. Questo se ci sono molti lavori, se ce ne sono pochi, probabilmente non succede.
I pacchi sono stati distribuiti quasi tutti insieme. Solo il resto dalla divisione del numero totale di compiti per il numero di agenti è stato lasciato in riserva per la distribuzione (secondo me). Questo è stato fatto, credo, in primavera. È cambiato qualcosa da allora? Non l'ho seguito molto, il mio EA è ottimizzato con un carico uniforme, non uso ancora il cloud, e la situazione del downtime dell'agente locale è meno rilevante per me ora.
I pacchetti sono stati distribuiti quasi tutti insieme. Solo il resto dalla divisione del numero totale di compiti per il numero di agenti è stato lasciato in riserva per la distribuzione (secondo me). Questo è stato fatto, credo, in primavera. È cambiato qualcosa da allora? Non l'ho seguito molto, il mio EA è ottimizzato con un carico uniforme, non uso ancora il cloud, e la situazione del downtime dell'agente locale è meno rilevante per me ora.
Le recenti osservazioni con me non rivelano un tale problema.
Avete core inattivi su qualsiasi tipo di ottimizzazione o solo sulla genetica?
Io uso l'overkill completo
Ricostruire il tester è la nostra priorità in questo momento. Stiamo riscrivendo molte cose.
Confermare il problema con i core inattivi. Domanda agli sviluppatori: quando ci sarà un aggiornamento e c'è qualche soluzione temporanea a questo PROBLEMA? Promesso una soluzione, sto guardando i post di inizio anno 20... già 21!
Uso l'algoritmo genetico per il commercio all'ingrosso
Di conseguenza, la vendita all'ingrosso richiede un paio d'ore e poi più di un giorno...
Sto usando un totale overkill
avete trovato una soluzione a questo problema? ho provato a scollegare i core e poi a correre, l'ultimo di quelli che corrono non si scollega, tutti finiscono per aspettarne uno...
Uso solo i core della CPU del mio pc senza rete
su 12 core la maggior parte è al minimo...