Ottimizzazione su un computer a doppio processore - pagina 4

 
Ho 24 threads 52 RAM sul mio server madre. MT5 carica sia la CPU che la RAM al 100%. Capisco che è possibile prenderne di più, ma il mio amico sulle schede madri cinesi scalda e azzera la frequenza. Ed è pericoloso surriscaldare il computer.
 
Vyacheslav Vorobev:
Ho 24 threads e 52 RAM sulla scheda madre del mio server. MT5 massimizza sia la CPU che la RAM al 100%. Da quanto ho capito è possibile prenderne di più, ma il mio amico ce l'ha sulle schede madri cinesi e azzera la velocità di clock. Ed è pericoloso surriscaldare il computer.

Beh, sono sempre più propenso all'idea che non ha senso prendere qualsiasi tipo di cappello da Alick, è meglio prenderlo da DHS o da qualche altro posto, e montarlo. Almeno ho un posto dove lamentarmi se qualcosa va male.

AMD Ryzen 9 3900X

 
Sergei Makarevich:

Questa CPU2673 v3 è migliore in termini di prestazioni e test

Esattamente, ma il denaro è stato già investito nella v3
 
gli agenti su OPENCL dalle schede video funzionano in MT5?
 
Andrey Khatimlianskii:

Potete eseguire voi stessi l'ottimizzazione in diversi passi -https://www.mql5.com/ru/code/26132

Ma non ha davvero senso passare attraverso tutte queste combinazioni.

Questo è il primo pensiero che mi viene in mente. Ma diverse tappe non è la stessa cosa. Perché a volte, se si cambiano leggermente i parametri, i risultati cambiano in modo significativo, e si perdono semplicemente parametri importanti. Non c'è alcuna dipendenza in modo da poter trovare i limiti in grandi passi e poi dare passi più piccoli in quel limite. Per questo motivo, per testare alcune ipotesi, il limite dei passaggi del tester dovrebbe essere rimosso. Che non ci sia un punto o meno, solo l'esperienza può giudicare. La ricerca a volte richiede un approccio non convenzionale.

 
Aliaksandr Hryshyn:
E chi controllerà ciò che accade sul vento? L'hardware fresco non aiuta? Peccato, allora che senso ha? La sicurezza peggiorerà, ci sono molte cose che l'utente medio non conosce. La sicurezza è prima di tutto una questione di classificazione degli utenti.
Le azioni dell'utente dipendono da lui, può correggerle se vuole. Ma la presenza di una backdoor hardware non dipende dall'utente, perché non può essere eliminata anche se lo si desidera. Rifare il bios in questo caso non aiuterà. Il baddor si trova nel Ponte Sud. Inoltre, nulla appare dove un utente normale non può capirlo. Un livello molto serio di sicurezza può essere raggiunto seguendo un semplice insieme di alcune regole che richiedono un livello minimo di conoscenza dell'hardware e del sistema operativo per essere comprese. Sono sicuro che chiunque può farlo.
 
Sergei Makarevich:

Beh, sono sempre più propenso all'idea che non ha senso prendere qualsiasi tipo di cappello da Alick, è meglio prenderlo da DHS o da qualche altro posto, e montarlo. Almeno ho un posto dove lamentarmi se qualcosa va male.

AMD Ryzen 9 3900X

a proposito, mentre facevo ricerche sui ryzen ho trovato un buon affare sul ryzen 7 2700x... Per il prezzo del 9 si può costruire un PC completo (senza la scheda grafica esterna), sì, ci saranno meno core/thread, ma il costo per core/thread è inferiore.

Naturalmente, se hai bisogno di un frantoio numerico per la MT, allora i processori 2x su xeon saranno probabilmente ancora al di sopra della concorrenza sul prezzo/prestazioni, ma la loro liquidità futura e il loro utilizzo per altri compiti, per esempio l'elaborazione video, è in grande dubbio in vista del set limitato di comandi del processore e della bassa (relativamente alle CPU moderne) frequenza...

PS anche si stava avvicinando a questo argomento dal lato dell'ottimizzazione degli EA, ma mentre si lavorava su un vecchio computer da ufficio in qualche modo l'argomento è scomparso e la necessità di un sacco di thread/core non è più (o è ancora?) rilevante.

 
pribludilsa:

Questo è il primo pensiero che mi viene in mente. Ma pochi passi non sono la stessa cosa. Perché a volte, se si cambiano leggermente i parametri, i risultati cambiano in modo significativo, e si perdono semplicemente parametri importanti. Non c'è alcuna dipendenza in modo da poter trovare i limiti in grandi passi e poi dare passi più piccoli in quel limite. Per questo motivo, per testare alcune ipotesi, il limite dei passaggi del tester dovrebbe essere rimosso. Che non ci sia un punto o meno, solo l'esperienza può giudicare. La ricerca a volte richiede un approccio fuori dagli schemi.

Dividi la tua tabella completa di oltre 100.000.000 di passaggi per 100 passaggi di 1.000.000. Vi ritroverete con la stessa tabella completa di risultati (può essere incollata programmaticamente).

 
Andrey Khatimlianskii:

Dividi la tua sovrapposizione completa di oltre 100.000.000 di passaggi per 100 passaggi di 1.000.000. Vi ritroverete con la stessa tabella completa di risultati (potete incollarla programmaticamente).

Come dividere? Trovare prima un parametro, poi un altro, non funzionerà, perché c'è una correlazione dei parametri tra loro, e la correlazione può essere sotto forma di una funzione complessa, la cui stessa ricerca è piuttosto un falso approccio. Quindi, questo tipo di separazione dell'ottimizzazione è un errore. Un modo più corretto è descritto nel mio post, dove si può cercare di trovare i limiti di buoni parametri in passi enormi, ma poiché i risultati di cambiamenti di parametri insignificanti possono cambiare a balzi, anche questo approccio non è adatto. Si potrebbe naturalmente provare a lavorare con la derivazione di funzioni di correlazione dei parametri, ma perché, dato che un tale approccio è complicato, quando si può farlo in modo più diretto, semplicemente facendo una lenta ottimizzazione con un gran numero di passaggi. Questo sembrerebbe richiedere la scrittura di un proprio tester.

 
E dobbiamo anche aggiungere che se riprendiamo la derivazione delle funzioni di correlazione dei parametri, incontriamo di nuovo lo stesso problema, la possibilità di salti del grafico delle funzioni in un limite molto stretto. Dato che c'è una correlazione di ognuno con ognuno, non possiamo trovare prima una dipendenza, poi un'altra e così via, di nuovo otterremo un compito enorme che deve essere suddiviso in passi enormi. In questo modo ci sarà un accumulo di errori, che può essere evitato semplicemente utilizzando l'ottimizzazione con un gran numero di passaggi. Senza contare che questo approccio in generale è estremamente complicato, mi sembra. Probabilmente non sto usando correttamente la parola correlazione, voglio dire che tutti i parametri agiscono insieme sul risultato.