Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Così in futuro ci sarà la costruzione di compute farm che saranno dedicate agli utenti e ai desktop e i palmari saranno solo i terminali per comunicare con il mainframe.
Da qui la morale: Intel sarà più occupata che mai perché anche quei processori che sono disponibili saranno necessari sempre di più e non prevedo alcuna stagnazione in questo settore (imho).
Il consumo di energia dell'elemento del circuito logico è calcolato utilizzando la formula:
P = f*C*V^2
dove f è la frequenza, C è la capacità di carico (capacità di ingresso dell'elemento successivo + capacità della connessione metallica), V è la tensione di alimentazione. La frequenza ha smesso di aumentare negli ultimi 5-10 anni, 2-3GHz. La dimensione più piccola dei transistor ha portato a una capacità di carico inferiore (capacità di ingresso dei transistor inferiore e collegamenti più corti tra i transistor) e a una tensione di alimentazione inferiore. Quando ho iniziato nel settore la tensione di alimentazione era di 5V, poi 3V, 1.5V, 1V e ora 0.5V. Ogni nuova generazione di tecnologia al silicio porta ora a una riduzione della tensione di 0,1-0,2V. Quando la legge di Moore si ferma, la potenza smette di diminuire e il numero di core smette di crescere.
Poche persone sono consapevoli del fatto che tutta la tecnologia dei circuiti integrati è stata sviluppata da Intel. Ogni azienda del mondo sta copiando Intel. Hanno inventato FinFET 10 anni fa e hanno speso tutti questi 10 anni per metterlo in produzione. I miei amici di Intel mi dicono che non hanno più idee. La nostra azienda sta finanziando la ricerca in varie università, ma finora non c'è risposta. Il mondo è sull'orlo di alcune conseguenze piuttosto disastrose della fine della legge di Moore. In tempi difficili dal punto di vista economico, di solito si verificano guerre mondiali che portano a un'ondata di investimenti da parte degli stati in nuove tecnologie e al successivo sviluppo di tali tecnologie per scopi pacifici. Questo fu il caso durante la seconda guerra mondiale - Alan Turing inventò il computer per decodificare i messaggi militari tedeschi. 25-30 anni fa, come conseguenza della rivoluzione informatica, ci fu la necessità di mettere in rete i computer e nacque internet. Negli ultimi 10 anni, Internet è cambiato essenzialmente poco. Oggi gli smartphone possono connettersi a Internet quasi alla stessa velocità di un computer di casa. Non riesco a immaginare quale nuova tecnologia prenderà il posto dei computer e di internet e permetterà di continuare la crescita economica mondiale.
Potete raccomandare una CPU con 256 core
Il limite dello sviluppo nel 2020
Come si può essere così sicuri che se non si vede la prospettiva, non c'è?
Ammetto che è possibile essere un buon esperto in un settore e avere una buona idea di ciò che lo aspetta all'orizzonte di 2-5 anni (anche se nel settore tecnologico questo è un orizzonte troppo lontano, imho).
Ma non si può essere a conoscenza di tutte le ricerche in tutti i campi correlati, vero?
Se si raggiunge un tetto di gigahertz o gigabits/sec, allora qualche alternativa (sicuramente un ordine di grandezza più potente) sarà trovata e il mondo continuerà ad evolversi. A meno che, ovviamente, questo sviluppo non sia necessario.
È come discutere sulla produzione di energia idroelettrica ed essere arrabbiati perché tra 5 anni tutti i fiumi saranno usati nel modo più efficiente possibile, ma non vedere che ci sono molte alternative molto più potenti, dalle pompe di calore all'energia nucleare.
Perché questa malinconia? )
NVidia più recente > 2000 core
Non riesco a trovare nessun processore da loro, solo carte
La scheda è il processore. Si scrive codice in Visual Studio 10 in linguaggio CUDA C, lo si compila sulla GPU e lo si esegue. Scrivere codice per la GPU è molto più difficile che per la CPU. È necessario aggiungere comandi per l'allocazione della memoria sulla GPU (di solito non ce n'è molta), il trasferimento di dati dalla CPU alla memoria della GPU, comandi speciali di parallelizzazione, poi riscrivere i dati indietro, liberare la memoria, ecc. Un sacco di sottigliezze diverse, ma si possono usare 3000 core. Vedere qui
https://developer.nvidia.com/how-to-cuda-c-cpp
La scheda è il processore. Si scrive codice in Visual Studio 10 in linguaggio CUDA C, lo si compila sulla GPU e lo si esegue. Scrivere codice per la GPU è molto più difficile che per la CPU. È necessario aggiungere comandi per l'allocazione della memoria sulla GPU (di solito non ce n'è molta), il trasferimento di dati dalla CPU alla memoria della GPU, comandi speciali di parallelizzazione, poi riscrivere i dati indietro, liberare la memoria, ecc. Un sacco di sottigliezze diverse, ma si possono usare 3000 core. Vedere qui
https://developer.nvidia.com/how-to-cuda-c-cpp
Come si può essere così sicuri che se non si vede la prospettiva, non c'è?
Ammetto che si può essere un buon esperto di un settore e avere una buona idea di ciò che lo aspetta nell'orizzonte di 2-5 anni (anche se nel settore tecnologico è un orizzonte troppo lontano, imho).
Ma non si può essere a conoscenza di tutte le ricerche in tutti i campi correlati, vero?
Se si raggiunge un tetto di gigahertz o gigabits/sec, allora qualche alternativa (sicuramente un ordine di grandezza più potente) sarà trovata e il mondo continuerà ad evolversi. A meno che, ovviamente, questo sviluppo non sia necessario.
È come discutere sulla produzione di energia idroelettrica ed essere arrabbiati perché tra 5 anni tutti i fiumi saranno usati nel modo più efficiente possibile, ma non vedere che ci sono molte alternative molto più potenti, dalle pompe di calore all'energia nucleare.
Perché questa malinconia? )
Non c'è malinconia, c'è paura per il futuro, mio e degli altri. È certamente così facile vivere quando si ha fiducia negli scienziati che troveranno una soluzione a un problema, una nuova tecnologia, una cura per il cancro o una soluzione al riscaldamento globale. La fine della legge di Moore è abbastanza rilevante. Il mio punto di vista può essere pessimista, ma si basa su una profonda conoscenza della tecnologia dei semiconduttori e sulle ultime ricerche nel campo in virtù della mia specializzazione. Ci vogliono circa 10 anni per portare una nuova tecnologia alla produzione di massa, e finora nessuna tecnologia del genere è apparsa nei laboratori di aziende o università. Quindi mi aspetto 5-10 anni di stagnazione, forse anche di più, nella tecnologia informatica. C'è un'organizzazione mondiale ITRS (International Technology Roadmap for Semiconductors) che consiste di impiegati delle principali aziende di semiconduttori e pubblica la roadmap dei semiconduttori per il prossimo futuro (la loro visione di dove sta andando la tecnologia). Pubblicano questa tabella di marcia dal 1965, ogni due anni. L'ultimo è stato il rapporto del 2014. Il prossimo rapporto dovrebbe essere pubblicato quest'estate. Tutti nel campo aspettavano con ansia questo rapporto, ma non uscì mai e l'organizzazione fu rinominata International Roadmap of Devices and Systems (IRDS) e subordinata all'IEEE. Questa nuova organizzazione pubblicherà una tabella di marcia dei sistemi informatici e di comunicazione, del software, ecc. Ciò che sarà incluso in questo rapporto è piuttosto vago.
http://www.eetimes.com/document.asp?doc_id=1329604
Ho chiesto del processore, non della scheda di espansione che hanno slot di montaggio diversi.
GPU = unità di elaborazione grafica (prodotta principalmente da Nvidia)
CPU = unità di elaborazione centrale (prodotta da Intel o AMD)
Entrambi sono processori. Non lo capite? Chiamate GPU una scheda o quello che volete ma è un processore con 3000 core se avete l'ultimo modello. Se hai un computer è anche una GPU, leggi la documentazione su quale modello hai e quanti core ha.