Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ainsi, à l'avenir, les fermes de calcul seront dédiées aux utilisateurs, les ordinateurs de bureau et les ordinateurs de poche ne seront que des terminaux permettant de communiquer avec l'ordinateur central.
D'où la morale : Intel sera plus occupé que jamais parce que même les processeurs disponibles seront de plus en plus nécessaires et je ne prévois pas de stagnation dans cette industrie (imho).
La consommation d'énergie de l'élément de circuit logique est calculée à l'aide de la formule :
P = f*C*V^2
où f est la fréquence, C est la capacité de charge (capacité d'entrée de l'élément suivant + capacité de la connexion métallique), V est la tension d'alimentation. La fréquence a cessé d'augmenter au cours des 5-10 dernières années, 2-3GHz. La taille réduite des transistors a permis de réduire la capacité de charge (capacité plus faible des transistors d'entrée et connexions plus courtes entre les transistors) et la tension d'alimentation. Lorsque j'ai commencé dans l'industrie, la tension d'alimentation était de 5V, puis de 3V, 1,5V, 1V et maintenant 0,5V. Chaque nouvelle génération de technologie du silicium entraîne aujourd'hui une réduction de la tension de 0,1 à 0,2V. Lorsque la loi de Moore s'arrête, la puissance cesse de diminuer et le nombre de cœurs cesse de croître.
Peu de gens sont conscients du fait que toute la technologie des circuits intégrés a été développée par Intel. Toutes les entreprises du monde copient Intel. Ils ont inventé le FinFET il y a 10 ans et ont passé ces 10 années à le mettre en œuvre dans la production. Mes amis chez Intel me disent qu'ils n'ont plus d'idées. Notre entreprise finance des recherches dans différentes universités, mais jusqu'à présent, il n'y a pas de réponse. Le monde est sur le point de subir les conséquences désastreuses de la fin de la loi de Moore. En période de difficultés économiques, les guerres mondiales surviennent généralement, ce qui entraîne une forte augmentation des investissements des États dans les nouvelles technologies et le développement ultérieur de ces technologies à des fins pacifiques. C'était le cas pendant la Seconde Guerre mondiale - Alan Turing a inventé l'ordinateur pour décoder les messages militaires allemands. Il y a 25-30 ans, suite à la révolution informatique, le besoin de mettre les ordinateurs en réseau s'est fait sentir et l'internet est né. Au cours des dix dernières années, l'internet a essentiellement peu changé. Aujourd'hui, les smartphones peuvent se connecter à l'internet presque à la même vitesse qu'un ordinateur personnel. Je ne peux pas imaginer quelle nouvelle technologie prendra la place des ordinateurs et de l'internet et permettra à la croissance économique mondiale de se poursuivre.
Pouvez-vous recommander un processeur avec 256 cœurs
La limite du développement en 2020
Comment pouvez-vous être si sûr que si vous ne pouvez pas voir la perspective, il n'y en a pas ?
J'admets qu'il est possible d'être un bon expert dans un secteur et d'avoir une bonne idée de ce qui l'attend à l'horizon de 2 à 5 ans (bien que dans le secteur technologique, cet horizon soit trop lointain, à mon avis).
Mais on ne peut pas être au courant de toutes les recherches dans tous les domaines connexes, n'est-ce pas ?
Si un plafond de gigahertz ou de gigabits/sec est atteint, une autre solution (sûrement un ordre de grandeur plus puissant) sera trouvée et le monde continuera à évoluer. Sauf, bien sûr, si ce développement est nécessaire.
C'est comme si l'on discutait de la production d'énergie hydroélectrique et que l'on était contrarié par le fait que, dans 5 ans, toutes les rivières seront utilisées aussi efficacement que possible, mais que l'on ne voyait pas qu'il existe de nombreuses alternatives bien plus puissantes, des pompes à chaleur à l'énergie nucléaire.
Pourquoi cette mélancolie ? )
NVidia dernier cri > 2000 cœurs
Je ne trouve aucun processeur chez eux, seulement des cartes.
La carte est le processeur. Vous écrivez du code dans Visual Studio 10 en langage CUDA C, vous le compilez sur le GPU et vous l'exécutez. Il est beaucoup plus difficile d'écrire du code pour le GPU que pour le CPU. Il faut ajouter des commandes pour l'allocation de mémoire sur le GPU (il n'y en a généralement pas beaucoup), le transfert des données du CPU vers la mémoire du GPU, des commandes spéciales de parallélisme, puis la réécriture des données, la libération de la mémoire, etc. Beaucoup de subtilités différentes, mais vous pouvez utiliser 3000 cœurs. Voir ici
https://developer.nvidia.com/how-to-cuda-c-cpp
La carte est le processeur. Vous écrivez du code dans Visual Studio 10 en langage CUDA C, vous le compilez sur le GPU et vous l'exécutez. Il est beaucoup plus difficile d'écrire du code pour le GPU que pour le CPU. Il faut ajouter des commandes pour l'allocation de mémoire sur le GPU (il n'y en a généralement pas beaucoup), le transfert des données du CPU vers la mémoire du GPU, des commandes spéciales de parallélisme, puis la réécriture des données, la libération de la mémoire, etc. Beaucoup de subtilités différentes, mais vous pouvez utiliser 3000 cœurs. Voir ici
https://developer.nvidia.com/how-to-cuda-c-cpp
Comment pouvez-vous être si sûr que si vous ne pouvez pas voir la perspective, il n'y en a pas ?
J'admets que l'on peut être un bon expert dans un secteur et avoir une bonne idée de ce qui l'attend à l'horizon de 2 à 5 ans (bien que dans le secteur technologique, cet horizon soit trop lointain, selon moi).
Mais on ne peut pas être au courant de toutes les recherches dans tous les domaines connexes, n'est-ce pas ?
Si un plafond de gigahertz ou de gigabits/sec est atteint, une autre solution (sûrement un ordre de grandeur plus puissant) sera trouvée et le monde continuera à évoluer. Sauf, bien sûr, si ce développement est nécessaire.
C'est comme si l'on discutait de la production d'énergie hydroélectrique et que l'on était contrarié par le fait que, dans 5 ans, toutes les rivières seront utilisées aussi efficacement que possible, mais que l'on ne voyait pas qu'il existe de nombreuses alternatives bien plus puissantes, des pompes à chaleur à l'énergie nucléaire.
Pourquoi cette mélancolie ? )
Il n'y a pas de mélancolie, il y a la peur de l'avenir, le mien et celui des autres. Il est certainement si facile de vivre quand on fait confiance aux scientifiques pour qu'ils trouvent une solution à un problème, une nouvelle technologie, un remède au cancer ou une solution au réchauffement climatique. La fin de la loi de Moore est tout à fait pertinente. Lisez les articles récents sur le sujet. Mon point de vue est peut-être pessimiste, mais il est fondé sur une connaissance approfondie de la technologie des semi-conducteurs et des dernières recherches dans ce domaine, en vertu de ma spécialité. Il faut environ 10 ans pour amener une nouvelle technologie à la production de masse, et jusqu'à présent, aucune technologie de ce type n'est apparue dans les laboratoires des entreprises ou des universités. Je m'attends donc à une stagnation de 5 à 10 ans, peut-être même plus, dans le domaine de l'informatique. Il existe une organisation mondiale, l'ITRS (International Technology Roadmap for Semiconductors), composée d'employés des principales sociétés de semi-conducteurs, qui publie la feuille de route des semi-conducteurs pour le futur proche (leur vision de l'évolution de la technologie). Ils publient cette feuille de route depuis 1965, tous les deux ans. Le dernier était le rapport de 2014. Le prochain rapport devrait être publié cet été. Tout le monde dans le domaine attendait ce rapport avec impatience, mais il n'est jamais sorti et l'organisation a été rebaptisée International Roadmap of Devices and Systems (IRDS) et subordonnée à l'IEEE. Cette nouvelle organisation publiera une feuille de route des systèmes informatiques et de communication, des logiciels, etc. Ce qui sera inclus dans ce rapport est assez vague.
http://www.eetimes.com/document.asp?doc_id=1329604
J'ai demandé pour le processeur, pas pour la carte d'extension, ils ont des emplacements de montage différents.
GPU = unité de traitement graphique (produite principalement par Nvidia)
CPU = unité centrale de traitement (fabriquée par Intel ou AMD)
Les deux sont des processeurs. Tu ne comprends pas ? Appelez le GPU une carte ou ce que vous voulez mais c'est un processeur avec 3000 cœurs si vous avez le dernier modèle. Si vous avez un ordinateur, c'est aussi un GPU. Lisez la documentation pour savoir quel modèle vous avez et combien de cœurs il possède.