Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Moore ne fait que de la publicité pour son invention et ne comprend rien aux progrès de la science, c'est sûr.
L'aviation à pistons est morte de la même manière - elle a atteint son plafond, un tel moteur a une puissance constante. Un moteur à réaction à poussée constante est une autre affaire.
Eh bien, c'est la même chose avec les processeurs, je suppose. Je pense que la réponse se trouve dans les nouveaux matériaux. La chute de tension sur une diode au germanium est inférieure à celle d'une diode au silicium (dans cet esprit, je ne veux pas remplacer le krmium par le germanium).
Et de toute façon, à quoi l'"économie mondiale" d'aujourd'hui dépense-t-elle ses capacités matérielles accrues ? La sortie d'une nouvelle version de Windows ? )) (win10 mange plus que xp).
Eh bien, c'est banal. Il existe de nombreux exemples dans le monde, le moteur à combustion interne, par exemple - vous ne pouvez pas augmenter constamment le taux de compression pour accroître l'efficacité (plus vous l'augmentez, moins il est efficace) et le rendre plus rapide. Et là, ils sont au point mort, et des percées sérieuses sont peu probables. Et avant, on pouvait déduire une loi du camarade, selon laquelle le rendement du moteur augmentait rapidement.
L'aviation à pistons est morte de la même manière - elle a atteint son plafond, un tel moteur a une puissance constante. Un moteur à réaction à poussée constante est une autre affaire.
Eh bien, c'est la même chose avec les processeurs, je suppose. Je pense que la réponse se trouve dans les nouveaux matériaux. La chute de tension sur une diode au germanium est inférieure à celle d'une diode au silicium (dans cet esprit, je ne veux pas remplacer le krmium par le germanium).
Et de toute façon, à quoi l'"économie mondiale" d'aujourd'hui dépense-t-elle ses capacités matérielles accrues ? La sortie d'une nouvelle version de Windows ? )) (win10 mange plus que xp.)
... et la nouvelle technologie n'est pas apparue, pas même à l'horizon.
A quoi sert cette nouvelle technologie ?
Est-ce pour les relations publiques, pour encourager les personnes exaltées à remplacer l'ordinateur ?
J'ai suggéré ci-dessus de comparer le BESM-4 aux ordinateurs modernes en termes de nombre d'opérations à virgule flottante. Personne ne le peut. Bien que la virgule flottante soit une meilleure mesure de la progression des tâches de calcul.
De mon point de vue d'utilisateur ayant une connaissance très limitée des techniques de programmation, je n'ai pas du tout besoin de gigahertz. Je dois être sûr que, sans faire d'efforts individuels particuliers, j'obtiendrai un code aussi efficace que possible à un stade donné du développement. Et le gigahertz n'est clairement pas la première place ici.
Je vais mettre la circonstance suivante en premier lieu. Si l'algorithme de mon application implique un algorithme complexe sur le plan informatique, par exemple une optimisation ou des opérations avec des matrices, j'utiliserai AUTOMATIQUEMENT le code le plus efficace possible, tant en termes de technique d'écriture que d'utilisation du matériel, par exemple en utilisant beaucoup de threading. Et si les gigahertz des 15 dernières années ont augmenté de 100 %, avec mon approche automatique, par exemple en utilisant la bibliothèque MKL pour les matrices, on obtient une augmentation des performances de plusieurs ordres de grandeur.
La morale de mes propos : les performances d'un PC ne se mesurent pas en gigahertz, elles doivent être mesurées par la vitesse d'exécution des tâches applicatives.
Le premier GPU avec un nombre significatif de cœurs est apparu en 2007 (Nvidia, 128 cœurs). Aujourd'hui, le nombre de cœurs a atteint 3 000. La vitesse de votre ordinateur a-t-elle été multipliée par 128 en 2007 par rapport à 2006 ? Que diriez-vous d'une accélération de 3000x aujourd'hui par rapport à 2006 ? Il n'y en a pas. Les cœurs continuent d'être utilisés dans le domaine graphique où la mise en parallèle est facile. En 2009-2010, j'ai moi-même essayé de programmer quelque chose sur un GPU à 256 cœurs. J'ai immédiatement compris pourquoi la plupart des logiciels n'utilisent pas le multicœur - c'est très difficile, le développeur doit décider manuellement quelles parties du programme peuvent être mises en parallèle. Eh bien, j'ai finalement terminé le nouveau code et il était 3 fois plus rapide avec 256 cœurs. Mais j'étais même satisfait de l'accélération à 3 temps. Mais lorsque j'ai dû créer le code suivant, je me suis souvenu de mon agonie et j'ai cessé de paralléliser. Bien sûr, des problèmes distincts tels que les graphiques et le traitement des bases de données continueront à utiliser le multicœur, mais les autres programmes ne seront aidés que par un nouveau compilateur qui trouve automatiquement les endroits du programme qui peuvent être mis en parallèle, mais aucun compilateur de ce type n'existe à ma connaissance.
Je ne nie pas la possibilité d'améliorer les logiciels et de rendre les ordinateurs plus rapides sur cette base. Je soutiens que l'achat de nouveaux ordinateurs et de smartphones diminuera en 2021-2022 en raison de l'arrêt des améliorations matérielles. Achèterez-vous un nouvel ordinateur s'il possède les mêmes cœurs, la même mémoire et la même fréquence que votre ancien ordinateur ? Probablement pas, vous devrez acheter un nouveau logiciel. Tous les fabricants de matériel informatique et les industries connexes entreront en récession, avec un chômage de masse.
J'ai lu quelque part qu'un institut américain a créé un processeur avec 1000 cœurs, mais sans interaction avec la mémoire.
Le nombre de cœurs cessera également de croître car l'exécution de plusieurs cœurs en parallèle consomme plus d'énergie qu'un seul cœur. La diminution de la taille des transistors a entraîné non seulement une augmentation du nombre de cœurs, mais aussi une diminution de la puissance des transistors, ce qui a finalement permis de maintenir la puissance totale à peu près au même niveau.
Vladimir, rappelons-nous le bon vieux principe de l'ESka(ES_computers).
Aujourd'hui, nous voyons la même chose (en principe) : des terminaux portables et une connexion à un service en nuage avec des capacités de calcul essentiellement illimitées.
Ainsi, à l'avenir, il y aura des fermes de calcul qui loueront des ressources aux utilisateurs et les ordinateurs de bureau et les ordinateurs de poche ne seront que des terminaux communiquant avec l'ordinateur central.
Conclusion : Intel sera très occupé car même les processeurs disponibles seront de plus en plus demandés et je ne prévois pas de stagnation dans ce secteur (imho).
Vladimir, rappelons le bon vieux principe de l'ECU(EC_computer).
Aujourd'hui, nous voyons la même chose (en principe) : des terminaux portables et une connexion à un service en nuage avec des capacités de calcul essentiellement illimitées.
Ainsi, à l'avenir, il y aura des fermes de calcul qui loueront des ressources aux utilisateurs et les ordinateurs de bureau et les ordinateurs de poche ne seront que des terminaux communiquant avec l'ordinateur central.
Par conséquent, Intel sera occupé autant que possible puisque même les processeurs existants seront de plus en plus nécessaires et je ne prévois aucune stagnation dans cette industrie (imho).
Et c'était en fait le système d'exploitation de l'UE.
Un système de machine virtuelle