摩尔定律结束后的全球经济衰退 - 页 7

 
Vladimir:

GPU=图形处理单元(主要由Nvidia生产)。

CPU = 中央处理单元(由英特尔或AMD制造)。

两者都是处理器。你不明白吗?称GPU为卡或任何你想要的东西,但如果你有最新的模型,它就是一个有3000个内核的处理器。如果你有一台电脑,它就是一个GPU,在你的文件中读到你有什么型号,它有多少个核心。

CPU和GPU是不同的CPU,我是说CPU。
 
Vladimir:

没有忧郁,但对未来感到恐惧,包括我自己的和别人的。

为什么会有这种恐惧?有什么问题呢?

不会有新的电脑,那又怎样?一切都会像以前一样,我们不会再看到另一个不再透明的Windows,但闪亮的界面会吞噬所有新增加的资源。

 
Vladimir:

GPU=图形处理单元(主要由Nvidia生产)。

CPU = 中央处理单元(由英特尔或AMD制造)。

两者都是处理器。你不明白吗?称GPU为卡或任何你想要的东西,但如果你有最新的模型,它就是一个有3000个内核的处理器。如果你有一台电脑,它是一个GPU,请在你的文件中阅读你有哪个型号,以及它有多少个核心。

说到CPU。卡可以是这样的,可以是一个简单的卡,而CPU仍然会在那里。拥有3000个内核的CPU在哪里?
 
Dmitry Fedoseev:
谈论的是CPU。一张卡可以是这样,一张简单的卡可以是那样,仍然会有一个CPU。拥有3000个内核的CPU在哪里?
我对这一点也很好奇。
 
Dmitry Fedoseev:
谈论的是CPU。一张卡可以是这样,一张简单的卡可以是那样,仍然会有一个CPU。拥有3000个内核的CPU在哪里?
我不明白这个说法的意义。你认为,CPU已经进化到有更多的内核。我同意并举了一个有3000个内核的GPU的例子。而你想知道为什么没有具有相同内核数量的CPU,我说的对吗?那么你不喜欢的GPU是什么呢?CPU可能相同或不同。如果你需要很多核心,那么就购买相应的GPU并在上面编程。但如果你不需要很多核心,那么争论这个问题就没有意义了。我的观点是,多核方式的处理器的发展是在2004-2005年开始的。因此,在摩尔定律结束后,它不太可能成为一种新奇的东西。如果你现在不需要核心,2020年以后也不会需要。
 
Vladimir:
我不明白这个说法的意义。你认为,处理器是通过增加内核数量而发展起来的。我同意并举了一个有3000个内核的GPU的例子。而你想知道为什么没有具有相同内核数量的CPU,我说的对吗?那么你不喜欢的GPU是什么呢?CPU可能相同或不同。如果你需要很多核心,那么就购买相应的GPU并在上面编程。但如果你不需要很多核心,那么争论这个问题就没有意义了。我的观点是,多核方式的处理器的发展是在2004-2005年开始的。因此,在摩尔定律结束后,它不太可能成为一种新奇的东西。如果你现在不需要核心,2020年以后也不会需要。
让我想起了关于切除扁桃体的轶事............用一个自动生成器......通过一个ZP。
 
Dmitry Fedoseev:
这让我想起了关于切除扁桃体的轶事...与一个自体基因组......通过一个ZP。

为平行的CPU核心编写程序 比为GPU编写程序 更容易吗?问题是一样的:程序员必须绞尽脑汁,决定程序的哪些部分可以并联,编写特殊的并联代码,等等。大多数程序员并不吃亏,写单核程序时也不扭捏。这里的问题是什么:缺乏核心还是使用多核心的程序?我认为是后者。即使我给你一个有3000个内核的CPU,你仍然会编写单核程序,因为为3000个内核和为4个内核编写程序的难度没有区别。现在需要的是一个新的编译器,它可以自动检测出可以并行的代码片断。但是,创建这样一个编译器的进展同样不取决于硬件,而是取决于程序员是否愿意编写这样一个编译器。在这个主题中,我一直在说,由于半导体技术的进步以及晶体管尺寸和功耗的减少,2020年之后创造新硬件的可能性正在减少。新的材料和晶体管仍然在地平线上。英特尔在2016年试图在10纳米技术上创建骑士山一代处理器,并将这一代处理器推迟到2017年底。三星在其应用处理器的10纳米技术方面也有问题。已经达到10纳米的尺寸,与14纳米相比,晶体管的尺寸和功率仅有小幅下降。散热成为一个大问题。需要在技术上有一个飞跃。技术的指标之一是每个晶体管的价格。因此,在28纳米之前,这个价格一直在下降,而在那之后,它开始成倍地上升。许多公司因为价格问题而停在28纳米。因此,进展到10纳米技术,再到7纳米和最后的5纳米,不仅会伴随着热量问题,也会伴随着高价格。

 
现在,并联没有问题,但只有在使用CPU时才有问题。在C#中,它是在3秒内完成的。相反,重点是没有必要在大量的核心。一个通常的、普通的程序是没有什么可供并行化的。如果我们做很多核心,唯一的好处是可能会运行很多不同的程序,但其实并不需要。
 
Vladimir:

为平行的CPU核心编写程序 比为GPU编写程序 更容易吗?

在GPU上编写高效的程序真的很困难。

事实上,在设备之间以及设备与人之间的互动方面,仍有整个未开发的领域。

有一个云的领域,把所有的东西和每个人都塞进云中,去中心化

还有就是一般的智能助手和设备领域。

有一个增强型和虚拟现实的领域。

简而言之,正是因为摩尔定律,不会有衰退,会有对新的发展方式的探索。将会出现经济衰退的另一个原因

 
Vladimir:

为平行的CPU核心编写程序 比为GPU编写程序 更容易吗?问题是一样的:程序员必须绞尽脑汁,决定程序的哪些部分可以并联,编写特殊的并联代码,等等。大多数程序员并不吃亏,写单核程序时也不扭捏。这里的问题是什么:缺乏核心还是使用多核心的程序?我认为是后者。即使我给你一个有3000个内核的CPU,你仍然会编写单核程序,因为为3000个内核和为4个内核编写程序的难度没有区别。现在需要的是一个新的编译器,它可以自动检测出可以并行的代码片断。但是,创建这样一个编译器的进展同样不取决于硬件,而是取决于程序员编写这个编译器的意愿。

R没有所述的问题。

1.最有可能的是,没有必要为计算上复杂的算法编写程序。一切都写好了,如果一个计算复杂的算法(例如,优化或提升)承认并行性,这已经实现了。而且你不必在某个地方寻找它。开发者从问题的内容出发,将工具与这一内容相适应,一切都在工具中最大限度地实现。该工具有一个非常强大的帮助系统,旨在使该工具减少劳动强度。

2.如果你有必要,例如,执行一个循环的平行部分,有一些平行工具可以使用。在描述这类结构的语法和使用条件时,你不需要浪费你的时间。

3.该程序不仅可以加载给定计算机的内核,而且还可以加载邻近的计算机。这是在没有任何云的情况下,可以说是来自现有的计算机。

你所描述的问题是由于你从铁,通过普遍的算法语言,没有达到问题的目的。如果你反其道而行之--从问题到工具的选择,你可能根本不需要讨论硬件问题。

这就是为什么我重复我在上面得出的结论:所有这些千兆赫与程序执行效率的关系很小。就像我们没有注意到过去15年里千兆赫的增长一样,我们也不会注意到这些非常千兆赫已经停止增长。