测试x64平台的新MQL5编译器--计算速度提高2至10倍 - 页 18 1...111213141516171819202122 新评论 Alexey Volchanskiy 2017.11.27 23:13 #171 Alexey Sarmin:问题:现在的MT5 x64编译器(最新版本)在编译时是否默认启用了优化功能?(优化=1)似乎是这样。 Aleksey Vyazmikin 2019.10.13 17:05 #172 我怎样才能减少编译器的时间,甚至以降低所得代码的性能为代价? 我需要编译一个500兆字节的文件 - 我已经厌倦了等待... [删除] 2019.10.15 07:34 #173 Aleksey Vyazmikin: 我怎样才能减少编译器的时间,甚至以降低所得代码的性能为代价? 我需要编译一个500兆字节的文件 - 我已经厌倦了等待... 我想你前段时间给出了一个类似代码的例子...你能再做一次吗? Aleksey Vyazmikin 2019.10.15 07:40 #174 Alexey Kozitsyn: 我想你曾经举过一个类似代码的例子...你能再做一次吗? 是的,这里有一个 EA的链接。 已经两天了 - 汇编是7%... Denis Kirichenko 2019.10.15 08:00 #175 Aleksey Vyazmikin: 是的,这里有一个 EA的链接。 已经两天了 - 汇编是7%... 看了一下文件...只是一些案例--世界末日 :-) Aleksey Vyazmikin 2019.10.15 08:02 #176 Denis Kirichenko: 我看了一下文件...只是某种情况下的大决战 :-) 要做什么,你需要通过许多不同的变量集组合。 Denis Kirichenko 2019.10.15 08:07 #177 Aleksey Vyazmikin: 怎么办呢,有很多不同的变量组合要去看。 该目标是一个崇高的目标。但为什么要使用这种野蛮的手段?在标准的MetaEditor中,有几个单元测试。我在那里没有看到35Mb的文件。我的编辑甚至愣住了:-)) Aleksey Vyazmikin 2019.10.15 08:16 #178 Denis Kirichenko: 其目的是崇高的。但为什么要使用这种野蛮的手段?在标准的MetaEditor软件包中,有几个单元测试。我在那里没有看到35Mb的文件。我的编辑甚至愣住了:-)) 你还有什么建议的工具?这是迄今为止我想出的最快的方案。 文件正常情况下是这样编译的,不超过一个小时的等待......但对于500兆的文件来说,这已经很困难了。 事实上,甚至不清楚编译器在那里做什么,一切都在代码中非常清楚--没有什么可以优化的,就像它一样...... Renat Fatkhullin 2019.10.15 08:20 #179 为了加快编译速度(优化阶段),大幅减少函数的大小。 数百或数千行的函数越多,循环优化的速度就越慢。代码可以用长函数无限地改进。 Aleksey Vyazmikin 2019.10.15 08:32 #180 Renat Fatkhullin: 为了加快编译速度(优化阶段),大幅减少函数的大小。 数百或数千行的函数越多,循环优化的速度就越慢。你可以无休止地改进长函数的代码。 我想把这个枚举,比方说,转移到外部CSV文件中,但这时又出现了另一个问题--读取文件浪费时间,此外,当把任务分配给代理时,我不能给每个代理发送500兆字节,而EA代码被发送到一个代理(或不? 还有一个问题,我的代码很容易被7zip压缩,从500到15兆,但编译后的文件会在500左右--为什么会这样--没有机会做原始压缩(甚至到100兆)? 1...111213141516171819202122 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
问题:现在的MT5 x64编译器(最新版本)在编译时是否默认启用了优化功能?(优化=1)
似乎是这样。
我怎样才能减少编译器的时间,甚至以降低所得代码的性能为代价?
我需要编译一个500兆字节的文件 - 我已经厌倦了等待...
我怎样才能减少编译器的时间,甚至以降低所得代码的性能为代价?
我需要编译一个500兆字节的文件 - 我已经厌倦了等待...
我想你前段时间给出了一个类似代码的例子...你能再做一次吗?
我想你曾经举过一个类似代码的例子...你能再做一次吗?
是的,这里有一个 EA的链接。
已经两天了 - 汇编是7%...
是的,这里有一个 EA的链接。
已经两天了 - 汇编是7%...
看了一下文件...只是一些案例--世界末日 :-)
我看了一下文件...只是某种情况下的大决战 :-)
要做什么,你需要通过许多不同的变量集组合。
怎么办呢,有很多不同的变量组合要去看。
该目标是一个崇高的目标。但为什么要使用这种野蛮的手段?在标准的MetaEditor中,有几个单元测试。我在那里没有看到35Mb的文件。我的编辑甚至愣住了:-))
其目的是崇高的。但为什么要使用这种野蛮的手段?在标准的MetaEditor软件包中,有几个单元测试。我在那里没有看到35Mb的文件。我的编辑甚至愣住了:-))
你还有什么建议的工具?这是迄今为止我想出的最快的方案。
文件正常情况下是这样编译的,不超过一个小时的等待......但对于500兆的文件来说,这已经很困难了。
事实上,甚至不清楚编译器在那里做什么,一切都在代码中非常清楚--没有什么可以优化的,就像它一样......为了加快编译速度(优化阶段),大幅减少函数的大小。
数百或数千行的函数越多,循环优化的速度就越慢。代码可以用长函数无限地改进。
为了加快编译速度(优化阶段),大幅减少函数的大小。
数百或数千行的函数越多,循环优化的速度就越慢。你可以无休止地改进长函数的代码。
我想把这个枚举,比方说,转移到外部CSV文件中,但这时又出现了另一个问题--读取文件浪费时间,此外,当把任务分配给代理时,我不能给每个代理发送500兆字节,而EA代码被发送到一个代理(或不?
还有一个问题,我的代码很容易被7zip压缩,从500到15兆,但编译后的文件会在500左右--为什么会这样--没有机会做原始压缩(甚至到100兆)?