Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (49)
  • 信息
10+ 年
经验
0
产品
0
演示版
134
工作
0
信号
0
订阅者
任何的MT4和MT5複雜專業寫作計劃。
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十一部分):变分自动编码器(VAE)
神经网络变得轻松(第二十一部分):变分自动编码器(VAE)

在上一篇文章中,我们已熟悉了自动编码器算法。 像其它任何算法一样,它也有其优点和缺点。 在其原始实现中,自动编码器会尽可能多地将对象与训练样本分开。 这次我们将讨论如何应对它的一些缺点。

· 2 1495
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十部分):自动编码器
神经网络变得轻松(第二十部分):自动编码器

我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。

· 3 1467
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十九部分):使用 MQL5 的关联规则
神经网络变得轻松(第十九部分):使用 MQL5 的关联规则

我们继续研究关联规则。 在前一篇文章中,我们讨论了这种类型问题的理论层面。 在本文中,我将展示利用 MQL5 实现 FP-Growth 方法。 我们还将采用真实数据测试所实现的解决方案。

· 3 1194
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十八部分):关联规则
神经网络变得轻松(第十八部分):关联规则

作为本系列文章的延续,我们来研究无监督学习方法中的另一类问题:挖掘关联规则。 这种问题类型首先用于零售业,即超市等,来分析市场篮子。 在本文中,我们将讨论这些算法在交易中的适用性。

· 3 1016
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十七部分):降低维度
神经网络变得轻松(第十七部分):降低维度

在本部分中,我们将继续讨论人工智能模型。 即,我们研究无监督学习算法。 我们已经讨论了众多聚类算法之一。 在本文中,我将分享一种解决与降维相关问题的方法。

· 3 1231
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十六部分):聚类运用实践
神经网络变得轻松(第十六部分):聚类运用实践

在上一篇文章中,我们为数据聚类创建了一个类。 在本文中,我想分享在解决实际交易任务时应用所获结果会遇到的可能变体。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类
神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类

我们继续研究聚类方法。 在本文中,我们将创建一个新的 CKmeans 类来实现最常见的聚类方法之一:k-均值。 在测试期间,该模型成功地识别了大约 500 种形态。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十四部分):数据聚类
神经网络变得轻松(第十四部分):数据聚类

我的上一篇文章已经发表一年多了。 这令我有了大量时间考虑修改思路和发展新方法。 在这篇新文章中,我想转移一下以前使用的监督学习方法。 这次我们将深入研究无监督学习算法。 特别是,我们将考虑一种聚类算法 — k-均值。

· 3 1214
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十三部分):批次常规化
神经网络变得轻松(第十三部分):批次常规化

在上一篇文章中,我们开始研究旨在提高神经网络训练品质的方法。 在本文中,我们将继续这个主题,并会研讨另一种方法 — 批次数据常规化。

· 11 1997
Dmitriy Gizlyk
留下反馈给客户为工作 Доработка робота МТ5 на основе индикатора с открытым кодом
dma19
dma19 2021.06.11
hello dimitry. is it possible to submit a job request from you?
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十二部分):舍弃
神经网络变得轻松(第十二部分):舍弃

作为研究神经网络的下一步,我建议研究在神经网络训练过程中提高收敛性的方法。 有若干种这样的方法。 在本文中,我们将研究其中之一,名为“舍弃”。

· 5 2972
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十一部分):自 GPT 获取
神经网络变得轻松(第十一部分):自 GPT 获取

也许,GPT-3 是目前已有语言类神经网络中最先进的模型之一,它的最大变体可包含 1750 亿个参数。 当然,我们不打算在家用 PC 上创建如此庞然之物。 然而,我们可以看看在我们的操作中能够采用哪种体系解决方案,以及如何从中受益。

· 4 2863
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十部分):多目击者关注
神经网络变得轻松(第十部分):多目击者关注

我们以前曾研究过神经网络中的自关注机制。 在实践中,现代神经网络体系结构会采用多个并行的自关注线程来查找序列元素之间的各种依存关系。 我们来研究这种方法的实现,并评估其对整体网络性能的影响。

· 9 2005
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第九部分):操作归档
神经网络变得轻松(第九部分):操作归档

我们已经经历了很长一段路,并且函数库中的代码越来越庞大。 这令跟踪所有连接和依赖性变得难以维护。 因此,我建议为先前创建的代码创建文档,并保持伴随每个新步骤进行更新。 正确准备的文档将有助我们看到操作的完整性。

· 7 1332
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第八部分):关注机制
神经网络变得轻松(第八部分):关注机制

在之前的文章中,我们已经测试了组织规划神经网络的各种选项。 我们还研究了自图像处理算法中借鉴而来的卷积网络。 在本文中,我建议研究关注机制,它的出现为开发语言模型提供了动力。

· 5 1659
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第七部分):自适应优化方法
神经网络变得轻松(第七部分):自适应优化方法

在之前的文章中,我们利用随机梯度下降法针对网络中的所有神经元按照相同的学习率训练神经网络。 在本文中,我提议着眼于自适应学习方法,该方法能够改变每个神经元的学习率。 我们还将研究这种方法的利弊。

· 5 1627
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第六部分):神经网络学习率实验
神经网络变得轻松(第六部分):神经网络学习率实验

我们之前已研究过各种类型的神经网络及其实现。 在所有情况下,训练神经网络时都使用梯度下降法,为此我们需要选择学习率。 在本文中,我打算通过示例展示正确选择学习率的重要性,及其对神经网络训练的影响。

· 5 2300
Dmitriy Gizlyk
留下反馈给客户为工作 Переделать существующий индикатор
Dmitriy Gizlyk
留下反馈给客户为工作 Develop EA of a modified version of London Breakout Strategy
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第五部分):OpenCL 中的多线程计算
神经网络变得轻松(第五部分):OpenCL 中的多线程计算

我们早前已经讨论过某些类型的神经网络实现。 在所研究的网络中,每个神经元都重复相同的操作。 逻辑上进一步应利用现代技术提供的多线程计算功能来加快神经网络学习过程。 本文介绍了一种可能的实现方式。

· 4 2058
lam shoul
lam shoul 2022.07.20
Hi