交易中的机器学习:理论、模型、实践和算法交易 - 页 2043

 
Alexander_K:

嗯...我去看看。还没有与M15以上的TF合作过......

你的信号在哪里?我把它放在我的收藏夹里,以便于观看,但现在它不见了。发生了什么事?

 
Oleg avtomat:

你的信号在哪里?我把它放在我的收藏夹里,方便查看,但现在它不见了。发生了什么事?


他一定是找到了圣杯,然后去了安静的房子。)

 

有趣的视频,马克西姆 这是你采取的方法吗?

Нейрохакатон: классификация сигналов ЭЭГ сверточными нейросетями — Андрей Киселев — Смотреть в Эфире
Нейрохакатон: классификация сигналов ЭЭГ сверточными нейросетями — Андрей Киселев — Смотреть в Эфире
  • yandex.ru
Андрей Киселев рассказывает про задачу классификации действий людей по сигналам электроэнцефалограмм, которая решалась в рамках хакатона по нейронаук…
 
而我的工作大致是这样 的。有趣的是,上面和下面视频中的两位作者的说法正好相反--一个说网不起作用,另一个说树起作用 :)
Kaggle Melbourne: прогнозирование эпилептических приступов — Олег Паничев — Смотреть в Эфире
Kaggle Melbourne: прогнозирование эпилептических приступов — Олег Паничев — Смотреть в Эфире
  • yandex.ru
Олег Паничев рассказывает про задачу прогнозирование эпилептических приступов на основе анализа электроэнцефалограмм (Kaggle Melbourne University Sei…
 
Aleksey Vyazmikin:

有趣的视频,马克西姆 这是你采取的方法吗?

算是吧,是的,但我还没有做),因为我对其成功没有什么信心。

网络在同质数据(如图像或信号)上效果最好。树在异质性的如很多不同的非正则化的特征上更好。

yandexair存在多久了? 我不知道之前有一个youtube的对应产品。

然而,这里有我们目前拥有的最酷的时间系列的例子--变压器。

https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html

但这一切看起来就像一个滞后的预测,就像LSTM一样。就像系列的当前值是对下一个的最佳预测,如SB
 

需要为mt4写一个简单的脚本 !

底线是这样的

1)我用鼠标按住某个蜡烛图的位置

2) 脚本在笔记本上写下这个蜡烛图的日期、时间和收盘价

就是这样!!!!。

 
Maxim Dmitrievsky:

算是吧,是的,但我还没有做),因为我对这项工作的成功没有什么信心。

网络在同质数据上的效果更好,如图像或信号。树在异质数据上的表现更好,比如很多不同的非正则化特征。

yandexair存在多久了? 我不知道之前有一个youtube的对应产品。

然而,这里有我们目前拥有的最酷的时间系列的例子--变压器。

https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html

时间系列是目前最酷的一个--变形金刚

Transformers from scratch
  • peterbloem.nl
I will assume a basic understanding of neural networks and backpropagation. If you’d like to brush up, this lecture will give you the basics of neural networks and this one will explain how these principles are applied in modern deep learning systems. Self-attention The fundamental operation of any transformer architecture is the self-attention...
 
Valeriy Yastremskiy:

关于转炉 的更多信息 翻译或多或少是不言自明的。

我把它放在我的收藏夹里了)我想我以前扔过它。

 

小型数据集上的随机标签的GRU

第20期列车误差:0.3469601273536682 TST误差:0.40891700983047485

这种随机标签抽样的优点和缺点可能是什么?

def add_labels(dataset, min, max, markup):          #min, max - минимальная\максимальная продолжительность сделки, в барах
    labels = []                                     #сюда сохраняем метки
    for i in range(dataset.shape[0]-max):
        rand = random.randint(min,max)              #случайно выбираем продолжительность следующей сделки
        if i == 0:                                  #если это первый элемент массива, заполняем значениями 0.5, rand-1 штук\
            for a in range(rand-1):                 #поскольку нет более ранних цен для определения метки       
                labels.append(0.5)
        if dataset['close'][i] > (dataset['close'][i + rand] + markup):    #если текущая цена больше чем цена + rand баров вперед\
                labels.append(1.0)                                         #то метка 1.0 (продажа)
        elif dataset['close'][i] < (dataset['close'][i + rand] - markup):  #если меньше, то покупка
                labels.append(0.0)              
        else:
                labels.append(0.5)
    dataset = dataset.iloc[:len(labels)].copy()
    dataset['labels'] = labels
    return dataset

现在我将把cuda包放在显卡上,用显卡来做大数据的数学运算。

芯片只是递增的序列,每次输入15个。

 
Maxim Dmitrievsky:

算是吧,是的,但我还没有做),因为我对这项活动的成功没有什么信心。

如果我从视频中理解正确的话,有一个函数/库可以在卷积网络 中寻找标志,即现成的模板,通过这些模板可以找到模式/预测器--我想知道预计会在那里找到什么,这个面具是如何制作的--逻辑是什么,你是否知道?


马克西姆-德米特里耶夫斯基


yandexair存在多久了? 我不知道之前有一个youtube的对应产品。

在很长一段时间里,大约两年,我认为有。

马克西姆-德米特里耶夫斯基

Z.Y. 以下是目前可用于时间系列的最酷的东西的例子--变形金刚

https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html

但这一切看起来就像一个滞后的预测,就像LSTM一样。就像系列的当前值是对下一个系列的最佳预测,就像在SB中一样

我不确定我们的输入数据是否适合这个网络--它在图片上看起来非常光滑。