Обсуждение статьи "Нейросети в трейдинге: Изучение локальной структуры данных"

 

Опубликована статья Нейросети в трейдинге: Изучение локальной структуры данных:

Эффективное выявление и сохранение локальной структуры рыночных данных в условиях шума является важной задачей в трейдинге. Использование механизма Self-Attention показало хорошие результаты в обработке подобных данных, но классический метод не учитывают локальные особенности исходной структуры. В данной статье я предлагаю познакомиться с алгоритмом, способным учитывать эти структурные зависимости.

Transformer показал свою эффективность в решении различных задачах. По сравнению со сверткой, механизм Self-Attention способен адаптивно исключать шумные или неактуальные точки. Тем не менее, ванильный Transformer использует одну функцию для преобразования всех элементов последовательности. Такая изотропная работа игнорирует информацию о локальной структуре в пространственных отношениях и не учитывает направление и расстояние от центральной точки до ее соседей. Если мы поменяем местами позиции точек, то результат работы Transformer останется прежним. Это создает проблемы для распознавания направления объектов, что важно для обнаружения ценовых паттернов.

Авторы статьи "SEFormer: Structure Embedding Transformer for 3D Object Detection" постарались объединить лучшее из двух подходов и разработали новый трансформер кодирования структуры (Structure-Embedding transFormerSEFormer), который способен кодировать локальную структуру, ориентированную на направление и расстояние. Предложенный SEFormer изучает различные преобразования для Value точек с разных направлений и расстояний. Следовательно, изменение локальной пространственной структуры может быть закодировано в результатах работы модели, что даст ключ к точному распознаванию направлений объектов.

Автор: Dmitriy Gizlyk