Dmitriy Gizlyk / Perfil
- Informações
10+ anos
experiência
|
0
produtos
|
0
versão demo
|
134
trabalhos
|
0
sinais
|
0
assinantes
|
![Нейросети в трейдинге: Модели пространства состояний](https://c.mql5.com/2/88/logo-neuronetworks_in_trading_15546_388_3728.png)
В основе большого количества рассмотренных нами ранее моделей лежит архитектура Transformer. Однако они могут быть неэффективны при работе с длинными последовательностями. И в этой статье я предлагаю познакомиться с альтернативным направлением прогнозирования временных рядов на основе моделей пространства состояний.
![Нейросети в трейдинге: Инъекция глобальной информации в независимые каналы (InjectTST)](https://c.mql5.com/2/87/Neural_networks_in_trading__Injection_of_global_information_into_independent_channels__LOGO.png)
Большинство современных методов прогнозирования мультимодальных временных рядов используют подход независимых каналов. Тем самым игнорируется природная зависимость различных каналов одного временного ряда. Разумное использование 2 подходов (независимых и смешанных каналов) является ключом к повышению эффективности моделей.
![Нейросети в трейдинге: Практические результаты метода TEMPO](https://c.mql5.com/2/87/Neural_networks_in_trading__Practical_results_of_the_TEMPO_method___LOGO.png)
Продолжаем знакомство с методом TEMPO. И в данной статье мы оценим фактическую эффективность предложенных подходов на реальных исторических данных.
![Нейросети в трейдинге: Использование языковых моделей для прогнозирования временных рядов](https://c.mql5.com/2/86/Neural_networks_in_trading__Using_language_models_to_forecast_time_series___LOGO.png)
Мы продолжаем рассмотрения моделей прогнозирования временных рядов. И в данной статье я предлагаю познакомиться с комплексным алгоритмом, построенным на использовании предварительно обученной языковой модели.
![Нейросети в трейдинге: "Легкие" модели прогнозирования временных рядов](https://c.mql5.com/2/86/Neural_networks_in_trading_____Easy_time_series_forecasting_models___LOGO.png)
Легковесные модели прогнозирования временных рядов обеспечивают высокую производительность, используя минимальное количество параметров. Что, в свою очередь, снижает расход вычислительных ресурсов и ускоряет принятие решений. При этом они достигают качества прогнозов, сопоставимого с более сложными моделями.
![Нейросети в трейдинге: Снижение потребления памяти методом оптимизации Adam (Adam-mini)](https://c.mql5.com/2/85/Reducing_memory_consumption_using_the_Adam_optimization_method___LOGO.png)
Одним из направлений повышения эффективности процесса обучения и сходимости моделей является улучшение методов оптимизации. Adam-mini представляет собой адаптивный метод оптимизации, разработанный для улучшения базового алгоритма Adam.
![Нейросети в трейдинге: Пространственно-временная нейронная сеть (STNN)](https://c.mql5.com/2/84/Neural_networks_in_trading_STNN___LOGO.png)
В данной статье мы поговорим об использовании пространственно-временных преобразований для эффективного прогнозирования предстоящего ценового движения. Для повышения точности численного прогнозирования в STNN был предложен механизм непрерывного внимания, который позволяет модели лучше учитывать важные аспекты данных.
![Нейросети в трейдинге: Модель двойного внимания для прогнозирования трендов](https://c.mql5.com/2/83/Neural_networks_made_easy__A_dual_attention_model_for_trend_forecasting___LOGO.png)
Продолжаем разговор об использовании кусочно-линейного представления временных рядов, начатый в предыдущей статье. И сегодня мы поговорим о комбинировании данного метода с другими подходами к анализу временных рядов для повышения качества прогнозирования трендов ценовых движений.
![Нейросети в трейдинге: Кусочно-линейное представление временных рядов](https://c.mql5.com/2/82/Neural_networks_are_simple_Piecewise_linear_representation_of_time_series__LOGO.png)
Эта статья несколько отличается от предыдущих работ данной серии. В ней мы поговорим об альтернативном представлении временных рядов. Кусочно-линейное представление временных рядов — это метод аппроксимации временного ряда с помощью линейных функций на небольших интервалах.
![Нейросети — это просто (Часть 97): Обучение модели с использованием MSFformer](https://c.mql5.com/2/82/Neural_networks_are_easy_Part_96__LOGO__1.png)
При изучении различных архитектур построения моделей мы мало уделяем внимания процессу обучения моделей. В этой статье я попытаюсь восполнить этот пробел.
![Нейросети — это просто (Часть 96): Многоуровневое извлечение признаков (MSFformer)](https://c.mql5.com/2/82/Neural_networks_are_easy_Part_96__LOGO.png)
Эффективное извлечение и объединение долгосрочных зависимостей и краткосрочных характеристик остаются важной задачей в анализе временных рядов. Правильное их понимание и интеграция необходимы для создания точных и надежных предсказательных моделей.
![Нейросети — это просто (Часть 95): Снижение потребления памяти в моделях Transformer](https://c.mql5.com/2/81/Neural_networks_are_easy_Part_95_LOGO.png)
Модели на основе архитектуры Transformer демонстрируют высокую эффективность, однако их использование осложняется большими затратами ресурсов как на этапе обучения, так и в процессе эксплуатации. В этой статье я предлагаю познакомиться с алгоритмами, которые позволяют уменьшить использование памяти такими моделями.
![Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных](https://c.mql5.com/2/80/Neural_networks_are_easy_Part_94____LOGO.png)
При работе с временными рядами мы всегда используем исходные данные в их исторической последовательности. Но является ли это оптимальным вариантом? Существует мнение, что изменение последовательности исходных данных позволит повысить эффективность обучаемых моделей. В данной статье я предлагаю вам познакомиться с одним из таких методов.
![Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)](https://c.mql5.com/2/80/Neural_networks_are_easy_Part_93____LOGO.png)
В данной статье мы продолжаем реализацию подходов ATFNet — модели, которая адаптивно объединяет результаты 2 блоков (частотного и временного) прогнозирования временных рядов
![Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях](https://c.mql5.com/2/79/Neural_networks_are_easy_Part_92____LOGO.png)
Авторы метода FreDF экспериментально подтвердили преимущество комбинированного прогнозирования в частотной и временной областях. Однако применение весового гиперпараметра не является оптимальным для нестационарных временных рядов. В данной статье я предлагаю познакомиться с методом адаптивного сочетания прогнозов в частотной и временной областях.
![Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)](https://c.mql5.com/2/78/Neural_networks_are_easy_Part_91___LOGO.png)
Мы продолжаем рассмотрение темы анализ и прогнозирования временных рядов в частотной области. И в данной статье мы познакомимся с новым методом прогнозирования в частотной области, который может быть добавлен к многим, изученным нами ранее, алгоритмам.
![Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)](https://c.mql5.com/2/78/Neural_networks_are_easy_tPart_90x__LOGO.png)
При изучении метода FEDformer мы приоткрыли дверь в частотную область представления временного ряда. В новой статье мы продолжим начатую тему. И рассмотрим метод, позволяющий не только проводить анализ, но и прогнозировать последующие состояния в частной области.
![Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)](https://c.mql5.com/2/77/Neural_networks_are_easy_cPart_89q___LOGO.png)
Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.
![Нейросети — это просто (Часть 88): Полносвязный Энкодер временных рядов (TiDE)](https://c.mql5.com/2/76/Neural_networks_are_easy_7Part_88j___LOGO.png)
Желание получить наиболее точные прогнозы толкает исследователей к усложнению моделей прогнозирование. Что в свою очередь ведет к увеличению затрат на обучение и обслуживание модели. Но всегда ли это оправдано? В данной статье я предлагаю Вам познакомиться с алгоритмом, который использует простоту и скорость линейных моделей и демонстрирует результаты на уровне лучших с более сложной архитектурой.
![Нейросети — это просто (Часть 87): Сегментация временных рядов](https://c.mql5.com/2/76/Neural_networks_are_easy_fPart_87k____LOGO.png)
Прогнозирование играет важную роль в анализе временных рядов. В новой статье мы поговорим о преимуществах сегментации временных рядов.