![Нейронные сети обратного распространения ошибки на матрицах MQL5](https://c.mql5.com/2/51/ljsnhuhb0-oo9q-wpjy41jz4-qm54hcjep42jwc1-eptmus-qs-mvfbuysh_600x314.jpg)
Нейронные сети обратного распространения ошибки на матрицах MQL5
Статья описывает теорию и практику применения алгоритма обратного распространения ошибки на MQL5 с помощью матриц. Прилагаются готовые классы и примеры скрипта, индикатора и эксперта.
![Машинное обучение и Data Science (Часть 06): Градиентный спуск](https://c.mql5.com/2/49/gradient_descent_600x314.jpg)
Машинное обучение и Data Science (Часть 06): Градиентный спуск
Градиентный спуск играет важную роль в обучении нейронных сетей и различных алгоритмов машинного обучения — это быстрый и умный алгоритм. Однако несмотря на его впечатляющую работу, многие специалисты по данным все еще неправильно его понимают. Давайте в этой статье посмотрим, о чем идет речь.
![Машинное обучение и Data Science — Нейросети (Часть 01): Разбираем нейронные сети с прямой связью](https://c.mql5.com/2/49/feed_forward_nn_600x314.jpg)
Машинное обучение и Data Science — Нейросети (Часть 01): Разбираем нейронные сети с прямой связью
Многие любят, но немногие понимают все операции, лежащие в основе нейронных сетей. В этой статье я постараюсь простым языком объяснить все, что происходит за закрытыми дверями многоуровневого перцептрона с прямой связью Feed Forward.
![Машинное обучение и Data Science (Часть 02): Логистическая регрессия](https://c.mql5.com/2/49/logistic_regression_600x314.jpg)
Машинное обучение и Data Science (Часть 02): Логистическая регрессия
Классификация данных — важнейшая вещь для алготрейдера и программиста. В этой статье мы рассмотрим в подробностях один из классификационных логистических алгоритмов, который может помочь нам определить «да» или «нет», рост или падение, покупки или продажи.
![Машинное обучение и Data Science (Часть 07): Полиномиальная регрессия](https://c.mql5.com/2/49/Data_Science_and_Machine_Learning_Part_07_Polynomial_Regression_600x314.jpg)
Машинное обучение и Data Science (Часть 07): Полиномиальная регрессия
Полиномиальная регрессия — это гибкая модель, предназначенная для эффективного решения задач, с которыми не справляется модель линейной регрессии. В этой статье узнаем, как создавать полиномиальные модели на MQL5 и извлекать из них выгоду.
![Нейросети — это просто (Часть 27): Глубокое Q-обучение (DQN)](https://c.mql5.com/2/49/Neural_Networks_Easy_019_600x314.jpg)
Нейросети — это просто (Часть 27): Глубокое Q-обучение (DQN)
Продолжаем изучение обучения с подкреплением. И в этой статье мы познакомимся с методом глубокого Q-обучения. Использование данного метода позволило команде DeepMind создать модель, способную превзойти человека при игре в компьютерные игры Atari. Думаю, будет полезно оценить возможности подобной технологии для решения задач трейдинга.
![Как прокачаться в машинном обучении (Machine Learning)](https://c.mql5.com/2/49/howtomaster_ml_600x314.jpg)
Как прокачаться в машинном обучении (Machine Learning)
Представляем вашему вниманию подборку материалов, которые будут полезны трейдеру для повышения своих знаний в алготрейдинге. Время простых алгоритмов уходит в прошлое, сейчас сложно добиться успехов без использования машинного обучения и нейронных сетей.
![Градиентный бустинг в задачах трансдуктивного и активного машинного обучения](https://c.mql5.com/2/49/gradient_boosting_catboost_ml_600x314.jpg)
Градиентный бустинг в задачах трансдуктивного и активного машинного обучения
В данной статье вы познакомитесь с методами активного машинного обучения на реальных данных, узнаете какие плюсы и минусы они имеют. Возможно, эти методы займут свое место в вашем арсенале моделей машинного обучения. Термин трансдукции был введен Владимиром Наумовичем Вапником, изобретателем машины опорных векторов или SVM (support vector machine).
![Машинное обучение и Data Science (Часть 01): Линейная регрессия](https://c.mql5.com/2/49/linear_regression_600x314.jpg)
Машинное обучение и Data Science (Часть 01): Линейная регрессия
Пришло время нам, трейдерам, обучить наши системы и научиться самим принимать решения, основываясь на том, что показывают цифры. Не визуальным и не интуитивным путем, которым движется весь мир. Мы пойдем перпендикулярно общему направлению.
![Машинное обучение и Data Science (Часть 8): Кластеризация методом k-средних в MQL5](https://c.mql5.com/2/50/k-means_clustering_600x314.jpg)
Машинное обучение и Data Science (Часть 8): Кластеризация методом k-средних в MQL5
Для всех, кто работает с данными, включая трейдеров, data mining может открыть совершенно новые возможности, ведь зачастую данные не такие простые, какими кажутся. Человеческому глазу сложно увидеть глубинные закономерности и отношения в наборе данных. Одно из решений — алгоритм К-средних. Давайте посмотрим, полезен ли он.
![Нейросети — это просто (Часть 26): Обучение с подкреплением](https://c.mql5.com/2/49/Neural_Networks_Easy_018_600x314.jpg)
Нейросети — это просто (Часть 26): Обучение с подкреплением
Продолжаем изучение методов машинного обучения. Данной статьей мы начинаем еще одну большую тему "Обучение с подкреплением". Данный подход позволяет моделям выстаивать определенные стратегии для решения поставленных задач. И мы рассчитываем, что это свойство обучения с подкреплением откроет перед нами новые горизонты построения торговых стратегий.
![Метамодели в машинном обучении и трейдинге: Оригинальный тайминг торговых приказов](https://c.mql5.com/2/49/metamodels_ml_trading_original_timing_orders_600x314.jpg)
Метамодели в машинном обучении и трейдинге: Оригинальный тайминг торговых приказов
Метамодели в машинном обучении: Автоматическое создание торговых систем практически без участия человека — Модель сама принимает решение как торговать и когда торговать.
![Матрицы и векторы в MQL5](https://c.mql5.com/2/49/matrix_vectors_mql5_600x314.jpg)
Матрицы и векторы в MQL5
Специальные типы данных matrix и vector позволяют писать код, приближенный к математической записи. Это избавляет от необходимости создавать вложенные циклы и помнить о правильной индексации массивов, которые участвуют в вычислении. Таким образом повышается надежность и скорость разработки сложных программ.
![Эксперименты с нейросетями (Часть 4): Шаблоны](https://c.mql5.com/2/52/neural_network_experiments-004_600x314.jpg)
Эксперименты с нейросетями (Часть 4): Шаблоны
Нейросети наше все. Проверяем на практике, так ли это. MetaTrader 5 как самодостаточное средство для использования нейросетей в трейдинге. Простое объяснение.
![Эксперименты с нейросетями (Часть 5): Нормализация входных параметров для передачи в нейросеть](https://c.mql5.com/2/53/neural_network_experiments-p5_600x314.jpg)
Эксперименты с нейросетями (Часть 5): Нормализация входных параметров для передачи в нейросеть
Нейросети наше все. Проверяем на практике, так ли это. MetaTrader 5 как самодостаточное средство для использования нейросетей в трейдинге. Простое объяснение.
![Популяционные алгоритмы оптимизации: Рой частиц (PSO)](https://c.mql5.com/2/49/cover_PSO_600x314.jpg)
Популяционные алгоритмы оптимизации: Рой частиц (PSO)
В данной статье рассмотрим популярный алгоритм "Рой Частиц" (PSO — particle swarm optimisation). Ранее мы обсудили такие важные характеристики алгоритмов оптимизации как сходимость, скорость сходимости, устойчивость, масштабируемость, разработали стенд для тестирования, рассмотрели простейший алгоритм на ГСЧ.
![Эксперименты с нейросетями (Часть 1): Вспоминая геометрию](https://c.mql5.com/2/51/neural_network_experiments_p1_600x314.jpg)
Эксперименты с нейросетями (Часть 1): Вспоминая геометрию
Нейросети наше все. Проверяем на практике, так ли это. Экспериментируем и используем нестандартные подходы. Пишем прибыльную торговую систему. Простое объяснение.
![Нейросети — это просто (Часть 29): Алгоритм актор-критик с преимуществом (Advantage actor-critic)](https://c.mql5.com/2/49/Neural_Networks_Easy_021_600x314.jpg)
Нейросети — это просто (Часть 29): Алгоритм актор-критик с преимуществом (Advantage actor-critic)
В предыдущих статьях данной серии мы познакомились с 2-мя алгоритмами обучения с подкреплением. Каждый из них обладает своими достоинствами и недостатками. Как часто бывает в таких случаях, появляется идея совместить оба метода в некий алгоритм, который бы вобрал в себя лучшее из двух. И тем самым компенсировать недостатки каждого из них. О таком методе мы и поговорим в этой статье.
![Популяционные алгоритмы оптимизации: Оптимизация Стаей Серых Волков (Grey Wolf Optimizer - GWO)](https://c.mql5.com/2/50/grey_wolf_optimizer_600x314.jpg)
Популяционные алгоритмы оптимизации: Оптимизация Стаей Серых Волков (Grey Wolf Optimizer - GWO)
Рассмотрим один из новейших современных алгоритмов оптимизации "Стаи серых волков". Оригинальное поведение на тестовых функциях делает этот алгоритм одним из самых интересных среди рассмотренных ранее. Один из лидеров для применения в обучении нейронных сетей, гладких функций с многими переменными.
![Популяционные алгоритмы оптимизации: Алгоритм обезьян (Monkey algorithm, MA)](https://c.mql5.com/2/52/monkey_600x314.jpg)
Популяционные алгоритмы оптимизации: Алгоритм обезьян (Monkey algorithm, MA)
В этой статье рассмотрим алгоритм оптимизации "Алгоритм обезьян" (MA). Способность этих подвижных животных преодолевать сложные препятствия и добираться до самых труднодоступных вершин деревьев легли в основу идеи алгоритма MA.
![Классификационные модели библиотеки Scikit-learn и их экспорт в ONNX](https://c.mql5.com/2/58/Scikit_learn_to-ONNX_600x314.jpg)
Классификационные модели библиотеки Scikit-learn и их экспорт в ONNX
В данной статье мы рассмотрим применение всех классификационных моделей пакета Scikit-learn для решения задачи классификации ирисов Фишера, попробуем их сконвертировать в ONNX-формат и использовать полученные модели в программах на MQL5. Также мы сравним точность работы оригинальных моделей и их ONNX-версий на полном наборе Iris dataset.
![Нейросети — это просто (Часть 31): Эволюционные алгоритмы](https://c.mql5.com/2/50/Neural_Networks_are_Simple-_Part_31_600x314.jpg)
Нейросети — это просто (Часть 31): Эволюционные алгоритмы
В предыдущей статье мы начали изучение безградиентных методов оптимизации. И познакомились с генетическим алгоритмом. Сегодня мы продолжаем начатую тему. И рассмотрим ещё один класс эволюционных алгоритмов.
![Нейросети — это просто (Часть 36): Реляционные модели обучения с подкреплением (Relational Reinforcement Learning)](https://c.mql5.com/2/52/Neural_Networks_Made_036_600x314.jpg)
Нейросети — это просто (Часть 36): Реляционные модели обучения с подкреплением (Relational Reinforcement Learning)
В рассмотренных ранее моделях обучения с подкреплением мы использовали различные варианты сверточных сетей, которые способны идентифицировать различные объекты в исходных данных. Основное преимущество сверточных сетей в способности идентифицировать объекты вне зависимости от их расположением. В тоже время, сверточные сети не всегда справляются с различными деформациями объектов и шумом. Но эти проблемы способна решить реляционная модель.
![Популяционные алгоритмы оптимизации: Муравьиная Колония (Ant Colony Optimization - ACO)](https://c.mql5.com/2/50/popular_algorithm_ant_colony_optimization_600x314.jpg)
Популяционные алгоритмы оптимизации: Муравьиная Колония (Ant Colony Optimization - ACO)
В этот раз разберём алгоритм оптимизации Муравьиная Колония. Алгоритм очень интересный и неоднозначный. Попытка создания нового типа ACO.
![Нейросети — это просто (Часть 28): Policy gradient алгоритм](https://c.mql5.com/2/49/Neural_Networks_Easy_020_600x314.jpg)
Нейросети — это просто (Часть 28): Policy gradient алгоритм
Продолжаем изучение методов обучение с подкреплением. В предыдущей статье мы познакомились с методом глубокого Q-обучения. В котором мы обучаем модель прогнозирования предстоящей награды в зависимости от совершаемого действия в конкретной ситуации. И далее совершаем действие в соответствии с нашей политикой и ожидаемой наградой. Но не всегда возможно аппроксимировать Q-функцию. Или её аппроксимация не даёт желаемого результата. В таких случаях используют методы аппроксимации не функции полезности, а на прямую политику (стратегию) действий. Именно к таким методам относится policy gradient.
![Популяционные алгоритмы оптимизации: Искуственная Пчелиная Колония (Artificial Bee Colony - ABC)](https://c.mql5.com/2/50/artificial_bee_colony_600x314.jpg)
Популяционные алгоритмы оптимизации: Искуственная Пчелиная Колония (Artificial Bee Colony - ABC)
Сегодня изучим алгоритм искусственной пчелиной колонии. Дополним наши знания новыми принципами исследования функциональных пространств. В данной статье я расскажу о моей интерпретации классического варианта алгоритма.
![Нейросети — это просто (Часть 35): Модуль внутреннего любопытства (Intrinsic Curiosity Module)](https://c.mql5.com/2/50/Neural_Networks_Made_035_600x314.jpg)
Нейросети — это просто (Часть 35): Модуль внутреннего любопытства (Intrinsic Curiosity Module)
Продолжаем изучение алгоритмов обучения с подкреплением. Все ранее рассмотренные нами алгоритмы требовали создания политики вознаграждения таким образом, чтобы агент мог оценить каждое свое действие на каждом переходе из одного состояния системы в другое. Но такой подход довольно искусственный. На практике же между действием и вознаграждением существует некоторый временной лаг. В данной статье я предлагаю Вам познакомиться с алгоритмом обучения модели, способным работать с различными временными задержками от действия до вознаграждения.
![Нейросети — это просто (Часть 22): Обучение без учителя рекуррентных моделей](https://c.mql5.com/2/49/Neural_Networks_Easy_014_600x314.jpg)
Нейросети — это просто (Часть 22): Обучение без учителя рекуррентных моделей
Мы продолжаем рассмотрение алгоритмов обучения без учителя. И сейчас я предлагаю обсудить особенности использования автоэнкодеров для обучения рекуррентных моделей.
![Нейросети — это просто (Часть 20): Автоэнкодеры](https://c.mql5.com/2/49/Neural_Networks_Easy_012_600x314.jpg)
Нейросети — это просто (Часть 20): Автоэнкодеры
Мы продолжаем изучение алгоритмов обучения без учителя. Возможно, у читателя может возникнуть вопрос об соответствии последних публикаций теме нейронных сетей. В новой статье мы возвращаемся к использованию нейронных сетей.
![Нейросети — это просто (Часть 21): Вариационные автоэнкодеры (VAE)](https://c.mql5.com/2/49/Neural_Networks_Easy_013_600x314.jpg)
Нейросети — это просто (Часть 21): Вариационные автоэнкодеры (VAE)
В прошлой статье мы познакомились с алгоритмом работы автоэнкодера. Как и любой другой алгоритм, он имеет свои достоинства и недостатки. В оригинальной реализации автоэнкодер выполняет задачу максимально разделить объекты из обучающей выборки. А о том, как бороться с некоторыми его недостатками мы поговорим в этой статье.
![Популяционные алгоритмы оптимизации: Поиск косяком рыб (Fish School Search — FSS)](https://c.mql5.com/2/50/Fish_School_cover_600x314.jpg)
Популяционные алгоритмы оптимизации: Поиск косяком рыб (Fish School Search — FSS)
Поиск косяком рыб (FSS) — новый современный алгоритм оптимизации, вдохновленный поведением рыб в стае, большинство из которых, до 80%, плавают организовано в сообществе сородичей. Доказано, что объединения рыб играют важную роль в эффективности поиска пропитания и защиты от хищников.
![Нейросети — это просто (Часть 17): Понижение размерности](https://c.mql5.com/2/49/Neural_networks_made_easy_007_600x314.jpg)
Нейросети — это просто (Часть 17): Понижение размерности
Мы продолжаем рассмотрение моделей искусственного интеллекта. И, в частности, алгоритмов обучения без учителя. Мы уже познакомились с одним из алгоритмов кластеризации. А в этой статье я хочу поделиться с Вами вариантом решения задач понижения размерности.
![Нейросети — это просто (Часть 30): Генетические алгоритмы](https://c.mql5.com/2/49/Neural_Networks_Easy_022_600x314.jpg)
Нейросети — это просто (Часть 30): Генетические алгоритмы
Сегодня я хочу познакомить Вас с немного иным методом обучения. Можно сказать, что он заимствован из теории эволюции Дарвина. Наверное, он менее контролируем в сравнении с рассмотренными ранее методами. Но при этом позволяет обучать и недифференцируемые модели.
![Машинное обучение и Data Science (Часть 05): Деревья решений на примере погодных условий для игры в теннис](https://c.mql5.com/2/49/decision_trees_600x314.jpg)
Машинное обучение и Data Science (Часть 05): Деревья решений на примере погодных условий для игры в теннис
Деревья решений классифицируют данные, имитируя то, каким образом размышляют люди. В этой статье посмотрим, как строить деревья и использовать их для классификации и прогнозирования данных. Основная цель алгоритма деревьев решений состоит в том, чтобы разделить выборку на данные с "примесями" и на "чистые" или близкие к узлам.
![Нейросети — это просто (Часть 18): Ассоциативные правила](https://c.mql5.com/2/49/Neural_Networks_Easy_010_600x314.jpg)
Нейросети — это просто (Часть 18): Ассоциативные правила
В продолжение данной серии статей предлагаю познакомиться ещё с одним типом задач из методов обучения без учителя — поиск ассоциативных правил. Данный тип задач впервые был применен в ритейле для анализа корзин покупателей. О возможностях использования подобных алгоритмов в рамках трейдинга мы и поговорим в этой статье.
![Популяционные алгоритмы оптимизации: Алгоритм оптимизации с кукушкой (Cuckoo Optimization Algorithm — COA)](https://c.mql5.com/2/50/Cuckoo-Optimization-Algorithm-cover_600x314.jpg)
Популяционные алгоритмы оптимизации: Алгоритм оптимизации с кукушкой (Cuckoo Optimization Algorithm — COA)
Следующий алгоритм, который рассмотрим — оптимизация поиском кукушки с использованием полётов Леви. Это один из новейших алгоритмов оптимизации и новый лидер в рейтинговой таблице.
![Машинное обучение и Data Science (Часть 10): Гребневая регрессия](https://c.mql5.com/2/51/ridge_regression_600x314.jpg)
Машинное обучение и Data Science (Часть 10): Гребневая регрессия
Гребневая регрессия (ридж-регрессия) — это простой метод для уменьшения сложности модели и борьбы с подгонкой, которая может возникнуть в результате простой линейной регрессии.
![Нейросети — это просто (Часть 37): Разреженное внимание (Sparse Attention)](https://c.mql5.com/2/53/NN_part_37_Sparse_Attention_600x314.jpg)
Нейросети — это просто (Часть 37): Разреженное внимание (Sparse Attention)
В предыдущей статье мы познакомились с реляционными моделями, в архитектуре которых используются механизмы внимания. Одной из особенностей указанных моделей является повышенное использование вычислительных ресурсов. В данной статье будет предложен один их механизмов уменьшения количества вычислительных операций внутри блока Self-Attention. Что позволит увеличить производительность модели в целом.
![Популяционные алгоритмы оптимизации: Алгоритм летучих мышей (Bat algorithm - BA)](https://c.mql5.com/2/51/Bat-algorithm_600x314.jpg)
Популяционные алгоритмы оптимизации: Алгоритм летучих мышей (Bat algorithm - BA)
Сегодня изучим алгоритм летучих мышей (Bat algorithm - BA), который отличается удивительной сходимостью на гладких функциях.
![Популяционные алгоритмы оптимизации: Светлячковый алгоритм (Firefly Algorithm - FA)](https://c.mql5.com/2/51/firefly_algorithm_600x314.jpg)
Популяционные алгоритмы оптимизации: Светлячковый алгоритм (Firefly Algorithm - FA)
Рассмотрим метод оптимизации "Поиск с помощью светлячкового алгоритма" (FA). Из аутсайдера путем модификации алгоритм превратился в настоящего лидера рейтинговой таблицы.