Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 591
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вообще-то, все надо писать на С++/C#, и проблем вообще никаких с взаимодействием с чем угодно. Бяда в том, что основные библиотеки ДМ на Python и R, и это нужно, как минимум, осваивать. А взаимодействие - эт пустое, везде есть API (кроме MQL). Да можно хоть файлами передавать через RAM-Disk.
ну да, все верно, проблем с этим нет
проблема в том насколько глубоко нужно пустить корни в МО и на каком этапе понять что вот этих вот моделей уже достаточно..
я пока остановился на классике и мне всего хватает.. за приростом 1-10% точности не бегу :) сейчас на стратегиях сосредоточился, кучу идей выписал - и все это надо проверить, жесть
Подробнее сейчас изучаю PNN - которые работают с полтностями вероятностей и почти не переобучаются, интересные штуки
Юра, ну ты даешь! )) Такое говорить на форуме MQL. Сейчас прибегут товарищи и закидают тебя камнями.
Встану на защиту Юрия - я тоже использую MQL только для открытия/закрытия ордеров. Все расчеты - в Виссиме. Но только на этом форуме есть более-менее профессиональные физики и математики, поэтому я пришел именно сюда. На остальных площадках - вообще деревенские дурачки.
Александр, мб вам будет интересна такая тема :)
Метод аппроксимации плотности вероятности с помощью ядерных функций во многом похож на метод радиальных базисных функций, и таким образом мы естественно приходим к понятиям вероятностной нейронной сети (PNN) и обобщенно-регрессионной нейронной сети (GRNN) (Speckt 1990, 1991). PNN-сети предназначены для задач классификации, а GRNN - для задач регрессии. Сети этих двух типов представляют собой реализацию методов ядерной аппроксимации, оформленных в виде нейронной сети.
Александр, мб вам будет интересна такая тема :)
Метод аппроксимации плотности вероятности с помощью ядерных функций во многом похож на метод радиальных базисных функций, и таким образом мы естественно приходим к понятиям вероятностной нейронной сети (PNN) и обобщенно-регрессионной нейронной сети (GRNN) (Speckt 1990, 1991). PNN-сети предназначены для задач классификации, а GRNN - для задач регрессии. Сети этих двух типов представляют собой реализацию методов ядерной аппроксимации, оформленных в виде нейронной сети.
Ага. Спасибо, Максим!
Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))
Есть и такое мнение:
Люди перестают мыслить,когда перестают читать. Дидро
Максим, вообще-то, молодец. Иногда я поражаюсь его кругозору. Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))
Есть и такое мнение:
Люди перестают мыслить,когда перестают читать. Дидро
Согласен. Но, ссылка интересная - почитаю, когда время будет. Щас занят - вижу на горизонте Грааль и, подталкиваемый мощными руками тестя, движусь по направлению к нему.
Ищите, и обрящите. (с)
Но не в этот раз.
Максим, вообще-то, молодец. Иногда я поражаюсь его кругозору. Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))
да прям, просто пошел по статьям всяким, посмотреть что интересного есть в этой теме :) Ну основное преимущество перед MLP, как понял, - скорость и минимум настроек (здесь их вообще нет) и то, что эти сетки почти не переобучаются
ну и гауссовская ф-я используется а не стьюдента. Для каждого входа создается ф-я плотности вер., потом результаты на выходе линейно суммируются
кстати, PNN и GRNN есть в mql-виде, но я еще не пробовал и не сравнивал с MLP
https://www.mql5.com/ru/code/1323