Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 515
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Цены без какого-либо преобразования в модель не подают.
Леса для экстраполяции берут ближайшее известное значение. Нейронка или линейка при экстраполяции посчитают что-то согласно внутренним формулам. Но на деле все эти модели в данной ситуации будут сливать, поэтому разницы нет.еще как подают без какого-либо преобразования, но не в этом суть
Разница огромная в техническом применении тех или иных моделей. Причем здесь сливать, опять же не об этом речь.Все делать в МТ не удобно. Самый лучший на мой взгляд вариант это Питон для обучения и экспериментов и DLL с загрузкой обученой модели для МТ. В Питоне есть такая классная штука для экспериментов Юпитер ноутбук. Помимо интерактивного выполнения кода в нем можно вести записки, что удобно для записи мыслей по теме. Поэтому надо выбирать библиотеку которая может работать в Питоне и С++. Питон прост в изучении.
Все делать в МТ не удобно. Самый лучший на мой взгляд вариант это Питон для обучения и экспериментов и DLL с загрузкой обученой модели для МТ. В Питоне есть такая классная штука для экспериментов Юпитер ноутбук. Помимо интерактивного выполнения кода в нем можно вести записки, что удобно для записи мыслей по теме. Поэтому надо выбирать библиотеку которая может работать в Питоне и С++. Питон прост в изучении.
это все уводит от сути, нужно делать все в том же месте где торгуешь, без лишних запар.. экономя время и нервы. В МТ уже есть все основные элементы статанализа, нет только каких-то сложных моделей, которые через длл и подключаются как вы сказали.
Но питон крут несомненно, R покрутил - раздражает его тормознутость. Как я понял, профи машинлернинга сидят именно на питоне, а на R это так баловство и статанализ и студентов обучать. Но опять же это все левак, когда можно напрямую подключить.
R с точки зрения программиста странный ни на что не похожий язык. Да, для машинного обучения Питон это стандарт.
R с точки зрения программиста странный ни на что не похожий язык. Да, для машинного обучения Питон это стандарт.
Странные Вы люди. Одному "R с точки зрения программиста странный ни на что не похожий язык". Вы о каких программистах говорите? Другой "R покрутил - раздражает его тормознутость" - может Вы не туда крутили или не то?
Вам наверное не известно, но все модули Питона доступны в R а значит и в МТ. Мало того все последние разработки гигантов TensorFlow(Googl), CNTK(Microsoft) и другие моментально предложили АПИ в R а значит и в МТ. Подчеркнул дважды - сегодня есть возможность использовать все богатство разработок по машинному обучению в терминале через R. Нужно понимание, что Вы хотите сделать, знание и умение. Вы хотите хотеть, просто делайте.
Ветка превратилась в бесполезное словоплетение. К сожалению.
Удачи
Странные Вы люди. Одному "R с точки зрения программиста странный ни на что не похожий язык". Вы о каких программистах говорите? Другой "R покрутил - раздражает его тормознутость" - может Вы не туда крутили или не то?
Ветка превратилась в бесполезное словоплетение. К сожалению.
Удачи
Тормозной сам R, я не говорю про пакеты. Работает медленнее питона и медленнее MT5. Или это тормозные оболочки типа RStudio, в ней даже окна плавно не перемещаются, что говорит даже что она сама по себе тормозная. Про VS 2017 в связке с Ropen я вообще молчу, постоянно виснет, несовместимость пакетов и др. Боюсь представить что будет, если еще и использовать пакет для работы с питоном. Многие пакеты для R пишутся бог знает кем и могут содержать кучи ошибок, нет единых стандартов.
Есть всего несколько хороших нейросетевых пакетов, которые вы описали в своей статье последней, и которые прекрасно работают без R. Все остальное там по препроцессингу и проч. для форекса это больше игры разума чем эффективное использование преимуществ языка. Ну да, картиночки можно оценить на глаз, а в большинстве ситуаций достаточно числовых оценок для всех моделей. ИМХО :)
Тормозной сам R, я не говорю про пакеты. Работает медленнее питона и медленнее MT5.
Ну не медленнее МТ5... я ранее приводил сравнение:
ALGLIB - страшный тормоз в обучении.
Подавал на ALGLIB сеть 240-50-1, - 2 дня ждал, не дождался и выключил.
Сеть 70-5-1 обучил за полчаса. А nnet из R меньше минуты обучалась на тех же данных.
Ну не медленнее МТ5... я ранее приводил сравнение:
Вы привели сравнение с другой НС - это уже не R а пакет, который на плюсах написан и конечно он быстрый. В алглибе нет многопоточности во фри версии, + для большой сети нужно оптимизатор LBFGS юзать, возможно вы его и юзали. Леса считаются в алглибе приятно быстро, например, мне нравится.. а кач-во моделей никогда не хуже чем у МЛП. Бустингу бэггинг конечно уступает, но не сильно критично, насколько я понял из статей в интернете. Т.Е. по сути есть 1 универсальная модель это леса деревьев, к тому же быстрая. Все остальное что какая-то другая нейронка сделает что-то лучше это пока на практике не доказано никем (применительно к форексу)
Многопоточность она же не в R а в пакетах нейросетевых, также к мт5 подключить и будет многопоток
Вы привели сравнение с другой НС - это уже не R а пакет, который на плюсах написан и конечно он быстрый. В алглибе нет многопоточности во фри версии, + для большой сети нужно оптимизатор LBFGS юзать, возможно вы его и юзали. Леса считаются в алглибе приятно быстро, например, мне нравится.. а кач-во моделей никогда не хуже чем у МЛП
Да вроде в основе тот же MLP, так что сеть та же самая и по структуре и по кол-ву данных. Тот пакет многопоточность не использовал - считал все одним потоком (проверял в диспетчере задач).
Сравнил скорость LBFGS (около 40 мин.) и LM ( 27 мин.). По описаниям LBFGS должен быть быстрее, а на практике в ALGLIB наоборот.
Проверял и леса - значительно быстрее чем НС (4 мин.), и результат примерно тот же. И что интересно линейная регрессия считает еще быстрее, при тех же результатах.
Как кто-то тут писал - все дело в фичах.
Да вроде в основе тот же MLP, так что сеть та же самая и по структуре и по кол-ву данных. Тот пакет многопоточность не использовал - считал все одним потоком (проверял в диспетчере задач).
Сравнил скорость LBFGS (около 40 мин.) и LM ( 27 мин.). По описаниям LBFGS должен быть быстрее, а на практике в ALGLIB наоборот.
Там, насколько я понял, можно 1-2 эпохи ставить, т.к. он почти всегда сходится с первого раза.. мб в этом упущение было? хотя я давно уже его не юзал, могу что-то путать