Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 472

 
Maxim Dmitrievsky:


ну другими словами, еще пока не все что есть в мт5 опробовано :)

Я этого не понимаю. ( А зачем вообще пробовать, то, что уже есть в МТ?

Если есть концепция ТС - подбираем инструментарий. Есть в МТ и это хорошо взаимодействует с остальной системой - используем. Плохо взаимодействует - используем внешнее ПО.

Гонять туда-сюда информацию только для того, чтобы использовать имеющуюся функциональность МТ, совсем не рацо.

 
Yuriy Asaulenko:

Я этого не понимаю. ( А зачем вообще пробовать, то, что уже есть в МТ?

Если есть концепция ТС - подбираем инструментарий. Есть в МТ и это хорошо взаимодействует с остальной системой - используем. Плохо взаимодействует - используем внешнее ПО.

Гонять туда-сюда информацию только для того, чтобы использовать имеющуюся функциональность МТ, совсем не рацо.

Так нет никогда готовой концепции изначально, все по наитию, чем больше инструментария тем лучше
 
Maxim Dmitrievsky:
Так нет никогда готовой концепции изначально, все по наитию, чем больше инструментария тем лучше

Я начинаю с концепции, отрабатываю ее на каком-либо ПО (Excel, SciLab, MatLab, R - иногда и все вместе). Там же и тестирую своим тестером (не заметил существенной разницы с реалом). Затем часть переношу в терминал, остальное С++/C# с подключением внешних библиотек.

Первые системы (с 2008 г.) были сделаны на VBA-Excel и прекрасно взаимодействовали с терминалом. Никаких проблем с быстродействием, даже с учетом медленности VBA. Да и вообще - 50 мс задержки, даже для работы внутри 1м ТФ, - не время.

 
Проще вообще подписатся на толковый сигнал, но кому оно нужно??? ВООБще....!!!!
 
Maxim Dmitrievsky:

Кстати, помнишь в своей статье по сиквенте ты предлагал считать несколько сигналов подряд, переворачивать там.. суперпозиция сигналов

я придумал интересное решение реализовать что-то подобное через нечеткую логику и встроить в процесс обучения.. позже мб скину что-нибудь :)


Да да это как раз из этой статьи..... Просто может там не внятно объяснено было, но факт понятия разделения никто не отменял.

Нужно чётко видеть как идёт деление на плохих и хороших, если модель стабильно сливает или наливает это уже показатель, главное не правильность, а стабильность разделения.....

 

СанСанычу.

Посмотрите интересную дискуссию по поводу "overfittinga". 

Удачи

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko:

СанСанычу.

Посмотрите интересную дискуссию по поводу "overfittinga". 

Удачи


Все, что я пишу здесь и использую в своей практике - это некие приемчики, чтобы как-то уменьшить влияние базовой проблемы познания, которая здесь называется сверх подгонка, переобучение.


Проблема переобучения модели НЕ решается в принципе, не решается теоретически и это известно очень давно. Модель - это всегда некоторое приближение, некоторое огрубление действительности, внешнего мира. Поэтому модель ВСЕГДА отражает объект с некоторой ошибкой. Именно в этом и сила и слабость любой модели. Отсюда следует, что без тщательного изучения моделируемого  объекта невозможно создать модель.


Если взять котировку.

ЧТО мы моделируем?

Если случайный лес, то мы автоматизируем поиск паттернов.

Если GARCH, то мы моделируем статистические характеристики котировки.

При этом ВСЕГДА будет ошибка. И я здесь предлагал некую эвристику, что эта ошибка НЕ должна меняться на последовательных кусках временного ряда. Если модель буквально на следующем участке дает другую ошибку, то она переобучена (сверх подогнана) и ею пользоваться нельзя в принципе.

Для случайных лесов я нашел, что если удалить ШУМОВЫЕ предикторы в моем понимании, то обученная модель дает одинаковую ошибку гораздо дольше, чем с шумовыми предикторами.  Но мне неизвестны решения, которые бы создали модель на все времена, да это и не нужно. Меня вполне устраивает переобучение модели по выходным на последних данных. Но обучение надо начинать с проверки шумовых предикторов - их набор меняется со временем. То есть меняется не только сама модель, но и набор входных данных. Я делал прогоны окна вдоль временного ряда, так из моих 25 предикторов постоянно идет выборка в 10-15 предикторов и состав этой группы меняется, т.е что-то переходит в шум, а потом обратно. Ошибка очень стабильна и колеблется от 23 до 27% = всегда менее 30%. Если ошибка менее 20% на моих предикторах, то такой моделью не пользуюсь и жду.


ПС.

Из сказанного видна причина, почему меня не интересуют другие модели.

 
СанСаныч Фоменко:

Все, что я пишу здесь и использую в своей практике - это некие приемчики, чтобы как-то уменьшить влияние базовой проблемы познания, которая здесь называется сверх подгонка, переобучение.


Позиция понятна.

Удачи.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
Как теория интересно. А практически как использовать? Может где то есть в виде программ?
Причина обращения: