Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1002

 
Alexander_K2:

Так вот, есть мнение, что последовательность ретурнов (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) представляет из себя стационарный ряд.

Ретурн одной свечи это (close-open)/open, ясный хрен что не чистую цену пихать в НС, следующий ретурн прогнозируется по предыдущим(с разным окном) очень хило, на спред не хватит, но по всей видимости это всё что можно получить

 
Alexander_K2:

По сути, величина CLOSE[i]-OPEN[i] это не что иное, как сумма приращений.

Последовательность таких величин должна, в пределе, стремиться к нормальному распределению.

Так вот, есть мнение, что последовательность ретурнов (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) представляет из себя стационарный ряд.

Кто-нибудь пробовал такую вещь подавать на вход НС и каковы были результаты???

Close[i] можно заменить на Open[i+1], на форексе это верно в более чем 90% случаев. Ну или отличия в пару пипс всего. Тогда будет всего один временной ряд в формуле, так удобней.

Такое преобразование используется в модели ARIMA. И оно действительно служит для достижения стационарности, но там всяких преобразований гораздо больше, это не единственная формула там.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2Yt-1 + Yt-2
ARIMA уже устарела, на финансовых рынках если что-то и даст, то не больше чем банковские проценты по депозиту. GARCH судя по статьям гораздо лучше, тем более что в базе это и есть ARIMA, плюс всякие доделки к ней.
 
Alexander_K2:

Последовательность таких величин должна, в пределе, стремиться к нормальному распределению.

Не видел таких цен которые бы стремились к нормальному распрелению. У меня приросты всегда на лапласа были похожи, с хвостами коши.

 

Это я теоретически рассуждал.

На практике, конечно, Гаусса у первых ретурнов нет и никому еще получить его не удалось и не удастся, увы...

Но, все-таки, я говорил о последовательности (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), т.е. фактически о вторых ретурнах.

Вот, этим вторым ретурнам я до сих пор мало внимания уделял, а зря.

 

А Колмогоров, вообще, смотрю - особое внимание уделял В(к)=М[x(t)*x(t-к)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-к]-OPEN[i-к])]  и отказывался что-либо прогнозировать, если эта функция не имела вполне определенного вида.

Может имеет смысл ставить определенные условия на работу НС?

Скажем, пропускать нестационарные куски ВР, исследуя, к примеру, вторые ретурны или В(к)?

 

Привет!

уважаемые гуру, а вы уже создали супер-бот? 

надо бы пробовать на реале.

 
Alexander_K2:

А Колмогоров, вообще, смотрю - особое внимание уделял В(к)=М[x(t)*x(t-к)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-к]-OPEN[i-к])]  и отказывался что-либо прогнозировать, если эта функция не имела вполне определенного вида.

Может имеет смысл ставить определенные условия на работу НС?

Скажем, пропускать нестационарные куски ВР, исследуя, к примеру, вторые ретурны или В(к)?

Поэтому существует предел: (Сигмы в квадрате) 

Определение этого предела и является первой из решаемых в настоящей

работе задач.

Что касается задачи интерполирования, то мы рассмотрим лишь

случай оценки х (/) по величинам

•x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t — l), x(t~2), ... , x(t — га).

Для этого случая обозначим через oj (га) минимальное значение математического

ожидания

а2 = МИ0-<?)%

где Q есть линейная форма:

Q = axx {t + i) + atx {t + 2)+ ... +апх {t + n) +

+ a-ix(t — l)-\-a-2%(t — 2)+ ... -\-a-nx(t — га)

с постоянными действительными коэффициентами as.

При возрастании га величина а2 (я) не возрастает. Поэтому существует

предел

l im а} (га) = о?. (5)

П~>оо

Нашей второй задачей является определение а]. Предлагаемое далее

решение двух сформулированных выше задач было сообщено без

доказательства в моей заметке (*) *. Оно опирается на понятия, относящиеся

к спектральной теории стационарных случайных процессов.

Спектральная теория стационарных случайных процессов была

построена А. Я. Хинчиным для случая непрерывного изменения временного

аргумента t (2 ) .

Чет не понял, Вы планируете аналитически оценить достоверность уже сделанного прогноза, или для начала сделать прогноз. Первые пара страниц говорят, что статья об оценке достоверности прогноза. А сами прогнозы надо искать у А. Я. Хинчина. 

И Вы не внимательно скопировали базовое утверждение из статьи.

Не:     В(к)=М[x(t)*x(t-к)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-к]-OPEN[i-к])

А:       В(к)=М[x(t)*x(t-к)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-к]-OPEN[i])] 

Кроме того думаю, что корректнее:

Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий

Машинное обучение в трейдинге: теория и практика (торговля и не только)

Dr. Trader, 2018.07.06 02:37

Close[i] можно заменить на Open[i+1], на форексе это верно в более чем 90% случаев. Ну или отличия в пару пипс всего. Тогда будет всего один временной ряд в формуле, так удобней.

Такое преобразование используется в модели ARIMA. И оно действительно служит для достижения стационарности, но там всяких преобразований гораздо больше, это не единственная формула там.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2Yt-1 + Yt-2
ARIMA уже устарела, на финансовых рынках если что-то и даст, то не больше чем банковские проценты по депозиту. GARCH судя по статьям гораздо лучше, тем более что в базе это и есть ARIMA, плюс всякие доделки к ней.

PS.

Да, и спасибо за ответ на мой вопрос из  сообщения: https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
 Привет с Вами говорит Мишаня и как вы догодались делаю я это с телефона :-)
Вообщем знамо так, я думаю что сейчас на первый план выходит всетаки предобработка данных. Конечно алгоритм оптимизации тоже важен сам по себе, но и наличие хорошей обучающей выборки тоже не последнее дело. Вот вы все хаили и хаили оптимизатор Решетова, а он между прочим, при хорошей предобработки данных делает хорошие модели. Во всяком случае при 10 оптимизациях как минимум половина моделей будут рабочими. Ведь у него реализованно все так не так то и просто. И думаю что JPrediction будет актуален всегда. Тут главное правильно предобработать данные и именно в этой области сейчас идет соревнование.
 
Как уже говорил, в другой ветке.... Сейча кручу втрит пакет для р и как минимум две предобработки уже реализовал. Первая удаляет мусорные предикторы. Вторая делает выборку более презентативной для обучения и вот на втором моменте хотел бы остановится.
После проведен я репрезентативности качество обучения выросло процентов на 15 для одного и тогоже набора данных. Основная задача увеличить период обучения при сохранении должного уровня качество обучения. Пример: на 25 примерах я мог получать от 80% обобщающей способноти и ваше. С помощью обработки репризентативности на 40 примерах я смог получить 90% качеств модели. Исходя из постулата что лучша модель считается та которая смогла обучится на более длинной выборки с сохранением качества обучения. 
 
Gramazeka1:
 Привет с Вами говорит Мишаня и как вы догодались делаю я это с телефона :-)
Вообщем знамо так, я думаю что сейчас на первый план выходит всетаки предобработка данных. Конечно алгоритм оптимизации тоже важен сам по себе, но и наличие хорошей обучающей выборки тоже не последнее дело. Вот вы все хаили и хаили оптимизатор Решетова, а он между прочим, при хорошей предобработки данных делает хорошие модели. Во всяком случае при 10 оптимизациях как минимум половина моделей будут рабочими. Ведь у него реализованно все так не так то и просто. И думаю что JPrediction будет актуален всегда. Тут главное правильно предобработать данные и именно в этой области сейчас идет соревнование.

Привет, Мишаня!

Да, настало время переосмыслить потуги всех нейросетевиков и их хилые надежды только лишь на сам инструмент. Ни фига ничего не поможет - ни леса, ни степи - если не подготовлены входные данные.

И да - нет никакого соревнования, есть проблема и есть всеобщее одубение.

Если ты знаешь метОды подготовки данных - выкладывай. Человечество отблагодарит. 

Причина обращения: