Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1743

 
Mihail Marchukajtes:
Посомтрел источник но нигде не увидел однозначного вывода о плохой работе данного метода....
Метод как метод со своими плюсами и минусами.
 
mytarmailS:

ну шо там?

Да ничо, пока не думал что дальше делать. Есть статьи и коды на эту тему, но без серьезных последствий
 
Олега с Миклухой забанили?))
 

Посмотрите очень интересный пакет TSrepr (Time Series Representations ) в R.

"Time series representation methods can be divided into four groups (types) (Ratanamahatana et al. (2005)):

  • nondata adaptive
  • data adaptive
  • model-based
  • data dictated (clipped data).

In nondata adaptive representations, the parameters of transformation remain the same for all time series, irrespective of their nature. In data adaptive representations, the parameters of transformation vary depending on the available data. An approach to the model-based representation relies on the assumption that the observed time series was created based on basic model. The aim is to find the parameters of such a model as a representation. Two time series are then considered as similar if they were created by the same set of parameters of a basic model. In data dictated approaches, the compression ratio is defined automatically based on raw time series such as clipped (Aghabozorgi, Seyed Shirkhorshidi, and Ying Wah (2015)).

Most famous (well known) methods for nondata adaptive type of representations are PAA (Piecewise Aggregate Approximation), DWT (Discrete Wavelet Transform), DFT (Discrete Fourier Transform), DCT (Discrete Cosine Transform) or PIP (Perceptually Important Points). For data adaptive type of representations, it is SAX (Symbolic Aggregate approXimation), PLA (Piecewise Linear Approximation) and SVD (Singular Value Decomposition). For model-based representations it is ARMA, mean profiles or estimated regression coefficients from a statistical model (e.g. linear model). The data dictated is the less known type of representation and the most famous method of this type is clipping (bit-level representation) (Bagnall et al. (2006)).

In the TSrepr package, these time series representation methods are implemented (the function names are in brackets):

Nondata adaptive:

  1. PAA - Piecewise Aggregate Approximation (repr_paa)
  2. DWT - Discrete Wavelet Transform (repr_dwt)
  3. DFT - Discrete Fourier Transform (repr_dft)
  4. DCT - Discrete Cosine Transform (repr_dct)
  5. SMA - Simple Moving Average (repr_sma)
  6. PIP - Perceptually Important Points (repr_pip)

Data adaptive:

  1. SAX - Symbolic Aggregate Approximation (repr_sax)
  2. PLA - Piecewise Linear Approximation (repr_pla)

Model-based:

  1. Mean seasonal profile - Average seasonal profile, Median seasonal profile, etc. (repr_seas_profile)
  2. Model-based seasonal representations based on linear (additive) model (LM, RLM, L1, GAM) (repr_lm, repr_gam)
  3. Exponential smoothing seasonal coefficients (repr_exp)

Data dictated:

  1. FeaClip - Feature extraction from clipped representation (repr_feaclip, clipping)
  2. FeaTrend - Feature extraction from trending representation (repr_featrend, trending)
  3. FeaClipTrend - Feature extraction from clipped and trending representation (repr_feacliptrend)""

Очень интересные преобразования дает, в том числе кластеризацию.

Удачи

PetoLau/TSrepr
PetoLau/TSrepr
  • PetoLau
  • github.com
TSrepr is R package for fast time series representations and dimensionality reduction computations. Z-score normalisation, min-max normalisation, forecasting accuracy measures and other useful functions implemented in C++ (Rcpp) and R. Installation You can install TSrepr directly from CRAN: Or development version from GitHub with: Overview All...
 
Vladimir Perervenko:

Посмотрите очень интересный пакет TSrepr (Time Series Representations ) в R.

Это же я вам этот пакет когда то показал, помните  когда я вас просил сделать скрипт для мт4,     там тренировалась нейронка из пакета nnfor , а целевая была   PIP - Perceptually Important Points (repr_pip)  из TSrepr  :)


Владимир! У меня к вам несколько вопросов , если позволите...

1) Скажите какую максимальную ошибку вы смогли достичь на классификации направления зигзага скажем на евродоларе часовике ? И использовали ли noisefilter при этом

2) Ухудшает ли качество обучения "дискретизация" предикторов,  которую вы описывали в своих статьях



3) Я хочу попробовать сделать некий  мета лернинг , на самом низком уровне, те суть идеи в следующем :

п1. тренируем пускай форест на данных

п2. вытаскиваем все правила которые форест нагенерил и представляем их в виде новых предикторов , каждое правило это предиктор, там будет 500-1000 правил. Предикторы получаться "разреженные"  но что делать( 

п.3 Тренируем  на правилах предикторах новую модель...

Задумка в том чтобы

1) увеличить количество предикторов

2) получение более сложных и глубоких правил , те правил более иерархически сложных

3) Форест выдает предсказание как сумму прогнозов всех правил (деревьев) , мне кажется что если рассматривать не сумму правил а правила в отдельности то можно более качественней разделить метки класса, возможно найти какие то уникальные комбинации из правил итп. 

А вопрос в том : не является ли то что я только что написал обычными градиентным бустингом?

4) А и еще , где взять те спектральные индикаторы что вы используете satl, fatl итп.

 
Rorschach:

Здесь нашел

Почитал тему, к такому же выводу пришли. А предсказание в cssa по хитрому сделано, постепенно предсказывают на шаг вперед, неужели это на столько эффективно?

Есть какие нибудь сравнения скорости между бпф и ssa? А то взять комплексные вейвлеты и будут те же фигуры Лессажу. Только не понятно как их в оптимизатор загонять, это же больше для визуальной настройки подходит.

cssa переводится как Causal SSA. Этот метод есть в книге 2013 года.


 
Poul Trade Forum: Закономерности почасового движения Евро .
  • forex.kbpauk.ru
Уже несколько раз вставал вопрос о движении валют в зависимости от времени суток . Все выступают с определенными мнениями , которые они сформировали наблюдая за рынком . Гораздо проще привести данные обработки торговой стратегии в которой покупка осуществляется в начале часа продажа ( закрытие позиции) в конце (начале следующего) часа . Исходя...
 
Maxim Dmitrievsky:
Олега с Миклухой забанили?))

Олега разбанили а Миклоха почему то ............

 
mytarmailS:

Это же я вам этот пакет когда то показал, помните  когда я вас просил сделать скрипт для мт4,     там тренировалась нейронка из пакета nnfor , а целевая была   PIP - Perceptually Important Points (repr_pip)  из TSrepr  :)


Владимир! У меня к вам несколько вопросов , если позволите...

1) Скажите какую максимальную ошибку вы смогли достичь на классификации направления зигзага скажем на евродоларе часовике ? И использовали ли noisefilter при этом

2) Ухудшает ли качество обучения "дискретизация" предикторов,  которую вы описывали в своих статьях



3) Я хочу попробовать сделать некий  мета лернинг , на самом низком уровне, те суть идеи в следующем :

п1. тренируем пускай форест на данных

п2. вытаскиваем все правила которые форест нагенерил и представляем их в виде новых предикторов , каждое правило это предиктор, там будет 500-1000 правил. Предикторы получаться "разреженные"  но что делать( 

п.3 Тренируем  на правилах предикторах новую модель...

Задумка в том чтобы

1) увеличить количество предикторов

2) получение более сложных и глубоких правил , те правил более иерархически сложных

3) Форест выдает предсказание как сумму прогнозов всех правил (деревьев) , мне кажется что если рассматривать не сумму правил а правила в отдельности то можно более качественней разделить метки класса, возможно найти какие то уникальные комбинации из правил итп. 

А вопрос в том : не является ли то что я только что написал обычными градиентным бустингом?

4) А и еще , где взять те спектральные индикаторы что вы используете satl, fatl итп.

1. Помню эту историю с пакетом. Перспективный пакет.

2. Лучший результат с ансамблем ELM - Acc=0.8+-0.1. Обработка шумовых примеров обязательна. Ее можно проводить не только с noisefilter. Accuracy не самый важный показатель качества для ТС. Для наших задач более важно иметь максимальную величину среднего вознаграждения на бар на конкретном отрезке времени.

3. Дискретизация убирает проблему выбросов, делает связь предикторов с целевой более линейной. Но значимого улучшения качества классификации я пока не получил. Продолжаю в этом направлении копать. Появилось много новых техник.

4. Не понимаю почему Вы увязли в простом лесу. Сейчас эта территория испахана вдоль и поперек. Появились десятки новых вариантов RF. Последний экзотический и пока еще сыроватый - gensemble. Лес в узлах которого может быть любая модель, а не только дерево решений.

Попробуйте готовые решения, не нужно изобретать велосипед, лучше научиться хорошо ездить на готовых.

Я сейчас занялся внедрением пакета интеграции Питона с МТ5.  Жаль, что они остановили интеграцию с R. 

Удачи

 
Интерессная тема. Я хоть и не матиматик и далек от машинного обучения, но вижу в чем проблема. И знаю как ее решить. Не возможно создать самообучающую систему, если не понятно, когда рынок начнет движение, начнет ли вообще, а если начнет когда оно закончится, и можно ли на этом движении заработать.  Нужно создать работающую модель, то есть уже прибыльную систему заложить. А уже отталкиваясь от нее задать алгоритм сравнения и улучшения системы. Я пошел этим путем и создал простой алгоритм, правда для ручной торговли. Интерессно посмотрите тему Как увеличить счет в 1000 раз. https://www.mql5.com/ru/forum/330313
Как увеличить счет в 1000 раз.
Как увеличить счет в 1000 раз.
  • 2020.01.12
  • www.mql5.com
Как увеличить счет в 1000 раз. Мне удалось пройти почти половину пути к этой цели. Результат счет за четыре месяца удалось увеличить в 28 раз...
Причина обращения: