Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2644

 
Aleksey Nikolayev #:

Мне он показался подходящим, как основа для алгоритма выделения рабочей области в множестве предикторов. Грубо говоря, на основе своей идеи строю начальные приближения для областей-кубиков, а потом пытаюсь их подогнать более тонко.

Ну и оптимизация только по прибыли, что приводит к попытке улучшения системы за счёт искусственного роста ложноотрицательных случаев.

Стройной теории нет и вряд ли она возможна.

Не пойму... 
Если просто натренировать рендом форест и выбрать из него самые хорошие правила по нужному критерию.  В чем разница? 
Правило это уже и есть частный случай какой то ситуации и уже эти кубы учтены правилом
 
mytarmailS #:
Не пойму... 
Если просто на тренировать рендом форест и выбрать из него самые хорошие правила по нужному критерию.  В чем разница? 
Правило это уже и есть частный случай какой то ситуации и уже эти кубы учтены правилом

Вполне возможно, что так и есть. Но вроде так получается более интерпретируемый что ли подход к сравнению\отбору признаков и оптимизации метапараметров.

 
Aleksey Nikolayev #:

Вполне возможно, что так и есть. Но вроде так получается более интерпретируемый что ли подход к сравнению\отбору признаков и оптимизации метапараметров.

А что с асоцыативными правилами не получилось? 
 
mytarmailS #:
А что с асоцыативными правилами не получилось? 

Идея в целом понятна. В любом случае, сначала нужно продумать алгоритм разбиения непрерывного множества предикторов на дискретные итемы, из которых формируются правила. Если реально существуют и найдены такие хорошие предикторы и их хорошее разбиение, то остальное - дело техники.

 
Aleksey Nikolayev #:

Идея в целом понятна. В любом случае, сначала нужно продумать алгоритм разбиения непрерывного множества предикторов на дискретные итемы, из которых формируются правила. Если реально существуют и найдены такие хорошие предикторы и их хорошее разбиение, то остальное - дело техники.

Я что то не то написал сначала, не о том подумал.
Тут все зависит что вообще хочеться делать. Если искать какие то чёткие уровни,  то я просто нормализировал и немножко округлял цену, чтобы найти закономерность отскока, но пространство поиска большое и повторяемость малая.  А так,  если что то другое то обычная кластеризацию будет хорошим решением 
 

Експериментирую с символьной регресией...

По сути реализованы последовательные асоцыативные правила, только вместо статических итемов  - логические правила. Ето дает большую глубину алгоритму, он может НАМНОГО более тонко понимать свои наблюдения. По эта концепция дает возможность описать любого рода закономерность, так как сложность и вид правил ничем не ограничен.

Есть и ложка дегтя, алгоритм не может себе позволить изучать большые масивы данных, так как это очень долго из за особеностей его архитектуры.

Поетому я придумал некие подходы как уменьшать размерность поиска.

1) Мне интересны только екстремумы, концентрируясь на них мы уменьшаем пространство поиска раз так в 10-20, и действительно все что нам надо от рынка это знать, разворот это или нет, тренды-шменды, флеты-шметы.. это субьективная дурь которая мешает сконцентрироваться на главном.

2) Я придумал и реализовал что то пипа "обучения по одному примеру(one shot learning)"  как я это вижу,  те теперь мне не надо обсчитывать всю историю чтобы чему то нучиться, это не какое то крутое ноухау, это скорей от безисходности ведь обучаться на всей истории точно не получиться, по крайней мере пока.

Пока идут только первые екперименты, но с точностью могу сказать что алгоритм не совсем тупой и чему то учиться.


Сам алгоритм торговли состоит из паттернов, паттерн это набор правил под конретную ситуацию

вот так выглядит паттерн на одну ситуацию 

Правила примитивны, но мы только разогреваемся)

Паттерн торгуеться как и форест , есть много правил в паттерне, если какая то пороговая сумма правил сработала, УРА мы распознали разворот и торгуем его

выглядет как то так

Как то так..


В чем прелесть алгоритма?

1) Он глубоко проникает в закономерность если так можно сказать.

2) Он не завязан на индексы и не работает с табличными данными,  а значит устойчив к нестацыонарности,  так же как асоцыативные правила

 

Кстати может кому то интересно будет.

Очень часто если отскок не сработал то как бы сопротивление становиться поддержкой

как на картинке

И это можно обяснить, так что уровни есть, их не может не быть

 
Aleksey Nikolayev #:

Размышляю о возможности соединения своей идеи с идеей алгоритма PRIM. Особо похвастать нечем.

Любопытно, что в этот PRIM заложены те же идеи, что пытаюсь реализовать и я.

Прочел статью, но есть некоторые непонятки:

1. Каким образом происходит квантование там для разбивки на границы? Это равномерное разбитие с определенным шагом?

2. С границами понятно по сути - сам так делаю, но вот у них ещё дополнительное обрезание на картинке - второе обрезание - это тупо исключение выборки?

3. Если я правильно понял, то они, как и я, рассматривают каждый предиктор отдельно - находя так называемые "ящики", но я не понял из описания, как происходит объединение этих разных предикторов.

Минус данного метода в том, что он оценивает устойчивость показателей через бутстреп-выборок (случайно берется заданный процент выборки от всей выборки), что не дает понимания о динамики устойчивости показателей, что в свою очередь для трейдинга важно, так как закономерность может существовать в начале выборки, но совсем пропасть к её концу.

Есть какие либо у Вас улучшения с данным методом?

 
mytarmailS #:

Експериментирую с символьной регресией...

По сути реализованы последовательные асоцыативные правила, только вместо статических итемов  - логические правила. Ето дает большую глубину алгоритму, он может НАМНОГО более тонко понимать свои наблюдения. По эта концепция дает возможность описать любого рода закономерность, так как сложность и вид правил ничем не ограничен.

Я правильно понимаю, что это та же таблица с предикторами, но неравенства строятся не только по показателям предиктора, но и по неравенствам самих предикторов между собой?

mytarmailS #:


2) Я придумал и реализовал что то пипа "обучения по одному примеру(one shot learning)"  как я это вижу,  те теперь мне не надо обсчитывать всю историю чтобы чему то нучиться, это не какое то крутое ноухау, это скорей от безисходности ведь обучаться на всей истории точно не получиться, по крайней мере пока.

Т.е. берете один пример, генерируете множество вариантов листьев (паттернов), состоящих из неравенств и потом проверяете их на больше выборке, те что показывают приемлемый результат - оставляете, так?

mytarmailS #:

В чем прелесть алгоритма?

1) Он глубоко проникает в закономерность если так можно сказать.

2) Он не завязан на индексы и не работает с табличными данными,  а значит устойчив к нестацыонарности,  так же как асоцыативные правила

И тут я не понимаю, если данные не в таблицы, то в чём Вы их подаете для работы?

 
Aleksey Vyazmikin #:
 1. Вообще все что угодно,   предел фантазия
2. Да
3. Так же как и асоциативные правила,  но глубже
Причина обращения: