Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3018

 
Aleksey Vyazmikin #:

Так я и написал в чем разница между жадным и генетикой для дерева - возможно не понял вопрос.

Про вытаскивания правил из нейросети не слышал. Можете дать ссылку? Пока рисуется что-то громоздкое в воображении.

Но, думаю, что нейросети тут будут явно медленней деревьев по скорости выдачи новых правил.

Это я подытожил просто про дерево ) Гугл работает, сам пользуюсь. Дипмайнды обычно очень близко к тому, как сам воспринимаю реальность, делают.


 
Aleksey Vyazmikin #:

Могли просто сказать, что не разобрались в теме, сделали ошибочные выводы, а теперь ведете так, что чуть поняли суть проблемы и сразу в отступную пошли.

Эта маргинальная мысль - что все дураки кроме вас - она отталкивает людей - подумайте над этим.

В ваших темах должны вы разбираться, а не кто то.... 
Когда это дойдёт до вашей головушки, процесс пойдёт.. 

Подумайте над этим. 
 
Aleksey Vyazmikin #:

Так я и написал в чем разница между жадным и генетикой для дерева - возможно не понял вопрос.

Про вытаскивания правил из нейросети не слышал. Можете дать ссылку? Пока рисуется что-то громоздкое в воображении.

Но, думаю, что нейросети тут будут явно медленней деревьев по скорости выдачи новых правил.

Вся Ваша идея отделить "хорошие" правила" от  плохих совершенно тупиковая, методически тупиковая.

Вы, почему-то считаете, что "хорошие" правила (деревья) они реально "хорошие".

И дело не только в туманности их будущего, а дело в том, что правил, которые можно взять по некоторым критериям, не существует от слова совсем. Есть правил, которые порождают ВЕРОЯТНОСТЬ "хорошести", которая меняется по мере движения окна. и вполне возможно, что это правило из "хорошего" станет "плохим" по мере движения окна. Эта изменчивость определяется величиной, которая делит вероятность предсказания на классы. 

Стандартно в алгоритмах МО деление на классы производится делением вероятности предсказания класса пополам, но это совершенно неверно. Я считаю величину деления на классы - она никогда не бывает равной 0,5: эта величина меняется и зависит от конкретного предиктора.

Теперь вернемся к Вашим "хорошим" деревьям. 

Если Вы отобрали деревья, "Хорошесть" которых лежит близко к порогу, который движется. Поэтому выше я и утверждал, что отобранные Вами "хорошие" деревья запросто могут стать плохими.


Это тупик.

 
Igor Makanu #:

Яндекс что то похожее писал https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Хороший учебник у Яндекса, неплохо написано. К тому, вокруг чего кружатся мои мысли, больше имеет отношения другой его раздел. Там описывается общий вид функции потерь, которые используются при построении деревьев. Суть в том, что там оптимизация средней цены ошибки, а максимизация прибыли эквивалентна оптимизации суммы цен ошибок.

Если перевести в термины прибыли, то это разница между суммарной прибылью и средней прибылью в сделке. Поскольку решаю задачу бинарной классификации (входим/не входим), то максимизация средней прибыли в сделке тупо приведёт ко входу в одну-две сделки и отбрасыванию остальных.

Пытаюсь понять - это непреодолимая граница между оптимизацией и МО или нет.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Хороший учебник у Яндекса, неплохо написано. К тому, вокруг чего кружатся мои мысли, больше имеет отношения другой его раздел. Там описывается общий вид функции потерь, которые используются при построении деревьев. Суть в том, что там оптимизация средней цены ошибки, а максимизация прибыли эквивалентна оптимизации суммы цен ошибок.

Если перевести в термины прибыли, то это разница между суммарной прибылью и средней прибылью в сделке. Поскольку решаю задачу бинарной классификации (входим/не входим), то максимизация средней прибыли в сделке тупо приведёт ко входу в одну-две сделки и отбрасыванию остальных.

Пытаюсь понять - это непреодолимая граница между оптимизацией и МО или нет.

Что мешает написать свою фун. потерь?

 
Maxim Dmitrievsky #:
Это я подытожил просто про дерево ) Гугл работает, сам пользуюсь. Дипмайнды обычно очень близко к тому, как сам воспринимаю реальность, делают.


Спасибо за совет!

 
Aleksey Vyazmikin #:

Спасибо за совет!

Там сложно, вчера вечером искал по теме. Теми же деревьями из весов и слоев НС правила вытаскивают. Еще вытаскивают правила из сверхточных сетей. Как будет больше понимания - напишу. Дерево в разведочном анализе как-то слишком круто сейчас смотрится с такого ракурса поиска правил, наверное кратно превосходит генетическую оптимизацию по скорости, при правильно подготовленном датасете.
Сам не пробовал, возможно есть подводные камни.
 
mytarmailS #:
В ваших темах должны вы разбираться, а не кто то.... 
Когда это дойдёт до вашей головушки, процесс пойдёт.. 

Подумайте над этим. 

Я решаю задачи на MQL5, а речь шла об R.

Факт есть факт - брякнули не подумав, а потом в кусты.

 
mytarmailS #:

Что мешает написать свою фун. потерь?

Ну, пока не могу понять как внедрить максимизацию прибыли в тот же бустинг, например.

Что-то делаю, разумеется, но хотелось бы услышать и другие содержательные мнения по поводу темы.

 
Aleksey Nikolayev #:

Ну, пока не могу понять как внедрить максимизацию прибыли в тот же бустинг, например.

Что-то делаю, разумеется, но хотелось бы услышать и другие содержательные мнения по поводу темы.

Accuracy нормально работает при сбалансированных классах. Пробовал все стандартные метрики, почти ничем результаты не отличаются. Максимизация прибыли внедряется через разметку с максимально прибыльными сделками, разве нет?)
Причина обращения: