Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3385

 
Maxim Dmitrievsky #:
По количеству примеров оставшихся. Сколько примеров - столько паттернов жеж.
Примеров может быть 200 а паттернов всего 5
Пример же не является паттерном, пример это одно наблюдение
 
mytarmailS #:
Примеров может быть 200 а паттернов всего 5
Пример не является же паттерном, пример это одно наблюдение
Если ошибка уже перестала падать или равно нолю, можно разделить оставшиеся примеры на паттерны по какой-нибудь мере близости :) Кластеризация, например. И посчитать чего сколько осталось. И даже написать для каждого паттерна/кластера условие усредненное (взять центроиды кластеров), получится правило на выходе.
 


mytarmailS #:

попробую из под хабаровска..


модель любая это некая сумма паттернов   , утрировано можно паттерн обозначить как ТС.


Прелставим что модель состоит из 100 ТС.


Может быть такое что в модели №1 100 ТС совершыли по одной сделке.

Может быть такое что в модели №2 одна ТС совершила 100 сделок, а остальные 99 не совершали ниодной.


 как посчитать статистику по каждой ТС ?

Если модель из правил, это сделать легко и понятно.

Если модель нейронка?

Проблема не в количестве раз, которое используется модель. 

Проблема в том, что одна и та же модель (дерево?) на одних и тех же данных в одних случаях предсказывает одну метку, а в других другую метку. Именно это и называется ошибкой классификации. Не бывает предикторов, по крайней мере у нас, значения которых можно было бы разделить строго по классам. а все проблемы с листьями, деревьями и прочим являются производными от значений предикторов.

 
Maxim Dmitrievsky #:
Если ошибка уже перестала падать или равно нолю, можно разделить оставшиеся примеры на паттерны по какой-нибудь мере близости :) Кластеризация, например. И посчитать чего сколько осталось. И даже написать для каждого паттерна/кластера условие усредненное (взять центроиды кластеров), получится правило на выходе.
Это можно, но где гарантия что разбиение произошло правильно,  в соответствии с внутренним разбиением нейронки?

Где гарантия что выбранная мера близости для кластеризации выбрана правильно? 

Итд.. 

Не проще ли разбить деревянную модель и не городить франклинштейна

 
mytarmailS #:
Это можно, но где гарантия что разбиение произошло правильно,  в соответствии с внутренним разбиением нейронки?
Где гарантия что выбранная мера близости для кластеризации выбрана правильно
Ну это уже философский вопрос
 
Тут уж если и кластеризировать, то не примеры,  а последние слой нейронки
 
mytarmailS #:
Тут уж если и кластеризировать, то не примеры,  а последние слой нейронки
Не, именно примеры. По последним слоям нейронки правила не построишь 
 
Maxim Dmitrievsky #:
Не, именно примеры. По последним слоям нейронки правила не построишь 
Давай я создам пример данных и каждый применит свою методику и посмотрим
 
mytarmailS #:
Давай я создам пример данных и каждый применит свою методику и посмотрим
Я не пробовал такой подход, просто мысли вслух, как вытащить правила из любой модели. Позже можно будет поиграть с этим.
 
Maxim Dmitrievsky #:
Я не пробовал такой подход, просто мысли вслух, как вытащить правила из любой модели. Позже можно будет поиграть с этим.
Я тоже не пробовал, это моя теория против твоей
Причина обращения: