Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3017

 
Aleksey Vyazmikin #:

Так что насчет платной помощи, жду ответа на вопрос.

Ответ нет
 
mytarmailS #:
Ответ нет

На вопрос "Почему"?

 
Vladimir Perervenko #:

народная мудрость гласит: за деревьями леса не видит. А вот интересно, перебирая листья дерево видно? я не спрашиваю за лес. 

Это что единственный алгоритм который Вам известен? Или он самый эффективный? Что Вы на нем зациклились? 

Это мимо проходящего мысли.

Удачи

А зачем смотреть на дерево? :) Не думаю, что нужно ставить цель получить 100% Recall.

Да, раз про альтернативные модели размышления, можете подсказать модель, хорошо объединяющую (работающую) разряженные (редкие единицы - примерно 5% на выборке) бинарные признаки? Их много.

 
Aleksey Vyazmikin #:

На вопрос "Почему"?

Нет времени с этим возится...

Да и вообще..  
Уверен если подумать то это распаралеливание и не надо скорей всего
 
mytarmailS #:
Нет времени с этим возится...

Да и вообще..  
Уверен если подумать то это распаралеливание и не надо скорей всего

Почему не надо - мне было бы удобно...

 
Aleksey Vyazmikin #:

Почему не надо - мне было бы удобно...

Лучше с данными научиться работать, а не пихать гигабайты скоррелированого мусора по серверам 
 
Vladimir Perervenko #:

народная мудрость гласит: за деревьями леса не видит. А вот интересно, перебирая листья дерево видно? я не спрашиваю за лес. 

Это что единственный алгоритм который Вам известен? Или он самый эффективный? Что Вы на нем зациклились? 

Это мимо проходящего мысли.

Удачи

Вы с Санычем не из одного цеха? 
Периодичность бессмысленных каментов вышла на критический уровень, неужто в Р пакеты закончились 
 
Aleksey Vyazmikin #:

Отличается попыткой использовать не лучший сплит предиктора, а разные варианты из лучших. Таким образом делаются последовательно сплиты, а успех  оценки происходит по листу, если я правильно понял алгоритм. От удачного поколения отсекаются предикторы ближе к листу и происходит повторная попытка построения. Сам алгоритм я не могу детально проанализировать - не автор я. Но, по идеи, такой подход лучше рандома в теории.

Не жадный алгоритм сплитования, а генетический. Ну дипмайнды тоже озадачивались подобным, из нейросети правила вытаскивали. Но маловато инфы нашлось. Есть статья и готовая модель, но нет вдохновения все это пробовать. Еще есть другие реализации вытаскивания правил из нейронок. Наверное можно что-то почерпнуть оттуда.
 
mytarmailS #:
Лучше с данными научиться работать, а не пихать гигабайты скоррелированого мусора по серверам 

Могли просто сказать, что не разобрались в теме, сделали ошибочные выводы, а теперь ведете так, что чуть поняли суть проблемы и сразу в отступную пошли.

Эта маргинальная мысль - что все дураки кроме вас - она отталкивает людей - подумайте над этим.

 
Maxim Dmitrievsky #:
Не жадный алгоритм сплитования, а генетический. Ну дипмайнды тоже озадачивались подобным, из нейросети правила вытаскивали. Но маловато инфы нашлось. Есть статья и готовая модель, но нет вдохновения все это пробовать. Еще есть другие реализации вытаскивания правил из нейронок. Наверное можно что-то почерпнуть оттуда.

Так я и написал в чем разница между жадным и генетикой для дерева - возможно не понял вопрос.

Про вытаскивания правил из нейросети не слышал. Можете дать ссылку? Пока рисуется что-то громоздкое в воображении.

Но, думаю, что нейросети тут будут явно медленней деревьев по скорости выдачи новых правил.