Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3292

 
Maxim Kuznetsov #:

ну так это по всему форуму так..

"моя программа/метод/рассчёт/модель делает быстрее/больше/красивее/глубже всех!..но в убыток" и этих частота появления этих творений всё возрастает

делать г-но становится всё проще,делают его чаще и планка оценки падает..

речь о другом, сравниваешь не палец с пальцем.

 
статус мудрых старцев не подтвержден
 
Maxim Dmitrievsky #:

В МО используется другой график

В козул инференсе проще работать со смещением, чем с дисперсией. Отсюда не гипотетический вывод, что сложность модели или рост кол-ва признаков больше мешают, чем помогают.


Откуда такой график? 

В МО используется совершенно другие критерии, например, AIC, который штрафуется за излишне количество параметров.

Этот и другие информационные критерии соответствует общему посылу в моделировании, что из двух моделей, имеющих одинаковую производительность выбирается та, которая имеет меньшее число параметров.

Не будем забывать, что само понятие "модель" - это огубление реальности. Здесь нет никаких экстремумов. Есть баланс между огрублением и приемлемости точности модели. Но главный является не точность модели, а ее огрубление, ее обобщающая способность. И это понятно, так как главный враг моделирование - это сверх подгонка, родная сестра точности модели.

 
СанСаныч Фоменко #:

Откуда такой график? 

Основы основ

https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff

 
СанСаныч Фоменко #:

Не будем забывать, что само понятие "модель" - это огубление реальности. Здесь нет никаких экстремумов. Есть баланс между огрублением и приемлемости точности модели. Но главный является не точность модели, а ее огрубление, ее обобщающая способность. И это понятно, так как главный враг моделирование - это сверх подгонка, родная сестра точности модели.

Вы постоянно путаете понятие "экстремум" с "острый пик" (точка, в которой нет производной у функции).

Даже у ровной поверхности есть экстремум.

Другое дело, что ФФ всегда стараются выбирать так, что бы поверхность ФФ была как можно глаже по возможности, при этом что бы глобальный экстремум был единственным. Единственный глобальный экстремум должен быть единственным однозначным решением задачи.

Если глобальный экстремум ФФ не единственный, и тем более не имеющий производную, то это означает неверный выбор ФФ (критерия оценки модели). Непонимание этого и приводит к термину "сверх подгонка", непонимание этого приводит к тому, что ищут какой то неоднозначный локальный экстремум.

Можно провести аналогию: обучается специалист - врач, для аттестации разработаны квалификационные экзамены (ФФ), для врача не может быть понятия "переобученный" или "подогнанный", если врач не набирает максимальный бал - значит он недообучен. А по вашему хороший врач всегда должен быть недоученным неучем.

Ещё раз, проблема "переобученности" в неверном выборе критериев оценки модели. Вроде такие крутые специалисты на форуме присутствуют, но повторяют раз за разом одни и те же ошибки. Разработка правильных критериев оценки не менее важная задача, чем выбор предикторов, иначе адекватно оценить модель просто невозможно.

Предвижу шквал возражений, ничего, я привык. Если кому то пригодиться - замечательно, а на тех, кому не пригодиться, пофигу, значит им кажется, что и так хорошо.

 
Andrey Dik #:

Вы постоянно путаете понятие "экстремум" с "острый пик" (точка, в которой нет производной у функции).

Даже у ровной поверхности есть экстремум.

Другое дело, что ФФ всегда стараются выбирать так, что бы поверхность ФФ была как можно глаже по возможности, при этом что бы глобальный экстремум был единственным. Единственный глобальный экстремум должен быть единственным однозначным решением задачи.

Если глобальный экстремум ФФ не единственный, и тем более не имеющий производную, то это означает неверный выбор ФФ (критерия оценки модели). Непонимание этого и приводит к термину "сверх подгонка", непонимание этого приводит к тому, что ищут какой то неоднозначный локальный экстремум.

Можно провести аналогию: обучается специалист - врач, для аттестации разработаны квалификационные экзамены (ФФ), для врача не может быть понятия "переобученный" или "подогнанный", если врач не набирает максимальный бал - значит он недообучен. А по вашему хороший врач всегда должен быть недоученным неучем.

Ещё раз, проблема "переобученности" в неверном выборе критериев оценки модели. Вроде такие крутые специалисты на форуме присутствуют, но повторяют раз за разом одни и те же ошибки. Разработка правильных критериев оценки не менее важная задача, чем выбор предикторов, иначе адекватно оценить модель просто невозможно.

Предвижу шквал возражений, ничего, я привык. Если кому то пригодиться - замечательно, а на тех, кому не пригодиться, пофигу, значит им кажется, что и так хорошо.

Ты путаешь сущности. Пытаешься подогнать оптимизацию под аппроксимацию, или наоборот.

Аппроксимация и оптимизация являются различными подходами в решении задач машинного обучения.


Аппроксимация относится к построению модели, которая приближает зависимость между входными и выходными данными. Это может быть, например, построение линейной или нелинейной функции, которая наилучшим образом описывает данные. Аппроксимация не учитывает цель или задачу, которую необходимо решить, а только стремится создать модель, которая наилучшим образом соответствует данным.


Оптимизация, с другой стороны, относится к поиску оптимальных параметров модели для достижения определенной цели или решения задачи. В этом случае, модель может быть более сложной и содержать большее количество параметров, чем в случае с аппроксимацией. Оптимизация учитывает цель или задачу и настраивает параметры модели для достижения наилучшего результата.


В целом, аппроксимация и оптимизация часто используются вместе для построения эффективных моделей машинного обучения. Сначала проводится аппроксимация для построения модели, а затем проводится оптимизация для настройки параметров этой модели для достижения желаемой цели или решения задачи.

 
Нейросети все равно на твои ФФ. Она выполняет свою задачу на готовых данных. Здесь обсуждается, как найти баланс между дисперсией и смещением такой модели. Вон митрамайлс ставил на второй оконец НС разные ФФ. Получил все те же подгонки.

Ты пишешь про поиск целевой ф-ии, которая у нас уже задана по умолчанию.

Разницу все-таки нужно осознавать.
 
Поэтому выше было написано про важность правильной разметки или Оракула, на основе экспертных знаний или алгоритмических решений. Это то, что ты вносишь в модель априори. Никакими ФФ там не спасешься.

Уже обсосано несколько раз, ходим по кругу. Либо обсуждается что-то конкретное, либо каждый тянет воз в свою сторону.
 

Ну, я же говорил...

Я бы понял, если Саныч начал сопротивляться, но Макс...

ФФ - оценка, мы всё оцениваем. Если мы неправильно оцениваем то, что делаем, то это не значит что неправильно делаем. Без правильной оценки 50/50, а потом говорят - это не работает, то не работает... Не заявляю что я специалист по конструированию оценки, это очень сложная задача.

"Так и обсасывают по кругу одно и тоже" - это не мои слова, если что))) Можно поменять слова  местами так, что будет звучать ещё хуже, тут критерий оценки "количество слов", это не правильная оценка, ведь от перемены слов местами смысл может поменяться кардинально.

 
Не могу не поделиться ошеломительной новостью (для меня это так точно), найден ещё более сильный алгоритм, чем SSG.
Причина обращения: