Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3297

 
fxsaber #:

Интересно, что с точки зрения обладания количеством данных (котировки), головной мозг человека (как нейросеть) по сравнению с МО, это как инфузория по сравнению с человеком.

150 миллиардов нейронов, и не 1 выход у каждого, а множество. ИИ до такого нескоро дорастет или никогда.
НС сравнивают по уровню интеллекта с тараканом - добежать, откусить - убежать.

 
Maxim Dmitrievsky #:
One-shot-learning. Когда большая предобученная НС (мозг) дообучается на левых данных всего на нескольких примерах. Если модель изначально выучила законы мира, то легко щелкает новую задачку, бегло взглянув на нее.

вот, ты и сам показал, что заранее обученный мозг с левыми данными решает конкретные задачи которых он не знал ранее. а говоришь что лишние "знания" не нужны.

 
fxsaber #:

Видимо, на каком-то подсознании человеческий мозг все же в состоянии находить "закономерности" на предельно малом количестве данных. Везением это не назвать. В общем, загадка.

на самом деле трейдер обрабатывает гораздо больше информации, разными способами одновременно, чем это делают МО-модели применительно к трейдингу. и кроме того, мозг вооружён самыми различными знаниями, не имеющими отношения к трейдингу, но помогающие решать задачи трейдинга.

 
Andrey Dik #:

вот, ты и сам показал, что заранее обученный мозг с левыми данными решает конкретные задачи которых он не знал ранее. а говоришь что лишние "знания" не нужны.

Я такого не говорил, хватит врать 😀
Признаки - это не знания.
 
Andrey Dik #:

Вы постоянно путаете понятие "экстремум" с "острый пик" (точка, в которой нет производной у функции).

Даже у ровной поверхности есть экстремум.

Другое дело, что ФФ всегда стараются выбирать так, что бы поверхность ФФ была как можно глаже по возможности, при этом что бы глобальный экстремум был единственным. Единственный глобальный экстремум должен быть единственным однозначным решением задачи.

Если глобальный экстремум ФФ не единственный, и тем более не имеющий производную, то это означает неверный выбор ФФ (критерия оценки модели). Непонимание этого и приводит к термину "сверх подгонка", непонимание этого приводит к тому, что ищут какой то неоднозначный локальный экстремум.

Можно провести аналогию: обучается специалист - врач, для аттестации разработаны квалификационные экзамены (ФФ), для врача не может быть понятия "переобученный" или "подогнанный", если врач не набирает максимальный бал - значит он недообучен. А по вашему хороший врач всегда должен быть недоученным неучем.

Ещё раз, проблема "переобученности" в неверном выборе критериев оценки модели. Вроде такие крутые специалисты на форуме присутствуют, но повторяют раз за разом одни и те же ошибки. Разработка правильных критериев оценки не менее важная задача, чем выбор предикторов, иначе адекватно оценить модель просто невозможно.

Предвижу шквал возражений, ничего, я привык. Если кому то пригодиться - замечательно, а на тех, кому не пригодиться, пофигу, значит им кажется, что и так хорошо.

Сверх подгонка моделей НЕ имеет никакого отношения к оптимизации от слова совсем.

Идеальной сверх подогнанной моделью котировки является сама котировка. Как и любом другом случае построения моделей: нет оптимизации, оценка такой модели вырождена и т.д.

Вы не понимаете значение слова "модель". Например, модель "Закон всемирного тяготения" Ньютона. Некий идеал, применимый в неких идеальных условиях: вакуум, нет других тел во вселенной. Тем не менее позволяет делать очень многие расчеты с достаточной для практики точностью. 

И вся проблема построения модели найти такую, ошибка которой с реальными данными нас устраивала. При этом надо понимать, что та ошибка, которую мы видим, не обязательно будет в будущем, а будет в некотором доверительном интервале. Поэтому ищем модель с допустимой на практике ошибкой в допустимом на практике интервале. Нам не нужны экстремумы. 

 
Forester #:

150 миллиардов нейронов, и не 1 выход у каждого, а множество. ИИ до такого нескоро дорастет или никогда.
НС сравнивают по уровню интеллекта с тараканом - добежать, откусить - убежать.

Если умножить еще на несколько миллиардов особей человечества, то текущая цивилизация показывает, что на сверх-малом количестве данных возможно выдвигать гипотезы, которые многое могут точно предсказать из наблюдаемого и даже воссоздать ненаблюдаемые явления.

 
Maxim Dmitrievsky #:
One-shot-learning. Когда большая предобученная НС (мозг) дообучается на левых данных всего на нескольких примерах. Если модель изначально выучила законы мира, то легко щелкает новую задачку, бегло взглянув на нее.

Так дообучаются, в частности, большие языковые модели, для новых задач. Но если заставлять ее долго учить эти новые примеры, она начнет забывать предыдущий опыт и станет предвзятой к новым данным.
Интересно было бы построить график: качество One-shot-learning от возраста детеныша.
 

Ну.... в деревьях есть оптимизация. При выборе лучшего сплита. Проверяются все столбцы/признаки, делаются разные сплиты и принимается в работу тот, который имеет минимальное значение нечистоты классов для классификации или максимальную точность для регрессии.
Для случайных лесов на этом все заканчивается. Далее просто усредняется результат множества деревьев, которым случайно даны например по 50% признаков.
В бустинге каждое последующее дерево учится ошибке суммы предыдущих деревьев и минимизирует эту ошибку.

Но от пользователя это все скрыто под капотом и говорить об этом нет смысла. Это совсем не похоже на ту оптимизацию, которую мы делаем в тестере перебирая значения каких то параметров, которые  меняют признаки или учителя для модели (например подбирая ТП/СЛ).

 
Maxim Dmitrievsky #:
Признаки - это не знания.

а что такое признаки по твоему? давай спокойно.
и что такое знания?

ты сегодня говорил, что оптимизация не имеет отношения к МО, потом признал, что всё таки имеет.
погоди, сейчас придём к тому, что признаки - это знания.
 
fxsaber #:
Интересно было бы построить график: качество One-shot-learning от возраста детеныша.

Скорее всего, на НС-мозга огромное влияние оказывает среда (и цифровая), особенно в самый стремительный период формирования НС - раннее детство.

Было бы интересно сравнение таких НС одного возраста на разных задачах, одна НС - гаджет с 2-3 лет, другая - без гаджета.

Т.е. понять, какое развитие НС положительно/негативно сказывается на решении тех или иных задач.


Возможно, вдумчивое изобретение ТС имеет меньший успех, чем у поверхностного клипового мышления.