Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3296

 
Andrey Dik #:

на каких авторитетов я ссылался? по моему ты обычно щеголяешь отсылками к авторитетам и их статьи.
я не знаток в МО, но то что касается оптимизаци - знаю не плохо. а так как МО без оптимизаци нукуда, то могу участвовать в любом здесь обсуждении не стесняясь.
Ты привел ГПТ в какое-то доказательство не пойми чего. Пишешь ради того, чтобы писать. Смыслового посыла нет. Про оптимизацию мне не интересно, это 3-й вопрос. Я не писал про оптимизацию и не спрашивал про нее. Если в обучение входит оптимизация, это не значит, что обучение - это оптимизация. Вообще полностью не о том разговор был.

Ты просто не понял, о чем я написал, и начал писать о больном, что тебе ближе.
 
Maxim Dmitrievsky #:
Ты привел ГПТ в какое-то доказательство не пойми чего. Пишешь ради того, чтобы писать. Смыслового посыла нет. Про оптимизацию мне не интересно, это 3-й вопрос. Я не писал про оптимизацию и не спрашивал про нее. Если в обучение входит оптимизация, это не значит, что обучение - это оптимизация. Вообще полностью не о том разговор был.

ты не писал про оптимизацию, а чего докопался тогда?
писал я и не тебе.
и, обучение - это частный случай оптимизации, запомни уже наконец
а то видишь ли он не писал! хех, что ж теперь, спрашивать разрешения о чем писать а о чем нет? угомонись уже.
 
Andrey Dik #:

ты не писал про оптимизацию, а чего докопался тогда?
писал я и не тебе.
и, обучение - это частный случай оптимизации, запомни уже наконец.
Саныч примерно правильно все написал. Все началось с моего сообщения. Ты полез не в те дебри. 

Получилась писанина ни о чем.
 
Andrey Dik #:
Не могу не поделиться ошеломительной новостью (для меня это так точно), найден ещё более сильный алгоритм, чем SSG.

Это, действительно, хорошо.

 
Обучение - это, конечно же, более широкое понятие, чем оптимизация. И там используются свои критерии оценки.

Тема так и называется: МО.
 
Maxim Dmitrievsky #:
Ты путаешь сущности. Пытаешься подогнать оптимизацию под аппроксимацию, или наоборот.

Аппроксимация и оптимизация являются различными подходами в решении задач машинного обучения.

Если правильно понял, то в алготрейдинге аппроксимация - это создание самой ТС. Хочу мартин - создал, хочу скальпер - создал, хочу паттерны - создал и т.д. Можно поручить методам МО создать нечто.

А оптимизация - настройка/изучение уже созданной ТС.

Поскольку в отличие от человека, МО через числодробилку занимается и созданием ТС, то можно объединить аппроксимацию и оптимизацию. Верно понял?

 
fxsaber #:

Если правильно понял, то в алготрейдинге аппроксимация - это создание самой ТС. Хочу мартин - создал, хочу скальпер - создал, хочу паттерны - создал и т.д. Можно поручить методам МО создать нечто.

А оптимизация - настройка/изучение уже созданной ТС.

Поскольку в отличие от человека, МО через числодробилку занимается и созданием ТС, то можно объединить аппроксимацию и оптимизацию. Верно понял?

Именно так
 
Аппроксимация полиномом большой степени приводит к переобучению. Снижается дисперсия ошибок, но увеличивается отклонение на новых данных. Это то же самое, что добавлять много признаков. Ну и просто азы.
Переобученную модель невозможно тюнить, она плохо обобщает. Невозможно делать козул инференс, потому что нет сопоставлений на тестовой и контрольной выборках. Модель везде ошибается на тестовой выборке, невозможно вывести коррекцию. Проще выбросить модель.
 
Maxim Dmitrievsky #:
Именно так

Интересно, что с точки зрения обладания количеством данных (котировки), головной мозг человека (как нейросеть) по сравнению с МО, это как инфузория по сравнению с человеком.

Однако, настолько примитивный человек доказал, что может создать неплохие рабочие ТС. Получается, что для создания рабочей ТС не требуется столь огромное количество данных.

Для меня загадка, как, например, человек дошел до рабочих моделей скальперов. Это было сделано практически полностью без числодробилок.


Сценарий этого, видимо, был примерно таким:

  1. Что-то часто вижу какой-то флет (тупо на экране помотал несколько дней).
  2. Попробую-ка на нем заработать примитивной ТС.
  3. Не сливает сильно. Надо бы немного доработать ТС. Посмотрел на историю торговли - похоже, что-то можно улучшить.
  4. Стала плюсовать немного. Повторяю п.3.
Никакой числодробилки. Тупо посмотрел в п.1. и начал делать. Вероятность такого подхода видится около нулевой, но почему-то работает. Какой-то рабочий безумный метод тыка.


Видимо, на каком-то подсознании человеческий мозг все же в состоянии находить "закономерности" на предельно малом количестве данных. Везением это не назвать. В общем, загадка.

 
fxsaber #:

Интересно, что с точки зрения обладания количеством данных (котировки), головной мозг человека (как нейросеть) по сравнению с МО, это как инфузория по сравнению с человеком.

Однако, настолько примитивный человек доказал, что может создать неплохие рабочие ТС. Получается, что для создания рабочей ТС не требуется столь огромное количество данных.

Для меня загадка, как, например, человек дошел до рабочих моделей скальперов. Это было сделано практически полностью без числодробилок.


Сценарий этого, видимо, был примерно таким:

  1. Что-то часто вижу какой-то флет (тупо на экране помотал несколько дней).
  2. Попробую-ка на нем заработать примитивной ТС.
  3. Не сливает сильно. Надо бы немного доработать ТС. Посмотрел на историю торговли - похоже, что-то можно улучшить.
  4. Стала плюсовать немного. Повторяю п.3.
Никакой числодробилки. Тупо посмотрел в п.1. и начал делать. Вероятность такого подхода видится около нулевой, но почему-то работает. Какой-то рабочий безумный метод тыка.
One-shot-learning. Когда большая предобученная НС (мозг) дообучается на левых данных всего на нескольких примерах. Если модель изначально выучила законы мира, то легко щелкает новую задачку, бегло взглянув на нее.

Так дообучаются, в частности, большие языковые модели, для новых задач. Но если заставлять ее долго учить эти новые примеры, она начнет забывать предыдущий опыт и станет предвзятой к новым данным.
Причина обращения: