Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3316

 
Maxim Dmitrievsky #:
Ты и до кружка получил переобученную модель.
Всё, хорош уже, ты полностью слился. Либо докажи обратное, но не односложными фразами, а с рисунками, объяснениями.
 
Andrey Dik #:
Всё, хорош уже, ты полностью слился. Либо докажи обратное, но не односложными фразами, а с рисунками, объяснениями.
Это график ошибок на каждой итерации на трейн и вал. После каждой итерации/эпохи идет усложнение модели. Ты не нарисовал какая ошибка в районе кружка по оси Y и сколько итераций/эпох по оси Х. Если она 0.5, то модель там ничему не обучилась, дальше начинается переобучение. Поэтому твой график ни о чем.

Глобальный максимум/минимум там - это нулевая ошибка.
 
Andrey Dik #:

Стой, куда пошёл. Все ж тупые, акромя тебя, стало быть тебе на вопросы отвечать.

Что это? Что это там красное краснеется? Круглое, красное, внизу.


Ни разу не видел таких графиков.

Фантаст, придумал и навязываешь дискуссии о несуществующем. 

Вообще-то нормально получить такой график из какой-либо модели, а не балаболить тут годами.

 
Так вот, в глобальном минимуме на твоем графике огромное переобучение, потому что кривая вал уходит максимально вверх.
 
Andrey Dik #:

Я правильно понимаю, что обучение Вы представляете, как поиск ответа функции без части её членов?

К примеру есть у нас наблюдения A+B+C=Y,  A и B - в виде предикторов, а C неизвестна, знакомясь с ответами (разметкой) на выборке через оптимизацию подбираем компенсацию значения C, которая может быть выражена через манипуляции, в том числе в виде умножения на коэффициенты в случае НС, либо через взаимные правила. Т.е. происходит активное исследование функции с целью заместить недостающие переменные и приблизится к правильному ответу. Ну и подразумевается, что результаты вычисления функции в выборке достаточно репрезентативные, что позволит использовать результат на новых данных.

Однако, в случае оптимизации в тестере мы можем менять значения переменных (по сути представляя их, как функции), допуская, что их мы так же не знаем, или даже не знаем, какие из них дадут больший вес в нашу компенсаторную функцию в виде правил, аппроксимирующих значения Y.

 

Поскольку мы уже знаем, что такое Учитель, теперь еще раз картинки для Андрея

https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8

 

Дальше вопрошаем у чатГПТ


Max, [26 окт. 2023 г., 18:59:31]:

как Дилемма смещения–дисперсии соотносится с поиском глобального минимума?


ChatGPT & Midjourney | AI bot, [26 окт. 2023 г., 18:59:38]:

Дилемма смещения-дисперсии относится к проблеме выбора модели в машинном обучении. Она указывает на то, что при увеличении сложности модели (например, добавление новых признаков или увеличение числа параметров) возникает увеличение дисперсии (разброса) предсказаний модели, но при этом может возникать смещение (ошибка) в сторону более простых моделей.


С другой стороны, поиск глобального минимума относится к оптимизации параметров модели. Целью является выбор таких значений параметров, при которых достигается минимальное значение функции ошибки. Однако, при наличии большого количества параметров и сложности модели, поиск глобального минимума может быть затруднен или даже невозможен.


Таким образом, дилемма смещения-дисперсии и поиск глобального минимума связаны тем, что при выборе слишком сложной модели для решения задачи машинного обучения может возникать проблема переобучения (высокая дисперсия), а при использовании слишком простой модели - недообучение (высокое смещение). Это может затруднить поиск глобального минимума и привести к неоптимальным результатам. Поэтому важно найти баланс между сложностью модели и ее способностью обобщать данные для достижения оптимальных результатов.

 

Max, [26 окт. 2023 г., 19:03:50]:

Оптимальная модель должна соответсвовать глобальному минимуму в этом случае, или нет?


ChatGPT & Midjourney | AI bot, [26 окт. 2023 г., 19:03:54]:

Нет, оптимальная модель не обязательно должна соответствовать глобальному минимуму. В некоторых случаях, особенно при наличии шума в данных, глобальный минимум может быть достигнут за счет переобучения модели. Такая модель может показывать высокую точность на обучающих данных, но плохо обобщать данные на новые примеры.


Вместо этого, оптимальная модель должна находиться вблизи глобального минимума, но при этом иметь низкую дисперсию и смещение. Такая модель будет давать стабильные и точные предсказания на новых данных. Поэтому важно учитывать не только точность модели на обучающих данных, но и ее способность обобщать данные на новые примеры при выборе оптимальной модели.

 
Aleksey Vyazmikin #:

Я правильно понимаю, что обучение Вы представляете, как поиск ответа функции без части её членов?

К примеру есть у нас наблюдения A+B+C=Y,  A и B - в виде предикторов, а C неизвестна, знакомясь с ответами (разметкой) на выборке через оптимизацию подбираем компенсацию значения C, которая может быть выражена через манипуляции, в том числе в виде умножения на коэффициенты в случае НС, либо через взаимные правила. Т.е. происходит активное исследование функции с целью заместить недостающие переменные и приблизится к правильному ответу. Ну и подразумевается, что результаты вычисления функции в выборке достаточно репрезентативные, что позволит использовать результат на новых данных.

Однако, в случае оптимизации в тестере мы можем менять значения переменных (по сути представляя их, как функции), допуская, что их мы так же не знаем, или даже не знаем, какие из них дадут больший вес в нашу компенсаторную функцию в виде правил, аппроксимирующих значения Y.

Не совсем понимаю вопрос. Уточните, пожалуйста.

 
Maxim Dmitrievsky #:

Дальше вопрошаем у чатГПТ


Max, [26 окт. 2023 г., 18:59:31]:

как Дилемма смещения–дисперсии соотносится с поиском глобального минимума?


ChatGPT & Midjourney | AI bot, [26 окт. 2023 г., 18:59:38]:

Дилемма смещения-дисперсии относится к проблеме выбора модели в машинном обучении. Она указывает на то, что при увеличении сложности модели (например, добавление новых признаков или увеличение числа параметров) возникает увеличение дисперсии (разброса) предсказаний модели, но при этом может возникать смещение (ошибка) в сторону более простых моделей.

Как предлагается считать дисперсию (разброс) ошибки при классификации, а не регрессии?

Причина обращения: