Что подать на вход нейросети? Ваши идеи... - страница 61

 
Forester #:
Никак. Что вам дали учить - то и учите.

т.е., запоминание (учение) - бесконечный процесс? дали запомнить таблицу умножения и учишь, учишь, одно и тоже всю жизнь?

без оценки ведь не ясно, хорошо получилось запоминание или не очень хорошо и не ясно, когда нужно остановить процесс запоминания.

 
Forester #:
Учить на 100%, до последнего примера или как в БД все их записать.

"на 100%" - это оценка.

Учить и записать разные вещи.

Сохранение/запись - не требует оценки, предполагается, что запись эффективна на 100% (это законченный процесс, оптимизацию уже провели разработчики ранее и добились 100% качества сохранности записи).

Процесс запоминания - незаконченный процесс, он требует оценки для того, чтобы понять, что запоминание получилось качественно.

Подтвердите или опровергните мои утверждения, пожалуйста.

 
Цепляние за соломинку, когда последним наименьшим алгоритмом или последней инстанцией должна быть оптимизация ) будь то оптимизация гиперпараметров или весов модели. Челу просто важно, чтобы это слово там присутствовало, тогда он будет считать, что кому-то что-то доказал :)
 
Andrey Dik #:

"на 100%" - это оценка.

Учить и записать разные вещи.

Сохранение/запись - не требует оценки, предполагается, что запись эффективна на 100% (это законченный процесс, оптимизацию уже провели разработчики ранее и добились 100% качества сохранности записи).

Процесс запоминания - незаконченный процесс, он требует оценки для того, чтобы понять, что запоминание получилось качественно.

Подтвердите или опровергните мои утверждения, пожалуйста.

Опять оптимизацию пытаетесь пропихнуть )) Это бесконечный цикл. Я в нем застревать не собираюсь.
Все что хотел сказать про обучение != оптимизация, уже сказал.

 
Forester #:

Опять оптимизацию пытаетесь пропихнуть )) Это бесконечный цикл. Я в нем застревать не собираюсь.
Все что хотел сказать про обучение != оптимизация, уже сказал.

Тупик, аргументация закончились?

Пропихивать ничего не собираюсь, просто развеиваю заблуждения. Не переживайте, заблуждаться может кто угодно, вот в этой веточке и будем разбираться, топикстартер одобрил сие благие намерения.))

Про оптимизацию я пока речи не веду. Веду речь о том, что любой осмысленный процесс имеет оценку, поскольку без оценки либо невозможно понять качество выполненной работы, либо не ясно когда можно завершить процесс. Согласны ли вы с этим?

Разобравшись с некоторыми краеугольными вещами - можно обнаружить новые горизонты, которые были не видны ранее.

 
Andrey Dik #:

Тупик, аргументация закончились?

Пропихивать ничего не собираюсь, просто развеиваю заблуждения. Не переживайте, заблуждаться может кто угодно, вот в этой веточке и будем разбираться, топикстартер одобрил сие благие намерения.))

Про оптимизацию я пока речи не веду. Веду речь о том, что любой осмысленный процесс имеет оценку, поскольку без оценки либо невозможно понять качество выполненной работы, либо не ясно когда можно завершить процесс. Согласны ли вы с этим?

Разобравшись с некоторыми краеугольными вещами - можно обнаружить новые горизонты, которые были не видны ранее.

Оценок может быть много, причём сочетаться они могут весьма причудливо. Например, обучение идёт посредством итерационной оптимизации по одной оценке, но отбор моделей происходит по совсем другим оценкам (метрикам).

В контексте трейдинга напомнил бы ещё про подход fxsaber'а, при котором ищется не вершина, а плато. Тоже получается задача не формализуемая чётко как оптимизационная.

 
Forester #:
Ну если обучение таблице умножения, закону Ома и др. законам, то чем больше примеров при обучении дадите, тем точнее будут ответы на новых данных. И модель будет всегда недообучена, ведь вариантов бесконечно много, вы их все подать естественно не можете.

В зашумленной ситуации радисты могут справляться с белым шумом (или др. природными изученными шумами), в трейдинге и шум все время меняется. Так что всё совсем сложно для оценки качества.

Ну не так ведь. Точность ответов на новых данных (а под новыми данными понимаются другие данные, нежели обучающие) будет зависеть от свойств каждой конкретной модели, а не от количества обучающих примеров.

На трейне у вас есть сколько-то данных, больше взять негде. Вы абстрагируетесь от их количества и пытаетесь обучить модель, чтобы как можно более точно предсказывать новые данные. В этом и есть смысл обучения.

Есть два ключевых критерия оценки - это дисперсия и смещение модели относительно ожидаемых значений. Поиск баланса между двумя и есть основная часть обучения, та, которая fitting. При всем при этом эти критерии не оптимизируются, а определяются постфактум. То есть проблема ищется чаще в данных, чем в качествах модели.

 
Aleksey Nikolayev #:

Оценок может быть много, причём сочетаться они могут весьма причудливо. Например, обучение идёт посредством итерационной оптимизации по одной оценке, но отбор моделей происходит по совсем другим оценкам (метрикам).

В контексте трейдинга напомнил бы ещё про подход fxsaber'а, при котором ищется не вершина, а плато. Тоже получается задача не формализуемая чётко как оптимизационная.

Верно, оценок может быть много. Обычно, весь комплекс оценок, последовательных или взятых как отдельных элементов общей оценки (интегральной), называют метриками. В любом случае итоговый результат будет оценён.

Насчёт плато. Плато тоже может быть описано как итоговая оценка. Для этого нужно описать, что является "плато" и искать то, что максимально подходит (оценка) под это описание. Например, это может быть сетами ближайшими соседями с определённым допустимым максимальным отклонением по высоте. Если что-то человек может видеть глазами или представить, то это может быть описано, а значит и оценено оценкой.

 
Aleksey Nikolayev #

В контексте трейдинга напомнил бы ещё про подход fxsaber'а, при котором ищется не вершина, а плато. Тоже получается задача не формализуемая чётко как оптимизационная.

Это раздел оптимизации о минимизации шумной функции. Noise function optimization или что то типа того, пишу по памяти. 
На самом деле все уже придумано, если трейдер делает какой то ноу хау то это скорей от безграмотности.

А Сабер просто делал раннюю остановку те банально и примитивно и врятли там плато какое то находилось скорей просто спокойствие для души.
 

Вернусь к технической реализации...

Оптимизация присутствует при выборе сплита в дереве. Есть разные формулы для этого.
В случае с 100%-ным обучением дерева эта оптимизация определяет только путь по которому шли к абсолютному заучиванию данных. На качество заучивания она не влияет, оно 100%-ное. Истинное обучение понимаю только как 100%-ное. Поэтому обучение (точное запоминание тому чему учат) != оптимизации.

Но если недообучили, т.е. остановили сплитование до полного заучивания, то можем остановиться на разных вариантах этого пути - тогда модели и качество обучения (степень недообученности) будет разным при разных алгоритмах выбора сплита, при разной глубине обучения, разном числе примеров в листе.
Недообучать -  плохая идея в случае обучения однозначным/точным данным (табл. умножения, закон Ома и т.д.). Чем больше примеров дашь на запоминание/обучение тем точнее будет ответ на новых данных.

Но в  ситуации с рыночными данными, чтобы не запоминать шум приходится останавливаться раньше, оценивать и выбирать кого-то из этих недоучек.
В итоге получается, что оптимизация и оценка нужны недоученым/несовершенным моделям. Абсолютно точной БД оценка не нужна, в ней есть всё, чему хотели обучить.