Что подать на вход нейросети? Ваши идеи... - страница 59

 
Maxim Dmitrievsky #:
Обучение - это более широкое понятие, нежели оптимизация и аппроксимация. Почему так сложно идёт?
Широкое, узкое..

Обучение модели на трейне есть ни что иное как курвафитинг тобишь апроксимация..  дальше детальки
 
mytarmailS #:
Широкое, узкое..

Обучение модели на трейне есть ни что иное как курвафитинг тобишь апроксимация..  дальше детальки
Это твое личное мнение
 
У меня вопрос и недоумение в одном флаконе. Вы реально намерены дальше обсуждать МО, будучи с голой жопой, то есть с отсутствием минимальных знаний о предмете обсуждения? :)
 
Maxim Dmitrievsky #:
У меня вопрос и недоумение в одном флаконе. Вы реально намерены дальше обсуждать МО, будучи с голой жопой, то есть с отсутствием минимальных знаний о предмете обсуждения? :)
Ну если глубоко изучать тему для них это чатить с гпт, то как ты думаешь?


Они же даже вопрос грамотно сформулировать не смогут из за отсутствия знаний, терминологий.
 
mytarmailS #:
Ну если глубоко изучать тему для них это чатить с гпт то как ты думаешь?
Он хотя бы лучше обучен, чем некоторые. Много специалистов потрудилось.
 
Maxim Dmitrievsky #:
Он хотя бы лучше обучен, чем некоторые. Много специалистов потрудилось.
Галюцинирование никуда не ушло
 
mytarmailS #:
Галюцинирование никуда не ушло
Это известная проблема на новых данных. Как база знаний - вполне себе терпимо :)
 
Maxim Dmitrievsky #:
Это известная проблема на новых данных. Как база знаний - вполне себе терпимо :)
Я кстати подумываю про создание базы знаний по рынку и потом с нее торговать

Можно использовать например obsidian
 
Forester #:
Максимальное качество обучения будет при абсолютно точном запоминании, т.е. при полной записи всех данных в БД, или при обучении дерева до самого последнего возможного сплита или при кластризации с числом кластеров = числу примеров.

Деревья с остановкой сплитования раньше или кластеризация с меньшим числом кластеров - обобщат и объединят данные в листьях/кластерах. Это будут недообученые модели, но в условиях наличия  шума они могут оказаться более успешными, чем модели с точным запоминанием.

В начале ветки МО был пример с обучением леса таблице умножения. Т.к. ей не подали для обучения бесконечное число возможных вариантов, то лес выдает иногда точные ответы, но в основном - приблизительные. Очевидно, что он недообучен. Но умеет обобщать - находя и усредняя самые близкие  к правильному ответы отдельных деревьев.

С обучением в условиях шума - сложно оценить качество. Особенно если шум намного сильнее закономерностей, как в трейдинге.

Для этого придумали оценку на валидационной и тестовой выборке, крос-валидацию, валкинг форвард и т.д.

Так, прозвучало слово "оценка", отлично.

Таким образом, обучение нужно как то оценивать, не важно как, главное - улучшать оценку. Верно?

 
Maxim Dmitrievsky #:
Максимальное качество обучения это максимальное качество прогнозов на новых данных. Никого не интересуют прогнозы на обучающей выборке, потому что они и так известны. Это уже не обучение, а аппроксимация. Вы же не называете аппроксимацию обучением.

Например, двухслойный MLP является универсальным аппроксиматором, который способен приблизить любую произвольную функцию с любой точностью. Значит ли это, что он максимально качественно обучается - конечно же нет. Иначе бы не изобретали другие нейросетевые архитектуры, которые лучше именно обучаются, а не подгоняют, для конкретных задач.

Слабо, хотя вроде бы давно в теме.
Ну если обучение таблице умножения, закону Ома и др. законам, то чем больше примеров при обучении дадите, тем точнее будут ответы на новых данных. И модель будет всегда недообучена, ведь вариантов бесконечно много, вы их все подать естественно не можете.

В зашумленной ситуации радисты могут справляться с белым шумом (или др. природными изученными шумами), в трейдинге и шум все время меняется. Так что всё совсем сложно для оценки качества.