Разговор с ChatGPT об улучшении нейронной сети и торговле на Форекс - страница 4

 
Evgeniy Scherbina #:
Я не понял. Половина каждого ряда в наборе данных обучения случайные числа?
Ну да. Половина цен зависит от прошлых цен, а половина вообще никак не зависит. И это еще хорошо, если половина.
 
Maxim Dmitrievsky #:
Ну да

В ценовых рядах нет ничего случайного. Учите мат часть. Без неё делать нечего в МО.

 
Maxim Dmitrievsky #:
Ну да. Половина цен зависит от прошлых цен, а половина вообще никак не зависит. И это еще хорошо, если половина.

Мне кажется, это странный подход. Нужно дропаут использовать, чтобы сбить привыкание весов к данным. Но сбивать данные случайным образом - я чет очкую.

Мой лучший подход с данными - использовать только 25% на обучении. А проверку на следующем этапе делать 100%, чтобы посмотреть как обучение справляется. Таких подходов 200 (можно и 1000) и в таблицу, чтобы понять закономерности.

Я много писал про это в другой теме. Бары в цепочках повторяются, и привыкание буквально в 1 эпоху... А что если выкинуть 75% цепочек, тогда нет повторений.

 
Evgeniy Scherbina #:

Мне кажется, это странный подход. Нужно дропаут использовать, чтобы сбить привыкание весов к данным. Но сбивать данные случайным образом - я чет очкую.

Мой лучший подход с данными - использовать только 25% на обучении. А проверку на следующем этапе делать 100%, чтобы посмотреть как обучение справляется. Таких подходов 200 (можно и 1000) и в таблицу, чтобы понять закономерности.

Я много писал про это в другой теме. Бары в цепочках повторяются, и привыкание буквально в 1 эпоху... А что если выкинуть 75% цепочек, тогда нет повторений.

Там получается, что если в датасете рэндома больше, чем закономерностей, то сетка в любом случае переобучается, чисто статистически 
 
Maxim Dmitrievsky #:
Там получается, что если в датасете рэндома больше, чем закономерностей, то сетка в любом случае переобучается, чисто статистически 

А должна бы, по идее, отсекать шум и выявлять закономерности.

 
Maxim Dmitrievsky #:
Там получается, что если в датасете рэндома больше, чем закономерностей, то сетка в любом случае переобучается, чисто статистически 

Ойли? Early Stopping - остановить, когда нет улучшения. Или я не понимаю.

Среди вариантов которые я применял, я уже написал, что изменял весь ряд на случайное число. Этот же вариант подтверждает мягкий голос из ChatGPT. Это позволяет сохранить зависимости между барами, но бьет по привыканию. И вряд ли можно изменить случайно эти числа. Заучивать случайность - это странно. Ведь нужно понимать, что должно происходить в нейронной сети.

 
Evgeniy Scherbina #:

Ойли? Early Stopping - остановить, когда нет улучшения. Или я не понимаю.

Среди вариантов которые я применял, я уже написал, что изменял весь ряд на случайное число. Этот же вариант подтверждает мягкий голос из ChatGPT. Это позволяет сохранить зависимости между барами, но бьет по привыканию. И вряд ли можно изменить случайно эти числа. Заучивать случайность - это странно. Ведь нужно понимать, что должно происходить в нейронной сети.

Ранний останов показывает что происходит на контрольной выборке. Плюс если на ней ошибка не падает, а на трейне уже знатно упала, то это же явный переобуч. И не важно в каком месте ты остановишь обучение на контрольной. Да, какой-то баланс ошибок ты получишь, но это фигня.
 
JRandomTrader #:

А должна бы, по идее, отсекать шум и выявлять закономерности.

Не должна, нет такой встроенной опции :)
 
Maxim Dmitrievsky #:
Не должна, нет такой встроенной опции :)

Ну так и кнопки "Сделать п**дато" нет )

 
Эти вещи по типу регуляризации, дропаута и раннего останова - для внутренних «нужд» модели. Чтобы не переобучаться на условно хороших данных. Но глобально эти вещи не для поиска закономерностей в этом мире, через них вы мир не улучшите, и свою ТС тоже :)