Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2301

 
Maxim Dmitrievsky:

Есть такие признаки, которые, как ни странно, ухудшают обобщающую способность (говорю за катбуст в частности, наверное относится и к другим). Казалось бы странно, ведь просто добавляются новые признаки, а модель выдает ошибку больше, чем было без них

например, обучил на нескольких машках, затем удалил несколько и accuracy стал выше

Давно описывал такой эффект

https://www.mql5.com/ru/blogs/post/725189

Выявляются полным переобучением модели.

Это шум - который мешает работать.

Еще про оценку предикторов
Еще про оценку предикторов
  • www.mql5.com
Пробую оценить важность предикторов для обученного леса, удаляя 1 из них и обучая лес снова. После чего из ошибки полного леса вычитаю ошибку леса c удаленным  предиктором. Если ошибка
 
elibrarius:

Давно описывал такой эффект

https://www.mql5.com/ru/blogs/post/725189

Выявляются полным переобучением модели.

Это шум - который мешает работать.

да, но тут можно посмотреть как фичи взаимодействуют. Жаль, что привязано к конкретному МО фреймворку

потому что важность может быть занижена мультиколлинеарностью

конечно, вручную возиться когда признаков много - не комильфо
 
mytarmailS:

нет, один слой это примитивно, это всего одно умножение веса

это твоя теория

Вот нашел - теорема Цыбенко.

Представленная формула  y = x1/x2. - непрерывная и всего лишь двумерная.


https://www.mql5.com/ru/code/9002

Рекомендации:

  • Сеть с тремя слоями (numLayers=3: один входной, один скрытый и один выходной) обычно достаточна в подавляющем большинстве случаев. В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать любую непрерывную многомерную функцию с любой желаемой степенью точности. Сеть с двумя скрытыми слоями способна аппроксимировать любую дискретную многомерную функцию.
Ценовой прогноз с использованием нейронных сетей
Ценовой прогноз с использованием нейронных сетей
  • www.mql5.com
Индикатор, который использует нейронные сети для прогнозирования ближайших нескольких цен открытия. Сеть обучается методом обратного распространения ошибки. Обучение проходит автоматически, результат — самообученная сеть и самообучающийся индикатор.
 
elibrarius:

Представленная формула  y = x1/x2. - непрерывная и всего лишь двумерная.

А она дискретная или  непрерывная ?

 
mytarmailS:

А она дискретная или  непрерывная ?

Непрерывная. Разве в ней есть пропуски и дырки? Рисунок с примерами смотрели?


 
elibrarius:

Непрерывная. Разве в ней есть пропуски и дырки? Рисунок с примерами смотрели?

Да уж....

Непрерывная функция — функция, которая меняется без мгновенных «скачков» (называемых разрывами), то есть такая, малые изменения аргумента которой приводят к малым изменениям значения функции. График непрерывной функции является непрерывной линией.

 
mytarmailS:

Да уж....

Непрерывная функция — функция, которая меняется без мгновенных «скачков» (называемых разрывами), то есть такая, малые изменения аргумента которой приводят к малым изменениям значения функции. График непрерывной функции является непрерывной линией.

 В каком месте  y = x1/x2 прерывается?
 
elibrarius:
 В каком месте  y = x1/x2 прерывается?

x2=0

 
Aleksey Mavrin:

x2=0

при х2=DBL_MIN.

Y будет не бесконечным, но очень большим.

Если оторваться от машинных цифр, то можно еще уменьшать x2 что будет  еще увеличивать Y. И т.д. - гонка бесконечно малых и бесконечно больших чисел будет тоже бесконечной. )

 
elibrarius:
 В каком месте  y = x1/x2 прерывается?

Почитай что такое дискретная функция и что такое непрерывна функция и не неси ерунду..

А если хочешь поспорить а не понять что то , то обучи сеть с одним скрытым слоем на  этой функции  y = x1/x2

И объясни потом  почему сеть  не апроксимировала  " y "  ведь оно все такое непрерывное, по твоим же убеждениям 


вон же написано что может:

В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать 
любую непрерывную многомерную функцию с любой желаемой степенью точности

а она чет не может...

Объясни почему?

Причина обращения: