Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А, эт легко. Как только начинает обучаться, значит достаточна.
Сейчас продемонстрирую новую сеть. Со всеми тестами.
А, эт легко. Как только начинает обучаться, значит достаточна.
Персептрон Решетова тоже чему то учится, но его явно не достаточно....
Мое мнение, что бы говорить о достаточности надо как-то научиться анализировать результаты обучения, на ОВ, в зависимости от периода обучения (количества входных примеров) и только ООS тут не помошник. Топчусь на этом месте уже давно, чувствую истина где-то рядом, но схватить не могу.
Топчусь на этом месте уже давно, чувствую истина где-то рядом, но схватить не могу.
Персептрон Решетова тоже чему то учится, но его явно не достаточно....
Мое мнение, что бы говорить о достаточности надо как-то научиться анализировать результаты обучения, на ОВ, в зависимости от периода обучения (количества входных примеров) и только ООS тут не помошник. Топчусь на этом месте уже давно, чувствую истина где-то рядом, но схватить не могу.
Я вроде нащупал. Оптимизация на большой выборке. Добиваюсь чтобы просадка была ниже чистой прибыли. А потом уменьшаю выборку и добавляю последний уточняющий нейрон. Могу и ошибаться. Сейчас выложу пример.
В своих изысканиях я использовал несколько подходов:
1) давал сети левый вход, ну совсем от балды, типа посуточного изменения погоды на солнце, и учил ее торговать на этом входе например за месяц. Тут сеть сеть в чистом виде должна продемонстрировать свою запоминающую/подгонящую способность. Потом давал нормальные входы. Пытался как-то анализировать разницу между результатами обучения.
2)пытался анализировать результат обучения в зависимость от увеличения размера обучающий выборки. Почти у всех сетей и конфигураций, до определенного момент есть рост результата, потом обычно наступает стагнация, а при дальнейшем увеличение количества входных примеров возможено и ухудшения результата.
Вот имея эти результаты своих изысканий пытаюсь сделать выводы о достаточности сети, небходимом периоде обучения, есть ли вообще между ними связь? Затем и влез в эту ветку. Может кто что подскажет.
Есть же суммарная среднеквадратичная ошибка. Ее можно сравнивать для разных сетей. И по ней определять, обучается ли она вообще чему-нибудь.
Ошибка чего?
Ошибка чего?
Выхода конечно.
А если на выходе не прогноз, тогда как?
Я вроде нащупал. Оптимизация на большой выборке. Добиваюсь чтобы просадка была ниже чистой прибыли. А потом уменьшаю выборку и добавляю последний уточняющий нейрон. Могу и ошибаться. Сейчас выложу пример.