Обсуждение статьи "Нейросети бесплатно и сердито - соединяем NeuroPro и MetaTrader 5" - страница 5
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.
Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.
Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро.
Ваши аргументы были бы справедливы, если бы статья называлась "Создаем Грааль". :)
Но статья совсем не об этом. Так что структура НС полностью адекватна цели статьи и позволяет:
1) четко продемонстрировать этапы создания советника (в частности, отлично заметна разница между точностью работы необученной и обученной сети - такой заметной разницы не было бы, будь в сети всего несколько нейронов);
2) продемонстрировать работу с сетями больших размеров. Все эти манипуляции по массовой замене текста в Блокноте были бы непонятно зачем нужны, если бы в примере была всего пара нейронов. А кто знает, какого размера НС будут строить читатели. А так я их заранее всему научил.
Интересно,а форвард за какой период в будущее не льет? Если месяц-уже хорошо.
Большинство трейдунов не могут и не знают как правильно открыть ордер Бай Стоп ...
А при виде подобной статьи у них будет просто недержание...
Ваши аргументы были бы справедливы, если бы статья называлась "Создаем Грааль". :)
Но статья совсем не об этом. Так что структура НС полностью адекватна цели статьи и позволяет:
1) четко продемонстрировать этапы создания советника (в частности, отлично заметна разница между точностью работы необученной и обученной сети - такой заметной разницы не было бы, будь в сети всего несколько нейронов);
2) продемонстрировать работу с сетями больших размеров. Все эти манипуляции по массовой замене текста в Блокноте были бы непонятно зачем нужны, если бы в примере была всего пара нейронов. А кто знает, какого размера НС будут строить читатели. А так я их заранее всему научил.
Ваша статья очень полезна для, наконец, трезвого взгляда на НС. Понимания, что логика "умножь и сложи" крайне примитивна, поэтому для приемлемого подгона требует много большего количества входных параметров, чем при более осмысленных подходах.
Безусловно, мировой опыт показал, что даже такая простейшая логика может давать замечательные результаты в распознавании конечного количества паттернов - капчи, образы и прочее. Но как требуется оперировать с нескончаемым количеством паттернов (временные ряды), так выходит нечто похожее на то, что и получилось в статье.
Если задача была заинтересовать в НС в применении к задачам, не касаемых ВР, но все же на примере ВР, то это несколько странный подход. Но, пожалуй, Ваша статья самая честная про НС. Жаль, никто исходники не смотрит и не понимает сути. Дискуссии НС vs НС ради заполнения внутренней потребности хоть что-то обсудить по теме НС хорошо продемонстрированы некоторыми комментариями к статье.
Ну, некоторые код все же читают. С точки зрения полезности статьи для себя лично ставлю 100%.
Даже с позиции "современных" НС, такой подход все равно имеет право на существование.
Если некоторые не видят в коде операций + и *, так что же им вдалбливать-то... статья ориентирована на разработчиков, а не трейдеров (тем более, которые не знают про бай-стопы).
Автору спасибо. Добавил в избранное, т.к. не раз буду возвращаться к этому материалу.
O, ёё, страсти то какие....., нейроны,гены ,естественные мутации, искуственные репликкации,с колонией хромосом)) это ж сколько надо знать ,чтобы понять что разводят на классике, а проще нельзя ?
Чем заведует нейросеть если обучишь, характером пары ? или я что то упустил, если это так ,то дело не стоит потраченных на неё средств и хлопот
Я новичек тут)
Статья отличная! (в ней показан интересный подход к вопросу)
Прочитал статью и попробовал со своими параметрами.
Провел не мало экспериментов и буду делать их еще.
Пара мыслей:
Тестировать результаты НС в МТ на том наборе на котором она обучалась НЕЛЬЗЯ (всегда будет хороший результат)
Нужно брать для обучения и для теста НЕ ПЕРЕСЕКАЮЩИЕСЯ фреймы!
При создании НС кол-во заданных нейронов прямопорционально качеству обучения и времени обучения сети)
Кол-во слоев влияет существенно слабее.
Автору огромное спасибо!
Я новичек тут)
При создании НС кол-во заданных нейронов прямопорционально качеству обучения и времени обучения сети)
Кол-во слоев влияет существенно слабее.