Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 592
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
да прям, просто пошел по статьям всяким, посмотреть что интересного есть в этой теме :) Ну основное преимущество перед MLP, как понял, - скорость и минимум настроек (здесь их вообще нет) и то, что эти сетки почти не переобучаются
ну и гауссовская ф-я используется а не стьюдента. Для каждого входа создается ф-я плотности вер., потом результаты на выходе линейно суммируются
кстати, PNN и GRNN есть в mql-виде, но я еще не пробовал и не сравнивал с MLP
https://www.mql5.com/ru/code/1323
Ну , плюнь ты наконец на эти поделки МКЛ. Есть проф софт, проверенный тысячами пользователей, и используй его. Имхо.
Поддерживаю.
Я бы на месте Максима все его интересные изыскания оформлял бы в качестве статей, а для конкретного осушения Грааля использовал бы Виссим, ну или еще что-то в этом роде.
Поддерживаю.
Я бы на месте Максима все его интересные изыскания оформлял бы в качестве статей, а для конкретного осушения Грааля использовал бы Виссим, ну или еще что-то в этом роде.
Ну , плюнь ты наконец на эти поделки МКЛ. Есть проф софт, проверенный тысячами пользователей, и используй его. Имхо.
я свою собственную делаю, чисто под ТС :) там даже элементы памяти (задержки) будут, типа рекуррентной (маленько) :) там же просто все, в смысле сделатаь архитектуру сетки любую, сложнее сделать солвер типа бэкпропа, но можно в оптимизаторе если весов не много
это просто пример, можно код посмотреть как там бэкпроп реализован и сама НС
я свою собственную делаю, чисто под ТС :) там даже элементы памяти (задержки) будут, типа рекуррентной (маленько) :) там же просто все, в смысле сделатаь архитектуру сетки любую, сложнее сделать солвер типа бэкпропа, но можно в оптимизаторе если весов не много
это просто пример, можно код посмотреть как там бэкпроп реализован и сама НС
Ну, имхо, не надо радиолюбительством заниматься - другое время. Уже не сделаем, ни ты, ни я, профессионально. используй готовое.
Ремонтируем с другом системы спутниковые связи. Причем, чуть-ли не единственные в РФ. Ну, не сделать (в смысле изготовить) такого никогда... Время радиолюбителей прошло. безвозвратно.
Ну, имхо, не надо радиолюбительством заниматься - другое время. Уже не сделаем ни ты, ни я, профессионально. используй готовое.
Ремонтируем с другом системы спутниковые связи. Причем, чуть-ли не единственные в РФ. Ну, не сделать (в смысле изготовить) такого никогда... Время радиолюбителей прошло. безвозвратно.
сейчас все роботы делают :) нужно делать роботов, что бы те делали роботов, которые делают вещи
да понятно, просто есть несколько идей, этож типа творчество.. конкретной задачи то нет как правильно сделать
сейчас все роботы делают :) нужно делать роботов, что бы те делали роботов, которые делают вещи
да понятно, просто есть несколько идей, этож типа творчество
Я не про творчество. Но используй в нем профессиональный софт, а не поделки. Но. не настаиваю. Дело аффтора.)
Я выше скидывал ссылку на PNN на Python. Видать не зашло)
Фокусированные сети прямоrо распространения с задержкой по времени
При структурном распознавании образов (structural pattem recognition) принято использовать статические нейронные сети. В противоположность этому временное pacпознавание образов (temporal pattem recognition) требует обработки образов, изменяющихся во времени, и генерации отклика в конкретный момент времени, который зависит не только от текущеro, но и от нескольких предыдущих ero значений.
А такие есть? :) как раз типа таких архитектур на форексе и будут работать, в теории.. но надо эксперементировать. Сделать легко, достаточно добавить к МЛП пару "интересных" нейронов, или соединить 2 модели.
только вместо MLP взять PNN, а остальное докрутить поверх и с боков