![MQL5 - Язык торговых стратегий для клиентского терминала MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А вот кое-кто на форуме утверждает, что это аппроксиматор. Во. По-русски -- усреднятель.
Ну а регрессия, это что такое как не усреднение.
пусть ряд цен - очень сложная функция, тогда где ее аргументы? или для использования нейросети они не требуются?
все аргументы вы все равно не учтете... факторов влияющих на цену тьма тьмущая... все равно останется место для случайного члена... речь всего лишь о том, чтобы теми параметрами которые есть в НС (а кстати, связка эксперт+оптимизатор МТ - это по сути тоже НС) оптимально подогнать её под график...
а вообще как именно это лучше делать - это вопрос не ко мне... это к специалистам по НС...
Ну а регрессия, это что такое как не усреднение.
Ну, регрессия, я так понимаю --- уменьшение всяческих проявлений, "обратное развитие".
Аппроксимация -- это некое "приближение", "усреднение" всяческих развитий.
я только приведу цитату человека, который в НС разбирается лучше меня... а умники которые не понимают сути прогнозирования пусть дальше херней страдают...
Почти согласен Вега,
Но опять же - не для всех типов нейроархетектур. То что называют уточненной экстраполяция - на самом деле переучивание данных на неком сером шуме, т.е. бич любой нейронки, все утверждающие это, как видно по их заявлениям, малокомпитентны, и даже никогда не пытались сунуть нос в нейро алгоритмах далее, чем в работу персептрона. Вот взять те же SOM сетки, квантанизаторы или когнитроны - где тута какая-либо экстра, сплошная интра. Смысл создания сетки в моментальном опознании образа смены фазы/тренда и отсеве ложных движений, а не в постучастии в лагге с гашением предыдущего импульса движения.
Поскольку я понял, что базовые, самые элементарные познания (к примеру алгоритм работы обр. распространения ошибки - в статье он крайне криво и уклончиво объяснен ) здесь никого не интересуют, всем сразу нужно "дело показать" (а лучше сразу деньгами) может обсудим идеи по усовершенствованию алгоритма Better'a ?
К примеру очень красивое решение, имхо симметричное обучение по прибыли:
т.е. симметричная классификация областей входа. Но есть и минусы в таком обучении, к примеру низкая сходимость ввиду осцилляции весов, вычисление размеров сетки, оценка шумов, етс. Можем и далее обсуждать примеры усовершенстования алгоритма, к примеру проверкам достоверности выхода, триггерные зоны и другое. Я не крутой нейроспец, но что уже знаю то мое. Если есть у кого желание вместо трепа здесь объедениться предложить новую идею для практического воплощения в ядре на С++, готов реализовать все freeofcharge.
мало здесь спецов хороших по НС... если Neutron захочет пообщаться, мож что и придумаете... а я не рулю в этом: SOM сетки, квантанизаторы, когнитроны...
ПС. кстати, базовые познания все-таки кое-кого интересуют... а на тех кому нужны кривые баланса с ракетными траекториями, лучше не терять время... это люди ещё совсем не обстрелянные... пусть сначала сольют пару-тройку депозитов, а уж потом разбираются что к чему... (это ж метод обратного распространения ошибки - самый эффективный из всех)
Все что пока есть это доделанный код из статьи Сергеева. Перелопатил все что смог нарыть по вариациям сетей Кохонена - теперь пишу свой слой на основе библиотечек с сайта Teuvo хочу классифицировать полное полный временную серию данных на двумерной карте, далее на 2-3 слойный перцептрон и все как везде. Информации крайне мало, и если есть то все как по клише. Может кто поделиться как отобразить классификацию пятимерного вектора на двумерном поле ? Сам могу для начинающих сделать статью с подробным разъяснением метода обучения градиентным спуска и в частности обратного распространения ошибки, теже карты Кохонена, немного по нечеткой логике, етс. Здесь же все тяготеют к регрессионному типу анализа, т.е. эстерполяцией данных .. считаю это бредом.
Да, было бы неплохо такую статейку... а то мозги уже кипять :-)
Ну, регрессия, я так понимаю --- уменьшение всяческих проявлений, "обратное развитие".
Аппроксимация -- это некое "приближение", "усреднение" всяческих развитий.
Вы посмотрите на методы, которые используются "внутри", - среднее и производные от них. Есть конечно тонкости, между понятиями регрессия и аппроксимация - но база у них одна и та же - среднее. Нейросетки, - это то же хитровымученный поиск средних.
Может кто поделиться как отобразить классификацию пятимерного вектора на двумерном поле ? Сам могу для начинающих сделать статью с подробным разъяснением метода обучения градиентным спуска и в частности обратного распространения ошибки, теже карты Кохонена, немного по нечеткой логике, етс.
1. Не используйте карты, используйте более простую модификацию. Двумерность липовая, на самом деле размерность 1, это емнип, могу и ошибаться. Поэтому никаких проблем с преобразованием нет, такое же разделение вх. пространства на кластеры.
Здесь же все тяготеют к регрессионному типу анализа, т.е. эстерполяцией данных .. считаю это бредом.
Вы посмотрите на методы, которые используются "внутри", - среднее и производные от них. Есть конечно тонкости, между понятиями регрессия и аппроксимация - но база у них одна и та же - среднее. Нейросетки, - это то же хитровымученный поиск средних.
Собственно, любой трейдинг, автоматический он, или нет и вне зависимости от используемого типа анализа сводится к обнаружению либо средних либо паттернов(м.б. паттернов средних). Так в чем проблемма?