Cтатья: Прогнозирование цен с помощью нейронных сетей - страница 11

 
slava1:
Что куда подавать я уже очень давно знаю. Хотелось пообсуждать скажем так именно возможные модели. Обычно общими усилиями получается лучше. Я сам уже год работаю над роботом. Результаты есть, но не очень стабильные.

Ну, год - мало :)


Ок, давайте попробуем, но это будет игра в одни ворота и не в Ваши.


В атаче псевдо-случайный ряд образуемый ф-цией x = 4 * (x-1) * (1 - (x-1)), при x0=0.2

Он вам ничего не напоминает? В первом приближении, это ряд напоминает поток данных на рынке.


Прогнозируем t+1 значение. Архитектура сети, MLP 1-5-1, с дополнительной синаптической связью входного и выходного нейронов.

Квадратичная ошибка (10е-3), достигается в районе 60-70т. эпох, при обучающей выборке в 1000 элементов. Обучение проводим методом антиградиета.


Очень не сложно, моделируя различные архитектуры доказать, что мы имеем не зависимую от топологии последовательность, ошибка уменьшается не

значительно от сложности сети, в том числе и от дополнительного кол-ва слоев.


Применим метод искуственных примеров, или хитс, результат - скорость обучения увеличивается в 2,5 раза, а именно - приемлимая ошибка достигается

в районе 30-40т. эпох


Вот вам первый пример, можете его покрутить посмотреть результаты ...

 
slava1:
Что куда подавать я уже очень давно знаю. Хотелось пообсуждать скажем так именно возможные модели. Обычно общими усилиями получается лучше. Я сам уже год работаю над роботом. Результаты есть, но не очень стабильные.

А на счет моделей, как уже сказал, смотрите в сторону описания реализаций Решетова. Да, и не ищите грааль, его нет ;)

 
slava1:
Что куда подавать я уже очень давно знаю. Хотелось пообсуждать скажем так именно возможные модели. Обычно общими усилиями получается лучше. Я сам уже год работаю над роботом. Результаты есть, но не очень стабильные.

Могу сказать только одно: еще раз внимательно прочитайте теорию (именно научную теорию, а популярную литературу) и может найдете то, что пропустили или не учли. Если же Вы считаете что при использовании программ типы NeuroShell Day Trader теорию знать не надо, то тогда только одно - оставте нейросети в покое.

На сим откланиваюсь

 
С сетью 1х5х1 я уверен никаких результатов вы никогда не получите. Сеть должна иметь как минимум два скрытых слоя. Для входов нейронной сети я нормировал показания 20 индикаторов. Так что входов 20. Перепробовал разные топологии. Остановился на 20х140х140х4 Сеть возможно грoмоздка, но выдаёт хорошо интерпретируемые сигналы. Её естественно можно уменъшать. В дальнейшем планирую подобрать топологию при помощи генетического алгоритма. Весь процесс создания и обучения сети производится при помощи JAVANNS обученая сеть переводится в C-Code и сей код уже применяется при создании принимающей решения функции в dll, которую уже можно использовать в MetaTrader. Это так, грубое описание процесса. Поэтому и делаю уже год. Очень большой объём работы. Такие проги, как NeuroShell Day Trader щетаю исполъзовать глупо, если есть возможностъ создавать сеть своими руками и так, как именно самому нужно. Нооооо, это не то очём я говорить хотел. Мне интересен подход к проблемме создания обучающей выборки.
 
slava1:
С сетью 1х5х1 я уверен никаких результатов вы никогда не получите. Сеть должна иметь как минимум два скрытых слоя. Для входов нейронной сети я нормировал показания 20 индикаторов. Так что входов 20. Перепробовал разные топологии. Остановился на 20х140х140х4 Сеть возможно грoмоздка, но выдаёт хорошо интерпретируемые сигналы. Её естественно можно уменъшать. В дальнейшем планирую подобрать топологию при помощи генетического алгоритма. Весь процесс создания и обучения сети производится при помощи JAVANNS обученая сеть переводится в C-Code и сей код уже применяется при создании принимающей решения функции в dll, которую уже можно использовать в MetaTrader. Это так, грубое описание процесса. Поэтому и делаю уже год. Очень большой объём работы. Такие проги, как NeuroShell Day Trader щетаю исполъзовать глупо, если есть возможностъ создавать сеть своими руками и так, как именно самому нужно. Нооооо, это не то очём я говорить хотел. Мне интересен подход к проблемме создания обучающей выборки.

Обучающая выборка - это то, что вы подаете на входы. В данном случае вы подаете 20-ть индикаторов. Что такое индикатор, это обработка первоначального временного ряда, ряда цен {H,L,O,C}. Если рассмотреть с математической точки зрения индикаторы, которые применяются в ТА, то можно выделить те или иные группы мат. методов - скажем МА - это простейших частотный фильтр и т.д., но кто сказал, что для нейросети лучше всего подходят данные, которые приготовлены классическими метода ТА?! Я бы даже говорил наоборот, практически не подходят. Я не даром привел пример мелкой сети, построенной для экстраполяции псевдо случайной ф-цци.


Если бы вы ее немного по исследовали, то обнаружили целый ряд очень интересных свойств, которые позволили вам немного по другому посмотреть на подготовку обучающих выборок. Поток котировок также можно расценивать как псевдослучайную ф-ции, со сложным законом. Нейросети, это математический метод, но технология их применения больше похожа на исскуство.


Да, к стати, вы грубо ошибаетесь, если считаете, что размер сети влияет на возможно решить поставленную задачу.

 
Да нет, таки я наоборот подчеркнул, что размер не главное (имеется в виду количество скрытых слоев и нейронов):-)) Давайте отбросим всю демагогию и попробуем представить что можно взять за предмет обучения. Я строю свою стратегию именно на показаниях индикаторов и после долгой битвы с ними признаю, что данный подход ......не подходит.. Вот и вопрос... Чисто филосовский. Что ещё такое МОНА ПОПОБУТ?
 
Ещё раз подчёркиваю, то что вы назаваете искуством возможно предсказуемо. О том и речь. Количество входных нейронов играет огромную роль. Чем больше входных данных тем более вероятность правильных предсказаний. Это же очевидно
 
slava1:
Ещё раз подчёркиваю, то что вы назаваете искуством возможно предсказуемо. О том и речь. Количество входных нейронов играет огромную роль. Чем больше входных данных тем более вероятность правильных предсказаний. Это же очевидно


Не соглашусь. Пример который я вам приводил, сеть 1-5-1, позволяет прогнозировать псевдослучайную последовательность с высокой точностью.

Я бы вам порекомендовал немного все же перечитать теорию, так как у меня сложилось впечатление, что вы не совсем понимаете механизм .


Скажите, что по вашему такое нейросеть?

 
Ну об этом можно долго спорить кто что понимает, или не понимает. Разговор был о подготовке данных. Я так понимаю, что этот вопрос никто здесь обсуждать не хочет. Жаль
 
slava1:
Ну об этом можно долго спорить кто что понимает, или не понимает. Разговор был о подготовке данных. Я так понимаю, что этот вопрос никто здесь обсуждать не хочет. Жаль

Уважаемый, обсуждать это можно. Но что обсуждать, если я затронул тему, что такое индикаторы в ТА и как они подходят для предобработки данных для НС, вы ее обсуждать не захотели, вернее думаю вы тему не заметили :)

Если прочесть лекцию как надо готовить данные для обучения НС, то я думаю это надо делать не на этом форуме, здесь это будет мало кому интересно.