Использование Нейронных сетей в трейдинге. - страница 12

 
registred >>:

... Что, никто так и не решил задачу нейросетей на форексе?

Почему же никто?

Кто решил, тот молчит :)

1.

2.

А остальным приходится белковыми нейронами работать :(

 
goldtrader >>:

Почему же никто?

Кто решил, тот молчит :)

1.

2.

А остальным приходится белковыми нейронами работать :(

То есть то, что вы тут обсуждаете бесполезно, получается на самом деле... Я лично не использовал нейронки на форексе, занимался ими по другим вопросам. Хотелось бы, конечно, попробовать их на вкус, так сказать, в трейдинге, но пока нет времени. Поэтому применительно к форексу, ничего пока сказать не могу. Обучение сети вещь очень сложная. Можно сделать сеть переученной, недоученной, то есть найти качественное обобщение часто, конечно, сложно, нужно проводить кучу экспериментов, увеличивая количество нейронов в скрытом слое, увеличивая размеры самой выборки, смотреть, как сеть залетела в неглубокий локальный минимум и пытаться ее оттуда вытащить. И после всего этого может случиться так, что ничего не получится. В общем, сложностей с ними на самом деле море.

 
registred >>:

То есть то, что вы тут обсуждаете бесполезно, получается на самом деле...

В моём посте выше под цифирками 1 и 2 даны ссылки, по которым Вы, судя по ответу, не сходили.

Там торгую нейросетевые советники.

НС не самый лёгкий инструмент для извлечения профита на финрынках, но в умелых руках работает хорошо.

 
goldtrader >>:

В моём посте выше под цифирками 1 и 2 даны ссылки, по которым Вы, судя по ответу, не сходили.

Там торгую нейросетевые советники.

НС не самый лёгкий инструмент для извлечения профита на финрынках, но в умелых руках работает хорошо.

Был, я там часто тусуюсь в еврофлуде. У меня свои системы прогноза, они не основаны на нейросетях. На самом деле нейросети интересная тема просто. Я примерно знаю, что я бы требовал от сети, просто, как я уже сказал на все это программирование пока нет времени. Тем более, что пока доволен своей системой. Сложность в настройках всей этой нейросети. Как я уже сказал, слишком долго времени нужно на обучение. Я бы применил другие вещи, нежели градиентный метод оптимизации.

 
registred писал(а) >>

Я бы применил другие вещи, нежели градиентный метод оптимизации.

Если не секрет то какой?

 
registred писал(а) >> Обучение сети вещь очень сложная. Можно сделать сеть переученной, недоученной, то есть найти качественное обобщение часто, конечно, сложно, нужно проводить кучу экспериментов, увеличивая количество нейронов в скрытом слое, увеличивая размеры самой выборки, смотреть, как сеть залетела в неглубокий локальный минимум и пытаться ее оттуда вытащить. И после всего этого может случиться так, что ничего не получится. В общем, сложностей с ними на самом деле море.

Это практически основополагающая вещь для нейросетей. Я пытался поднять эту проблему, но как оказывается, она мало кого интересует. Больше интересует архитектура и навороченность нейросети, хотя как раз этот вопрос давно решён и как оказывается гнаться за этим не имеет смысла. При увеличении нейронов в скрытом слое приходиться увеличивать размер выборки - а увеличение размеров выборки приводит к недообученности сети так как на большей историческоя выборки слишком много правил, которые сеть не в состоянии понять и выучить. В итоге, она залетает в некий локальный минимум из которого её вытащить нереально - это или переобученность или недообученность. Скорее переобученность. В итоге, увеличение колличества нейронов негативно сказывается на работу нейросети в будущем.

 
LeoV писал(а) >>

Это практически основополагающая вещь для нейросетей. Я пытался поднять эту проблему, но как оказывается, она мало кого интересует. Больше интересует архитектура и навороченность нейросети, хотя как раз этот вопрос давно решён и как оказывается гнаться за этим не имеет смысла. При увеличении нейронов в скрытом слое приходиться увеличивать размер выборки - а увеличение размеров выборки приводит к недообученности сети так как на большей историческоя выборки слишком много правил, которые сеть не в состоянии понять и выучить. В итоге, она залетает в некий локальный минимум из которого её не вытащить нереально - это или переобученность или недообученность. Скорее переобученность. В итоге, увеличение колличества нейронов негативно сказывается на работу нейросети в будущем.

Вы, как опытный практик, пришли к лимитам? Каковы на Ваш взгляд оптимальные размеры обучающей выборки, структура и кол-во входов сети?

 
StatBars >>:

Если не секрет то какой?

Если брать нейросети, то лучше нейросети с ядерной аппроксимацией, они быстро обучаются.

 
LeoV >>:

Это практически основополагающая вещь для нейросетей. Я пытался поднять эту проблему, но как оказывается, она мало кого интересует. Больше интересует архитектура и навороченность нейросети, хотя как раз этот вопрос давно решён и как оказывается гнаться за этим не имеет смысла. При увеличении нейронов в скрытом слое приходиться увеличивать размер выборки - а увеличение размеров выборки приводит к недообученности сети так как на большей историческоя выборки слишком много правил, которые сеть не в состоянии понять и выучить. В итоге, она залетает в некий локальный минимум из которого её вытащить нереально - это или переобученность или недообученность. Скорее переобученность. В итоге, увеличение колличества нейронов негативно сказывается на работу нейросети в будущем.

Сеть почти всегда находит локальный минимум, обычно он достаточно глубокий и минимально необходимый для решения поставленной задачи. Что касается скрытого слоя, то все зависит от размерности входных параметров, которые, по сути, предстваляют из себя сложность решаемой задачи. Т.е. нейронов в скрытом слое может быть недостаточно, а может быть недостаточно примеров для данной размерности входов. Одним словом, нужно проводить тесты, постепенно увеличивая количество нейронов с скрытом слое с 1-го нейрона и так далее, пока не будет достигнута необходимая ошибка обобщения.

 

Пусть у нас имеется некоторая однопараметрическая зависимость, например y(x)=F(x), где общий вид этой зависимости F нам неизвестен и которая порождает ценовой ряд, точнее зависимость ожидаемого приращения цены от показания какого-то нашего индикатора. В этой ситуации, мы можем предположить, что зависимость, например, линейная, и зная несколько предыдущих значений приращений цены y[i] и покзаний индикатора x[i], можем легко решить поставленную задачу по поиску оптимальной (в смысле наименьшего отклонения) линейной аппроксимации неизвестного закона F полиномом первой степени y(x)=а*x+b. Тогда, коэффициенты а и b ищутся методом наименьших квадратов и равны:

Можно пойти дальше, и аппроксимировать неизвестную зависимость (закон) полиномом второй степени y(x)=а2*x^2+a1*x+a0 или даже n-ой! Но всё это для функции одной переменной или, в нашем случае, одного индикатора... Если индикаторов предполагается использовать два, то получить аналитическое решение для аппроксимации входных данных плоскостью (функция двух переменных) уже труднее, а в случае повышения степени полинома мы уже не в состоянии найти аналитическое выражение для ближайшей поверхности n-го порядка к F(x1,x2). Зато, эту задачу влёгкую решает НС с двумя входами x1,x2, одним скрытым слоем и достаточным числом нейронов в нём. Далее, увеличиваем число входов до 10-20 и у нас в руках гиппер-поверхность произвольного порядка в 10-20-мерном пространстве признаков - мечта!

По-сути, наше с вами восприятие окружающего Мира основано на этом же принципе - мы неосознано строим в своей голове некие гиппер-поверхности, которые оптимальным образом отражают действительность-наш опыт. Каждая точка на такой воображаемой простынке-поверхности, это принятое нами ответственное решение в той или иной жизненной ситуации, не всегда точное, но почти всегда оптимальное...

Так! Что-то меня понесло. Короче, придумать что-либо лучше Нейронки для анализа цены - трудно, если вобще возможно, ну, разве что инсайдерская информация.