Практические алгоритмы архитектур нейросетей - страница 2

 
Swetten >>:

А вот кое-кто на форуме утверждает, что это аппроксиматор. Во. По-русски -- усреднятель.

Ну а регрессия, это что такое как не усреднение.

 
m_a_sim >>:

пусть ряд цен - очень сложная функция, тогда где ее аргументы? или для использования нейросети они не требуются?

все аргументы вы все равно не учтете... факторов влияющих на цену тьма тьмущая... все равно останется место для случайного члена... речь всего лишь о том, чтобы теми параметрами которые есть в НС (а кстати, связка эксперт+оптимизатор МТ - это по сути тоже НС) оптимально подогнать её под график...

а вообще как именно это лучше делать - это вопрос не ко мне... это к специалистам по НС...

 
HideYourRichess писал(а) >>

Ну а регрессия, это что такое как не усреднение.

Ну, регрессия, я так понимаю --- уменьшение всяческих проявлений, "обратное развитие".

Аппроксимация -- это некое "приближение", "усреднение" всяческих развитий.

 
Vinsent_Vega писал(а) >>

я только приведу цитату человека, который в НС разбирается лучше меня... а умники которые не понимают сути прогнозирования пусть дальше херней страдают...

Суть нейросетей - уловить экстремум искомой сложной функции. Чаще всего - локальный. Иногда и редко - глобальный.

Почти согласен Вега,

Но опять же - не для всех типов нейроархетектур. То что называют уточненной экстраполяция - на самом деле переучивание данных на неком сером шуме, т.е. бич любой нейронки, все утверждающие это, как видно по их заявлениям, малокомпитентны, и даже никогда не пытались сунуть нос в нейро алгоритмах далее, чем в работу персептрона. Вот взять те же SOM сетки, квантанизаторы или когнитроны - где тута какая-либо экстра, сплошная интра. Смысл создания сетки в моментальном опознании образа смены фазы/тренда и отсеве ложных движений, а не в постучастии в лагге с гашением предыдущего импульса движения.

Поскольку я понял, что базовые, самые элементарные познания (к примеру алгоритм работы обр. распространения ошибки - в статье он крайне криво и уклончиво объяснен ) здесь никого не интересуют, всем сразу нужно "дело показать" (а лучше сразу деньгами) может обсудим идеи по усовершенствованию алгоритма Better'a ?


К примеру очень красивое решение, имхо симметричное обучение по прибыли:

while(!bStop && (bError .... ))) // входим в цикл обучения
{       ...
CalculateLayer(); // рассчитали выход
// если выход больше нуля, то покупка, иначе продажа
TradePos=TradeDir(Out[nLayer-1][0]); ipat=pat;
for(pat=1;pat<nPattern;pat++) // проходим по шаблону и обучаем сеть
{
for(i=0;i<nNeuron[0];i++) Out[0][i]=in[i][pat]; // взяли обучающий шаблон
CalculateLayer(); // рассчитали выход
// считаем прибыль/убыток по ценам закрытия [3]
ProfitPos=1e4*TradePos*(bar[3].Close bar[3][ipat].Close);
// если поменялось направление торговли или сработал стоп-ордер
if ( .. ProfitPos>=TP || ProfitPos<=-TP) 
{
 ...
// задали требуемы выход сети
Out[nLayer][0]=Sigmoid(0.1*TradePos*ProfitPos);
// взяли начальный шаблон, по которому открывались
for(i=0;i<nNeuron[0];i++) Out[0][i]=in[i][ipat]; 
CalculateLayer(); // рассчитали выход
CalculateError(); // рассчитали ошибку
ChangeWeight(); // подкоректировали веса
// переходим на новый ордер
...
}
}
...
loop++;
}

т.е. симметричная классификация областей входа. Но есть и минусы в таком обучении, к примеру низкая сходимость ввиду осцилляции весов, вычисление размеров сетки, оценка шумов, етс. Можем и далее обсуждать примеры усовершенстования алгоритма, к примеру проверкам достоверности выхода, триггерные зоны и другое. Я не крутой нейроспец, но что уже знаю то мое. Если есть у кого желание вместо трепа здесь объедениться предложить новую идею для практического воплощения в ядре на С++, готов реализовать все freeofcharge.

 

мало здесь спецов хороших по НС... если Neutron захочет пообщаться, мож что и придумаете... а я не рулю в этом: SOM сетки, квантанизаторы, когнитроны...

ПС. кстати, базовые познания все-таки кое-кого интересуют... а на тех кому нужны кривые баланса с ракетными траекториями, лучше не терять время... это люди ещё совсем не обстрелянные... пусть сначала сольют пару-тройку депозитов, а уж потом разбираются что к чему... (это ж метод обратного распространения ошибки - самый эффективный из всех)

 
Valio >>:

Все что пока есть это доделанный код из статьи Сергеева. Перелопатил все что смог нарыть по вариациям сетей Кохонена - теперь пишу свой слой на основе библиотечек с сайта Teuvo хочу классифицировать полное полный временную серию данных на двумерной карте, далее на 2-3 слойный перцептрон и все как везде. Информации крайне мало, и если есть то все как по клише. Может кто поделиться как отобразить классификацию пятимерного вектора на двумерном поле ? Сам могу для начинающих сделать статью с подробным разъяснением метода обучения градиентным спуска и в частности обратного распространения ошибки, теже карты Кохонена, немного по нечеткой логике, етс. Здесь же все тяготеют к регрессионному типу анализа, т.е. эстерполяцией данных .. считаю это бредом.

Да, было бы неплохо такую статейку... а то мозги уже кипять :-)

 
Кстати, а что такое "сайт Teuvo"?
 
Swetten >>:

Ну, регрессия, я так понимаю --- уменьшение всяческих проявлений, "обратное развитие".

Аппроксимация -- это некое "приближение", "усреднение" всяческих развитий.

Вы посмотрите на методы, которые используются "внутри", - среднее и производные от них. Есть конечно тонкости, между понятиями регрессия и аппроксимация - но база у них одна и та же - среднее. Нейросетки, - это то же хитровымученный поиск средних.

 
Valio >>:

Может кто поделиться как отобразить классификацию пятимерного вектора на двумерном поле ? Сам могу для начинающих сделать статью с подробным разъяснением метода обучения градиентным спуска и в частности обратного распространения ошибки, теже карты Кохонена, немного по нечеткой логике, етс.

1. Не используйте карты, используйте более простую модификацию. Двумерность липовая, на самом деле размерность 1, это емнип, могу и ошибаться. Поэтому никаких проблем с преобразованием нет, такое же разделение вх. пространства на кластеры.

Здесь же все тяготеют к регрессионному типу анализа, т.е. эстерполяцией данных .. считаю это бредом.

Ну вот не надо обобщать :), солидарен.
 
HideYourRichess >>:

Вы посмотрите на методы, которые используются "внутри", - среднее и производные от них. Есть конечно тонкости, между понятиями регрессия и аппроксимация - но база у них одна и та же - среднее. Нейросетки, - это то же хитровымученный поиск средних.

Собственно, любой трейдинг, автоматический он, или нет и вне зависимости от используемого типа анализа сводится к обнаружению либо средних либо паттернов(м.б. паттернов средних). Так в чем проблемма?