Поиск набора индикаторов для подачи на входы в нейросеть. Дискуссия. Инструмент оценки результатов. - страница 4

 
rip >>:
Кгм ... вы забываете, что для максимальной эффективности обучения входы сети должны быть статистически независимы, должна отсутствовать корреляция между данным которые подаются на каждый вход. Все машки корректируются между собой, можете проверить. Есть достаточно удобный и простой софт - AtteStat, это довесок к Exel, но очень удобный.

Все гениальное просто... Мог бы и сам додуматься... Спасибо!!!

берем доступные индикаторы и смотрим между ними корреляцию... анализируем, думаем, может быть появляются полезные мысли :)

 
IlyaA >>:


Общественности требуется увидеть графическую зависимость ошибки обучения от времени (количества эпох).

мы, наверное, о разном говорим... я не обучаю с учителем ( в этом способе обучения есть ошибка обучения)... я обучаю на максимум целевой функции и я не знаю какое максимально-возможное значение у целевой функции.

 
Urain >>:

Зайдите вот сюда там каждому индикатору есть подробное описание и формулы расчёта проработайте и

через 2 дня вы будете иметь собственное мнение.

Спасибо за ссылку.

смотрел. читал. может, мало времени уделил, может мало внимания, может еще что-то... если ничего другое не поможет, наверняка вернусь туда... :))) хожу длинными путями, да?

 
iliarr >>:

нет. в генетический алгоритм я передаю только значение целевой функции, а генетический алгоритм для каждого гена выдает вектор значений, который я преобразую в матрицу весов нейросети.

Правильно, генетический алгоритм не использует ф-цию ошибки для подстройки весов.

На сколько я понимаю, вы могли разметить м5 по максимальному профиту, который может быть на истории и эту разметку используете как фитнес-функцию.

Вот как раз интересует как выглядит функция, по которой вы оцениваете особь.

 
iliarr >>:

о какой ошибке идет речь? целевая функция больше - значит ген более подходящий...

Речь идет об ошибке тестовой выборки. Т.е. вы берете следующий месяц после обучающей выборки. Размечаете ее, в соответствии с вашим алгоритмом. Подаете выходы на обученную сеть. Сравниваете результат. Вот как раз график этих ошибок и интересует.


График ошибок обучающей выборки можно получить также и при этом оценивать как учиться ваша сеть (или идет развитие поколений в ген. алгоритме)

 
iliarr >>:

Все гениальное просто... Мог бы и сам додуматься... Спасибо!!!

берем доступные индикаторы и смотрим между ними корреляцию... анализируем, думаем, может быть появляются полезные мысли :)

Покажите результат когда сравните все наборы которые вы подаете на входы :) Думаю, что все будут сильно коррелированными. Все приведенные индикаторы используют для расчета одни и те же исходные данные.

 
iliarr >>:

мы, наверное, о разном говорим... я не обучаю с учителем ( в этом способе обучения есть ошибка обучения)... я обучаю на максимум целевой функции и я не знаю какое максимально-возможное значение у целевой функции.

Как вы оцениваете эффективность обучаемой сети? Вот этот график и хочется посмотреть.

 
Дурацкий вопрос,ответ почти знаю . нашли набор индикаторов, нашли весовые коэффициенты начали получать прибыль . Если рынок изменится,советник сможет садаптироваться к новым условиям .
 
joo писал(а) >>

ГА всего лишь инструмент оптимизации (отвертка для машины). С минимальными различиями можно использовать его или любой другой алгоритм оптимизации (отвертки).

Да отвёртка, но есть отвёртка которой можно открутить маленький шуруп, а есть те которыми нельзя...

Нет, с минимальными различиями не получиться его использовать для НС, для Вас похоже эти различия не видны.

ОРО при перенасыщении нейрона практически перестаёт его "обучать", в то время как ГА легко может перенасытить нейрон и продолжать дальше увеличивать веса нейрона.

 
joo >>:

... во всяком случае такую функцию: (2/(1-2^(-х))-1 

Очепятка вышла. Надо так: (2/(1+2^(-х))-1 

StatBars >>:

Нет, с минимальными различиями не получиться его использовать для НС, для Вас похоже эти различия не видны.

ОРО при перенасыщении нейрона практически перестаёт его "обучать", в то время как ГА легко может перенасытить нейрон и продолжать дальше увеличивать веса нейрона.

Почему ж не видны. Различия видны. Нет ни какого перенасыщения нейронов при верном выборе диапазона поиска. "Вы просто не умеете их готовить."(c) :)

Для разных по сложности задач будут разные по оптимальности инструменты, как Вы правильно заметили (отвертки).