Преобразования для входных данных нейросети - страница 2

 
Valio писал(а) >>

Кто-либо эксперементировал с подачей полной формы финансового ряда на нейроны входного слоя (любой сети) в какой-либо форме ? Или если были опыты с подачей на разные нейроны входного слоя сети данных с разными вида распределения своих значений - тогда где доверительная метода по устойчивости результата..

Думаю что тема своевременная, интересная и полезная для многих.

я подавал не сеть ряд в "500 значений", через преобразование фурье, т.е. из исходного графика(вал пары) амплитуды гармоник ряда фурье, допустим первые 18, с помощью этих 18 амплитуд можно полностью восстановить исходный ряд в 500 значений. ничего особенного это не даёт...

 

StatBars,

Не ссыплете сюда свои ссылки по предобработке данных ... Figar0, если не сложно, тоже поделитесь теми курсовиками...

Вопрос, я согласен, очень глубокий и однозначных ответов здесь нет, надо искать полу-эмперически ..
У меня, кстати, неплохие результаты получались когда при масштабировал динамику, а при построении различного
рода разностных схем зависимостей. Сейчас ищу инфу как перестраивать сеть т.н структурным синтезом,
поскольку преобразовывая, данные мы, как правило, вместе с водой выплесикиваем и ребенка, а подстраивая
сеть под некоторые данные - мы лишь оптимизируем ее конфигурацию.. Уффф )))

 
StatBars >>:

я подавал не сеть ряд в "500 значений", через преобразование фурье, т.е. из исходного графика(вал пары) амплитуды гармоник ряда фурье, допустим первые 18, с помощью этих 18 амплитуд можно полностью восстановить исходный ряд в 500 значений. ничего особенного это не даёт...

Очень интересная затея. Тоже думал так делать. Руки не дошли. Говорите, стат. преимущества не даёт сеть в с такими входами?

 
njel писал(а) >>

Очень интересная затея. Тоже думал так делать. Руки не дошли. Говорите, стат. преимущества не даёт сеть в с такими входами?

При решении моей задачи практически ничего не даёт такое преобразование, хотя сейчас использую его. В любом случае это нужно, поэтому советую Вам обзавестись таким алгоритмом, может при решении Ваших задач преобразование будет весьма информативным для сети!

Ведь его можно использовать для сжатия практически любой входной информации, особенно когда собрались подавать на сеть более 100 входов и точно знаете что присутствует избыток инф-ии.

 
Valio писал(а) >>

StatBars,

Не ссыплете сюда свои ссылки по предобработке данных ... Figar0, если не сложно, тоже поделитесь теми курсовиками...

Вопрос, я согласен, очень глубокий и однозначных ответов здесь нет, надо искать полу-эмперически ..
У меня, кстати, неплохие результаты получались когда при масштабировал динамику, а при построении различного
рода разностных схем зависимостей. Сейчас ищу инфу как перестраивать сеть т.н структурным синтезом,
поскольку преобразовывая, данные мы, как правило, вместе с водой выплесикиваем и ребенка, а подстраивая
сеть под некоторые данные - мы лишь оптимизируем ее конфигурацию.. Уффф )))

Ссылок не осталось, но впринципе здесь можете почитать - http://www.ccas.ru/voron/bib-voron.html

информация содержиться практически во всех стоящих книгах, но везде по немногу.

Вот здесь ещё немного есть - http://www.neuropro.ru/papers.shtml

 
Valio >>:

Кто-либо эксперементировал с подачей полной формы финансового ряда на нейроны входного слоя (любой сети) в какой-либо форме ? Или если были опыты с подачей на разные нейроны входного слоя сети данных с разными вида распределения своих значений - тогда где доверительная метода по устойчивости результата..

Думаю что тема своевременная, интересная и полезная для многих.

Предобработка (читай сжатие) данных - сама по себе задача для нейросети. Тут могут быть разные варианты, самые проcтые - "бутылочное горлышко", сеть Хопфилда...

 
alsu писал(а) >>

Предобработка (читай сжатие) данных - сама по себе задача для нейросети. Тут могут быть разные варианты, самые проcтые - "бутылочное горлышко", сеть Хопфилда...

Да ну... слишком уж Вы сократили смысл предобработки...

 
StatBars >>:

Да ну... слишком уж Вы сократили смысл предобработки...

Почему слишком? Предобработка нужна для того, чтобы, во-первых, упростить основную нейросеть, а во-вторых - не дать ей за счет избыточного количества параметров изобретать закономерности там, где их на самом деле нет (переобучение и другие эффекты). То есть надо 1) по-возможности уменьшить уровень шумов 2) сократить число используемых параметров (выделить главное). При сжатии данных как раз и достигаются обе цели. Только надо следить чтобы степень сжатия, которую, к примеру, можно определить как отношение количеста "сырых параметров" к количеству входных сигналов сети, (пункт 2 выше) не превышала некоего порогового значения, после которого вносимые сжатием искажение элиминируют результат очистки от шума (пункт 1 соответственно).

Единственное исключение - если мы намеренно хотим подчеркивать определенные особенности входного сигнала, значимые с точки зрения анализа - тогда вы правы, смыслпредобработки становится несколько шире, но и в этом случае к выделенным главным параметрам как правило добавляются еще не более 3-5 для описания вышеуказанных особенностей.

 
Предобработка с помощью нейросети, кстати, не единственный вариант. По сложности (вычислительной) в ней вполне сравним, скажем, рергессионный анализ. Мне с его помощью удавалось достичь без снижения качества коэффициента сжатия 12 и выше. Простейший вейвлет Добеши вполне способен свести задачу из 512 начальных параметров к 16 входам нейросети (коэффициент 32)... В общем, примеров может быть масса.
 

Примеров то может быть масса, но не всегда сжатие связано с понятием информативность.