Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Если бы вы занимались трехмерной графикой и анимацией, писали бы свою 3DStudioMAX?
Это разные вещи...
Я же приводил конкретный пример... попробуйте изменить в вашей любимой программе нейросетей функцию ошибки...
Мягко говоря вы хотите сказать, чтол по функциям и объему кода 2ДМАКС равен Нейрошелу ????
ну-ну...
А вы не допускаете следующую мысль - для того чтобы получить профит с помощью этой программы, в ней не нужно изменять эту функцию ошибки?
Благодаря этому Вашему милостливому высказыванию мы Теперь знаем что у вас в ваших киншпектах от лучших специалистов NS нет и не было понятия об оптимизации.
А вы с свою очередь не допускаете следующую мысль - что вы живет в стране несколько отличающейся от юсэй,
и которой поэтому якобы не положено иметь софт для полноценной оптимизации в части создания и применения NN?
Благодаря этому Вашему милостливому высказыванию мы Теперь знаем что у вас в ваших киншпектах от лучших специалистов NS нет и не было понятия об оптимизации.
:-)
Ты сам-то понял что написал? )))
Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!
Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором. С другой стороны, всё, что делает чёрный ящик под названием НС, так это поиск и эксплуатация квазистационарных процессов на рынке. Другого не дано. Именно, квазистационарных, а не стационарных вобще (таких на рынке просто нет) и не нестационарных (такие процессы в принципе нельзя эксплуатировать). Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d
Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить! Но самая большая засада сидит там, где её не ждёшь - квазистационарные процессы (те, что выявляет в котире и затем эксплуатирует наша НС) имеют характерное время жизни (вобще, отличное от нуля и меньшее некоторого). Понятно, что на большой по величине обучающей выборке, больше вероятность смены выбранного процесса... понимаете? Чем короче обучающая выборка, тем лучше - меньше вероятность обломиться из-за смены настроения на рынке! Тут, похоже, ответ на вопрос "Что лучше - 2-х слойная НС-ка с короткой обучающей программой, или могучая 3-ка с тремя университетами за спиной (пока училась, всё стало уже не нужным)?", даст простой эксперимент.
Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:
1 - р=10% правильно угаданных знаков (вероятность=1/2+р).
2 - 15-16%
3 - 12%
Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).
Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!
Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором. С другой стороны, всё, что делает чёрный ящик под названием НС, так это поиск и эксплуатация квазистационарных процессов на рынке. Другого не дано. Именно, квазистационарных, а не стационарных вобще (таких на рынке просто нет) и не нестационарных (такие процессы в принципе нельзя эксплуатировать). Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d
Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить! Но самая большая засада сидит там, где её не ждёшь - квазистационарные процессы (те, что выявляет в котире и затем эксплуатирует наша НС) имеют характерное время жизни (вобще, отличное от нуля и меньшее некоторого). Понятно, что на большой по величине обучающей выборке, больше вероятность смены выбранного процесса... понимаете? Чем короче обучающая выборка, тем лучше - меньше вероятность обломиться из-за смены настроения на рынке! Тут, похоже, ответ на вопрос "Что лучше - 2-х слойная НС-ка с короткой обучающей программой, или могучая 3-ка с тремя университетами за спиной (пока училась, всё стало уже не нужным)?", даст простой эксперимент.
Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:
1 - р=10% правильно угаданных знаков (вероятность=1/2+р).
2 - 15-16%
3 - 12%
Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).
Интересно а кто нибудь пробовал использовать НС для предсказания номеров лотерии?
gpwr, ты издеваешься над всеми! - это касательно пердсказания номера лотереи. И убери,пожалуйста, цитирование моего поста - это ещё более добавит локаничности к твоему сообщению:-)
Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d