Использование искусственного интеллекта в МТС - страница 21

 
Mak:
ИМХО, париться с сетями не стоит :)

Обучение НС - это фактически оптимизация функции с огромным числом параметров (сотни и тысячи).
Я не знаю что нужно сделать, чтобы небыло переобученности в этом случае,
разве что взять обучающую выборку размером в 1-100 млн самплов.
Ито без гарантии ...
Тоесть вы понимаете "переобученность" как "недоученность"? помоему это антонимы =) поясните плз.
 
Лучше сетки классифицирующие, чем интерполирующие.
Вот об этом я не читал, обьясните плз в чем разница между ними, если можете, черкните пример работы каждого, можно использовать общие терминины =)
 
Mak:
Aleksey24:

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

Чтото вы странное спросили.
Растолкуйте вопрос.


РАСТОЛКОВЫВАЮ:

Сейчас думаю что нужно торговать не конкретными подогнанными параметрами, а спектром каждого параметра в системе.
Проще всего поставить несколько одинаковых экспертов, но с разным набором параметров - в разных диапазонах спектра параметров.
Каждому из этих экспертов нужно выделить определенный % от депо, но вместе все они должны быть равны значению % депозита при торговле только одним экспертом (без спектра).
Тогда если например на скользящих средних три эксперта откроют три позиции, соответственно в начале движения в середине и в конце.

Но как эту идею загнать в один эксперт для тестирования, пока не придумал.

Спрашивал у Posh о этой проблеме, но ответа все нет.

Задача многомерного нормального распределения(Гаусса) и нейронные сети типа aX+bY+...=Z это одно и то же (для трейдинга), или я все перепутал и у меня каша в голове?
 
Aleksey24:
Mak:
Aleksey24:

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

Чтото вы странное спросили.
Растолкуйте вопрос.


РАСТОЛКОВЫВАЮ:

Сейчас думаю что нужно торговать не конкретными подогнанными параметрами, а спектром каждого параметра в системе.
Проще всего поставить несколько одинаковых экспертов, но с разным набором параметров - в разных диапазонах спектра параметров.
Каждому из этих экспертов нужно выделить определенный % от депо, но вместе все они должны быть равны значению % депозита при торговле только одним экспертом (без спектра).
Тогда если например на скользящих средних три эксперта откроют три позиции, соответственно в начале движения в середине и в конце.

Но как эту идею загнать в один эксперт для тестирования, пока не придумал.

Спрашивал у Posh о этой проблеме, но ответа все нет.

Задача многомерного нормального распределения(Гаусса) и нейронные сети типа aX+bY+...=Z это одно и то же (для трейдинга), или я все перепутал и у меня каша в голове?
С со спектрами это вы что то сложное говорите! Вот ресурсы на тему ИНС , коими я пользовался для изучения:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - тут на Вики все в общих чертах
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - вот это какаято работа о ИНС, до середины работы идет рассказ от куда это и с чем его едят, со схемами и формулами
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - это ссылка на "Основы искусственных нейронных сетей", хороший сайт, там целое "дерево" на тему ИНС - не только то что я написал.
 
За ссылки спасибо, буду изучать.
А вот насчет "спектров" - напрасно.
Я конечно не проФФессор - но рациональное зерно там есть.
 
Народ, так мне никто и не ответил, надоли продумывать алгоритм забывания, или это, всетаки, естественное свойство ИНС?
 
lucifuge:
Народ, так мне никто и не ответил, надоли продумывать алгоритм забывания, или это, всетаки, естественное свойство ИНС?

Если во время обучения ограничиваться конечным числом баров (или не баров, то что используется), то забывание будет естественным процессом. Рынок меняется, и то, что работало пять лет назад сейчас может и не работать. Но уже появились новые условия, и если не учить - пройдет мимо.
Каждый решает сам.
 
Mathemat:
Mak, ты что-то явно преувеличиваешь. Вместо превышения в сотни-тысячи раз, как ты говоришь, по теории ИНС вполне достаточно 10. И критерии переобученности (подгонки) известны: это глобальный минимум ошибки на участке тестирования.

Другое дело - архитектура сети. Лучше сетки классифицирующие, чем интерполирующие.
Может быть - я скептик в отношении НС.
Ну да, в статистике считается, что можно делать какие-то выводы, если число самплов в 10 раз превышает число неизвестных параметров. Но погрешности при этом получаются на грани разумности.

Но согласись, НС по сути это просто функция некоторого вида от вектора входов и множества весовых коэффициентов.
Это множество весовых коэффициентов содержит от сотен (в простейших случаях) до десятков и сотен тысяч параметров (весов).
Обучение НС - это не что иное как оптимизация этой функции по этим сотням - сотням тысяч параметров.
Что бывает в таких случаях все знают.
Потому я и скептик ...
 
lucifuge:
Mak:
ИМХО, париться с сетями не стоит :)

Обучение НС - это фактически оптимизация функции с огромным числом параметров (сотни и тысячи).
Я не знаю что нужно сделать, чтобы небыло переобученности в этом случае,
разве что взять обучающую выборку размером в 1-100 млн самплов.
Ито без гарантии ...
Тоесть вы понимаете "переобученность" как "недоученность"? помоему это антонимы =) поясните плз.
Под переобученностью я понимаю то, что называют CurveFitting.
Оно возникает когда параметров оптимизации много, а данных мало.
 
Mak:
lucifuge:
Mak:
ИМХО, париться с сетями не стоит :)

Обучение НС - это фактически оптимизация функции с огромным числом параметров (сотни и тысячи).
Я не знаю что нужно сделать, чтобы небыло переобученности в этом случае,
разве что взять обучающую выборку размером в 1-100 млн самплов.
Ито без гарантии ...
Тоесть вы понимаете "переобученность" как "недоученность"? помоему это антонимы =) поясните плз.
Под переобученностью я понимаю то, что называют CurveFitting.
Оно возникает когда параметров оптимизации много, а данных мало.

Но возникает вопрос о размере сети. То, что сеть может запомнить зависит от ееразмеров и архитектуры. Формулы приводить не буду. Если задавать слишком много образцов для обучения, которые сеть не в состоянии запомнить, то наступит эффект переобучения. То есть сеть перестанет распозоновать, то что знала.