Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1050

 
Alexander_K:

Они практически всегда удаляют свои посты, с ними надо только он-лайн общаться.

Ааа, ну тогда понятно...

 
Alexander_K:

Они практически всегда удаляют свои посты, с ними надо только он-лайн общаться.

удаляют что бы не позориться ) а вы мифы поддерживаете про них

 
Maxim Dmitrievsky:

удаляют что бы не позориться ) а вы мифы поддерживаете про них

Может и так, Макс - не спорю :))

 
mytarmailS:

А Решетов? , ну да он знаком с "МГУА" он говорил как то.

Сама идея перебора предикторов создавая модели а потом создавать модели из моделей все большей сложности по моему очень  правильная.

Но может ошибка в то что нужно перебирать не предикторы а решения торговой сис. в среде? или еще какую заразу... 

вот городить модели поверх друг друга, стакать или еще что-то это, имхо, уже перебор. Потому что если реально мусору обучаются то это не поможет, это какие-то доли % улучшения, котороые ни о чем

ошибки нет никакой, просто нет постоянных закономерностей )

Кстати, когда ковырял софт Решетова, то-ли из названия подкаталога библиотеки проги, то-ли откуда наткнулся на 

http://www.gmdh.net/gmdh.htm

стало быть, одно и то же. Там как раз либы на Java и его прога тоже

А дальше у него просто тандем из 2-х классификаторов - SVM и MLP, которые итеративно обучаются на трансформированных фичах. Потому так долго и работает всё.

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • www.gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
Maxim Dmitrievsky:

вот городить модели поверх друг друга, стакать или еще что-то это, имхо, уже перебор. Потому что если реально мусору обучаются то это не поможет, это какие-то доли % улучшения, котороые ни о чем

Не городить а создавать что то более сложное с более примитивного, это принцип самой природы, мы с вами от спермотозоидов получились)) или от мысли если еще дальше заглянуть..) А сейчас вон какие выросли)

Так что нету ничего страшного в усложнении модели, к тому же усложнение проверяется  по внешнему и внутреннему критерию те меряется ошибка внутри выборки и вне выборки, если ошибка при усложнении начинает расти алгоритм останивливаеться ... кароч я сам не применял пока, но метод мне очень импонирует

 
mytarmailS:

Не городить а создавать что то более сложное с более примитивного, это принцип самой природы, мы с вами от спермотозоидов получились)) или от мысли если еще дальше заглянуть..)

Так что нету ничего страшного в усложнении модели, к тому же усложнение проверяется  по внешнему и внутреннему критерию те меряется ошибка внутри выборки и вне выборки... кароч я сам не применял пока, но метод мне очень импонирует

берем обычную матрицу с признаками, на каждой итерации добавляем новый составной признак из всех признаков, переобучаемся, меняем этот признак на более сложный через полином колмогорова этот, пять переобучаемся.. пока ошибка не упадет

но на практике такое хрен то там произойдет на зашумленных данных

если ошибка все равно плохая, берем все эти полиномиальные признаки и из них чудим новые признаки :) только нужна очень быстрая нейросеть или вовсе линейная модель, иначе ждать придется год

а еще проще - берете kernelized SVM или deep NN и получаете то же самое (просто прибавляя слоев в нейросети можно добиться точно такого же результата как при трансформации фичей) т.е. чудес не бывает

Там же написано, что GMDH это первый аналог глубокой НС

 
Maxim Dmitrievsky:

берем обычную матрицу с признаками, на каждой итерации добавляем новый составной признак из всех признаков, переобучаемся, меняем этот признак на более сложный через полином колмогорова этот, пять переобучаемся.. пока ошибка не упадет

но на практике такое хрен то там произойдет на зашумленных данных

если ошибка все равно плохая, берем все эти полиномиальные признаки и из них чудим новые признаки :) только нужна очень быстрая нейросеть или вовсе линейная модель, иначе ждать придется год

а еще проще - берете kernelized SVM или deep NN и получаете то же самое (просто прибавляя слоев в нейросети можно добиться точно такого же результата как при трансформации фичей) т.е. чудес не бывает

Там же написано, что GMDH это первый аналог глубокой НС

Может и так спорить не буду а может и нет)) лишь добавлю что этот трейдер с супер роботом что применял GMDH он в переборах применял не полином а ряды Фурье(гармоники) , а как мы знаем спектральный анализ Фурье не применим к фин. рынкам так как он предназначен для периодических функций, но тем не менее у человека заработало да и еще как) Так что хрен его знает, все надо крутить пробовать..

 
mytarmailS:

 но тем не менее у человека заработало да и еще как

а продолжение истории существует?

по моим наблюдениям, вот если торговая система дает одни лишь положительные результаты, то потом будет постоянный слив - речь идет о ТС с фиксированным лотом и стоплоссами

 
Igor Makanu:

а продолжение истории существует?

по моим наблюдениям, вот если торговая система дает одни лишь положительные результаты, то потом будет постоянный слив - речь идет о ТС с фиксированным лотом и стоплоссами

История начинается с 2006 года если не ошибаюсь, вы просто не подозреваете на каком высоком уровне это все сделано , и каким человеком.

http://www.kamynin.ru/

Выбирайте рубрику "торговые роботы" , отматывайте на самое начало, завариваете чай с плюшками, читаете, смотрите картинки, читаете Коментарии людей, ответы автора , умнеете, и не по детски ах..ете.. ))

Там вся эволюция от начала и до конца 
Николай Камынин
Николай Камынин
  • 2018.09.02
  • www.kamynin.ru
умру от акробатиков! Продолжу свои рассуждения на тему пенсионной реформы. Естественно, что я не претендую на истину в последней инстанции, но на основе своего опыта и знаний в кибернетике, экономике, финансах и гражданском праве, вижу то, что не видят, либо делают вид, что не видят многие эксперты и власть имущие. Вернемся к судьбоносному...
 

К сожалению нет :-( Хотя есть у меня задумка для комитета из шести полиномов, но я кодж Решетова еще не до конца расковырял. Хотя последнее изменение начало мне люто экономить время при подготовки модели в МКУЛЬ, но не суть, а суть проблемы МО в следующем как мне кажется и если у Вас есть весомые аргументы против готов их выслушать.

Помимо всего прочего как предподготовка, обучение и т.д. Самым завершающим этапом является выбор модели. Ведь в процессе обучение алгоритм строит модель, оценивает её параметры и пытается их улучшить строя при этом другие модели и та модель у которой метрика обучения будет лучше всего та модель и сохраняется и является результатом оптимизации. В оптимизаторе Решетова, на мой взгляд, выбрана самая лучшая метрика для классификаторов. Это определение чувствительности и специфичности, а также общей обобщающей способности. Когда результат обучения модели оценивается с помощью четырёх параметров True Positiv, True Negativ, False Positiv, False Negativ. Уверен вы о ней слышали. Это достаточно распространённая метрика, но как показала практика эта метрика имеет лишь частичное отношение к обобщению. Другими словами результат этой метрикии завышен и при переобучении на обучающем множестве показатели ее будут такие же высокие как и при отсутствии переобучения. Давайте немного по фантазируем:

Представим что мы обладаем методом оценки обобщености полинома к набору данных. И наша метрика реально оценивает уровень обобщености. Другими словами когда другие метрики показывают хороший результат на периоде обучения, а наша метрика показывает плохой, когда полином переобучен и хороший когда полином обобщён. Тогда такую метрику можно было бы использовать в процессе обучения заставляя алгоритм искать хоть и заниженную (с нашими то данными) но всё же именно обобщеную модель. Хоть и плохая но зато рабочая и 100% не переобучена. Тут возникает эффект недообученности. Очень важно чтобы недообученность была минимальна. Этот текст можно считать предверием моей теории, потому как мы подошли в плотную к чему???? Вот Вам и вопрос на злобу дня. Думайте.....

Причина обращения: