Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 417

 
Mihail Marchukajtes:

вот собственно и ответ...бла,бла,бла.... а результата ноль.....

запостите отчет о торговле, будет результат и насколько он будет положительный,  настолько и серьёзный разговор...

 
Ivan Negreshniy:

запостите отчет по торговле, будет результат и если он положительный, то возможно и серьёзный разговор


какой разговор????? не понимаю..... я предложил построить модель для задачи отличной от форекса, но не менее прибыльной, а вы мне про торговлю..... странно!!!!

 
Mihail Marchukajtes:

какой разговор????? не понимаю..... я предложил построить модель для задачи отличной от форекса, но не менее прибыльной, а вы мне про торговлю..... странно!!!!

если вы предложили мне задачу не менее прибыльную, чем форекс, то я имею право знать на сколько прибылен ваш форекс, в чем странность?

 
Ivan Negreshniy:

если вы предложили мне задачу не менее прибыльную, чем форекс, то я имею право знать на сколько прибылен ваш форекс, в чем странность?


при чём здесь вообще форекс???? про форекс читайте мои предыдущие посты ну или статью..... я то не о форексе Вам говорю....

 
Mihail Marchukajtes:

при чём здесь вообще форекс???? про форекс читайте мои предыдущие посты ну или статью..... я то не о форексе Вам говорю....

пошел читать...
 
elibrarius:
там просто изначально выбирается тип сети по типу выхода, переписывать ничего не надо (а все внутренние слои жестко заданы как нелинейные)
Вы еще не экспериментировали с переобучением той же самой созданной сети в алглиб? допустим, я обучил МЛП, а потом заново его обучаю.. он обучается заново, ошибок нет, но может быть это не правильно и нужно создавать новый объект сети?  Или он как-то дообучается там а не обучается снова.. опять же, в справке ничего нет про это, а код ковырять и там искать как бы лень )
 
Maxim Dmitrievsky:
Вы еще не экспериментировали с переобучением той же самой созданной сети в алглиб? допустим, я обучил МЛП, а потом заново его обучаю.. он обучается заново, ошибок нет, но может быть это не правильно и нужно создавать новый объект сети?  Или он как-то дообучается там а не обучается снова.. опять же, в справке ничего нет про это, а код ковырять и там искать как бы лень )
Если переобучаете заново, то ошибки не будет (это не дообучение, т.к. коэффициенты будут сброшены) и просто найдется их новая комбинация.
 
Maxim Dmitrievsky:
Вы еще не экспериментировали с переобучением той же самой созданной сети в алглиб? допустим, я обучил МЛП, а потом заново его обучаю.. он обучается заново, ошибок нет, но может быть это не правильно и нужно создавать новый объект сети?  Или он как-то дообучается там а не обучается снова.. опять же, в справке ничего нет про это, а код ковырять и там искать как бы лень )

Оченьинтересный подход и стар как мир. Производим несколько раз обучение, получаем результаты и потом снова обучаем сеть на данных полученных от нескольких других сетей. Типа глубокое обучение иного формата.... Кстати нормальный подход...

 
Mihail Marchukajtes:

Оченьинтересный подход и стар как мир. Производим несколько раз обучение, получаем результаты и потом снова обучаем сеть на данных полученных от нескольких других сетей. Типа глубокое обучение иного формата.... Кстати нормальный подход...

Нет, здесь речь просто о переобучении через определенные промежутки времени в тестере, например, при заданной просадке и проч. Если использовать несколько сетей то в алглибе есть ансамбли нс, позже поиграю с ними, щас лето, лениво.. море пляж телки мохито, шучушучу какое на... море в сибири, здесь только гнус и речка

а потом уже всякие бустинги шмустинги и проч. дребедень останется, ну еще LSTM как надуманный идеал моих стремлений, до которого я пока не добрался

 
Vladimir Perervenko:
Mihail Marchukajtes:

Ну ладно, раз вы настиваете, расскажу Вам одну мысль по поводу сбора для обработки данных. Действительно на достаточно большом участке очень сложно обучить модель с высоким уровнем обобщения, так как рынок это живой организм и бла, бла, бла. Чем больше период обучения тем модель работает хуже, но дольше. Задача: Сделать долгоиграющую модель. Деление или способ два, однако для тех кто использует комитет из двух сетей.

Имеем три состояния "Да", "Нет" и "Незнаю" когда сетки показывают в разные стороны.

Тренируем сеть на всём участке, в нашем случае 452 записи. Сеть выучила этот сЭт на 55-60%, предположим что ответов "Не знаю" на обучающей выборки было 50%, соотвественно 226 сигнала сеть не смогла выучить. Ну хорошо, а теперь строим новую модель ТОЛЬКО по состояниям "Не знаю", то есть пытаемся построить модель на таких квази состояниях, которые ввели в заблуждение первую модель. Итог примерно одинаков из 226 только половина будет распознана, остальная получит состояние "Не знаю", далее снова строим модель. в итоге 113, потом 56, потом 28, потом 14. На 14 записях не известных ни одной из предыдущих моделей Оптимизатор Jprediction как правило посчитает до 100% обобщающей способности.

В итоге мы имеем "Систему моделей" которая распознала весь рынок на участке в три месяца.

Вот Вам ещё один способ, помимо "Контекста дня" Как можно разбить рынок на подпространства и произвести обучение получив именно "Систему моделей" Вот посмотрите пример....

------------------------------------------------------------

Этот метод называется "бустинг"- Бустинг (англ. boosting — улучшение) — это процедура последовательного построения композиции алгоритмов машинного обучения, когда каждый следующий алгоритм стремится компенсировать недостатки композиции всех предыдущих алгоритмов. Бустинг представляет собой жадный алгоритм построения композиции алгоритмов.

Наиболее известное последнее применение - XGBoost.

Удачи

Причем здесь XGBoost is an optimized distributed gradient boosting library? и построение композиции алгоритмов машинного обучения?
Причина обращения: