Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2760

 
elibrarius #:
Баланс - главная цель.
По статьям так и получается, менее 30%. Но заработать это не даст, т.к. баланс в лучшем случае не сливается.

Не надо путать божий дар с яичницей.


У Вас есть модель с ошибкой предсказания менее 30%? Можете показать?


PS. Разработка советника, использующего сигналы от МО - это отдельная проблема. Пока оставим в стороне.

 
СанСаныч Фоменко #:

1. Где Вы увидели случайный перебор признаков? Там даже запаха этого нет.

2. В терминале Buy и Sell и ничего другого нет.

3. Интересно посмотреть. Что такое рандомная разметка? Чего рандомная?

Я не видел в тех статьях осмысленного выбора признаков. Осмысленного в плане не выбирать из кучи, а сделать информативную разметку фича-целевая сразу. Под любой признак можно подобрать целевые. С приращениями такое невозможно. Придётся под целевые подбирать признаки.

Рандомная это когда от балды во все стороны сделки семплятся с разной продолжительностью и размечтаются в зависимости от результата 
 
Maxim Dmitrievsky #:
Я не видел в тех статьях осмысленного выбора признаков. Осмысленного в плане не выбирать из кучи, а сделать информативную разметку фича-целевая сразу. Под любой признак можно подобрать целевые. С приращениями такое невозможно. Придётся под целевые подбирать признаки.

Рандомная это когда от балды во все стороны сделки семплятся с разной продолжительностью и размечтаются в зависимости от результата 

"Осмысленно" - это по приведенным мною картинкам, которые и делают  "информативную разметку фича-целевая сразу"

А что Вы понимаете под словом "осмысленно"?

 
СанСаныч Фоменко #:

"Осмысленно" - это по приведенным мною картинкам, которые и делают  "информативную разметку фича-целевая сразу"

А что Вы понимаете под словом "осмысленно"?

Ну если делают сразу, то ок. Не помню там такого. Как статья называется? Почитаю потом
 
Maxim Dmitrievsky #:
Ну если делают сразу, то ок. Не помню там такого. Как статья называется? Почитаю потом

Здесь, у  VLADIMIR PERERVENKO. У него системно полный цикл статей, начиная с data mining. Моя точка зрения во многом совпадает с ним, кроме самой модели. Я считаю е необоснованно сложной для наших нужд. 

Глубокие нейросети (Часть II). Разработка и выбор предикторов
Глубокие нейросети (Часть II). Разработка и выбор предикторов
  • www.mql5.com
Во второй статье из серии о глубоких нейросетях рассматриваются трансформация и выбор предикторов в процессе подготовки данных для обучения модели.
 
СанСаныч Фоменко # :

"Осмысленно" - это по приведенным мною картинкам, которые и делают  "информативную разметку фича-целевая сразу

картинка отсюда https://www.mql5.com/ru/articles/3507  так и называется - Рис.12. Вариация и ковариация набора 2 train

от ковариации до корреляции делается 1 шаг... (но вы же гений, а все обижены, - поэтому сами походите по гуглу)... успехов вам в отшлифовке своего понятийного аппарата... как поймёте смысл слов - псевдо-гениальность вашего жаргона и липовость ваших якобы аргументов рассеются в миг... своими криками логику не измените

-- в общем ветка не изменилась, по-прежнему рваные глотки пытаются провозгласить свою гениальность, изобретая велосипед, - "первопроходцы" так сказать...

Машинное обучение в трейдинге: теория, модели, практика и алготорговля
Машинное обучение в трейдинге: теория, модели, практика и алготорговля
  • 2022.09.27
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
СанСаныч Фоменко #:

Здесь, у  VLADIMIR PERERVENKO. У него системно полный цикл статей, начиная с data mining. Моя точка зрения во многом совпадает с ним, кроме самой модели. Я считаю е необоснованно сложной для наших нужд. 

Там не увидел разметку целевой для конкретных признаков. Берём приращение с произвольным лагом. Оно будет информативным только для определенных целевых и неинформативным для остальных.

А просто проверил какие признаки больше подходят под конкретные целевые.
 
Maxim Dmitrievsky #:
Там не увидел разметку целевой для конкретных признаков. Берём приращение с произвольным лагом. Оно будет информативным только для определенных целевых и неинформативным для остальных.

А просто проверил какие признаки больше подходят под конкретные целевые.

Я этого не понимаю. Что значит разметка?

Пара "целевая-предикторы" связаны и пара существует именно потому, что связаны. И достаточно сложно найти такие пары. Чем сильнее связь, тем меньше ошибка подгонки. Для другой целевой проблема предикторов своя.

 
СанСаныч Фоменко #:

Я этого не понимаю. Что значит разметка?

Пара "целевая-предикторы" связаны и пара существует именно потому, что связаны. И достаточно сложно найти такие пары. Чем сильнее связь, тем меньше ошибка подгонки. Для другой целевой проблема предикторов своя.

Изначально ваши признаки не относятся к целевым, потому что целевые это знаки приращений, то есть бессмысленные

Потом из десятков и сотен признаков выбираете наиболее подходящие к этим целевым. Это самый неэффективный подход, но он имеет место быть.

Т.е. Вы классифицируете котиков и собачек, 2 класса. А на вход, в качестве признаков, подаёте копыта верблюдиков, рыбьи хвосты, сиськи, чайные ложки, скорость света и прочее. Конечно, иногда попадаете, но это весьма сложно.

Ситуация осложняется тем, что кошечки и собачки у вас тоже перепутаны, потому что знаки приращений это не конкретный объект, который предсказывается, а только его маленькая часть, например, нога. А эта нога может быть собачьей, но в моменте вы видите ее как кошачью.

Отсюда возникает либо жесткий брутфорс перебор всего и вся, либо изначально построенные целевые на основании признаков.

Прадо в своей книге предпринял первую попытку делать разметку классов через тройной барьер, чтобы более четко различить классы. Но мне этот подход представляется все ещё наивным.
 
Maxim Dmitrievsky #:
Изначально ваши признаки не относятся к целевым, потому что целевые это знаки приращений, то есть бессмысленные

Потом из десятков и сотен признаков выбираете наиболее подходящие к этим целевым. Это самый неэффективный подход, но он имеет место быть.

Т.е. Вы классифицируете котиков и собачек, 2 класса. А на вход, в качестве признаков, подаёте копыта верблюдиков, рыбьи хвосты, сиськи, чайные ложки, скорость света и прочее. Конечно, иногда попадаете, но это весьма сложно.

Ситуация осложняется тем, что кошечки и собачки у вас тоже перепутаны, потому что знаки приращений это не конкретный объект, который предсказывается, а только его маленькая часть, например, нога. А эта нога может быть собачьей, но в моменте вы видите ее как кошачью.

Отсюда возникает либо жесткий брутфорс перебор всего и вся, либо изначально построенные целевые на основании признаков.
Надеюсь ошибаюсь, но у меня впечатление что признаки понимаются не совсем одинаково.

Причина обращения: