Обсуждение статьи "Метамодели в машинном обучении и трейдинге: Оригинальный тайминг торговых приказов" - страница 14

 
Aleksey Vyazmikin #:

Ссылка

о май гаш, сколько там признаков.. ну так надо дэйттайм колонку, Клоуз колонку и метки

все как в статье, посмотрите как там датафрейм выглядит. Иначе придется переписывать тестер и все остальное.

даже не знаю сколько времени нужно, чтобы на таком обучаться

 
Maxim Dmitrievsky #:

о май гаш, сколько там признаков.. ну так надо дэйттайм колонку, Клоуз колонку и метки

все как в статье, посмотрите как там датафрейм выглядит. Иначе придется переписывать тестер и все остальное.

даже не знаю сколько времени нужно, чтобы на таком обучаться

Так я же переписал тестер, и всё остальное...

Ладно.

 
Maxim Dmitrievsky #:

даже не знаю сколько времени нужно, чтобы на таком обучаться

Мой код работает чуть быстрей изначального :) Поэтому обучения проходит даже быстрей. Но я использую GPU.

Прошу пояснить, не ошибка ли это в коде

    X = dataset[dataset['meta_labels']==1]
    X = dataset[dataset.columns[:-2]]

Правильным кажется такое выражение

    X = dataset[dataset['meta_labels']==1]
    #X = dataset[dataset.columns[:-2]]
    X = X[X.columns[:-2]]

Иначе первая строка просто не имеет смысла, так как во второй строке выполняется повторно условие копирование данных, что приводит к копированию без фильтрации по целевой "1" мета модели.

Я только учусь и могу быть не прав с этим питоном, поэтому и спрашиваю...

 
Aleksey Vyazmikin #:

Мой код работает чуть быстрей изначального :) Поэтому обучения проходит даже быстрей. Но я использую GPU.

Прошу пояснить, не ошибка ли это в коде

Правильным кажется такое выражение

Иначе первая строка просто не имеет смысла, так как во второй строке выполняется повторно условие копирование данных, что приводит к копированию без фильтрации по целевой "1" мета модели.

Я только учусь и могу быть не прав с этим питоном, поэтому и спрашиваю...

Да, вы правильно заметили, ваш код правильный

тоже есть более быстрая и вообще несколько другая версия, хотел залить, в виде статьи мб
 
Maxim Dmitrievsky #:

Да, вы правильно заметили, ваш код правильный

тоже есть более быстрая и вообще несколько другая версия, хотел залить, в виде статьи мб

Пишите, будет интересно.

Лучшее на обучении, что смог получить


А это на отдельной выборке


Добавил процесс инициализации через обучение.

Файлы:
 
Aleksey Vyazmikin #:

Пишите, будет интересно.

Лучшее на обучении, что смог получить


А это на отдельной выборке


Добавил процесс инициализации через обучение.

Ну вот, уже в питоне разбираетесь 
Если такое показывает, значит очень трудно выцепить закономерность. В вашем случае это может быть еще связано с большой размерностью данных. Я обычно ставлю 5-10 признаков.
 
Maxim Dmitrievsky #:
Ну вот, уже в питоне разбираетесь 
Если такое показывает, значит очень трудно выцепить закономерность. В вашем случае это может быть еще связано с большой размерностью данных. Я обычно ставлю 5-10 признаков.

Я бы не утверждал, что разбираюсь - все со "словарём".

Мне интересно было найти какой то эффект от данного подхода. Пока я так и не понял, есть ли он. Так то на выборке обучается CatBoost, в целом, без всякой "магии" - баланс ниже на картинке. Поэтому ожидал результата более выразительного.


 
Aleksey Vyazmikin #:

Я бы не утверждал, что разбираюсь - все со "словарём".

Мне интересно было найти какой то эффект от данного подхода. Пока я так и не понял, есть ли он. Так то на выборке обучается CatBoost, в целом, без всякой "магии" - баланс ниже на картинке. Поэтому ожидал результата более выразительного.

Эффект появляется после нескольких итераций, как показано в статье. На каждой итерации обучения должно становиться лучше.