Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3492

 
Те нужно не только кривульку прибыли смотреть, а и путь как АО до этой кривульки добирался
 
mytarmailS #:
Те нужно не только кривульку прибыли смотреть, а и путь как АО до этой кривульки добирался
Ну надо все равно на данные смотреть в первую очередь. Это уже так, как подтверждение что ТС зафичена нормально.
 
Maxim Dmitrievsky #:
Ну надо все равно на данные смотреть в первую очередь. Это уже так, как подтверждение что ТС зафичена нормально.

А как это можно высмотреть кроме как того способа что был в видео?

 
mytarmailS #:

А как это можно высмотреть кроме как того способа что был в видео?

Для начала, до "зафичена": примерно одинаковая ошибка классификации на трэин, тест, валидайшин, а потом последовательный прогон вне этих файлов, желательно в тестере МТ5. Все остальное не более чем умственные упражнения.  

 
СанСаныч Фоменко #:

Для начала, до "зафичена": примерно одинаковая ошибка классификации на трэин, тест, валидайшин, а потом последовательный прогон вне этих файлов, желательно в тестере МТ5. Все остальное не более чем умственные упражнения.  

Я могу на одной выбоке зафититься так что она пройдет тест еще на 5ти выборках, вот только на реальной 6-ой  будет слив.
Так что этот примитив не рабочий, а то что паренек в видео говорит похоже на реальность
 
mytarmailS #:
Я могу на одной выбоке зафититься так что она пройдет тест еще на 5ти выборках, вот только на реальной 6-ой  будет слив.
Так что этот примитив не рабочий, а то что паренек в видео говорит похоже на реальность

А можно посмотреть хотя бы 4-х выборках?

 
Думаю, как сделать искусственную выборку для бинарной классификации. Требования - много предикторов с шумом и часть с полезными данными, строк хотя бы тысяч 20000. Главное, что бы было точно известно, что решение может быть найдено. Нечто типа эталона, что бы на нём смотреть на сколько плох алгоритм. Вот думаю, может взять какую то функцию и разметить её участки - выше и ниже нуля - соответственно "1" и "0", есть какие идеи?
 
Aleksey Vyazmikin #:
Думаю, как сделать искусственную выборку для бинарной классификации. Требования - много предикторов с шумом и часть с полезными данными, строк хотя бы тысяч 20000. Главное, что бы было точно известно, что решение может быть найдено. Нечто типа эталона, что бы на нём смотреть на сколько плох алгоритм. Вот думаю, может взять какую то функцию и разметить её участки - выше и ниже нуля - соответственно "1" и "0", есть какие идеи?
Обычно просто генерируют многомерные случайные выборки. Если нужны полностью разделимые классы, то используют распределения с ограниченными носителями - равномерное, например. Если нужно частичное перемешивание классов, то гауссовское или их смеси.
 
Aleksey Nikolayev #:
Обычно просто генерируют многомерные случайные выборки. Если нужны полностью разделимые классы, то используют распределения с ограниченными носителями - равномерное, например. Если нужно частичное перемешивание классов, то гауссовское или их смеси.

Хочется нечто осмысленное, а не рандомное.

 
mytarmailS #:

А как это можно высмотреть кроме как того способа что был в видео?

Ну разными способами, через взаимную информацию например 
Причина обращения: