Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 956
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Еще одна полезная книга по теме
Удачи
Ни демо ни реала не получилось пока ни у кого
Итог - игрушки это всё, развлекуха и забава...
Ни демо ни реала не получилось пока ни у кого
Итог - игрушки это всё, развлекуха и забава...
Сыну Наполеона на ДР подарили погремушку из алюминия. Ни на что другое алюминий был непригоден.)
ЫЫЫЫЫЫЫ!
Что-то и так и по другому использовал лес. На тренировке угадываются все классы, на проверочных данных немного поменьше, на тестовых в искомый класс чуть более 50% попадает и туда же попадают данные негативного класса(в количестве примерно 50% от искомого) .
Ну, в лучшем случае в искомый класс попадает мало примеров и чуть меньше негативного класса.
Что сомневаюсь, что данные можно вообще разделить, хотя бы в небольшой перевес, который значимо скажется на торговле.
Или это не так?
Промежуточные результаты экспериментов с деревом
Данный отчет за 2017 год - вход генерируется условием ТС, без применения фильтров, но с сопровождением позиции
всё то же самое, но вход генерируется Деревом, обученным на 2015 и 2016 годах
А это вход по сигналу АТС с фильтрами
Ну а это вход по Дереву с теми же фильтрами
Да, фильтры оптимизировались на 2016-2017 году, поэтому почти прдгонка, но почему ж их дерево не может выстроить - загадка. С другой стороны, видно, что там где отсеили фильтры входы - вошло дерево и наоборот, что так же интересно. А интересно то, что дерево не учитывает точный финансовый результат при принятии решения о ветвлении, а оптимизация на истории заточена именно на финансовые показатели.
ЫЫЫЫЫЫЫ!
Что-то и так и по другому использовал лес. На тренировке угадываются все классы, на проверочных данных немного поменьше, на тестовых в искомый класс чуть более 50% попадает и туда же попадают данные негативного класса(в количестве примерно 50% от искомого) .
Ну, в лучшем случае в искомый класс попадает мало примеров и чуть меньше негативного класса.
Что сомневаюсь, что данные можно вообще разделить, хотя бы в небольшой перевес, который значимо скажется на торговле.
Или это не так?
Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.
Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.
отношение это типа они должны делиться на целевую? :DDDD
покажите график тест и трэйн, где отношение присутствует
такой график здесь показывал только недавно забаненый fxsaber, но он хотя бы понимал о чем писал.. и уж точно он не писал про поиск пердикторов через лес и прочие пакеты, т.к. отношение на рынке такими методами точно не находится, это все равно подгонка anyway
Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.
Вот пожалуйста. Много примеров показывают когда train=>validation. А нужно train=>validation=>test(test данные, которые вообще алгоритм не видит, а только предсказывает по обученной модели, на train, validation)
Так что те примеры, где показывают результаты train, а потом на validation ничего не говорят. У меня полно примеров где на validation получается угадывать 95% целевых.
При чем используется перекрестная проверка до k-10. Все равно перетренировка получается.
У меня полно примеров где на validation получается угадывать 95% целевых.
нашел, нашел где я писал:
М.Гюнтер. Аксиомы биржевого спекулянта:
Вспомогательная аксиома № 5. Остерегайтесь западни исторических параллелей.
Вспомогательная аксиома № 6. Остерегайтесь иллюзии повторяющихся фигур.
Вспомогательная аксиома № 7. Остерегайтесь заблуждения о существовании корреляции и причинной связи.
хм, а не плохое совпадение с Гюнтером? ))))
нашел, нашел где я писал:
хм, а не плохое совпадение с Гюнтером? ))))
Давным-давно это знаю. Кажется в "третьем классе" проходил. Не удивили))))