Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Чуть понятнее. Сразу подумалось что задача нивелирования рисков похожести листьев и решается случайными деревьями, подумайте.
Случайные деревья, как и большинство методов МО, полезны для очевидных стационарных моделей, где правильных ответов будет больше чем не правильных по природе предсказуемости данных, а с рыночными данными все сложней, напротив тут сложно найти устойчивую закономерность. Однако, отчасти согласен, что листья уже отобраны и описывают закономерность, и на них можно пробовать использовать случайные леса, но я не пробовал, а пробовал дерево, построенное генетическим отбором в R - результат положительный имеется. Если есть желание сравнить, что эффективней, то могу сбросить выборку для обучения на листьях.
Если лист у вас как стратегия, который выдает - решение о покупке/продаже, то что у вас что на входе в дерево? Какие параметры?
Разные предикторы, часть построена на данных о положении цены внутри ATR разных периодов, их отношений и динамики развития внутри одного бара верхнего TF, часть на регрессии определенных интервалов и положении цены в прогнозируемом канале, часть на взаимоотношении цены и популярных (и не очень) индикаторов, часть на ZZ (канал Дончиана) и производной от неё. Многие предикторы ещё не закодированы, из тех что сделаны можно сделать дополнительных множество с целью увеличения охвата вариативности - узкое место тут вычислительные ресурсы.
Случайные деревья, как и большинство методов МО, полезны для очевидных стационарных моделей, где правильных ответов будет больше чем не правильных по природе предсказуемости данных, а с рыночными данными все сложней, напротив тут сложно найти устойчивую закономерность. Однако, отчасти согласен, что листья уже отобраны и описывают закономерность, и на них можно пробовать использовать случайные леса, но я не пробовал, а пробовал дерево, построенное генетическим отбором в R - результат положительный имеется. Если есть желание сравнить, что эффективней, то могу сбросить выборку для обучения на листьях.
Разные предикторы, часть построена на данных о положении цены внутри ATR разных периодов, их отношений и динамики развития внутри одного бара верхнего TF, часть на регрессии определенных интервалов и положении цены в прогнозируемом канале, часть на взаимоотношении цены и популярных (и не очень) индикаторов, часть на ZZ (канал Дончиана) и производной от неё. Многие предикторы ещё не закодированы, из тех что сделаны можно сделать дополнительных множество с целью увеличения охвата вариативности - узкое место тут вычислительные ресурсы.
По сути если вы применяете генетический отбор при неизменной обучающей выборке, то вы не избежите проблемы переобучения. Или выборка у вас не является неизменной? Тогда не понятно, ведь вы по сути из множества случайных деревьев - выбираете одно лучшее, но лучшее где? опять же на выборке. Думаю всё-таки случайные леса более страхуют от переобучения, т.к. каждое дерево лучшее на своей подвыборке. А предсказуемость считаю в большей степени зависит от верного=удачного выбора предикторов и не может быть достигнута слишком высокой.
По сути если вы применяете генетический отбор при неизменной обучающей выборке, то вы не избежите проблемы переобучения. Или выборка у вас не является неизменной? Тогда не понятно, ведь вы по сути из множества случайных деревьев - выбираете одно лучшее, но лучшее где? опять же на выборке. Думаю всё-таки случайные леса более страхуют от переобучения, т.к. каждое дерево лучшее на своей подвыборке. А предсказуемость считаю в большей степени зависит от верного=удачного выбора предикторов и не может быть достигнута слишком высокой.
Что Вы вкладываете в понятие "неизменная выборка" и ,видимо, "измененная выборка"? Могу предположить, что если речь идет именно про обучение на листьях, то неизменной выборкой будет та, на которой обучались листья деревьев, а измененная будет уже другая выборка, если это так, то я согласен, что хорошо бы увеличить выборку дополнительно после обучения листов и использовать уже старую и новую выборку, при этом желательно размера соизмеримого с той, на которой были обучены листы, однако это в моем случае затруднительно в силу малости самой выборки для обучения (в райне 15к строк).
Как раз проблемы сильной зашумленности и нестационарности, а так же малой выборки, говорят скорей в пользу одного хорошего дерева, чем огромного леса, который наделен слишком большой памятью для маленькой выборки, что приведет к явной подгонке и запоминанию ответов. Тщательно построенное дерево несет в себе больше информации на один лист, чем лес, и тут выбор информации (из имеющихся предикторов-листов) происходит именно более стабильно повторяющейся на всей выборке и приводящей к ожидаемому результату. Но опять же, реального сопоставления я не делал и эта часть системы (второй слой) находится в разработке.
Предсказуемость тут улучшается за счет того, что дерево из листьев может выделить ведущие предикторы-листья, лучшим образом характеризующие событие и исключающие события, противоречащие текущему, т.е. фактически уточнить информацию и выделить ярких представителей групп листьев (что делалось раньше). Возможно, что тут уместно использовать и более явный инструмент для обобщения - нейронную сеть.
Что Вы вкладываете в понятие "неизменная выборка" и ,видимо, "измененная выборка"? Могу предположить, что если речь идет именно про обучение на листьях, то неизменной выборкой будет та, на которой обучались листья деревьев, а измененная будет уже другая выборка, если это так, то я согласен, что хорошо бы увеличить выборку дополнительно после обучения листов и использовать уже старую и новую выборку, при этом желательно размера соизмеримого с той, на которой были обучены листы, однако это в моем случае затруднительно в силу малости самой выборки для обучения (в райне 15к строк).
Обучение вы же подразумеваете - генетический отбор. Тогда я имел ввиду что есть два пути - 1. Простой, выборку обучающую можно разделить на чисто обучающую и проверочную 2. Продвинутый, Разделить обучающую выборку на подвыборки, и либо для рызных поколений в ГА использовать разные подвыборки либо усреднять рез-т на всех, это типа скользящего форвард-теста.
Как раз проблемы сильной зашумленности и нестационарности, а так же малой выборки, говорят скорей в пользу одного хорошего дерева, чем огромного леса, который наделен слишком большой памятью для маленькой выборки, что приведет к явной подгонке и запоминанию ответов.
Выделенное звучит логично, но мне кажется вы можете заблуждаться. Смотрите, ведь в большом лесу - у деревьев свои подвыборки, если их размер , как и глубина деревьев будут ограничены разумно, то подгонку исключить можно полностью. Для этого случайные леса и созданы насколько понимаю.
Тщательно построенное дерево несет в себе больше информации на один лист, чем лес, и тут выбор информации (из имеющихся предикторов-листов) происходит именно более стабильно повторяющейся на всей выборке и приводящей к ожидаемому результату. Но опять же, реального сопоставления я не делал и эта часть системы (второй слой) находится в разработке.
Больше информации и тщательно подобранное - это ли зачастую не синонимы подгонки? Стабильно повторяющийся результат где - на обучающей или тестовой? Если тестовой то круто, значит вам удалось найти оптимальную структуру и предикторы и осталось только допилить грааль.
Предсказуемость тут улучшается за счет того, что дерево из листьев может выделить ведущие предикторы-листья, лучшим образом характеризующие событие и исключающие события, противоречащие текущему, т.е. фактически уточнить информацию и выделить ярких представителей групп листьев (что делалось раньше). Возможно, что тут уместно использовать и более явный инструмент для обобщения - нейронную сеть.
Вы упоминаете что у вас голосуют все листья, могу путаться в терминах, но значит у вас дерево не чисто-логическое, а "взвешивающее" веса и/или на нечеткой-логике, так? Взвешивающее думаю по сути очень похоже на нейронку, только с более понятным принципом работы.
В итоге склоняюсь к лесам) Вам удачи ну и держите в курсе, разумная кооперация всем м.б. выгодна.
Обучение вы же подразумеваете - генетический отбор. Тогда я имел ввиду что есть два пути - 1. Простой, выборку обучающую можно разделить на чисто обучающую и проверочную 2. Продвинутый, Разделить обучающую выборку на подвыборки, и либо для рызных поколений в ГА использовать разные подвыборки либо усреднять рез-т на всех, это типа скользящего форвард-теста.
Генетический отбор сплитов дерева.
Разделение выборок лишает информации на истории, информации очень мало повторяющейся с большой частотой. Кроме того, мои изыскания показали, что даже беря кусок выборки для проверки обучения мы просто отбираем те варианты, которые хорошо работают и там и там, но это не значит, что они будут работать хорошо и дальше - важней структура активаций на истории, её устойчивость.
Выделенное звучит логично, но мне кажется вы можете заблуждаться. Смотрите, ведь в большом лесу - у деревьев свои подвыборки, если их размер , как и глубина деревьев будут ограничены разумно, то подгонку исключить можно полностью. Для этого случайные леса и созданы насколько понимаю.
Больше информации и тщательно подобранное - это ли зачастую не синонимы подгонки? Стабильно повторяющийся результат где - на обучающей или тестовой? Если тестовой то круто, значит вам удалось найти оптимальную структуру и предикторы и осталось только допилить грааль.
Вам надо поисследовать детально, что получается, с разложением каждого листа на истории. Я лишь повторюсь, что МО изначально хорошо работает на стационарных данных, и подразумевает полноту выборки, т.е. достаточное число раз повторяющейся информации. Мы же работаем с хаусом, где иногда прослеживаются закономерности, а найти среди них устойчивые - большая удача. Известные мне модели обучения не учитывают динамику правильности классификации, что их делает мало применимыми для поиска разряженных закономерностей, как на бирже.
Вы упоминаете что у вас голосуют все листья, могу путаться в терминах, но значит у вас дерево не чисто-логическое, а "взвешивающее" веса и/или на нечеткой-логике, так? Взвешивающее думаю по сути очень похоже на нейронку, только с более понятным принципом работы.
Я думаю о разных вариантах второго слоя, либо это будет только группировка похожих листьев с расчетом коэффициента активации, либо дерево/леса/НС, либо все в месте - пока веду исследование наилучших вариантов/комбинаций.
В итоге склоняюсь к лесам) Вам удачи ну и держите в курсе, разумная кооперация всем м.б. выгодна.
Спасибо, и Вам удачи.
Что качается кооперации - пожалуйста, я предложил совместно поисследовать, что лучше - дерево или леса для выборки из предикторов-листьев - реакции не последовало.
Спасибо, и Вам удачи.
Что качается кооперации - пожалуйста, я предложил совместно поисследовать, что лучше - дерево или леса для выборки из предикторов-листьев - реакции не последовало.
Тут надо понимать всё как всегда упирается в простой нюанс - здесь собрались люди творческие и идейные, и каждый следует своей музе так сказать :)) каждый из нас видит как то по своему и практически невозможно чисто из таких творческих личностей создать устойчивую команду, нужен лидер который бы всех объединил простой понятной идеей и управляемой структурой.
Когда я говорю кооперацию - больше подразумеваю цикличный обмен опытом и мнениями, результатами и выводами, которые помогут другим ускорить свой путь, но у каждого он свой. Но в каких-то отдельных операциях скооперироваться конечно можно.
Кстати насчёт вычислительных ресурсов - есть ферма видеокарт, я пока не знаю как её использовать в этом, т.к. я не профи программист а только учусь) Если есть решение и материал для расчётов - скидывайте, попробую приспособить ферму.
Тут надо понимать всё как всегда упирается в простой нюанс - здесь собрались люди творческие и идейные, и каждый следует своей музе так сказать :)) каждый из нас видит как то по своему и практически невозможно чисто из таких творческих личностей создать устойчивую команду, нужен лидер который бы всех объединил простой понятной идеей и управляемой структурой.
Когда я говорю кооперацию - больше подразумеваю цикличный обмен опытом и мнениями, результатами и выводами, которые помогут другим ускорить свой путь, но у каждого он свой. Но в каких-то отдельных операциях скооперироваться конечно можно.
Кстати насчёт вычислительных ресурсов - есть ферма видеокарт, я пока не знаю как её использовать в этом, т.к. я не профи программист а только учусь) Если есть решение и материал для расчётов - скидывайте, попробую приспособить ферму.
Ну вот, от того, что у людей цель - удовлетворение амбиций, а не получение финансового результата, и возникает топтание на месте с продвижением исключительности своих идей. Где то тут я предлагал создать команду, примерно год назад, и даже выработал механизм активного участия на развитие команды каждого её члена, но это никому не нужно оказалось. Поэтому я движусь своей дорогой медленно и уныло.
Ферму можно использовать в CatBoost, если карты от nVideo, из серии что и 1060 и выше. Спасибо за предложение, когда мне понадобятся там длительные расчеты, я обращусь к Вам.
Ну вот, от того, что у людей цель - удовлетворение амбиций, а не получение финансового результата, и возникает топтание на месте с продвижением исключительности своих идей. Где то тут я предлагал создать команду, примерно год назад, и даже выработал механизм активного участия на развитие команды каждого её члена, но это никому не нужно оказалось. Поэтому я движусь своей дорогой медленно и уныло.
Ферму можно использовать в CatBoost, если карты от nVideo, из серии что и 1060 и выше. Спасибо за предложение, когда мне понадобятся там длительные расчеты, я обращусь к Вам.
А почему тема замолчала? Топтание на месте? А потому что пятиклассники начали обсуждать ядерную физику. И творчество тут не причем. Ни кого не желаю обидеть, просто пример показательный. Нужен не лидер (с амбициями или без, не важно), а хотя бы студент технического университета, но лучше профессор. Это я не про себя, сам хотел бы у Вас кое чему научиться. Сам тяну на десятиклассника, по этому и пишу, что тема правильная. Философские знания (системы взглядов), во всех предыдущих статьях, представлены очень хорошо. Только выводов ни каких я не увидел. Если будут выводы, хотя бы 1, 2, 3, тогда можно переходить к научным, а потом и к предметным знаниям.
Как то Вы застряли в лесу. Если не идет, выйдите из темы, поработайте в другом направлении, потом вернетесь(может быть) с новыми идеями. Коль скоро Ваш интерес в лесу, попробуйте вместо деревьев использовать другие модели. Простые и быстрые. Например elm, есть несколько пакетов, самый быстрый elmNNRcpp. Конечно есть и другие реализации. Пакет для создания ансамбля состоящего из любых моделей, не только деревьев) - gensemble.
Удачи
А почему тема замолчала? Топтание на месте? А потому что пятиклассники начали обсуждать ядерную физику. И творчество тут не причем. Ни кого не желаю обидеть, просто пример показательный. Нужен не лидер (с амбициями или без, не важно), а хотя бы студент технического университета, но лучше профессор. Это я не про себя, сам хотел бы у Вас кое чему научиться. Сам тяну на десятиклассника, по этому и пишу, что тема правильная. Философские знания (системы взглядов), во всех предыдущих статьях, представлены очень хорошо. Только выводов ни каких я не увидел. Если будут выводы, хотя бы 1, 2, 3, тогда можно переходить к научным, а потом и к предметным знаниям.
Пока, к сожалению, методика иная - гипотеза, её проверка и выводы. И тут самое опасное как раз кроется в выводах - они могут быть ошибочны, а именно на них строятся дальнейшие идеи/гипотезы, и даже небольшая ошибка в выводах может привести к ошибке, распространившейся на несколько поколений развития проекта.
Поэтому, публичное обсуждение не только самой гипотезы, но и выводов очень полезны для меня.