Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2650
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Не знаю правильно ли я тебя понял, немножно по бившысь головой об монитор написал простой пример
Этого ты хотел?
Похоже, но кажется что параметры могут принимать только несколько заданных значений, а не произвольное действительное число.
Похоже, но кажется что параметры могут принимать только несколько заданных значений, а не произвольное действительное число.
Так лучше?
=====================
можно еще поусложнять выражения
Так лучше?
=====================
можно еще поусложнять выражения
Да, со списком неплохо придумано.
Чтобы был настоящий double, по сути, нужны алгебраические типы данных. Не видел пока их реализацию для R, да и генетическая оптимизация с ними точно не получится (вообще не понятно какая оптимизация с ними будет работать).
Я не знаю как вас , но меня просто очаровывает этот алгоритм.. Как из протсых переменных внизу складываються большые сложные выражения ввергу, иерархия, как и в природе...
Да, со списком неплохо придумано.
Чтобы был настоящий double, по сути, нужны алгебраические типы данных. Не видел пока их реализацию для R, да и генетическая оптимизация с ними точно не получится (вообще не понятно какая оптимизация с ними будет работать).
ну да, есть ограничения, ведь каждая цыфра для ГП это отдельный елемент в списке, так что если их будет много то беда(( , но можно же выйти из ситуации как я показал
Я не знаю как вас , но меня просто очаровывает этот алгоритм.. Как из протсых переменных внизу складываються большые сложные выражения ввергу, иерархия, как и в природе...
Чем это лучше МГУА? Очаровываться можно чем угодно, был бы прок :)
Ну это разное..
немножко Про инвариантность к событиям
Допустим мы хотим описать закономерность голова и плечи (представим что такое существует) , наш алгоритм смотрит последние Н-точек допустим 7 как на примере
зеленым прямоугольником выделена область видимости алгоритма . Последние Н-точек, в данном примере 7 штук.
Данные в таком виде мы обрабатываем, подаем в АМО итп, скользящее окно кароч. всем это извесно..
Если описать закономерность правилами то будет что то типа x[1] < x[2] & x[2] > x[3] итд....
Но в реальности рынок меняеться, растягиваеться/сужаеться, меняються амплитуды итп...
Вот как бы реальность рынка, а мы все смотрим последние 7 точек и жем что наше правило x[1] < x[2] & x[2] > x[3]... сработает ))
Как видно, закономерность есть, она никуда не делась, но наш крутой 10-ти слойный GPT-5 ничего не увидит )
Выводы. Все алгоритмы АМО "из коробки" работают с табличными данными тоесть все алгоритмы ищут закономерности с ЖЕСТКОЙ привязкой к индексам , это не работает..
1) Надо смотреть в сторону алгоритмов типа асоциативных правил, которые завязаны на события, последовательность событий, но не привязаны к индексам.
2) Либо самим проектировать правильные правила, и из них лепить модели
3) Либо использовать для АМО такое представление данных какое используют для алгоритмов асоциативных правил/последовательностей , но там тогда количество признаков будет милиарды
вообще не понятно какая оптимизация с ними будет работать