Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Мы пришли к принципиальным парадигмам торговли:
1) Паттерны одинаковы для бай и для сел, просто зеркальные
2) Паттерны для бай и для сел - разные
Да, действительно, пока нет доказательств, можно опираться на какие-то убеждения или факты.
В данном случае я опираюсь, как уже выше говорил, на то, что во всех известных ТС условия для BUY и для SELL - одинаковые, зеркальные.
Это касается как сливных (99,9....%) ТС, так и успешных. Подчёркиваю - успешных. У них у всех - зеркальные правила.
Против второй позиции по моему убеждению также играет тот факт, что любое проявления дискриминации одной из видов сделок - негативно проявляется на форварде и беке.
Например, моя фича про диапазон - если его не сделать зеркальным, а разным (то есть от -1 до 0 и от 0 до 1 будут совершенно разные участки в разными весами) - то сама оптимизация и само обучение будет выглядеть как на тестовом периоде - страшно и коряво, так и на форварде и беке - страшно и коряво.
А если зеркалить - то чаще прявляются плавные переходы. Имхо, субъективно.
Также против второго варианта играет тот факт, как упомянул выше, если обучать на 2020-м году - то в 2021-м льёт. А это два противоположных по направлению года, начиная прямо с Нового года.
То есть, НС без зеркала, либо отдельная для BUY НС, которая обучается обособленно, гарантированно будет лить во всем сетах оптимизации в 2021-м. Прям друг за дружком их нажимаешь - они все пикируют. Все обучились BUY, и в 2021-м открывают BUY, где только можно, не умеют выходить из него, и совсем чуть-чуть SELL, и то - непонятно где.
Но, я не откидываю этот вариант и тестирую всё подряд, что под руку подпадётся ))
Потому что каждый день что-то новое проявляется
Имеет право быть любая теория, конечно.)
Вот взять какой нибудь индекс, или акции, они годами прут вверх. Тут явно бай и сел паттерны разные, думаю. Форексные символы, конечно, флетовые по большому счету, но и на них выделяются долгие движения. Короче, всё проверять надо - как всегда.)
Имеет право быть любая теория, конечно.)
Вот взять какой нибудь индекс, или акции, они годами прут вверх. Тут явно бай и сел паттерны разные, думаю. Форексные символы, конечно, флетовые по большому счету, но и на них выделяются долгие движения. Короче, всё проверять надо - как всегда.)
Тут важно понимать: "разные" и "отсутствуют" - это не одно и тоже.
Зеркальный паттерн на SELL в тренде вверх - может просто отсутствовать. И появиться на коррекции. В нужное время - в нужном месте.
Например, паттерн:
1) MA быстрая пересекает МА медленную вверх — открываем BUY
2) MA быстрая пересекает МА медленную внизу — открываем SELL
На ровном тренде вверх без глубоких коррекций паттерн SELL не появится. Но, когда придут условия - появится. Но при этом условия у них - одинаковые, они - зеркальные.
А у НС, которая обучается отдельно для BUY - та будет искать BUY даже в коррекциях.
И на глубоком тренде вниз будет лить, пытаясь открыть BUY, поскольку она "вдоволь научилась" и никогда не видела тренд вниз.
Другой вариант - обучение на всех трендах всего участка. Казалось бы - это логично, но прикол в том, что все НС, как это правильно называется (апроксимация?) - обучают той сделке лучше, которая больше всего зарабатывает. И подгоняет веса под них.
По крайней мере, простые архитектуры, в том числе RNN, LSTM, CNN и тому подобные. Если в них мало нейронов, слоёв и фильтров - они занимаются ровно тем же, что и MLP, даже хуже иногда. Если много нейронов (Питон, сторонний софт) - то превращаются в запаздывающую скользящую среднюю, которая предсказывает значение на 1 бар назад.
Тут важно понимать: "разные" и "отсутствуют" - это не одно и тоже.
Вот про это и говорю.
подай на вход сетки SMA сдвинутую на полпериода - но в качестве учителя. Не надо учить нейронку по взятым с потолка сделкам или зигзагам.
если она сможет с достаточной вероятностью и отклонениями прогнозировать будущую среднюю - это уже будет грааль
у EMA (exponencial moving average) есть такая интересная особенность.
когда закрытие бара/свечи выше/ниже EMA то EMA направлено вверх/вниз соответственно.
Стандартный Боллинджер и созданный нейросетью.
На вход нейросети подавалась ширина канала.Стандартный Боллинджер и созданный нейросетью.
На вход нейросети подавалась ширина канала.Прикольно. Смысл заменить стандартный BB в том, чтобы получить значения раньше?
Что для Вас означает "обучение"?
Замечательный вопрос
Если его раскрыть в полной мере в контексте виртуальной среды (информационного поля), то предположительно можно выйти на нужное направление, а не транслировать академические знания и учебники
Каждый раз ковыряясь в архитектурах задавал себе вопрос "а нафига вот так? Зачем? Почему так решили?" Нет, просто бери - и транслируй архитектуру, которую написали умные дяди-математики.
Даже у чата спрашивал, нафига блок LSTM имеет тот вид, который имеет? В ответ - гадость из учебников по МО: это долгая краткосрочная память, бла-бла-бла, приспособлена к обучению на задачах классификации и бла-бла-бла.
Переспрашиваю "так почему именно так?", ответ по типу "так решили математики". Никакой теории, никакой теории информации, никакой теории обработки информации, никаких определений обучения, теорий обучения и тд. Тупо постулаты.
Раза с третьего чат начал говорить про затухания и взыры градиентов. Мол, LSTM решает эти проблемы. Ну окей, как решает? — С помощью вентилей (gates)!
Каких вентилей!? Чего?? —
ключевой элемент, который сохраняет информацию через всю последовательность.
Какую информацию???? Числа на входе? Но вы же её преобразуете из входящей в трали-вали искажённую непонятную белиберду, которая превращает входящие числа-цвета RGB в нечто нечитаемое, чёрный ящик с кашей.
Ну допустим, преобразование одних чисел в другие, а обучение в чём? В запоминании? Так это запоминание! А чем оно отличается от обучения?
В итоге, непонятно что пытаются применить к непонятно-что во второй степени - нестационарному рынку.
В общем, вопрос замечательный, напрашивался давным-давно. Его раскрытие - это что-то крайне интересное.
Замечательный вопрос
Если его раскрыть в полной мере в контексте виртуальной среды (информационного поля), то предположительно можно выйти на нужное направление, а не транслировать академические знания и учебники
Каждый раз ковыряясь в архитектурах задавал себе вопрос "а нафига вот так? Зачем? Почему так решили?" Нет, просто бери - и транслируй архитектуру, которую написали умные дяди-математики.
Даже у чата спрашивал, нафига блок LSTM имеет тот вид, который имеет? В ответ - гадость из учебников по МО: это долгая краткосрочная память, бла-бла-бла, приспособлена к обучению на задачах классификации и бла-бла-бла.
Переспрашиваю "так почему именно так?", ответ по типу "так решили математики". Никакой теории, никакой теории информации, никакой теории обработки информации, никаких определений обучения, теорий обучения и тд. Тупо постулаты.
Раза с третьего чат начал говорить про затухания и взыры градиентов. Мол, LSTM решает эти проблемы. Ну окей, как решает? — С помощью вентилей (gates)!
Каких вентилей!? Чего?? —
Какую информацию???? Числа на входе? Но вы же её преобразуете из входящей в трали-вали искажённую непонятную белиберду, которая превращает входящие числа-цвета RGB в нечто нечитаемое, чёрный ящик с кашей.
Ну допустим, преобразование одних чисел в другие, а обучение в чём? В запоминании? Так это запоминание! А чем оно отличается от обучения?
В итоге, непонятно что пытаются применить к непонятно-что во второй степени - нестационарному рынку.
В общем, вопрос замечательный, напрашивался давным-давно. Его раскрытие - это что-то крайне интересное.
Т.е, на самом деле нет никакой систематизации в науке применения МО? Просто какая-то алхимия с отсутсвием гарантии положительного результата?
Чем отличается обучение нейронной сети от обучения пуделя выполнять трюки? - или обучения школьника в школе? Есть ли различия, а если есть, то кто и где систематизировал эти отличия и обосновал?