Что подать на вход нейросети? Ваши идеи... - страница 55

 
Ivan Butko #:

Мы пришли к принципиальным парадигмам торговли: 

1) Паттерны одинаковы для бай и для сел, просто зеркальные

2) Паттерны для бай и для сел - разные


Да, действительно, пока нет доказательств, можно опираться на какие-то убеждения или факты. 

В данном случае я опираюсь, как уже выше говорил, на то, что во всех известных ТС условия для BUY и для SELL - одинаковые, зеркальные. 

Это касается как сливных (99,9....%) ТС, так и успешных. Подчёркиваю - успешных. У них у всех - зеркальные правила. 


Против второй позиции по моему убеждению также играет тот факт, что любое проявления дискриминации одной из видов сделок - негативно проявляется на форварде и беке.

Например, моя фича про диапазон - если его не сделать зеркальным, а разным (то есть от -1 до 0 и от 0 до 1 будут совершенно разные участки в разными весами) - то сама оптимизация и само обучение будет выглядеть как на тестовом периоде - страшно и коряво, так и на форварде и беке - страшно и коряво. 

А если зеркалить - то чаще прявляются плавные переходы. Имхо, субъективно. 


Также против второго варианта играет тот факт, как упомянул выше, если обучать на 2020-м году - то в 2021-м льёт. А это два противоположных по направлению года, начиная прямо с Нового года. 
То есть, НС без зеркала, либо отдельная для BUY НС, которая обучается обособленно, гарантированно будет лить во всем сетах оптимизации в 2021-м. Прям друг за дружком их нажимаешь - они все пикируют. Все обучились BUY, и в 2021-м открывают BUY, где только можно, не умеют выходить из него, и совсем чуть-чуть SELL, и то - непонятно где. 


Но, я не откидываю этот вариант и тестирую всё подряд, что под руку подпадётся ))
Потому что каждый день что-то новое проявляется

Имеет право быть любая теория, конечно.)

Вот взять какой нибудь индекс, или акции, они годами прут вверх. Тут явно бай и сел паттерны разные, думаю. Форексные символы, конечно, флетовые по большому счету, но и на них выделяются долгие движения. Короче, всё проверять надо - как всегда.)

 
Andrey Dik #:

Имеет право быть любая теория, конечно.)

Вот взять какой нибудь индекс, или акции, они годами прут вверх. Тут явно бай и сел паттерны разные, думаю. Форексные символы, конечно, флетовые по большому счету, но и на них выделяются долгие движения. Короче, всё проверять надо - как всегда.)

Тут важно понимать: "разные" и "отсутствуют" - это не одно и тоже. 

Зеркальный паттерн на SELL в тренде вверх - может просто отсутствовать. И появиться на коррекции. В нужное время - в нужном месте. 

Например, паттерн:

1) MA быстрая пересекает МА медленную вверх — открываем BUY
2) MA быстрая пересекает МА медленную внизу — открываем SELL

На ровном тренде вверх без глубоких коррекций паттерн SELL не появится. Но, когда придут условия - появится. Но при этом условия у них - одинаковые, они - зеркальные. 

А у НС, которая обучается отдельно для BUY - та будет искать BUY даже в коррекциях. 
И на глубоком тренде вниз будет лить, пытаясь открыть BUY, поскольку она "вдоволь научилась" и никогда не видела тренд вниз. 

Другой вариант - обучение на всех трендах всего участка. Казалось бы - это логично, но прикол в том, что все НС, как это правильно называется (апроксимация?) - обучают той сделке лучше, которая больше всего зарабатывает. И подгоняет веса под них. 

По крайней мере, простые архитектуры, в том числе RNN, LSTM, CNN и тому подобные. Если в них мало нейронов, слоёв и фильтров - они занимаются ровно тем же, что и MLP, даже хуже иногда. Если много нейронов (Питон, сторонний софт) - то превращаются в запаздывающую скользящую среднюю, которая предсказывает значение на 1 бар назад. 

 
Ivan Butko #:

Тут важно понимать: "разные" и "отсутствуют" - это не одно и тоже.

Вот про это и говорю.

 

подай на вход сетки SMA сдвинутую на полпериода - но в качестве учителя. Не надо учить нейронку по взятым с потолка сделкам или зигзагам. 

если она сможет с достаточной вероятностью и отклонениями прогнозировать будущую среднюю - это уже будет грааль

 

у EMA (exponencial moving average) есть такая интересная особенность.

когда закрытие бара/свечи выше/ниже EMA то EMA направлено вверх/вниз соответственно.

 
Что такое "обучение"?

 

Стандартный Боллинджер и созданный нейросетью.

На вход нейросети подавалась ширина канала.
 
Sergey Pavlov #:

Стандартный Боллинджер и созданный нейросетью.

На вход нейросети подавалась ширина канала.

Прикольно. Смысл заменить стандартный BB в том, чтобы получить значения раньше?

Что для Вас означает "обучение"?

 
Andrey Dik #:
Что такое "обучение"?

Замечательный вопрос

Если его раскрыть в полной мере в контексте виртуальной среды (информационного поля), то предположительно можно выйти на нужное направление, а не транслировать академические знания и учебники

Каждый раз ковыряясь в архитектурах задавал себе вопрос "а нафига вот так? Зачем? Почему так решили?" Нет, просто бери - и транслируй архитектуру, которую написали умные дяди-математики. 


Даже у чата спрашивал, нафига блок LSTM имеет тот вид, который имеет? В ответ - гадость из учебников по МО: это долгая краткосрочная память, бла-бла-бла, приспособлена к обучению на задачах классификации и бла-бла-бла. 

Переспрашиваю "так почему именно так?", ответ по типу "так решили математики". Никакой теории, никакой теории информации, никакой теории обработки информации, никаких определений обучения, теорий обучения и тд. Тупо постулаты. 


Раза с третьего чат начал говорить про затухания и взыры градиентов. Мол, LSTM решает эти проблемы. Ну окей, как решает?  — С помощью вентилей (gates)! 
Каких вентилей!? Чего?? — 

ключевой элемент, который сохраняет информацию через всю последовательность.

Какую информацию???? Числа на входе? Но вы же её преобразуете из входящей в трали-вали искажённую непонятную белиберду, которая превращает входящие числа-цвета RGB в нечто нечитаемое, чёрный ящик с кашей. 

Ну допустим, преобразование одних чисел в другие, а обучение в чём? В запоминании? Так это запоминание! А чем оно отличается от обучения? 


В итоге, непонятно что пытаются применить к непонятно-что во второй степени - нестационарному рынку. 



В общем, вопрос замечательный, напрашивался давным-давно. Его раскрытие - это что-то крайне интересное.

 
Ivan Butko #:

Замечательный вопрос

Если его раскрыть в полной мере в контексте виртуальной среды (информационного поля), то предположительно можно выйти на нужное направление, а не транслировать академические знания и учебники

Каждый раз ковыряясь в архитектурах задавал себе вопрос "а нафига вот так? Зачем? Почему так решили?" Нет, просто бери - и транслируй архитектуру, которую написали умные дяди-математики. 


Даже у чата спрашивал, нафига блок LSTM имеет тот вид, который имеет? В ответ - гадость из учебников по МО: это долгая краткосрочная память, бла-бла-бла, приспособлена к обучению на задачах классификации и бла-бла-бла. 

Переспрашиваю "так почему именно так?", ответ по типу "так решили математики". Никакой теории, никакой теории информации, никакой теории обработки информации, никаких определений обучения, теорий обучения и тд. Тупо постулаты. 


Раза с третьего чат начал говорить про затухания и взыры градиентов. Мол, LSTM решает эти проблемы. Ну окей, как решает?  — С помощью вентилей (gates)! 
Каких вентилей!? Чего?? — 

Какую информацию???? Числа на входе? Но вы же её преобразуете из входящей в трали-вали искажённую непонятную белиберду, которая превращает входящие числа-цвета RGB в нечто нечитаемое, чёрный ящик с кашей. 

Ну допустим, преобразование одних чисел в другие, а обучение в чём? В запоминании? Так это запоминание! А чем оно отличается от обучения? 


В итоге, непонятно что пытаются применить к непонятно-что во второй степени - нестационарному рынку. 



В общем, вопрос замечательный, напрашивался давным-давно. Его раскрытие - это что-то крайне интересное.

Т.е, на самом деле нет никакой систематизации в науке применения МО? Просто какая-то алхимия с отсутсвием гарантии положительного результата?

Чем отличается обучение нейронной сети от обучения пуделя выполнять трюки? - или обучения школьника в школе? Есть ли различия, а если есть, то кто и где систематизировал эти отличия и обосновал?