Обсуждение статьи "Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта" - страница 3
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Прочитал.
Молодец что решил выложить свою ТС и примерно объяснить как она работает, плюс объяснить немного теории в плане своих мыслей по работе нейросетей непосредственно с рынком Forex.
Однако, в статье слишком много "трейдер может предположить", "трейдер должен принять решение основываясь на собственном опыте" и т.д. Все весьма расплывчато для такого громкого названия статьи.
Как я понял, ты не программист, иначе статья была бы более информативной, системной, и ты доработал бы свою ТС чтоб не переворачивать позиции.
Потом выложил бы результаты торговли в тестере за год - два, предварительно переобучая сеть каждые две недели.
Переворачивание всегда идет на свой страх и риск, нет четкого алгоритма - это большой минус.
Это даже не статья про нейросети, а просто описание твоей ТС.
Я ожидал больше конктретики, больше слов о детальной работе предлагаемой нейросети, примерах тестовых выборок, примеров обучения, примеров работы после обучения.
Метадологические статьи тут не нужны, новички все равно ничего до ума не доведут, а разбирающимся людям это не интересно. Люди, которые давно на форексе, которые шарят в программировании, часто ищут просто интересную идею, с подробным объяснением почему это идея хороша, как она работает,и как ей пользоваться. Потом уже они адаптируют ее под свои требования, встроят в свои советники, индикаторы и т.д.
Например, у меня есть кластеризатор данных на основе Нейросети Кохонена на С++:
В нем картинка слева - исходные данные, картинка справа - после кластеризации, с подписанием в каждом классе имени класса из двух цифр, и минимального расстояния в классе. Сеть состоит из 7 нейронов. Всего 49 классов.
У тебя же ни одного примера нету, какие конкретно ты даешь входные данные и в каком формате, что получаешь на выходе и т.д., описание алгоритма обучения и т.д.
Спасибо за проявленный интерес. Описание оптимизатора я выложил на предыдущей странице. Там ссылка на организацию оптимизатора написанная самим автором.
Я программирую на MQL4 так то. Сетки все лежат в файлах прикреплёных к статье. Дело в том что задача построить такой полином, который несёт в себе эффект обобщения выходной переменной. Сам полином может быть и не большим, главное чтобы он понимал суть рынка. Шёл с ним в шаг.
Поскольку классификатор делит выборку на две области. То и сравниваем мы только два последних сигнала, зная результат предыдущего и видя в какую группу попал текущий сигнал, можно сделать определённые выводы.
Да действительно статья вышла немного суховатой, но суть её был ознакомить читателей с МЕТОДОМ построения торговых систем. Попробуй применить "контекст дня" для своей ТС и вероятно что в обучение попадут патерны которые появятся в течении дня.
По поводу переворотов, вроде как наглядно разъяснил это в статье, как это делается.
Глядя на входы не трудно догадаться какие именно данные используются для входа. Выход организован по профиту.
Открою тебе один секрет, только ты никому.... хорошо????
Дело в том что можно обойтись без НС и делается это очень просто.
Есть такое понятие как профиль дельты. Когда мы получили сигнал и знаем его окно. Нужно построить профиль дельты для этого окна. Если "Контекст дня" совпадает по объёму и ОИ, тоесть и тот и этот вырос или упал одновременно, то ходим в соотвествии с профилем дельты, если в окне для покупки профиль дельты по максимальному объёму положителен, то покупаем, если отрицательный то считаем этот сигнал на покупку "Ложным". А вот если "Контекст дня" разнится. То есть объём упал, а ОИ вырос. То работать нужно от обратного. Обычно в такие дни цена растёт от отрицательного профиля дельты и падает от положительного. Развод кластердельщиков. Тут никаких Нс не нужно, всё и так работает в полне сносно. Потому как сама Секвента адаптивная, да ещё и профиль дельты, который является причиной для изменения цены. К сожалению нет индикатора профиля дельты для определённого окна, поэтому работа ТС хорошая но не очень. А вот еслибы можно было бы предоставить именно эти данные на вход НС, то вопрос был бы решён координально.
Если есть желание запилить советник по условиям, то можно будет попробовать, только вот вопрос в профилем дельты в окне нужно как то решить....
Не каждый же сэмпл это секунда, только те где есть таргет, да что Вам объяснять... у меня “Шарп-ратио” уже 3 год ниже 3-х не падает и это с учетом что я очень часто всё переделываю, реорганизую и от этого много системных переходов, а на текущей модели, на реале, у меня 8 “Шарп-ратио”. Так что, рассказывайте про свои 30 строк, в “контексте дня”, кому то другому.
Датесет можете выложить конечно, это всегда интересно, но сразу скажу, что при квантовании больше минуты, на рынке давно уже “нет рыбы”(кроме классического инсайда), а также у меня есть довольно эффективные техники выявления переобучения, моя система “30 сэмплов” не воспримет в серьёз, скажет “недостаточно данных”.
Вы вообще со статистикой знакомы? Про центральную предельную теорему слышали? Про минимальный размер выборки, что 30 сэмплов это минимальноепороговое значение потенциальной репрезентативности выборки, на ОДНУ ФИЧУ, в случае квази-нормального распределения, а лучше от 200 -т . В многомере предельный минимальный размер выборки растет 30^(D\2) где D – количество фичей.
Сдаётся мне что Вы нехитрой подгонкой занимаетесь сэр, бросайте это бесперспективное занятие, мяса всё меньше и меньше, скоро будет как в “развитых странах” квалифицированные инвесторы и всё такое, лохов пускать к рынку не будут и Вам придется бодаться на прямую с хедж-фондами и институционалами, а те не по 30 строк учат свои модели, Вас ограбят с таким подходом))))
Смотрю что подходы в работе на рынке у нас с Вами рознятся координально. Не собираюсь никого переубеждать или что то доказывать. Выложил суть подхода и возможности улучшения стратегии, надеюсь что кому то она станет полезной (не Вам конечно, что тут скажешь) Однако смысл построения полинома это умение разделить многомерное пространство универсальной линией, которая сохранит свою работоспособность в течении определённого времени.
А Вы в курсе что у меня в тренировочной файле порядка 100 столбцов или входов, я выложу его суда, хочется посмотреть как ваша ИИ построит на нём модель. Будьте добры!!!!!
А на счёт подгонки скажу что рассматриваю данные и анализирую работу модели исключительно на участве вне выборки, какая уж тут подгонка, не понимаю....Приветствую всех, нейронкой интересовался давно очень и понимал и щас так же считаю что за этим будущее и настоящее уже, естественно со своими изьянами,у меня такой вопрос сути нейронки,если Я правильно понимаю то при обучение ее определенным алгоритмам она ищет похожие в будущем и торгует по ним, естественно в цифровом и структурном движение на рынке не когда не бывает идентичности, и всегда есть сдвиги, т.е к примеру сигнал подан и на истории он 100 раз повторяется но из 100 раз естественно только небольшое количество приносит прибыль, остальные в минус. Почему нет нейронки которая именно по патернам сделана или по четким сигналам, что такое четкий сигнал, т.е при определенных настройках любого индикатора нейронка должна найти на истории такое повторение которое будет давать кпд положительное, в итоге тут именно количество отдельных сигналов по мне должны дать итог с хорошей прибыльностью. Т.е любой индикатор и прибыльный и не прибыльный в умелых руках, почему бы не скрестить 1 или более индикаторов в одну стратегию, далее подбором лучших результатов настройки через нейронку не вывести лучшие результаты и торговать далее по ним. Есть ли кто может такое делает или может сделать, то поучаствовал бы.
Вы абсалютно правы, есть вариант работы сети когда она ищет патерны в будущем изучает их и в последствии делает такойже ход в будущем. Однако, очень сложно найти в прошлом патерн который бы интерпретировался однозначно. То есть из 100 патернов в прошлом (один и тот же патерн) 50 будут давать в плюс, а 50 в минус. Что тогда? Как поступить НС? Важно при подготовке данных чтобы не было противоречия, когда один и тот же патерн приводит к разным результатам. Поэтому процесс обобщения и является тем решением, когда при появлении патерна, опираясь на информацию входов делается вывод об истиности или ложности сигнала.
Смотрю что подходы в работе на рынке у нас с Вами рознятся координально. Не собираюсь никого переубеждать или что то доказывать. Выложил суть подхода и возможности улучшения стратегии, надеюсь что кому то она станет полезной (не Вам конечно, что тут скажешь) Однако смысл построения полинома это умение разделить многомерное пространство универсальной линией, которая сохранит свою работоспособность в течении определённого времени.
А Вы в курсе что у меня в тренировочной файле порядка 100 столбцов или входов, я выложу его суда, хочется посмотреть как ваша ИИ построит на нём модель. Будьте добры!!!!!
А на счёт подгонки скажу что рассматриваю данные и анализирую работу модели исключительно на участве вне выборки, какая уж тут подгонка, не понимаю....Пардон за легкую агрессию, на форумах и в соцсетях редко общаюсь, поэтому иногда могу вести себя не политкорректно. Реакции и цитаты на мои резкие посты можете убрать или отредактировать если захотите.
За то что поделились своим подходом, спасибо, в нашем деле это редкость, даже если подход своеобразный, собственно он и ДОЛЖЕН быть своеобразный, как иначе, если мы грабим друг друга и кукла. Тут приходится быть оригинальным и изобретательным)))
Про второй датасет что Вы выложили сказать ничего не могу увы, на 100 фичей нужно минимум 10к сэмплов для обучения и хотя бы тысяча на тест, что бы сказать что то определенное. Но моя модель справится и с одной фичей и с 10к
Вышу линейную выше приведённою модель, обученную на 50 сэмплах, вечером проверю, чисто ради эксперимента, хотя ИМХО вероятность что она даст хотя бы 51% на 14к тестовых семплах близка к нулю.
Результат выложу, если Вам угодно будет.
Пардон за легкую агрессию, на форумах и в соцсетях редко общаюсь, поэтому иногда могу вести себя не политкорректно.
За то что поделились своим подходом, спасибо, в нашем деле это редкость, даже если подход своеобразный, собственно он и ДОЛЖЕН быть своеобразный, как иначе, если мы грабим друг друга и кукла. Тут приходится быть оригинальным и изобретательным)))
Про второй датасет что Вы выложили сказать ничего не могу увы, на 100 фичей нужно минимум 10к сэмплов для обучения и хотя бы тысяча на тест, что бы сказать что то определенное.
Вышу линейную выше приведённою модель, обученную на 50 сэмплах, вечером проверю, чисто ради эксперимента, хотя ИМХО вероятность что она даст хотя бы 51% на 14к тестовых семплах близка к нулю.
Результат выложу, если Вам угодно будет.
Обязательно выложите. Буду только рад!!! Интересны результаты.....
Пардон за легкую агрессию, на форумах и в соцсетях редко общаюсь, поэтому иногда могу вести себя не политкорректно.
За то что поделились своим подходом, спасибо, в нашем деле это редкость, даже если подход своеобразный, собственно он и ДОЛЖЕН быть своеобразный, как иначе, если мы грабим друг друга и кукла. Тут приходится быть оригинальным и изобретательным)))
Про второй датасет что Вы выложили сказать ничего не могу увы, на 100 фичей нужно минимум 10к сэмплов для обучения и хотя бы тысяча на тест, что бы сказать что то определенное. Но моя модель справится и с одной фичей и с 10к
Вышу линейную выше приведённою модель, обученную на 50 сэмплах, вечером проверю, чисто ради эксперимента, хотя ИМХО вероятность что она даст хотя бы 51% на 14к тестовых семплах близка к нулю.
Результат выложу, если Вам угодно будет.
Тут конечно немного не понятно с определениями, однако я заметил что при матрице 100 на 100, когда у нас есть 100 столбцов (входов) и 100 записей (сигналов) модель получает увеличение обобщающей способности. То есть матрица 100 Х 100 обучится лучше чем матрица 10Х100 и хуже чем матрица 100Х10, где первая цифра это количество входов, а вторая количество сигналов. То есть когда количество входов значительно превышает количество сигналов, то НС как говорится есть из чего выбрать и поэтому модель получает больший уровень обобщения. Когда же количество входов значительно меньше количества сигналов, то модель получается не ахти какой, потому как выбрать становится сложно из за появления противоричивости данных. И ещё, могу подсказать одну фишку, но это уже в личку. Фишка не особо какая, но эффект который она приносит получается значительно интересный.
такс... объясните плиз пару моментов, к примеру я беру жаба-файл, это уже обученная модель? Там четыре метода, нет ссылок на референсы и в самих методах коэффициенты захардкоженны, но они принимаю 5 фичей, а было 15, какие вы фичи использовали или как их 15->5 уменьшали размерность
И нужен ли *.vrm бинарник мне для чегото, если просто прогнать тест мне надо?