Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1122

 
toxic:


Вероятно ув. fxsaber просто перепутал термины, но "out of sample" это тест, то есть форвард, он ДОЛЖЕН быть получен из данных РАНЬШЕ, иначе абсурд получается, по будущему предсказывает прошлое, это сделать очень просто, однако не имеет смысла.

почему, данные же независимые. Я тоже иногда так делаю тесты, не вижу разницы

 
Yuriy Asaulenko:

Не скажите. Тренд проще частями брать, чем сразу. И следить не надо.)

Тоже вариант (ненужной заботы о брокере, а он о себе уже давно побеспокоился). Но если удастся сделать нечто стОящее, он будет (скорее всего) благодарен вам многократно.

 
Maxim Dmitrievsky:

МО пока не осилил до кокнца, но потенциал виден именно в части контроля за рисками

Вы то не осилили? не смешите, тут из присутствующих и треть Вашего обьема знаний не имеют, так.. как я по верхам за годы нахватались и умничают )))

я в МО хочу все таки добиться адаптивности, или под разные фин.инструменты или под разные предикторы, но .. но читать и читать еще, материал для изучения по МО действительно громаднейший, мне бы пока с азами разобраться

 
Igor Makanu:

я в МО хочу все таки добиться адаптивности, или под разные фин.инструменты или под разные предикторы, 

Эт вряд-ли. Основные методы МО подобны обычной логике - если... то..., несколько сложнее. И дальше ни шагу в сторону.

Адаптивные безусловно возможны, но это гораздо более сложные структуры, и не думаю, что в наших условиях это реально.

 
Igor Makanu:

Вы то не осилили? не смешите, тут из присутствующих и треть Вашего обьема знаний не имеют, так.. как я по верхам за годы нахватались и умничают )))

я в МО хочу все таки добиться адаптивности, или под разные фин.инструменты или под разные предикторы, но .. но читать и читать еще, материал для изучения по МО действительно громаднейший, мне бы пока с азами разобраться

залипаю в книжки просто, иначе какая-то бредятина будет на выходе из головы :)

мат. подготовка слабая, но понимание что откуда и куда присутствует

адаптивную сам как раз делаю, что бы жрала все подряд. Либа для любых стратегий, подключается в 1 строку
 
toxic:

О нет... есть разница, очень большая разница. Форвард ТОЛЬКО после бэкварда и они конечно же они не должны пересекаются.

Кроме подглядывающих фичей, перемешка во времени сэмплов с прошлого и будущего, также одна из причин нереалистично высоких показателей в обучении ML алгоритмов, нельзя их рандомно мешать.

Честно говоря я думал это опечатка(орисовка) у него, так как иначе это очень грубая ошибка, либо очередной фэйк в стиле "гивер-тейкер" как он любит делать, чтобы заставить "мясо" думать)))

и все-таки, какая разница что форвард сзади трейна? Если выборки не пересекаются. Это просто наборы точек, никак не связанные (ну может быть связанные на небольшую глубину из-за лага предикторов)

можно у него спросить :) @fxsaber или как тут приглашение сделать
 
Maxim Dmitrievsky:
адаптивную сам как раз делаю, что бы жрала все подряд. Либа для любых стратегий, подключается в 1 строку

адаптивность это круто, но я как книжки дочитаю начну эксперименты все таки с того, что интересно чем отличаются 2 графика 2-х фин.инструментов, тот же хренфикс писал, что если не работает на каком-либо фин.инструменте ТС, то нефиг машину насиловать ищите другой фин.инструмент или работайте на синтетиках. Я проверял некоторые ТС в тестере стратегий, в большинстве своем так и есть - на какой валюте оптимизация без проблем, а на каком хоть заоптимизируйся - все равно не будет на истории положительного мат.ожидания. Вот и решил, что "это жжжжж не спроста" (С), значит можно найти эти отличия с помощью МО

 
toxic:

Никто и ничто не запрещает Вам работать с минутками\секундами и писать сэмплы каждую минуту\секунду торгуя даже долгосрок, масштабируйте параметры фильтров соответственно и будет у Вас сотни тысяч сэмплов.

Хотя если Вы сами ни экспериментируете, а ещё и черпаете «вдохновение» в предвзятых «статьях» околорыночных выскочек, эти все советы побоку, таких «фишек» сотни, а может и тысячи, тут нужно самому уметь придумывать и проверять, если этого нет то нет и смысла во всём этом.

ув. Волшебник кому то нечто подобное сказал

Внемлите, пока не поздно.

Ну что же, давайте поговорим..... Выделенно жёлтым. Я это и так делаю, только я делаю это сам. Масштабирую рынок для того чтобы не грузить НС всякой ерундой которую я могу сделать и сам.  Разница в размере обучающей выборки напрямую зависит от ёмкости нейронной сети. Вы все кто обучает на 1000 примерах и более пошли самым простым способом. Этакий выстрел из танка по воробью. То есть вы берете ёмкостью сети, количеством нейровов, слоёв и т.д. Запихивая в сеть даже то что ей не нужно в надежде что она разберётся сама и благодаря своей ёмкости она нет нет да и выдает хорошую модель. Но это ни сколько ни говорит  о качестве обучения. Я же в свою очередь стараюсь натренировать всего один нейрон, но настолько качественно что и этого достаточно. В моём случае это выстрил из снайперской винтовки. Тогда возникает резонный вопрос:

Вы можете сократить свои ИИ до одного нейрона и прогнать всё таки мои данные? Санычу конечно респект, но статистический анализ я и сам мог сделать в ратле и сети тамошние покрутить... Не интересно :-(

Ответа я так до сих пор не дождался, да и не жду уже честно.......

А по яве от помощи я бы не отказался, для того чтобы начать оптимизировать по своей супер пупер метрике осталось только передать массив из одного класса в другой и получится бомба. Но где уж мне там...... думаю через годик осилю :-(

П.С. А спор между нами так и будет продолжатся вечно, потому как это два подхода и оба имеют право быть, как инь и янь, черное-белое, мокрое-сухое, разработчики ИИ и инженера по обучению. Да да это две совершенно разные специализации в МО и если вы думаете что успешно совмещаете в себе сразу две проффессии то вы глубоко ошибаетесь.... хотя и это тоже не редкость...

 
Mihail Marchukajtes:

Ну что же, давайте поговорим..... 

Вы можете сократить свои ИИ до одного нейрона и прогнать всё таки мои данные? Санычу конечно респект, но статистический анализ я и сам мог сделать в ратле и сети тамошние покрутить... Не интересно :-(

Ответа я так до сих пор не дождался, да и не жду уже честно.......

А кто и что не дает делать так, как вы считаете нужным? Вы обучаете один нейрон, называя это ИИ, забавно конечно, но если получается, то почему бы и нет. Я, кстати тоже не большой сторонник сложных решений, но, думаю возиться с одним-двумя нейрономами вряд-ли кому интересно. Потому и энтузиастов что-то проверять не видно.

Максим, кстати, года полтора назад уже крутил нейрон Решетова, и граали у него пачками вылетали. Но что-то уже давно ушел от этого. Наверное на то есть причины.)

 
Maxim Dmitrievsky:

1 нейрон не тащит,  делал много нейронов но оптимизатор начитает захлебываться из-за кол-ва весов и облако жрет много ресурсов

после этого я сделал нейрон из нечеткой логики (нечеткого вывола), который имеет всего 2 веса, а то и один. Комбинация из этих нечетких нейронов оптимизируется уже в разы быстрее, но сильно много писанины и оптимизатор не гибкий

поэтому пошли другим путем

Понятно, что 1 не тащит и не может тащить.

Ну, они все НС как-бы и есть нечеткая логика.

Мои НС обучаются долго - около суток, в общей сложности. Думаю, это нормально. Работают быстро, даже на медленном софте (точнее, оболочке) - никаких проблем с быстродействием.

А какой другой путь?

Причина обращения: