После почти 100 теоретических высеров в рамках серии ‘Нейросети — это просто’ Дмитрий в конце-концов нашел в силы перейти к нейросетям с практическим применением в торговле.
Вы не правы, 100*$200 == $20000, отличный профит! А вы все зануды, ноете про какие-то форексы, трейдинги, стратегии... Осталось поставить эту стратегию на сигналы MQL5 и ставить пари, подпишется ли хоть один человек.
Насчет предложения — я бы расширил до того, что автор должен завести сигнал и показать результат хотя бы за месяц. В последнее время, и правда, сайт завален огромным количеством статей-пустышек. ((:
Это да, с одной стороны. С другой ты сам напиши хотя бы одну статью для понимания стоимости труда и уровня сложности... Как говорил классик, болтать - не мешки ворочать...
А толк есть от этой сложности?
Кто время вернёт потраченное на эти статьи?
Тут вроде про форекс, а не про робототехнику
А толк есть от этой сложности?
Кто время вернёт потраченное на эти статьи?
Тут вроде про форекс, а не про робототехнику
Смотря что называть толком. Если думать, что в статье автор поделиться Граалем, то наверное да, толку нет... А если расценивать статью как источник и развитие какой-то рыночной идеи, то толк может иметь право на жизнь...
Отношение к пользователям
Ясно
Только к тем, кто думает, что автор ему что-то должен...
Аферист тоже никому ничего не должен.
Но люди почему-то ведутся на него.
Если бы в статьях не было бы триггеров и откровенной мотивации по типу «...модель способна генерировать прибыль», то наздоровье. Наши проблемы.
А когда манипулируют непротестированной инфой - это не совсем наши проблемы.
Учитывая, что первого пользователя забанили за критику, я тоже закончу по добру по здорову. Можете парировать контраргументами, оставлю лучше без ответа.
...Если бы в статьях не было бы триггеров и откровенной мотивации по типу «...модель способна генерировать прибыль», то наздоровье. Наши проблемы.
А когда манипулируют непротестированной инфой - это не совсем наши проблемы...
Я под какой-то статьёй Дмитрия в коментах просил его написать статью конкретно про обучение его советников. Чтобы он взял любую свою модель из любой статьи и полностью объяснил в статье как он её учит. Вот с нуля и до результата, подробно, со всеми нюансами. На что смотреть, в какой последовательности учит, сколько раз, на каком оборудовании, что делает если не учится, на какие ошибки смотрит. Вот максимально подробно про обучение в стиле "для чайников". Но Дмитрий почему-то проигнорировал или не заметил эту просьбу и статьи такой до сих пор так и не написал. Я думаю много народу ему за это будет благодарно.
Дмитрий напиши такую статью пожалуйста.
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования
Опубликована статья Нейросети в трейдинге: Практические результаты метода TEMPO:
Продолжаем знакомство с методом TEMPO. И в данной статье мы оценим фактическую эффективность предложенных подходов на реальных исторических данных.
Метод TEMPO построен на использовании предварительно обученной языковой модели. В частности, авторы метода в своих экспериментах используют предварительно обученную GPT-2. И основная идея подхода лежит в использовании знаний модели, полученных при предварительном обучении для прогнозирования временных рядов. Здесь, конечно, стоит провести неочевидные параллели между речью и временным рядом. Ведь, по существу, наша речь — это временной ряд звуков, которые записываются с помощью букв. А различные интонации фиксируются знаками препинания.
Второй момент, большая языковая модель (Long Language Model — LLM), такая, как GPT-2, была предварительно обучена на большом наборе данных (часто на нескольких языках) и выучила большое количество различных зависимостей во временной последовательности слов, которые мы бы хотели использовать при прогнозировании временных рядов. Но последовательности букв и слов сильно отличаются от данных анализируемых временных рядов. А мы всегда говорили, что для корректности работы любой модели очень важно соблюдение распределения данных в обучающей и тестовой выборках. Тем более данных, анализируемых в процессе эксплуатации модели. И здесь надо вспомнить, что любая языковая модель не работает с привычным нам текстом в чистом виде. Сначала он проходит стадию эмбединга (кодирования), в ходе которого привычный нам текст преобразовывается в некий числовой код (скрытое состояние). С которым уже работает модель. На выходе модели генерируются вероятности последующего использования букв и знаков пунктуации. Из символов с наибольшей вероятностью формируется читаемый нами текст.
Этим свойством и воспользовались авторы метода TEMPO. В процессе обучения модели прогнозирования временных рядов они "замораживают" параметры языковой модели и оптимизируют параметры преобразования исходных данных в эмбединги, понятные используемой модели. Здесь авторы метода TEMPO предлагают комплексный подход, позволяющей предоставить модели максимум полезной информации. Вначале анализируемый временной ряд раскладывается на составляющие его компоненты: тренд, сезонность и прочее. Затем каждая компонента сегментируется и преобразовывается в эмбединги, понятные языковой модели. А чтобы направить языковую модель в нужном направлении (анализ трендов или сезонности), авторами метода разрабатывается система "мягких подсказок".
Автор: Dmitriy Gizlyk