Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1966
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Мне можешь скинуть на почту?
только ему, остальным за бабки
переходи на питон, я дам тебе примеры, поюзаешь
не вижу смысла на форуме обсуждать, т.к. RL тема далеко не начального уровня
попробую..
попробую..
Посмотри на ютубе ролики вводные.
да, так и делаю))
да, так и делаю))
Понимание пришло бы быстрее, если бы пособие было написано без ошибок:
Слой кластеров представляет собой нейронную сеть Кохонена векторного квантования (LVQ). Слой кластеров группирует результаты работы дендритов согласно стандартному алгоритму LVQ. Напомним, что LQV реализует обучение без учителя в online режиме.
Во первых буквы в аббревиатурах перепутаны (правильно LVQ), во вторых это метод обучения С УЧИТЕЛЕМ
а метод без учителя называется VQ (vector quantizatinon), тогда скорее всего он стоит в нейроне, а не LVQ.
Важно отметить, что LQV-подсеть сохраняла память о предыдущих входных сигналах в виде памяти о последних выходах LQV-нейронов. Поэтому нейронной сети было доступно больше информации, чем непосредственно подавалось на ее вход.
это не понимаю пока. Скорее всего имеются в виду эти связи выходов подсети, которые идут обратно в нейроны. Они как раз сохраняют инфу о прошлых действиях
Т.е. память сохраняет LQV подсеть.
Понимание пришло бы быстрее, если бы пособие было написано без ошибок:
Слой кластеров представляет собой нейронную сеть Кохонена векторного квантования (LVQ). Слой кластеров группирует результаты работы дендритов согласно стандартному алгоритму LVQ. Напомним, что LQV реализует обучение без учителя в online режиме.
Во первых буквы в аббревиатурах перепутаны (правильно LVQ), во вторых это метод обучения С УЧИТЕЛЕМ
а метод без учителя называется VQ (vector quantizatinon), тогда скорее всего он стоит в нейроне, а не LVQ.
хз.. Я читал 4 раза так и не вкурил, может там учитель - подкрепление?
+ там еще голосование идет от слоев
Важно отметить, что LQV-подсеть сохраняла память о предыдущих входных сигналах в виде памяти о последних выходах LQV-нейронов. Поэтому нейронной сети было доступно больше информации, чем непосредственно подавалось на ее вход.
это не понимаю пока. Скорее всего имеются в виду эти связи выходов подсети, которые идут обратно в нейроны. Они как раз сохраняют инфу о прошлых действиях
Т.е. память сохраняет LQV подсеть.
Ну да, память в LQV в виде последних выходах LQV-нейронов , но это же как я понимаю память всего на один шаг назад..
А как же эта фантастическая аналогия с чайником и кофе ? Вот это и есть весь грааль..
Он тебе так ниче и неотписал?
Блин интересно где такому учат вообще, ето уже кибернетика по ходу, робостроение , ии...
ДатаСайнтисты это просто физруки в этом институте технологий )))
==============================================================
есть еще и динамический LVQ - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Подробности
dlvq : Входные данные должны быть нормализованы для использования DLVQ.
Обучение в DLVQ: для каждого класса вычисляется средний вектор (прототип) и сохраняется в (вновь созданном) скрытом модуле. Затем сеть используется для классификации каждого шаблона с использованием ближайшего прототипа. Если шаблон ошибочно классифицируется как класс y вместо класса x, прототип класса y перемещается от шаблона, а прототип класса x перемещается в сторону шаблона. Эта процедура повторяется итеративно до тех пор, пока не перестанут происходить изменения в классификации. Затем новые прототипы вводятся в сеть для каждого класса как новые скрытые единицы и инициализируются средним вектором неправильно классифицированных шаблонов в этом классе.
Сетевая архитектура: сеть имеет только один скрытый слой, содержащий по одной единице для каждого прототипа. Прототипы / скрытые блоки также называются векторами кодовой книги. Поскольку SNNS генерирует единицы автоматически и не требует предварительного указания их количества, процедура в SNNS называется динамическим LVQ.
Функции инициализации, обучения и обновления по умолчанию - единственные, подходящие для такого типа сети. Три параметра функции обучения определяют две скорости обучения (для случаев, правильно / неправильно классифицированных) и количество циклов, в течение которых сеть обучается перед вычислением средних векторов.
Ссылки
Кохонен, Т. (1988), Самоорганизация и ассоциативная память, Vol. 8, Springer-Verlag.
=========================================================
Блин читаю про этот LVQ , это практически тот же Кохонен (SOM) только с учителем
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.
Кто решал вопрос квантования цифрового ряда с привязкой к целевой? В моем случае это неравномерное "квантование" - процесс автоподстройки под целевую с ограничением минимума цифр в диапазоне или же самого окна в числовом выражении - пока не решил.
Эксперименты с CatBoost показывают, что квантование сильно (в некоторых случаях до 15% акураси) влияет на результат.
Кто решал вопрос квантования цифрового ряда с привязкой к целевой? В моем случае это неравномерное "квантование" - процесс автоподстройки под целевую с ограничением минимума цифр в диапазоне или же самого окна в числовом выражении - пока не решил.
Эксперименты с CatBoost показывают, что квантование сильно (в некоторых случаях до 15% акураси) влияет на результат.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
пакет для дискретизации (квантования) с учетом целевой
хз.. Я читал 4 раза так и не вкурил, может там учитель - подкрепление?
+ там еще голосование идет от слоев
Ну да, память в LQV в виде последних выходах LQV-нейронов , но это же как я понимаю память всего на один шаг назад..
А как же эта фантастическая аналогия с чайником и кофе ? Вот это и есть весь грааль..
Он тебе так ниче и неотписал?
Блин интересно где такому учат вообще, ето уже кибернетика по ходу, робостроение , ии...
ДатаСайнтисты это просто физруки в этом институте технологий )))
==============================================================
есть еще и динамический LVQ - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Подробности
dlvq : Входные данные должны быть нормализованы для использования DLVQ.
Обучение в DLVQ: для каждого класса вычисляется средний вектор (прототип) и сохраняется в (вновь созданном) скрытом модуле. Затем сеть используется для классификации каждого шаблона с использованием ближайшего прототипа. Если шаблон ошибочно классифицируется как класс y вместо класса x, прототип класса y перемещается от шаблона, а прототип класса x перемещается в сторону шаблона. Эта процедура повторяется итеративно до тех пор, пока не перестанут происходить изменения в классификации. Затем новые прототипы вводятся в сеть для каждого класса как новые скрытые единицы и инициализируются средним вектором неправильно классифицированных шаблонов в этом классе.
Сетевая архитектура: сеть имеет только один скрытый слой, содержащий по одной единице для каждого прототипа. Прототипы / скрытые блоки также называются векторами кодовой книги. Поскольку SNNS генерирует единицы автоматически и не требует предварительного указания их количества, процедура в SNNS называется динамическим LVQ.
Функции инициализации, обучения и обновления по умолчанию - единственные, подходящие для такого типа сети. Три параметра функции обучения определяют две скорости обучения (для случаев, правильно / неправильно классифицированных) и количество циклов, в течение которых сеть обучается перед вычислением средних векторов.
Ссылки
Кохонен, Т. (1988), Самоорганизация и ассоциативная память, Vol. 8, Springer-Verlag.
=========================================================
Блин читаю про этот LVQ , это практически тот же Кохонен (SOM) только с учителем
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.
У него не LVQ, а VQ
не отвечает
наверное из-за разреженных связей как-то не все нейроны не всегда активны, поэтому память может дольше храниться.. Помимо этого там есть ассоциативная память (какие наборы фичей к какому кластеру принадлежат). Кодовая книга так называемая.
ну это из теории управления все, в унивёрах учат наверное. Оригинальная статья датируется 2015 годом от каких-то китайцев. Нет доступа к ней у меня. Скорее всего эта - уже переделка.
У него не LVQ, а VQ
не отвечает
наверное из-за разреженных связей как-то не все нейроны не всегда активны, поэтому память может дольше храниться.. Помимо этого там есть ассоциативная память (какие наборы фичей к какому кластеру принадлежат). Кодовая книга так называемая.
ну это из теории управления все, в унивёрах учат наверное. Оригинальная статья датируется 2015 годом от каких-то китайцев. Нет доступа к ней у меня. Скорее всего эта - уже переделка.
Получается квантование векторов идет сперва на голых данных, а потом с учетом результата, при этом результат более точным получается. Как минимум фильтр на отрицательный результат появляется. Наборы фичей к разным кластерам, это как разделение ряда на разные стабильные участки.