Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1271
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Всем привет. Раз уж мы выяснили что ВСЕ здесь достаточно умные и это далеко не сарказм а констатация фактов. В область МО приходят люди не обделённые интеллектом, тогда у меня вопрос к сообществу. Кто ни будь администрировал когда ни будь UBUNTU? Я говорю именно про администрирование. Задача такова. Есть недилимый процес и в период оптимизации этот процесс запускается столько раз сколь присутствует ядер в системе тем самым осуществляя распараллеливание вычислений и т.д.
Вопрос: возможно ли принудительно заставить 2 или 4 ядра обслуживать один запущенный не делимый процесс? Ну это я так.. может кто в курсе и здешних обитателей...
Гугл работает сегодня
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
нормально я вчера опять в бесперспективную полемику вписался
Гугл работает сегодня
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
нормально я вчера опять в бесперспективную полемику вписался
Обратите внимание, на график ожидания исхода сражение, там как раз та вероятность, о которой я говорил - ситуативная, которая активирует обратную связь нейронов. Хорошо видно, как при разведке и потери юнитов с обоих сторон эта вероятность меняется - т.е. идет постоянный перерасчет баланса сил и своих ожиданий. Это явно не классический вариант RL.
Обратите внимание, на график ожидания исхода сражение, там как раз та вероятность, о которой я говорил - ситуативная, которая активирует обратную связь нейронов. Хорошо видно, как при разведке и потери юнитов с обоих сторон эта вероятность меняется - т.е. идет постоянный перерасчет баланса сил и своих ожиданий. Это явно не классический вариант RL.
значит ты настолько косноязычный, что я подумал что как раз тебе это и пытался объяснить :D
почитай про равновесие по Нэшу по ссылке также, я описал алгоритм 1 в 1 вчера, даже не читая
ты писал что никакие вероятности не оцениваются, а происходит ВЛИЯНИЕ на соперника :)) перечитай свои сообщения
это явно классичесий deep RL LOL, хватит пороть чушь когда не в теме
значит ты настолько косноязычный, что я подумал что как раз тебе это и пытался объяснить :D
почитай про равновесие по Нэшу по ссылке также, я описал алгоритм 1 в 1 вчера, даже не читая
ты писал что никакие вероятности не оцениваются, а происходит ВЛИЯНИЕ на соперника :)) перечитай свои сообщения
это явно классичесий deep RL LOL, хватит пороть чушь когда не в теме
Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий
Машинное обучение в трейдинге: теория и практика (торговля и не только)
Aleksey Vyazmikin, 2019.01.25 17:15
Я вижу несколько иначе, в игрушке условно есть математическая оценка каждой стороны, состоящая из многих факторов - число ботов и их потенциал, имущество, денежные средства, и цель противника уменьшать этот оценочный показатель таким образом, что бы сохранять свои оценочные показатели выше противника, т.е. что бы тратить меньше энергии на результат. Таким образом получается взаимовлияющая система, где понятно, что принеся в жертву юнита ты уменьшишь оценочную стоимость активов соперника на большую сумму, чем оценочная стоимость юнита, тогда это правильное решение, а если нет, то не верное. А в трейдинге у нас нет гарантий, только вероятность, а в игрушке есть математические гарантии, которые можно просчитать.
Мы не можем оказывать влияние на ситуацию, а в игре это можно, в том числе создавать самому выгодные ситуации.Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий
Машинное обучение в трейдинге: теория и практика (торговля и не только)
Aleksey Vyazmikin, 2019.01.26 00:06
Если бы у нас был создатель бота, то мы бы могли задать ему ряд вопросов и очень бы удивились ответам. Все эти RL хорошо обучаются стационарным факторам влияния на среду, но если ты играешь против другого игрока, то тут в голом виде RL не будет работать. Я глубоко не изучал это направление, может заблуждаюсь. Но тут явное взаимодействие с меняющейся средой, из поведения ботов не видно, что там есть ожидание чего либо, вообще не видно, есть контроль вероятности нанесения урона как тебе так и противнику, и тут идут просчеты просто и действуют в сторону меньшей вероятности негативного исхода, но это не та вероятность, заданная политикой в начале игры - это влияние на изменяющуюся среду.
я устал уже спорить об очевидных вещах, в статье все написано у них. Пусть каждый понимает как хочет.
Если еще немного абстракции, то будет понятно почему игра против рынка это то же самое.
И предлагаю обсуждать это хотя бы в терминах, которые используют они сами, а не в хитровыдуманных. Иначе спор ни о чем.Вот попробуйте найти аналогии для трейдинга и игры, даже с учетом той же динамики их баланса вероятностей, на который оказывают влияние обе стороны процесса. Давайте предметно рассмотрим задачу, а не будем прикрываться терминологией.
Вот попробуйте найти аналогии для трейдинга и игры, даже с учетом той же динамики их баланса вероятностей, на который оказывают влияние обе стороны процесса. Давайте предметно рассмотрим задачу, а не будем прикрываться терминологией.
последний раз пишу, больше не буду.
РЛ агенту все равно против чего он играет - рынка или другого оппонента в СК, он этого не понимает потому что это программа. Остальное это исключительно ваши "ноу хау"
не важно статический соперник или динамический, в любом случае агент будет изучать оптимальную политику
соберетесь с мыслями и все поймете. Когда-нибудь.