Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3570

 

Когда Максим обвиняет меня в использовании НЛП - первым делом я вспоминаю про НЛП, что изложено в этой книге

НЛП

До ChatGPT не интересовался языковыми моделями, и не понимал в чём претензия :)

Племяннице понадобились книги для абитуриента - полез поискать по книжным полкам... уже давно не заглядывал так то - привык к электронному варианту.

 
Aleksey Vyazmikin #:

Когда Максим обвиняет меня в использовании НЛП - первым делом я вспоминаю про НЛП, что изложено в этой книге

До ChatGPT не интересовался языковыми моделями, и не понимал в чём претензия :)

Похоже, что вы путаете neuro-linguistic programming и natural language processing. Последний еще путают с ИИ в другой теме :)

 
Maxim Dmitrievsky #:

Похоже, что вы путаете neuro-linguistic programming и natural language processing. Последний еще путают с ИИ в другой теме :)

Да я не телепат - так что вы подразумеваете под НЛП?

 
Aleksey Vyazmikin #:

Да я не телепат - так что вы подразумеваете под НЛП?

Я тоже не телепат, в каком контексте вы это спросили :)

 
Maxim Dmitrievsky #:

Я тоже не телепат, в каком контексте вы это спросили :)

На моё сообщение, что раньше я воспринимал НЛП только в одном смысле и не верно понимал отсыл от Вас к НЛП, вы выдвинули предположение, что я путаю понятия, вот я и не понял этого предположения. Допустил, что Вы именно раньше и говорили об НЛП( neuro-linguistic programming ), поэтому намекнул, что я не телепат и не могу понять, о чём всё же шла тогда речь...

 
Aleksey Vyazmikin #:

На моё сообщение, что раньше я воспринимал НЛП только в одном смысле и не верно понимал отсыл от Вас к НЛП, вы выдвинули предположение, что я путаю понятия, вот я и не понял этого предположения. Допустил, что Вы именно раньше и говорили об НЛП( neuro-linguistic programming ), поэтому намекнул, что я не телепат и не могу понять, о чём всё же шла тогда речь...

Тогда это когда? Если про вашу манеру общения, то что-то такое было, тогда первый вариант конечно.
 
Maxim Dmitrievsky #:
Тогда это когда? Если про вашу манеру общения, то что-то такое было, тогда первый вариант конечно.

Значит я верно всё понимал и правильно реагировал :)

 
Свежая и вроде бы интересная статья на тему МО и нестационарность.
 
Aleksey Nikolayev #:
Свежая и вроде бы интересная статья на тему МО и нестационарность.
Ну по сути сводится к выбору режима рынка и добавлению макропоказателей к фичам.

Нужен очень трудолюбивый человек, который перебрал бы основные макроэкономические индикаторы и нашел в них альфу :) И при этом на высоком уровне осознанности :)
 

Там интересная статья вышла про мощь бустинга. Но одноименную библиотеку пока что не нашел.

https://arxiv.org/abs/2407.02279

How to Boost Any Loss Function
How to Boost Any Loss Function
  • arxiv.org
Boosting is a highly successful ML-born optimization setting in which one is required to computationally efficiently learn arbitrarily good models based on the access to a weak learner oracle, providing classifiers performing at least slightly differently from random guessing. A key difference with gradient-based optimization is that boosting's original model does not requires access to first order information about a loss, yet the decades long history of boosting has quickly evolved it into a first order optimization setting -- sometimes even wrongfully \textit{defining} it as such. Owing to recent progress extending gradient-based optimization to use only a loss' zeroth ($0^{th}$) order information to learn, this begs the question: what loss functions can be efficiently optimized with boosting and what is the information really needed for boosting to meet the \textit{original} boosting blueprint's requirements? We provide a constructive formal answer essentially showing that...