Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1257

 

Feature Selection using Genetic Algorithms in R


This is a post about feature selection using genetic algorithms in R, in which we will do a quick review about:

  • What are genetic algorithms?
  • GA in ML?
  • What does a solution look like?
  • GA process and its operators
  • The fitness function
  • Genetics Algorithms in R!
  • Try it yourself
  • Relating concepts
Feature Selection using Genetic Algorithms in R
Feature Selection using Genetic Algorithms in R
  • Pablo Casas
  • www.r-bloggers.com
This is a post about feature selection using genetic algorithms in R, in which we will do a quick review about: What are genetic algorithms? GA in ML? What does a solution look like? GA process and its operators The fitness function Genetics Algorithms in R! Try it yourself Relating concepts Animation source: "Flexible Muscle-Based Locomotion...
 
Yuriy Asaulenko:

Для начала берете любую БС. МО покажет ее работоспособность и потенциал развития, если они есть.) Далее, либо меняем БС, либо развиваем.

Все остается таким-же как и без МО. Голову МО не заменяет.))

Я уже показывал как у меня всё работает, предлагал свою целевую которая определяет тренды и флеты в которых можно торговать любыми импульсными и канальными стратегиями, соответственно.

 
Опять посты поудаляли...(
Дурной пример заразителен
 
elibrarius:
Опять посты поудаляли...(
Дурной пример заразителен

это "кушать" и обсуждать все равно никто здесь не будет, поэтому поудалял что бы не нарушать идиллию )

 
Максим, что за Бейесовское дерево? Какое у него отличие от обычного?
 
Maxim Dmitrievsky:

это "кушать" и обсуждать все равно никто здесь не будет, поэтому поудалял что бы не нарушать идиллию )

Ну хоть в блог себе сохраняй интересные статьи. Тут как раз мусор никто не удаляет, за которым что-то интересное сложно становится найти.
 
elibrarius:
Ну хоть в блог себе сохраняй интересные статьи. Тут как раз мусор никто не удаляет, за которым что-то интересное сложно становится найти.

Что бы понять байесовские деревья надо сначала почитать про алгоритм Метрополиса-Гастнигса, алгоритм Монте Карло над Марковскими цепями, по аналогии с деревьями будет

сам документ про BART

http://www-stat.wharton.upenn.edu/~edgeorge/Research_papers/BART%20June%2008.pdf

короче фишка в том что они не переобучаются и дают вероятностную оценку на выходе (апостериор)

 
Maxim Dmitrievsky:

Что бы понять байесовские деревья надо сначала почитать про алгоритм Метрополиса-Гастнигса, алгоритм Монте Карло над Марковскими цепями, по аналогии с деревьями будет

сам документ про BART

http://www-stat.wharton.upenn.edu/~edgeorge/Research_papers/BART%20June%2008.pdf

короче фишка в том что они не переобучаются и дают вероятностную оценку на выходе (апостериор)

куча формул ((

 
elibrarius:

куча формул ((

ну ) там есть ссылка на пакет R. Сам R не юзаю, одупляю формулы

если R юзаете то попробуйте )

 
Maxim Dmitrievsky:

ну ) там есть ссылка на пакет R. Сам R не юзаю, одупляю формулы

если R юзаете то попробуйте )

Утренняя статья осталась открытой: https://towardsdatascience.com/bayesian-additive-regression-trees-paper-summary-9da19708fa71

The most disappointing fact is that I could not find a Python implementation of this algorithm. The authors created an R package (BayesTrees) that had some obvious problems — mostly the lack of a “predict” function — and another, more widely used implementation called bartMachine was created.

If you have experience implementing this technique or know of a Python library, please leave a link in the comments!

Так что первый пакет бесполезен, т.к. не может предсказывать.
Во второй ссылке опять формулы.

Вот обычное дерево легко понять. Все простои логично. И без формул