Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2396

 

Макбуки рвут и мечут с новыми процессорами в задачах МО. Плохая новость в том, что CatBoost пока не поддерживает архитектуру arm, но они, вроде как, работают над этим

Conclusion

From these tests, it appears that

  • for training  MLP and  LSTM,  M1 CPU is by far much faster than all the high-end servers tested
  • for training  CNN,  M1 is only slightly slower than the high-end servers tested

Of course, these metrics can only be considered for similar neural network types and depths as used in this test.

For big trainings and intensive computing lasting for more than 20 minutes, I will still go for cloud-based solutions as they provide cards built for such long heavy load and enable sending several jobs simultaneously. But this scenario is only for some specific research representing only 10% of my work, mostly for professional usage in some specific business area.

As a machine learning engineer, for my day-to-day personal research, M1 Mac is clearly the best and the most cost-efficient option today.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
Ну что как дела соколики? Стали ли Ваши сетки разумными, аль прорыв в технологии какой совершили? Рассказывайте не томите!!!!
 

Кто нибудь знаком с таким видом обучения с учителем?

Когда в роли учителя не лейблы а сам человек,  человек тыкает мышкой на понравившейся ему образ, а АМО пытаеться отделить этот образ от всего остального и найти в истроии такие же образы с таким же результатом..


Кто то знает есть ли такое обучение и если есть как называется?

Я знаю как такое реализовать но может есть уже готовенькое?

 
Тоже возникло желание высказать мысль вслух. Мысль на тему нестационарности. Понятно как в её условиях использовать метод К-ближайших соседей. Берём последние по времени N паттернов, из которых выбирается К ближайших к формирующемуся паттерну и на их основании принимаем решение. Простота происходит из-за отсутствия, по сути, обучения. Интересно, есть ли какие-нибудь другие алгоритмы МО, легкие в использовании подобным способом? 
 
Aleksey Nikolayev:
Тоже возникло желание высказать мысль вслух. Мысль на тему нестационарности. Понятно как в её условиях использовать метод К-ближайших соседей. Берём последние по времени N паттернов, из которых выбирается К ближайших к формирующемуся паттерну и на их основании принимаем решение. Простота происходит из-за отсутствия, по сути, обучения. Интересно, есть ли какие-нибудь другие алгоритмы МО, легкие в использовании подобным способом? 

Я очень много исследовал и исследую как этим методом, так и сам метод, не знаю почему но он мне самый близкий и интуитивный..

Этот метод из семейства "без модельного прогнозирования"

В нете известен как   "прогнозирование по аналогам из пред истории"  , "метод комплексирования аналогов МГУА"  итп...

Когда то давно использовался для прогноза погоды..

По сути это обычная кластеризация, только более точная .. Разница только в том что в обычной кластеризации  центр кластера(прототип) нечто среднее между аналогами, а данном методе центр кластера это текущая цена или что там, таким образом можно точнее найти аналоги именно под текущий момент..

Я уже даже многомерные паттерны искал, даже придумал свою мини методику как форестом искать паттерны в пред истории, кароч. я очень глубоко в этой теме..

 
mytarmailS:

Я очень много исследовал и исследую как этим методом, так и сам метод, не знаю почему но он мне самый близкий и интуитивный..

Этот метод из семейства "без модельного прогнозирования"

В нете известен как   "прогнозирование по аналогам из пред истории"  , "метод комплексирования аналогов МГУА"  итп...

Когда то давно использовался для прогноза погоды..

По сути это обычная кластеризация, только более точная .. Разница только в том что в обычной кластеризации  центр кластера(прототип) нечто среднее между аналогами, а данном методе центр кластера это текущая цена или что там, таким образом можно точнее найти аналоги именно под текущий момент..

Я уже даже многомерные паттерны искал, даже придумал свою мини методику как форестом искать паттерны в пред истории, кароч. я очень глубоко в этой теме..

Метод интуитивно очевидный же, поэтому его невозможно обойти стороной. Но хочется какого-нибудь разнообразия. Например, какое-нибудь простое переучивание модели, когда добавляется один новый пример и выкидываются устаревшие. 

 

Aleksey Nikolayev:

какое-нибудь простое переучивание модели, когда добавляется один новый пример и выкидываются устаревшие. 

Ну или выбрасывание устаревших примеров тогда, когда время оказывается слишком значимым признаком в сравнении с прочими.

 
Aleksey Nikolayev:

Ну или выбрасывание устаревших примеров тогда, когда время оказывается слишком значимым признаком в сравнении с прочими.

Я не понимаю в чем разница между твоей идеей и постоянным переобучением АМО  в скользящем окне..


Берешь ты последние n образов от текущего, отсортированых по времени , делаешь прогноз на их основе,  что это должно дать? 

Ты просто тупо переобучаешься в скользящем окне как с АМО выше, в чем преимущество? 

 
mytarmailS:

Я не понимаю в чем разница между твоей идеей и постоянным переобучением АМО  в скользящем окне..


Берешь ты последние n образов от текущего, отсортированых по времени , делаешь прогноз на их основе,  что это должно дать? 

Ты просто тупо переобучаешься в скользящем окне как с АМО выше, в чем преимущество? 

Суть в том, что длина скользящего окна должна не задаваться фиксированным значением N, а определяться из максимизации его длины при условии отсутствия в нём устаревших примеров.

Это похоже на то, что называется задачей обнаружения разладки (change point detection)

 
Aleksey Nikolayev:

Суть в том, что длина скользящего окна должна не задаваться фиксированным значением N, а определяться из максимизации его длины при условии отсутствия в нём устаревших примеров.

Это похоже на то, что называется задачей обнаружения разладки (change point detection)

N  - я мел ввиду количество аналогов, а не размер окна


Но этот поход не сработает, по крайней мере с одномерными данными точно

Разве что брать очень длинные участки как образы, но тогда "проклятье размерности"

Причина обращения: