Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3425

 
mytarmailS #:

Там длинная и сложная тема, по сути он копирует мозг своими алгоритмами , а нейросети єто не про мозг вообще...


суть если кратко

Человек может переносить свой опыт на новые непохожые на прошлые знания, а нейронки не могут..

***

ну вроде как через мульти таск и LLM эти вопросы пытаются решать

 
Maxim Dmitrievsky #:

ну вроде как через мульти таск и LLM эти вопросы пытаются решать

нет, это невозможно на существующих архитектурах МО и на текущем железе.. но мы уже близко..


не зря появляються квантовые компютеры и процессоры с тысячами ядер...

Теоретически уже давно все готово, отстает только железо.

 
mytarmailS #:

нет, это невозможно на существующих архитектурах МО и на текущем железе.. но мы уже близко..


не зря появляються квантовые компютеры и процессоры с тысячами ядер...

Теоретически уже давно все готово, отстает только железо.

Вот смотри реальный график и сгенереный

Таких фракалов кучу да в модель на переработку, так сказать. Потом покажу результаты.


Это двойной фракал.. на рынке могут быть до 3-х 4-х, типа вот так

 
Maxim Dmitrievsky #:

Вот смотри реальный график и сгенереный

Таких фракалов кучу да в модель на переработку, так сказать. Потом покажу результаты.


а при чем тут функция Мандельброта?

я и с рандомом такое же могу сделать

 
mytarmailS #:

а при чем тут функция Мандельброта?

я и с рандомом такое же могу сделать

она не рандомная, а самоподобная. То есть хорошо предсказывается.

#27

то есть по факту ты суешь ряд более предсказуемый, но в котором есть похожие паттерны, которые есть на форексе. То есть, вероятно, улучшаешь обобщающую способность.

Библиотеки: RL GMDH - Проверка автокорреляции с результатом. Поправьте, если ошибаюсь в рассуждениях
Библиотеки: RL GMDH - Проверка автокорреляции с результатом. Поправьте, если ошибаюсь в рассуждениях
  • 2018.11.07
  • Oleg Mironov
  • www.mql5.com
в серьезных руководствах указывается что метод бустинга деревьев дает результат на пару. Правда это сильно зависит от реализации и внутренних алгоритмов построения деревьев в приведенном выше результате в обоих методах использовали CART
 
mytarmailS #:

а при чем тут функция Мандельброта?

я и с рандомом такое же могу сделать


library(quantmod)

n <- 50000

  rnorm(n, mean = 0.01, sd = 1) |> 
    cumsum() |> 
    xts(Sys.time()+1:n) |> 
    to.minutes5() |> 
    chart_Series()


 
mytarmailS #:

Твоя не предсказывается.

 
Maxim Dmitrievsky #:

она не рандомная, а самоподобная. То есть хорошо предсказывается.

#27

А есть подтверждение что рынок соответсвует этой функции?

 
mytarmailS #:

А есть подтверждение что рынок соответсвует этой функции?

Давно этим увлекался. Есть книги:

НЕпослушные рынки. Мандельброт.

Фрактальная теория рынка форекс. Алмазов.

В общем аналогия прослеживается.

 
Maxim Dmitrievsky #:

на питоне есть дерево в либе sklearn, которая почти вся полностью конвертится в onnx

Мне не нужно просто дерево, а требуется последовательная кластеризация. Типа как вот на схеме ниже. Число кластеров на каждом уровне должно задаваться произвольно, как и  глубина дерева.

Maxim Dmitrievsky #:

и чатгпт хорошо знает питон

до сих пор не понимаю, что вас держит

Я его использую, и он иногда сильно тупит... т.е. опирается на старый синтаксис в пакетах, хотя они изменились до обучения. Видимо это из-за того, что правильных данных меньше, чем неправильных.

А так - хороший инструмент!