Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3559

 
mytarmailS #:



нельзя из потеряной информации востановить потеряное

покажи где терялась информация.

как заведённые попугаи: информация потерялась, про@#4лась..ГДЕ ? ткните пальцем место потерь

 
Maxim Kuznetsov #:

покажи где терялась информация.

как заведённые попугаи: информация потерялась, про@#4лась..ГДЕ ? ткните пальцем место потерь

ты больной или что??? 10 раз уже сказал, показал!!


машка фильтр ты фильтруешь все высокие частоты , те выкидываеш их безвозвратно, это же ОЧЕВИДНО!!! очнись!!


всем это очевидно 

Ivan Butko #:

У нас есть значения уже сглаженные. Мы не знаем цен, какие использовались. И надо их восстановить. 

 
Maxim Kuznetsov #:

покажи где терялась информация.

как заведённые попугаи: информация потерялась, про@#4лась..ГДЕ ? ткните пальцем место потерь

- 5 и 5, -6 и 6, -7 и 7, -8 и 8 дают среднее - 0. 

Как из нуля восстановить цены, не подсматривая в формуле в историю?

 
mytarmailS #:

машка фильтр ты фильтруешь все высокие частоты

Вот кстати да, максимальные и минимальные значения - они же в первую очередь летят в небытие

 
Maxim Kuznetsov #:

покажи где терялась информация.

Мне кажется Вы перепутали понятие восстановление с понятием обратный проход

 
Ivan Butko #:

Поправьте, но Вы в формуле по восстановлению цен используете... цены. 

Или я не вдуплил чего. 



UPD

У нас есть значения уже сглаженные. Мы не знаем цен, какие использовались. И надо их восстановить. 

цен не знаем, но знаем среднюю за N баров (N>>период SMA), которая на удивление равна средней от значений MA.

можем за цену 0 принять что угодно (например 1.0 или SMA "на перегибе"),  по инкрементам построить "подобную" кривую от 1.0 , далее её масштабировать и позиционировать.

в общем случае для SMA нужно большое кол-во баров (навскидку это период в квадрате впополам, где-то так). Но у нас не общий случай - тут строгие диапазоны и периодичность от природы. 

И при больших периодах - SMA близка к синус-взвешенным (монотонные ма-шки взаимозаменяемы) , которые опять-же фурье и обратные методы там известны

 
Ivan Butko #:

- 5 и 5, -6 и 6, -7 и 7, -8 и 8 дают среднее - 0. 

Как из нуля восстановить цены, не подсматривая в формуле в историю?

вы слегка путаете среднюю величину и скользящую среднюю.

из средней скользящей можно получать исходное, точность будет зависеть от длительности зафиксированного "скольжения"

из одномоментного среднего, усредняемое получить никак нельзя, увы :-)

 
Maxim Kuznetsov #:

цен не знаем, но знаем среднюю за N баров (N>>период SMA), которая на удивление равна средней от значений MA.

можем за цену 0 принять что угодно (например 1.0 или SMA "на перегибе"),  по инкрементам построить "подобную" кривую от 1.0 , далее её масштабировать и позиционировать.

в общем случае для SMA нужно большое кол-во баров (навскидку это период в квадрате впополам, где-то так). Но у нас не общий случай - тут строгие диапазоны и периодичность от природы. 

И при больших периодах - SMA близка к синус-взвешенным (монотонные ма-шки взаимозаменяемы) , которые опять-же фурье и обратные методы там известны

Maxim Kuznetsov #:

вы слегка путаете среднюю величину и скользящую среднюю.

из средней скользящей можно получать исходное, точность будет зависеть от длительности зафиксированного "скольжения"

из одномоментного среднего, усредняемое получить никак нельзя, увы :-)

ёмаё

 
Dominik Egert #:
Я полагаю, что основной подход к использованию модели-учителя и модели-наблюдателя - это основное различие на этапе обучения.

Использование этого подхода для создания специализированных NN для фундаментального анализа открывает новый путь для отдельных людей, которые могут фактически адаптировать LLM для конкретных задач, без необходимости обучения в течение месяцев или даже лет или аренды Datacenter для этой работы.


Сами пробовали обучать модель от MS?

 
mytarmailS #:

почему бы просто не округлить цены и получить практически то же самое только без тонны всяких терминов и непоняток

Показан простейший пример, для понимания процесса, в том числе и при обработки более сложных данных.

Цель была - показать возможность акцентировать внимание модели на разные данные с помощью квантования.

Ну, кто не понял - я не виноват :)