Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2496

 
Vladimir Baskakov #:
 ... говорит о том, ...

говорит о том, что весь ваш предыдущий троллинг и хамство оборачивается для вас Реакцией и Последствиями неответов вам -- вы ничего конструктивного не привносите взамен... и никто за вас не обязан вам генерировать входы в рынок (просто потому что ничего не умеете кроме как брать нахрапом и неадекватностью)

 
JeeyCi #:

говорит о том, что весь ваш предыдущий троллинг и хамство оборачивается для вас Реакцией и Последствиями неответов вам -- вы ничего конструктивного не привносите взамен... и никто за вас не обязан вам генерировать входы в рынок (просто потому что ничего не умеете кроме как брать нахрапом, выпрашиванием и неадекватностью)

Примеры можно?
 
Vladimir Baskakov #:
Примеры можно?

и моё время выклянчить на себя не получится... вы 0 на ветке (см. предыдущие  ~ 3000 стр)

 
JeeyCi #:

и моё время выклянчить на себя не получится... вы 0 на ветке

Понятно, примеров нет
 
Vladimir Baskakov #:
Когда начнется практическое применение?
уже началось
Интеграция прогнозов нейросети в MetaTrader 5
Интеграция прогнозов нейросети в MetaTrader 5
  • www.mql5.com
⚠️  Файлы обновились 08.11.21, текущая версия 1.4        Что нового:        1. Качество прогноза по EURUSD поднялось до 63%, по BTCUSD
 
JeeyCi #:

кстати tensorflow.keras (как у Evgeny Dyuka) - то

SKLearn кажется более интересным - Интерпретация результатов машинного обучения (может, библиотека и не очень, но логика оценки приведена)

p.s.

вы не приложили...

Пожалуй соглашусь что ранжирование  признаков которые мы подаем на НС интересно, но не более того. Что мы получаем на выходе? Если принять за Аксиому (или постулат) утверждение что текущая цена в себе содержит все, то любой из подаваемых признаков важен, какое бы место он в ранжеровке не занимал, тем более что их не так уж и много и выстроить по важности я могу их и без  SKLearn. Ну или объясните если я что то упустил. Только по проще а то я с вашим следующим сообщением сидел минут 15, что бы до сути изложенного дойти)))
 
JeeyCi #:

в логику ... того, что НС используется, когда надо обойти отсутствие формулы, описывающей зависимость признака от фактора... используется взвешивание... но при этом - до и после НС действует стандартная/классическая стат. обработка ... например имея лишь PDF=F'(X)=dF(x)/dx (хотя CDF нам как бы и не надо, т.к. все выводы по анализу совокупности делаются по PDF) и имея волатильные данные -- мне прежде всего надо привести распределения к единообразию для возможности их совместного анализа - и тут взвешивание в помощь (здесь не стремлюсь к математике)... но сам анализ к НС не имеет никакого отношения, как и выводы по нему к ней (нс)... хотя такая оценка, возможно, и грубовата, но классическая стат-ка тоже несовершенна (например, использование логорифмов приращений уже само по себе вносит трендовость в выводы - чисто математический дефект)... да и любая модель имеет свои Допущения...

участники рынка НЕ ждут предсказаний, а оценивают риск и волатильность и на основе этого принимают свои торговые (и хеджевые) решения... просто в этом анализе есть 2 вариабельных фактора -- волатильность и временное окно - и НС помогает привести выборки к единообразию (но можно и GARCH использовать) для возможности их совместного анализа в рамках одной стат. модели и помогает определиться с горизонтом... в те моменты, когда нет мат. формулы, да она и не нужна (всё в этом мире меняется)... а путём взвешивания, взвешивания и ещё раз взвешивания (ради сжатия до к-л регрессии) - для приведения к возможности совместного анализа в рамках одной стат модели, и желательно, вообще без зашумления или как минимум с его минимизацией...

логику Байесовский вывод для гауссиана ведь стоит иметь ввиду ...

главное, полагаю, такую архитектуру НС выстроить, чтобы при проходе нейронных слоёв на пути к выходу не увеличивалась дисперсия... имхо (зачем её накапливать, если она и так в наличии, как есть, - риторический вопрос)... а потом уже классическая логика статистики... и даже в очень глубокой истории нет достаточного количества сэмплов для качественного анализа робастных моментов (в жизни всё случается)... наверно, и в модели-классификации  Mihail Marchukajtes  могут случиться выбросы... (надо подумать, как секвенте с ними обходиться?) 

пока что моё имхо такое ... посмотрю ещё import scipy.stats as stats

p.s.

за линк - спасибо

Меня смущает несколько следующее ваше утверждение " НС помогает привести выборки к единообразию". Это как?

Далее - " главное, полагаю, такую архитектуру НС выстроить, чтобы при проходе нейронных слоёв на пути к выходу не увеличивалась дисперсия " . У меня вопрос что вы имеете в виду, по подробнее и по конкретнее. Просто полагаю что в этом есть какой то здравый смысл который я ни как уловить не могу. К стати если вы хотите избежать распространения идей то давайте в личку, я бы то же с удовольствием поделился и услышал ваше мнение. У меня есть определенные мысли по поводу того что это не НС нам не дает достоверный результат а мы за деревьями леса не видим. Есть идеи (ну и эксперименты с кодом соответственно) как это можно объехать.

 
eccocom #:
 . Ну или объясните если я что то упустил. Только по проще а то я с вашим следующим сообщением сидел минут 15, что бы до сути изложенного дойти)))

Jason Brownlee (автор Deep Learning With Python и Statistical Methods for Machine Learning) -

- The 3 Mistakes Made By Beginners:

1. Practitioners Don’t Know Stats
2. Practitioners Study The Wrong Stats
3. Practitioners Study Stats The Wrong Way

eccocom #:
 то любой из подаваемых признаков важен, какое бы место он в ранжеровке не занимал, тем более что их не так уж и много и выстроить по важности я могу их и без  SKLearn.

в разных условиях значимость приобретают разные признаки... но если вы уверены, что сами верно отранжируете их в моментуме - то вы ИИ (не знаю с какой точностью и с какой ошибкой)...

что подавать на вход - решайте сами, тестируйте сами, не забудьте проверять сами ваши гипотезы (Student's t-test есть в классе статистики модуля scipy) ... в общем, нейронки удобный инструмент для преодоления сложностей работы с большими выборками в статистике, но они не заменяют стат. логику, а реализовывают её... включая понимание того, что выборка д.б. репрезентативная, а не с потолка (включая количество! и качество [разнородность] сэмплов)... как-то так

 
JeeyCi #:

Jason Brownlee (автор Deep Learning With Python) -

- The 3 Mistakes Made By Beginners:

1. Practitioners Don’t Know Stats
2. Practitioners Study The Wrong Stats
3. Practitioners Study Stats The Wrong Way

в разных условиях значимость приобретают разные признаки... но если вы уверены, что сами верно отранжируете их в моментуме - то вы ИИ (не знаю с какой точностью и с какой ошибкой)...

что подавать на вход - решайте сами, тестируйте сами, не забудьте проверять сами ваши гипотезы (Student's t-test есть в классе статистики модуля scipy) ... в общем, нейронки удобный инструмент для преодоления сложностей работы с большими выборками в статистике, но они не заменяют стат. логику, а реализовывают её... включая понимание того, что выборка д.б. репрезентативная, а не с потолка (включая количество! и качество [разнородность] сэмплов)... как-то так

Меня не покидает ощущение, правда субъективное, что вы больше любите писать а потом на досуге перечитывать написанное, чем обсуждать и отвечать на вопросы.
 
eccocom #:
Меня не покидает ощущение, правда субъективное, что вы больше любите писать а потом на досуге перечитывать написанное, чем обсуждать и отвечать на вопросы.

+++

в яблочко...

Причина обращения: