Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2496
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
... говорит о том, ...
говорит о том, что весь ваш предыдущий троллинг и хамство оборачивается для вас Реакцией и Последствиями неответов вам -- вы ничего конструктивного не привносите взамен... и никто за вас не обязан вам генерировать входы в рынок (просто потому что ничего не умеете кроме как брать нахрапом и неадекватностью)
говорит о том, что весь ваш предыдущий троллинг и хамство оборачивается для вас Реакцией и Последствиями неответов вам -- вы ничего конструктивного не привносите взамен... и никто за вас не обязан вам генерировать входы в рынок (просто потому что ничего не умеете кроме как брать нахрапом, выпрашиванием и неадекватностью)
Примеры можно?
и моё время выклянчить на себя не получится... вы 0 на ветке (см. предыдущие ~ 3000 стр)
и моё время выклянчить на себя не получится... вы 0 на ветке
Когда начнется практическое применение?
кстати tensorflow.keras (как у Evgeny Dyuka) - то
SKLearn кажется более интересным - Интерпретация результатов машинного обучения (может, библиотека и не очень, но логика оценки приведена)
p.s.
вы не приложили...
в логику ... того, что НС используется, когда надо обойти отсутствие формулы, описывающей зависимость признака от фактора... используется взвешивание... но при этом - до и после НС действует стандартная/классическая стат. обработка ... например имея лишь PDF=F'(X)=dF(x)/dx (хотя CDF нам как бы и не надо, т.к. все выводы по анализу совокупности делаются по PDF) и имея волатильные данные -- мне прежде всего надо привести распределения к единообразию для возможности их совместного анализа - и тут взвешивание в помощь (здесь не стремлюсь к математике)... но сам анализ к НС не имеет никакого отношения, как и выводы по нему к ней (нс)... хотя такая оценка, возможно, и грубовата, но классическая стат-ка тоже несовершенна (например, использование логорифмов приращений уже само по себе вносит трендовость в выводы - чисто математический дефект)... да и любая модель имеет свои Допущения...
участники рынка НЕ ждут предсказаний, а оценивают риск и волатильность и на основе этого принимают свои торговые (и хеджевые) решения... просто в этом анализе есть 2 вариабельных фактора -- волатильность и временное окно - и НС помогает привести выборки к единообразию (но можно и GARCH использовать) для возможности их совместного анализа в рамках одной стат. модели и помогает определиться с горизонтом... в те моменты, когда нет мат. формулы, да она и не нужна (всё в этом мире меняется)... а путём взвешивания, взвешивания и ещё раз взвешивания (ради сжатия до к-л регрессии) - для приведения к возможности совместного анализа в рамках одной стат модели, и желательно, вообще без зашумления или как минимум с его минимизацией...
логику Байесовский вывод для гауссиана ведь стоит иметь ввиду ...
главное, полагаю, такую архитектуру НС выстроить, чтобы при проходе нейронных слоёв на пути к выходу не увеличивалась дисперсия... имхо (зачем её накапливать, если она и так в наличии, как есть, - риторический вопрос)... а потом уже классическая логика статистики... и даже в очень глубокой истории нет достаточного количества сэмплов для качественного анализа робастных моментов (в жизни всё случается)... наверно, и в модели-классификации Mihail Marchukajtes могут случиться выбросы... (надо подумать, как секвенте с ними обходиться?)
пока что моё имхо такое ... посмотрю ещё import scipy.stats as stats
p.s.
за линк - спасибо
Меня смущает несколько следующее ваше утверждение " НС помогает привести выборки к единообразию". Это как?
Далее - " главное, полагаю, такую архитектуру НС выстроить, чтобы при проходе нейронных слоёв на пути к выходу не увеличивалась дисперсия " . У меня вопрос что вы имеете в виду, по подробнее и по конкретнее. Просто полагаю что в этом есть какой то здравый смысл который я ни как уловить не могу. К стати если вы хотите избежать распространения идей то давайте в личку, я бы то же с удовольствием поделился и услышал ваше мнение. У меня есть определенные мысли по поводу того что это не НС нам не дает достоверный результат а мы за деревьями леса не видим. Есть идеи (ну и эксперименты с кодом соответственно) как это можно объехать.
. Ну или объясните если я что то упустил. Только по проще а то я с вашим следующим сообщением сидел минут 15, что бы до сути изложенного дойти)))
Jason Brownlee (автор Deep Learning With Python и Statistical Methods for Machine Learning) -
- The 3 Mistakes Made By Beginners:
1. Practitioners Don’t Know Stats
2. Practitioners Study The Wrong Stats
3. Practitioners Study Stats The Wrong Way
то любой из подаваемых признаков важен, какое бы место он в ранжеровке не занимал, тем более что их не так уж и много и выстроить по важности я могу их и без SKLearn.
в разных условиях значимость приобретают разные признаки... но если вы уверены, что сами верно отранжируете их в моментуме - то вы ИИ (не знаю с какой точностью и с какой ошибкой)...
что подавать на вход - решайте сами, тестируйте сами, не забудьте проверять сами ваши гипотезы (Student's t-test есть в классе статистики модуля scipy) ... в общем, нейронки удобный инструмент для преодоления сложностей работы с большими выборками в статистике, но они не заменяют стат. логику, а реализовывают её... включая понимание того, что выборка д.б. репрезентативная, а не с потолка (включая количество! и качество [разнородность] сэмплов)... как-то так
Jason Brownlee (автор Deep Learning With Python) -
- The 3 Mistakes Made By Beginners:
1. Practitioners Don’t Know Stats
2. Practitioners Study The Wrong Stats
3. Practitioners Study Stats The Wrong Way
в разных условиях значимость приобретают разные признаки... но если вы уверены, что сами верно отранжируете их в моментуме - то вы ИИ (не знаю с какой точностью и с какой ошибкой)...
что подавать на вход - решайте сами, тестируйте сами, не забудьте проверять сами ваши гипотезы (Student's t-test есть в классе статистики модуля scipy) ... в общем, нейронки удобный инструмент для преодоления сложностей работы с большими выборками в статистике, но они не заменяют стат. логику, а реализовывают её... включая понимание того, что выборка д.б. репрезентативная, а не с потолка (включая количество! и качество [разнородность] сэмплов)... как-то так
Меня не покидает ощущение, правда субъективное, что вы больше любите писать а потом на досуге перечитывать написанное, чем обсуждать и отвечать на вопросы.
+++
в яблочко...