Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2492

 
Mihail Marchukajtes #:
И в ответ я расскажу вам что это за событие, это смена знака наклона улыбки. Сейчас сижу и наблюдаю это в реале, вернее наблюдал в четверг когда крупные игроки сменили знак минус на плюс и после этого началось лютое падение. В общем зри в корень и всё получится даже без нейронных сетей, а если и им дать этот инструмент то будет просто бомба. Как счётная машинка Зингера, не устаёт и не ошибается!!!!

Зингера швейная машинка) и уставала и ошибалась) конечно в разы реже советских...

И таки девушка/женщина оказала положительное влияние на ветку) конструктив прорезался, спокойная дискуссия)

 
Mikhail Mishanin #:

Зингера швейная машинка) и уставала и ошибалась) конечно в разы реже советских...

И таки девушка/женщина оказала положительное влияние на ветку) конструктив прорезался, спокойная дискуссия)

Но пока свет в конце туннеля не виден
 
Aleksey Vyazmikin #:

Я не понимаю, неужели не нашлось скрипта для квика, который пишет данные в файл?

Почему нельзя восстановить данные по котировочной истории?

Вот именно что нужен скрипт для Квика, а это значит что нужно изучать Qpale что будет надёжней чем расчитывать всё в экселе. Нужно в квике всё посчитать и потом ТОЛЬКО транслировать нужные данные в файл, это я почему так решил потому что нужна автоматическая смена опционных контрактов на дату эспирации, что бы можно было собрать хоть какую то маломальскую статистику автоматически. В остальной скорее это всего и есть рок тредера, смотреть на улыбку руками и тот кто сделает её сбор автоматом, то будет на шаг впереди таких как Я :-(

 
Mihail Marchukajtes #:

Вот именно что нужен скрипт для Квика, а это значит что нужно изучать Qpale что будет надёжней чем расчитывать всё в экселе. Нужно в квике всё посчитать и потом ТОЛЬКО транслировать нужные данные в файл, это я почему так решил потому что нужна автоматическая смена опционных контрактов на дату эспирации, что бы можно было собрать хоть какую то маломальскую статистику автоматически. В остальной скорее это всего и есть рок тредера, смотреть на улыбку руками и тот кто сделает её сбор автоматом, то будет на шаг впереди таких как Я :-(

Qpile то зачем? он же совсем сдох, Lua тогда уж как я понимаю)

 
Mikhail Mishanin #:

Qpile то зачем? он же совсем сдох, Lua тогда уж как я понимаю)

Вы абсолютно правы коллега, но сути проблемы это не решает. Специалистов по Луа нет, кто виноват? Что делать? :-)
 
iwelimorn #:

"Ехх...Еслиб хто помох..." ©

Не подскажите каким алгоритмом можно разделить эти три класса, особенно интересует класс обозначенный голубым цветом. Эта собака разбита на две обособленные части и к сожалению я не знаю как разделить маркировку целевой, так чтобы выделить отдельно правую и левую часть. Может быть что ни будь посоветуете?


Очень на XOR похоже
 
JeeyCi #:

каких? я кроме Python ничего не знаю для МО (в c# спец. инструментов не видела, в c++ вообще всё надо писать с нуля по-хорошему), но даже в Python сориентируйте please по библиотекам, если можно?.. или какой инструментарий посоветуете?

и как часто и когда вы используете матричные исчисления, если используете, - есть ли библиотеки в природе, чтобы не писать методы вручную?

p.s.

Агрегированный профиль доли присутствия HFT заявок на лучших ценах

Почитайте документацию  TensorFlow , там все в виде конструктора... практически. Правда это черные ящики. Если интересно могу дать посмотреть код перцептрона написанный вручную, и к стати там все сплошь матричные исчисления, на них все и построено
API Documentation  |  TensorFlow Core v2.7.0
  • www.tensorflow.org
An open source machine learning library for research and production.
 
Mihail Marchukajtes #:
И вот перевести это в практику моя сейчас основная задаца и тут требуются знание макросов Эксель, надеюсь это никого не смущает???

А зачем вам макросы в Эксель? Используйте SQL с Python. Мне кажется работать в данном случае в  Эксель, это все равно что пытаться взлететь на телеге.

 
eccocom #:
Почитайте документацию  TensorFlow , там все в виде конструктора... практически. Правда это черные ящики. Если интересно могу дать посмотреть код перцептрона написанный вручную, и к стати там все сплошь матричные исчисления, на них все и построено

я вот как раз сейчас вернулась к  посту от Evgeny Dyuka и его ServerNN (почитать код) на TensorFlow

т.к. встреталась мне своего рода критика библиотек Python на хабре

В стеке sklearn, в пакетах xgboost, lightGBM были встроенные методы оценки важности фичей (feature importance) для «деревянных моделей»:

1.Gain
Эта мера показывает относительный вклад каждой фичи в модель. для расчета мы идем по каждому дереву, смотрим в каждом узле дерева какая фича приводит к разбиению узла и насколько снижаетcя неопределенность модели согласно метрике (Gini impurity, information gain).
Для каждой фичи суммируется её вклад по всем деревьям.

2.Cover
Показывает количество наблюдений для каждой фичи. Например, у вас 4 фичи, 3 дерева. Предположим, фича 1 в узлах дерева содержит 10, 5 и 2 наблюдения в деревьях 1, 2 и 3 соответственно Тогда для данной фичи важность будет равна 17 (10 + 5 + 2).

3.Frequency
Показывает, как часто данная фича встречается в узлах дерева, то есть считается суммарное количество разбиений дерева на узлы для каждой фичи в каждом дереве.

Основная проблема во всех этих подходах, что непонятно, как именно данная фича влияет на предсказание модели. Например, мы узнали, что уровень дохода важен для оценки платежеспособности клиента банка для выплаты кредита. Но как именно? Насколько сильно более высокий доход смещает предсказания модели?

тут, правда, про "деревянные модели" - я бы хотела их избегать, т.к. кушают много оперативы (а я сторонница скорости и компактности)...

- в общем, ответ на ваш вопрос - КОНЕЧНО, ИНТЕРЕСНО... да, я так и подумала, что в НейроСетях сплошные матричные исчисления (поэтому и спрашивала про них и о библиотеках для них)

p.s.

я вот только не понимаю, если те библиотеки, которые в цитате, не могут предсказать коэфициенты полинома (ответ: на сколько), то как они опишут динамическую модель? (не линейную, не регрессионную [что одно и то же]).. поэтому пока и задумалась по составлению модельки (пытаясь вспомнить диференцирование... с трудом)

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

я вот как раз сейчас вернулась к  посту от Evgeny Dyuka

т.к. встреталась мне своего рода критика библиотек Python на хабре

В стеке sklearn, в пакетах xgboost, lightGBM были встроенные методы оценки важности фичей (feature importance) для «деревянных моделей»:

  1. Gain
    Эта мера показывает относительный вклад каждой фичи в модель. для расчета мы идем по каждому дереву, смотрим в каждом узле дерева какая фича приводит к разбиению узла и насколько снижаетcя неопределенность модели согласно метрике (Gini impurity, information gain).
    Для каждой фичи суммируется её вклад по всем деревьям.
  2. Cover
    Показывает количество наблюдений для каждой фичи. Например, у вас 4 фичи, 3 дерева. Предположим, фича 1 в узлах дерева содержит 10, 5 и 2 наблюдения в деревьях 1, 2 и 3 соответственно Тогда для данной фичи важность будет равна 17 (10 + 5 + 2).
  3. Frequency
    Показывает, как часто данная фича встречается в узлах дерева, то есть считается суммарное количество разбиений дерева на узлы для каждой фичи в каждом дереве.


Основная проблема во всех этих подходах, что непонятно, как именно данная фича влияет на предсказание модели. Например, мы узнали, что уровень дохода важен для оценки платежеспособности клиента банка для выплаты кредита. Но как именно? Насколько сильно более высокий доход смещает предсказания модели?

Ну на мой вкус Python критикуют те кто не умеет его готовить. Все остальное проще делать беря не готовые решения а написать их используя библиотеки, и к стати используя например numpy вы получите скорость наверное еще большую чем С++ т.к. он написан на Фортране. Тем более сейчас Питон легко интегрируется с МТ5 так сказать в лоб, это позволяет использовать ИИ без всяких серверов с сокетами.

Причина обращения: