Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 371
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Я так и не понял - обратная корреляция или корреляции нет?
Или, по твоему, если у двух случайных рядов коэффициент корреляции равен -1, то у них "нет корреляции"?
Ёклмн.....
аа... ну так бы сразу )) ну понял короче ага...
1. никто и не анализирует корреляцию - речь идет о выборе предикторов.
2. ты своими словами повторил мою мысль тремя страницами ранее - "Зависимость - частный случай корреляции. Если две переменные зависят, то корреляция точно есть. Если корреляция есть, то не обязательно есть зависимость.".
3. кросс-энтропия точно так же как корреляция не даст ответ по наличию функциональной зависимости
1) Сначала сам за корреляцию вещаешь, потом посты удаляешь, потом не помнишь о чём писал пару страниц назад.
Дмитрий:
Все МО основано на том, что входящие переменные должны коррелировать с выходной переменной.
2) нет, я сказал что зависимость может быть даже там где нет корреляции.
3) Кросс-энтропия. Можно оценивать сразу большой набор предикторов по отношению к цели. Когда каждый из предикторов не способен её предсказать, но определённая их комбинация - способна. Для форекса к сожалению не граально, но в целом для машинного обучения отбор предикторов через кросс-энтропию на порядки качественней чем отбор через корреляцию.
2) нет, я сказал что зависимость может быть даже там где нет корреляции.
Не может быть зависимости там, где нет корреляции. Корреляция может быть линейной или нелинейной, но она будет, если есть зависимость.
Может быть корреляция при отсутствии зависимости - ложная корреляция.
Ни один пост в этой ветке я не удалял.
Не могу (уж не знаю почему) скачать книгу, чтобы привести подтверждение.
У кого есть такая возможность, скачайте и разместите здесь картинку с примером, чтобы прекратить пустые перепалки.
Бендат Дж., Пирсол А.
Прикладной анализ случайных данных: Пер. с англ. - М.: Мир, 1989.
на стр. 126
ПРИМЕР 5.4. НЕКОРРЕЛИРОВАННЫЕ ЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.
.
зы
пример очень говорящий.
Два одинаково коррелированных предиктора - что выбрасываем на основании более низкой корреляции? Какой из них менее коррелирован?
Дмитрий, Вы уж простите, но подозреваю Вы или меня троллить пытаетесь, или юродствуете, или просто тупой, при всем уважении... Разве не видно на тривиальном примере, что два признака оба имеют нулевую корреляцию с таргетом, НО при этом оба являются существенными, ни один нельзя выкинуть, линейная зависимость нулевая, не линейная 100%, то есть корреляция может быть нулевой а датасет полностью прогнозируемый, что Ваше утверждение:
Дмитрий:
Все МО основано на том, что входящие переменные должны коррелировать с выходной переменной.
Иначе нет смысла ВО ВСЕХ моделях МО.
полностью опровергает.
Не может быть зависимости там, где нет корреляции. Корреляция может быть линейной или нелинейной, но она будет, если есть зависимость.
Не могу (уж не знаю почему) скачать книгу, чтобы привести подтверждение.
У кого есть такая возможность, скачайте и разместите здесь картинку с примером, чтобы прекратить пустые перепалки.
Бендат Дж., Пирсол А.
Прикладной анализ случайных данных: Пер. с англ. - М.: Мир, 1989.
на стр. 126
ПРИМЕР 5.4. НЕКОРРЕЛИРОВАННЫЕ ЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.
.
зы
пример очень говорящий.
http://sci.alnam.ru/book_dsp.php
только там нет картинки на стр 126
Че вы ту все вцепились в корреляцию!
В машинном обучении имеется понятие "важность - importance" переменных, которое вообще не имеет никакого отношения к корреляции. Вычисление очень часто встроено в сам алгоритм машинного обучения.
Например, в случайном лесе.
Из всего подмножества предикторов, может быть несколько сотен, выбирается несколько штук и смотрится по внутреннему алгоритму предсказывают ли значения этих предикторов конкретное значение класса. Либо принимается,либо отбрасывается.
В конце просматривают все узлы дерева и смотрят сколько раз использовался предиктор в каждом узле дерева - получается важность предикторов.
Все пытаюсь сбить коллектив на обсуждение уже существующих в этой области разработок, которые гораздо содержательнее чем упражнения в корреляции.
Че вы ту все вцепились в корреляцию!
В машинном обучении имеется понятие "важность - importance" переменных, которое вообще не имеет никакого отношения к корреляции. Вычисление очень часто встроено в сам алгоритм машинного обучения.
Например, в случайном лесе.
Из всего подмножества предикторов, может быть несколько сотен, выбирается несколько штук и смотрится по внутреннему алгоритму предсказывают ли значения этих предикторов конкретное значение класса. Либо принимается,либо отбрасывается.
В конце просматривают все узлы дерева и смотрят сколько раз использовался предиктор в каждом узле дерева - получается важность предикторов.
Все пытаюсь сбить коллектив на обсуждение уже существующих в этой области разработок, которые гораздо содержательнее чем упражнения в корреляции.
а в алглиб тоже темный лес есть, кстати.. можно использовать, не выходя из мт5