Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 500

 
Maxim Dmitrievsky:

Сорри, но вы не доказали свою значимость пока что ни в одном из моих вопросов, по крайней мере я этого не увидел

а писать в стиле капитана очевидность ни к чему и переворачивать все с ног на голову что бы опять показаться чуточку важным


Ты путаешься в базовых понятиях. Учись - это надо тебе, для твоей же пользы.  Учись, вместо того чтобы огрызаться...


зы

И мне нет никакой нужды доказывать тебе что бы то ни было.

 
Олег avtomat:

Ты путаешься в базовых понятиях. Учись - это надо тебе, для твоей же пользы.  Учись, вместо того чтобы огрызаться...


зы

И мне нет никакой нужды доказывать тебе что бы то ни было.


очередной выс.. вместо того что бы ответить на простой вопрос - способны ли леса экстраполировать или нет :D 

я привел доходчивый пример: нет. Со мной начали спорить но никто не смог объяснить, а теперь оказывается я вообще должен пойти читать книжки, потому что никто нихера не знает :)

я то учусь и сделал выводы для себя, мне больше не надо.. это был очень простой вопрос для тех кто шарит в МО, но оказалось что никто не шарит

И конечно же все тупые, особенно на хабре и все кто пишут статьи, а также видимо и Лео Брейман тоже тупой

 
Maxim Dmitrievsky:

очередной выс.. вместо того что бы ответить на простой вопрос - способны ли леса экстраполировать или нет :D 

я привел доходчивый пример: нет. Со мной начали спорить но никто не смог объяснить, а теперь оказывается я вообще должен пойти читать книжки, потому что никто нихера не знает :)

я то учусь и сделал выводы для себя, мне больше не надо.. это был очень простой вопрос для тех кто шарит в МО, но оказалось что никто не шарит


Если ты так ставишь вопрос, то этим ты уже демонстрируешь уровень своего понимания и осознания.

 
Олег avtomat:

Если ты так ставишь вопрос, то этим ты уже демонстрируешь уровень своего понимания и осознания.


все, досвидания )

 
Maxim Dmitrievsky:

все, досвидания )


Будь здоров.   Учись.

 
Dr. Trader:

Почти правильно, ещё есть сдвиг (bias) который дополнительно суммируется с результатом

Скорее всего значения y1, y2, y3 используются в внутреннем слое нейронки, и эти значения сами тоже нужно использовать как входные значения для следующего слоя

Или если Y1,Y2,Y3 это выходые знаечния, то несколько нейронов на выходе используют при классификации - например если самое большое значение среди Y1,Y2,Y3 будет Y1 то результат "класс 1", если самое большое значение будет Y2 то результат "класс 2", если самое большое значение будет Y3 то результат "класс 3". Если нейронка будет использоваться для регрессии вместо классификации то выходной нейрон будет всего один. Если класса всего два то можно обойтись одним выходным нейроном (если результат <0.5 то класс1, если >=0.5 то класс2).

Сигмоиду для активационной функции нейрона добавить очень просто, нужна такая функция - 

И с ней уже получится полноценная нейронка с внутренним слоем (с тремя перцептронами) и одним выходным перцептроном.

результат = perceptron4[0]


Спасибо за ответ! Весьма познавательно для меня.

Сдвиг(bias) я так понимаю это нейрон смещения? В описании пишется, что помогает, когда вход бывает ноль. Как на Ваш взгляд, для чего используют нейрон смещения и какие для него подбирать веса? По сути это же просто вес.

Как лучше проверять пороговую величину после преобразования сигмоидой или после?

 
Dr. Trader:

Число весов в нейронке может быть и десятки тысяч, и больше. В mql и в R есть специальные бибилотеки для создания и обучения нейронок, лучше работать через них, а не программировать свою нейронку с нуля.


Имел ввиду, что например в mql4 одновременно получалось оптимизировать до 15 параметров, в mql5 побольше.

И получается, что подгоняется одни слой, потом второй с оптимизированным первым слоем и т.д. А вот хорошо бы было сразу все слои, но вычислительные мощности не дадут.

Есть у меня предположение, что когда поочередно оптимизируются слои, то в таком случае какой-нибудь патерн система уже не видит.

Даже, если один слой проптить, то следующие слои будут основываться на предположениях первого слоя.

 
Maxim Dmitrievsky:

очередной выс.. вместо того что бы ответить на простой вопрос - способны ли леса экстраполировать или нет :D 


очередной выс.. вместо того что бы ответить на простой вопрос - способны ли леса экстраполировать или нет :D

А можно еще задать вопрос: случайные леса сладкие или соленые? вообще можно задать кучу идиотских вопросов и даже подобрать ссылки в интернете.


Можно было бы не отвечать, если бы еще у нескольких форумян, имеющих систематическое образование,  не было бы каши по этому вопросу.


Случайные леса НЕ МОГУТ экстраполировать, так как слово ЭКСТРАПОЛЯЦИЯ к ним вообще не применимо. Случайные леса, как и другие модели машинного обучения, могут предсказывать будущие значения, но это НЕ ЭКСТРАПОЛЯЦИЯ, более того термин ЭКСТРАПОЛЯЦИЯ вообще не применим в статистике.


И вот почему.

Изначально, термин ЭКСТРАПОЛЯЦИЯ к функциям, обычным функциям, которые имеют формулу.

Например.

у = а+ bх

 По этой формуле можно посчитать значения функции внутри первоначальной области определения (интерполяция) и вне - экстраполяция.


Таких формул в статистике не бывает. от слова ВООБЩЕ.

И весь этот сыр бор с "может ли случайный лес экстраполировать" связан именно с этим, потому. что в статистике аналог выглядит как:

у ~ а + bх

Чтобы отличить линейную функцию от линейной регрессии используется тильда  вместо равенства.

Это различие фиксирует тот факт, что, "а" в линейном уравнении - это не "а" в линейной регрессии, о чем говорит тильда. То же относится и к "b".

Если в первом уравнении "а" - это константа, то во втором уравнении "а" - это математическое ожидание, которое сопровождается значением дисперсии и оценкой с вероятностью нулевой гипотезы, что то значение "а", которое мы видим не существует. Если вероятность этого НЕ существования более 10%, то значение "а" можно не принимать во внимание.


А теперь к Вашему вопросу:

- Можно ли экстраполировать по уравнению регрессии?  

- нет нельзя. Но можно предсказать будущее значение случайной величины, которая примет значение внутри доверительного интервала. Если этот доверительный интервал 95% (вероятность по нулевой гипотезе 5%), то мы получим "у" внутри этого доверительного интервала. А если Вы получили оценку для "а" с дисперсией кратно превышающее это значение, то вообще ничего предсказать нельзя.


Надеюсь, чт о подробно объяснил, что Ваш вопрос, имеющий смысл при наличии функций, вообще не имеет смысла в статистике.

 
СанСаныч Фоменко:


А теперь к Вашему вопросу:

- Можно ли экстраполировать по уравнению регрессии?  

- нет нельзя. Но можно предсказать будущее значение случайной величины, которая примет значение внутри доверительного интервала. Если этот доверительный интервал 95% (вероятность по нулевой гипотезе 5%), то мы получим "у" внутри этого доверительного интервала. А если Вы получили оценку для "а" с дисперсией кратно превышающее это значение, то вообще ничего предсказать нельзя.


А теперь, внимание, такого вопроса не было... )

Был вопрос, как, например, подметил 

Dr. Trader:

Экстраполяция подразумевает предсказание новых данных за пределами значений предикторов известных при обучении. 

Я добавлю что не предикторов, а целевых, потому что если предикторов то имеем дело с интерполяцией а не экстраполяцией.

Так вот, случайный лес умеет интерполировать (для этого даже не нужно нормализовать входы) но не умеет экстраполировать.

В статистике — распространение установленных в прошлом тенденций на будущий период (экстраполяция во времени применяется для перспективных расчетов населения); распространение выборочных данных на другую часть совокупности, не подвергнутую наблюдению (экстраполяция в пространстве).

Если вы возьмете регрессионное дерево, она не сможет распространить полученные результаты на НОВЫЕ данные, например на котировки выше 1.4500, и всегда будет выдавать прогноз 1.4500 но никогда не больше, и никогда не меньше чем 1.3000,  потому что оно обучалось на выборке 1.3000-14500, например (в качестве целевых) и это исходит из принципа построения деревьев решений

В отличие от деревьев, линейная регрессия и нейросеть легко с этим справляются, потому что строятся по другим принципам

Еще раз: на входы на новой выборке РФ можно подавать новые данные вне обучающего интервала и он их отлично интерполирует. Но на выходе он не экстраполирует, т.е. предсказанные значения никогда не выйдут за рамки интервала выходов, на которых он обучался.

 
Maxim Dmitrievsky:

А теперь, внимание, такого вопроса не было... )

Был вопрос, как, например, подметил 

Dr. Trader:

Экстраполяция подразумевает предсказание новых данных за пределами значений предикторов известных при обучении. 

Я добавлю что не предикторов, а целевых, потому что если предикторов то имеем дело с интерполяцией а не экстраполяцией.

Так вот, случайный лес умеет интерполировать (для этого даже не нужно нормализовать входы) но не умеет экстраполировать.

В статистике — распространение установленных в прошлом тенденций на будущий период (экстраполяция во времени применяется для перспективных расчетов населения); распространение выборочных данных на другую часть совокупности, не подвергнутую наблюдению (экстраполяция в пространстве).

Если вы возьмете регрессионное дерево, она не сможет распространить полученные результаты на НОВЫЕ данные, например на котировки выше 1.4500, и всегда будет выдавать прогноз 1.4500 но никогда не больше, и никогда не меньше чем 1.3000,  потому что оно обучалось на выборке 1.3000-14500, например (в качестве целевых) и это исходит из принципа построения деревьев решений

В отличие от деревьев, линейная регрессия и нейросеть легко с этим справляются, потому что строятся по другим принципам

Еще раз: на входы на новой выборке РФ можно подавать новые данные вне обучающего интервала и он их отлично интерполирует. Но на выходе он не экстраполирует, т.е. предсказанные значения никогда не выйдут за рамки интервала выходов, на которых он обучался.


Вы ничего не поняли из моего поста. Вообще ничего.


А ветку жаль из-за Вашего присутствия.

Причина обращения: