Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1526

 
Roman:

Благодарю, но я не много о другом имел ввиду. 
О схожести конечного результата, регрессии и градиентного спуска.
Регрессия находит среднюю точку между соседями, градиентный спуск находит максимально ближайшую точку.
По сути мне кажется, что алгоритмы поиска похожи в конечном результате.
Различие будет в ошибке отклонения. Вот и подумалось, что будет давать меньшую ошибку.
Мне кажется градиентный спуск более точнее будет чем регрессия.

 
Maxim Dmitrievsky:

Другого ответа я и не ожидал.

 
Roman:

Благодарю, но я не много о другом имел ввиду. 
О схожести конечного результата, регрессии и градиентного спуска.
Регрессия находит среднюю точку между соседями, градиентный спуск находит максимально ближайшую точку.
По сути мне кажется, что алгоритмы поиска похожи в конечном результате.
Различие будет в ошибке отклонения. Вот и подумалось, что будет давать меньшую ошибку?
Мне кажется градиентный спуск более точнее будет чем регрессия.

К чему я веду, к примеру есть учитель, на выходе сети нужно получить копию учителя, с минимальной ошибкой.
Вот и не могу определиться, какую модель применить с каким  алгоритмом. 

Регрессия и классификация это результат работы черного ящика. Спуск - это то что происходит внутри него. Эти вещи нельзя сравнивать между собой. Это как картинка на экране телевизора (результат) и принцип работы резистора который внутри этого телевизора.

Roman:


Вот и не могу определиться, какую модель применить с каким  алгоритмом. 

Нет смысла ни в одном из алгоритмов. Рынок это СБ (если смотреть чисто по ценам).
МО работает когда есть закономерности. Никто в этой ветке,за несколько лет, ничего не нашел стабильно зарабатывающего.
Разве что мозги потренируете))

 
elibrarius:
   

Нет смысла ни в одном из алгоритмов. Рынок это СБ (если смотреть чисто по ценам).
МО работает когда есть закономерности. Никто в этой ветке,за несколько лет, ничего не нашел стабильно зарабатывающего.
Разве что мозги потренируете))

Стабильно зарабатывать можно лишь осторожным скальпингом и строгим слежением за основными трендами - предыдущим, текущим и следующим

 
elibrarius:

Регрессия и классификация это результат работы черного ящика. Спуск - это то что происходит внутри него. Эти вещи нельзя сравнивать между собой. Это как картинка на экране телевизора (результат) и принцип работы резистора который внутри этого телевизора.

Нет смысла ни в одном из алгоритмов. Рынок это СБ (если смотреть чисто по ценам).
МО работает когда есть закономерности. Никто в этой ветке,за несколько лет, ничего не нашел стабильно зарабатывающего.
Разве что мозги потренируете))

Благодарю за пояснение.
В том то и дело, что с помощью MO я не планирую искать закономерности в чистом виде .
А пытаюсь сделать инструмент, с помощью которого эти закономерности будут выявляться )
Вот и требуется правильно выбрать тип алгоритма, чтобы скопировать учителя на выход сети, с минимальной ошибкой.
В данном случае не каких закономерностей сеть не ищет, тупо копируется учитель.

 
Roman:

Благодарю за пояснение.
В том то и дело, что с помощью MO я не планирую искать закономерности в чистом виде .
А пытаюсь сделать инструмент, с помощью которого эти закономерности будут выявляться )
Вот и требуется правильно выбрать тип алгоритма, чтобы скопировать учителя на выход сети, с минимальной ошибкой.
В данном случае не каких закономерностей сеть не ищет, тупо копируется учитель.

Прошлое (т.е. учителя) и лес и НС хорошо запомнит. Но в будущем будет 50/50
 
elibrarius:

Нет смысла ни в одном из алгоритмов. Рынок это СБ (если смотреть чисто по ценам). 

МО работает когда есть закономерности. Никто в этой ветке,за несколько лет, ничего не нашел стабильно зарабатывающего.

Пусть будет СБ.

Но, ведь и у СБ, вернее у случайного процесса, есть закономерности. Мы не раз их обсуждали в ветке "От теории к практике" - это и стационарная дисперсия, как следствие уравнения Эйнштейна-Смолуховского и возвратность в точку начала отсчета = 66% при двумерном блуждании и сходимость к распределению Гаусса суммы большого кол-ва независимых случайных величин... Да, много чего... Целая теория случайных процессов есть и на СБ можно выигрывать, кто бы что ни говорил.

Почему же МО не справляется с этой задачей? Философский, концептуальный вопрос. Я не знаю ответа на него...

 
Alexander_K:

Пусть будет СБ.

Но, ведь и у СБ, вернее у случайного процесса, есть закономерности. Мы не раз их обсуждали в ветке "От теории к практике" - это и стационарная дисперсия, как следствие уравнения Эйнштейна-Смолуховского и возвратность в точку начала отсчета = 66% при двумерном блуждании и сходимость к распределению Гаусса суммы большого кол-ва независимых случайных величин... Да, много чего... Целая теория случайных процессов есть и на СБ можно выигрывать, кто бы что ни говорил.

Почему же МО не справляется с этой задачей? Философский, концептуальный вопрос. Я не знаю ответа на него...

надо за эту осень добить тему, иначе как-то скучно будет. Много времени ушло на изучение нейросетевых приблуд, а дальше то теория применения, которая вообще никем не разработана для фин. рынков. Ее, почему-то, вообще брезгливо обходят стороной датасаентологи.

У меня есть платная подписка на всякие академические работы и исследования профессуры, но они все работают с опционами, в основном. Считают, что доказано что на споте ловить нечего.
 
Maxim Dmitrievsky:

надо за эту осень добить тему, иначе как-то скучно будет. Много времени ушло на изучение нейросетевых приблуд, а дальше то теория применения, которая вообще никем не разработана для фин. рынков. Ее, почему-то, вообще брезгливо обходят стороной датасаентологи.

Да, надо добить, конечно.

Подозреваю, что все-таки МО справляется с этой задачей. Однако, люди типа Колдуна, не торопятся прям все здесь рассказывать. И, наверное, правильно делают.

А у кого ничё не получается, думают что кругом и всюду 50/50 и опускают руки... Ну, и ладно. 

 
Alexander_K:

и возвратность в точку начала отсчета = 66% при двумерном блуждании

Конечно вернется, когда все стопы соберет )))