Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1910

 
Mihail Marchukajtes:
Ну что Максим, с дулся? Подогрелся качественной моделью и теперь бабло рубишь на право и налево???? То то и оно, что все мы тут ВАЖНЫЕ когда на белом троне сидим. Я сейчас планирую формировать команду и теперь точно определился что никого из присутствующих тет не позову. Не на того напали.... :-)

не работает, очередная х-ня

но было весело

 
Maxim Dmitrievsky:

не работает, очередная х-ня

но было весело

А знаешь почему??? Давай я сейчас пойду видео запишу  и там всё объясню. Там с предисловием, а ты пожалуйста про торгуй ООС на свой выбор и выложи результат. Лады???
 
Mihail Marchukajtes:
К сожалению машки Вам не помогут увы. Вы куда пришли? Как это место называется?

Машки для обкатки.

Не раз встречал мнение, что если закономерность есть, то она легко вытаскивается любыми методами.

 
Rorschach:

Машки для обкатки.

Не раз встречал мнение, что если закономерность есть, то она легко вытаскивается любыми методами.

Согласен, но в машках её нет... И не спорьте.... Псевдо закономерность да но это на уровне случая, а на рынке главное стабильность.
 

Как и обещал. Местами с паузами и ужасный звук. Рекомендую смотреть в наушниках. С персонализированным обращением к Максиму. Возможно ты найдёшь в этом видео ответ, если конструктивно примешь критику.

Смотрим и не стесняемся :-)

Обучающий набор
Обучающий набор
  • 2020.07.23
  • www.youtube.com
Важные моменты при формировании обучающего набора, ну и несколько слов о рынке в целом.
 
Mihail Marchukajtes:

Как и обещал. Местами с паузами и ужасный звук. Рекомендую смотреть в наушниках. С персонализированным обращением к Максиму. Возможно ты найдёшь в этом видео ответ, если конструктивно примешь критику.

Смотрим и не стесняемся :-)

))))

Я лайкнул )

 
Mihail Marchukajtes:

Как и обещал. Местами с паузами и ужасный звук. Рекомендую смотреть в наушниках. С персонализированным обращением к Максиму. Возможно ты найдёшь в этом видео ответ, если конструктивно примешь критику.

Смотрим и не стесняемся :-)

На ходу сочиняешь ) 24 столбца, а не 100. Файл ты сам попросил. Ошибок там нет (объяснял). 300 с куем строк потому что дал тебе за год, чтоб твой ‘генератор’  не обкекался считать ))) Но продолжай. Я не успел досмотреть, но начало многообещающее. Позже оставлю полный отзыв. Похоже, придётся в видео формате отвечать 
 
Maxim Dmitrievsky:
Но продолжай

Ага, смотреть тебя намного интересней чем читать..


Кстати ты можешь сжимать количество признаков еще до самого економя ресурсы Vtree-та (или после)  тем же PCA практически без потерь качества.

вот пример как из 1000 переменных можно сделать 10 , вообще без потерь информации те это полный эквивалент тем 1000 признакам

# data set Х
X <- matrix(rnorm(10000) , ncol = 1000,nrow = 1000)
colnames(X) <- paste0("V" , 1:ncol(X))
head(X)

library(caret)
pcm <- preProcess( X[1:500,] , method = "pca" ,thresh = 1)
PCs <- predict(pcm , X)
head(PCs)


thresh = 1

означает что ты хочешь сохранить 100% информации

thresh = 0,7 

70% итп


=================================================

В видео ты говорил что хочешь сделать так чтобы в выборке были только уникальные значения но не знаешь как - 

просто кластеризируй   значения в выборке и удали повторяющиеся кластера

можешь кластеризировать по строкам, колонкам или вообще каждое значение

 
Maxim Dmitrievsky:
На ходу сочиняешь ) 24 столбца, а не 100. Файл ты сам попросил. Ошибок там нет (объяснял). 300 с куем строк потому что дал тебе за год, чтоб твой ‘генератор’  не обкекался считать ))) Но продолжай. Я не успел досмотреть, но начало многообещающее. Позже оставлю полный отзыв. Похоже, придётся в видео формате отвечать 
Да Максим извини, это был не твой файл обучения, но смысл посыла я думаю ясен. Ну не могут 24 столбца объяснить 2000 векторов без повторов. Это просто физически не возможно....
 
Mihail Marchukajtes:

У меня грязный файл состоит из 7700 столбиков где беру 24 лига, так что не продолжайте, а лучше смотрите сюда. Вот ваш файл

А вот мой

В чём разница???? Томить не буду. При анализе главных компонент, когда каждый столбик это своя система координат, важно что бы они могли групироватся, когда точки из разных столбиков могли бы быть отложены на одной общей для них системе координат. Интепритация простая. Чем больше вертикальных и горизонтальных векторов тем круче. У вас же это тупо равномерное пятно.

Немного разобрался, по сути углы между векторами показывают корреляцию (90гр = 0 корреляции). Я подаю лаги приращений, там никакой корреляции не будет, это как белый шум.

То что вы обходитесь 50 обучающими примерами (50 строк) удивляет, это на сколько мелкой должна быть сетка. Много примеров, нужно что бы отбросить лишние функции (в идеале до одной), которые могут описать данные.

Причина обращения: