Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 176

 
Alexey Burnakov:
1) no comments. Ахинея.

2) ну, так речь про сокращение размерности пошла, во-первых. Это шаги ДО обучения. А про свойства самой сети не услышал..

3) ахинея же. Что-то можете сказать про L1, L2 нормы для лосс-функкции?

На Kaggle то как раз регрессия делалась с фитнесс-функцией L1 weighted. И топовые места были заняты людьми, которые конструировали фичи на прошлых ценовых данных. 

А что вы можете добавить про полученные в ТОПе метрики качества на том соревновании? Или опять треп? Ржет как правило looser...

1) Ээээ… Ну Вы определитесь с отрицаниями мистер, в прошлый раз я согласился с Вами что намеренно всех  вводил в заблуждение, что говорил лож, но Вы теперь отрицаете  это, выходит я говорил истину? Или растолкуйте дефиниции терминов бред и ахинея. И что такое функция Ахинеи от Бреда

2) Снова повторюсь, я не говорил об одной ИНС какого либо типа, это «черный ящик» из множества элементов простых и сложных, некоторые из которые ИНС, что конкретно называть «шагами до обучения» в данном случае определить сложно и не нужно, честно говоря такой термин давно уже не слышал, обычно говорят предобработка или извлечение признаков, в общем отделять это процесс имеет смысл для маленьких систем, да и даже для маленьких не всегда, CNN например на сверточных слоях извлекает признаки учась фильтрации, это тоже обучение, да вообще даже у просто MLP каждый предыдущий слой это «шаги до обучения» для следующего, следуя Вашей терминологии. Про свойства «сети» могу только сказать что их много, Вам не повторить.

3)->1) сказать про L1 L2 loss function))))) Ничего нового про них не скажу,  предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.

 
J.B:

,  предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.

Не совсем понял Вашу отсылку к Воронцову Константину Вячеслововичу.

Если мы посмотрим раздел СОФТ,  то приведенный перечень говорит об убожестве этого ресурса, а точнее о советском наукообразном убожестве: куча формул, теорем и прочая, прочая и полное отсутствие инструментов для практической работы.

Вот мое первое, может быть поверхностное впечатление об этом ресурсе.  

Ошибка
  • www.machinelearning.ru
Запрашиваемое название статьи неправильно, пусто, либо неправильно указано межъязыковое или интервики название. Возможно, в названии используются недопустимые символы.
 
J.B:

1) Ээээ… Ну Вы определитесь с отрицаниями мистер, в прошлый раз я согласился с Вами что намеренно всех  вводил в заблуждение, что говорил лож, но Вы теперь отрицаете  это, выходит я говорил истину? Или растолкуйте дефиниции терминов бред и ахинея. И что такое функция Ахинеи от Бреда

2) Снова повторюсь, я не говорил об одной ИНС какого либо типа, это «черный ящик» из множества элементов простых и сложных, некоторые из которые ИНС, что конкретно называть «шагами до обучения» в данном случае определить сложно и не нужно, честно говоря такой термин давно уже не слышал, обычно говорят предобработка или извлечение признаков, в общем отделять это процесс имеет смысл для маленьких систем, да и даже для маленьких не всегда, CNN например на сверточных слоях извлекает признаки учась фильтрации, это тоже обучение, да вообще даже у просто MLP каждый предыдущий слой это «шаги до обучения» для следующего, следуя Вашей терминологии. Про свойства «сети» могу только сказать что их много, Вам не повторить.

3)->1) сказать про L1 L2 loss function))))) Ничего нового про них не скажу,  предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.


Вы ничего нового не можете сказать, потому что цитаты из вики вставлять лень, а самому сформулировать ответ не представляется возможным.

Еще раз. Обращаясь к Kaggle winton, там задачка на регрессию приращения цены. Если даже почитать лень. Что вы можете сказать о выборе организаторами L1 лосс функции? Ее свойства? Почему для рынка применима? Как вы можете прокомментировать результаты соревнования в его топовой части?

Не надо мне кидать ссылочки на курсы. Там стандартная матчасть, которая мною давно уже используется в работе.

Гнилая отмазка реально. "Ничего нового не скажу." Ты хоть что-нибудь скажи, школяр.
 
СанСаныч Фоменко:

Не совсем понял Вашу отсылку к Воронцову Константину Вячеслововичу.

Если мы посмотрим раздел СОФТ,  то приведенный перечень говорит об убожестве этого ресурса, а точнее о советском наукообразном убожестве: куча формул, теорем и прочая, прочая и полное отсутствие инструментов для практической работы.

Вот мое первое, может быть поверхностное впечатление об этом ресурсе.  

Уважаемый Константин Вячеславович ведет хороший вводный курс по машинному обучению на русском языке, я посоветовал Алексею Бурнакову посмотреть его для того чтобы начать освоение ML. Так как он почему то решил что я ему должен научить его что такое L1 и L2 норма.
 
Alexey Burnakov:

 Ты хоть что-нибудь скажи, школяр.

Подышите глубоко пол минуты... Сейчас пройдёт. Ну опозорились немного, с кем не бывает))) И правильно что не держите в себе, а сразу на грубости перешли, когда обиду сдерживают это потом здоровье портит(((

Позволяю тыкать, оскорблять меня, даже картинки вставлять с чем то противным и связывать это со мной, выпустите пар по полной! Чувствуется что рамки R^2 и L1 не дают вам покоя, нужна небольшая психотерапия

 
J.B:
Уважаемый Константин Вячеславович ведет хороший вводный курс по машинному обучению на русском языке, я посоветовал Алексею Бурнакову посмотреть его для того чтобы начать освоение ML. Так как он почему то решил что я ему должен научить его что такое L1 и L2 норма.

На каком основании Вы называете его "уважаемый"?

Вот у меня есть все основания не уважать Вашего Воронцова.

Поясню.

Если мы посмотрим перечень его ученых степеней и званий, то такого уровня человек не может не знать про машинное обучение в R. Это тысячи функций и сотни монографий, которые не упомянуты, а упоминание обязательно) на сайте под названием "машинное обучение". Для   профессора РАН, д.ф.-м.н. и прочая, прочая - это вещь не мыслимая! В  советские времена, если удалось бы выяснить столь дремучее невежество, человек становился посмешищем до конца жизни и отмыться ему не удалось бы никогда.

Вот о чем идет речь. 

 
СанСаныч Фоменко:

На каком основании Вы называете его "уважаемый"?

Вот у меня есть все основания не уважать Вашего Воронцова.

Поясню.

Если мы посмотрим перечень его ученых степеней и званий, то такого уровня человек не может не знать про машинное обучение в R. Это тысячи функций и сотни монографий, которые не упомянуты, а упоминание обязательно) на сайте под названием "машинное обучение". Для   профессора РАН, д.ф.-м.н. и прочая, прочая - это вещь не мыслимая! В  советские времена, если удалось бы выяснить столь дремучее невежество, человек становился посмешищем до конца жизни и отмыться ему не удалось бы никогда.

Вот о чем идет речь. 

Константина Вячеславовича знаю лично, не по наслышке, знаю уровень его компетенции и умение решать РЕАЛЬНЫЕ задачи, ставлю его в один ряд с Лекуном и Хинтоном, по респекту, с Вашей метрикой оценки спецов по ML не согласен. И поясню почему.

Сейчас например в широких массах популярен пайтон для ML, ИМХО такие сценарные языки как пайтон, матлаб, R и тп хороши в основном для новичков, чтобы БЫСТРО перепробовать много СТАНДАРНЫХ инструментов и сразу визуализировать результаты работы. В продакшине к сожалению практика показала что стандартные инструменты крайне редко применяются как есть, всё своё, всё модифицированное и постоянно модифицируемое и нужно чтобы быстро работало, каждый раз переписывать со сценарного языка на С++ сами наверно знаете какой это гемор((( А вот написать ряд запчастей и оболочек, виджетов чтобы работать также комфортно из своей среды, на родных плюсах почти также лаконично(для стандарных задач) как в пайтоне можно И НУЖНО, это принесет ОГРОМНЫЕ дивиденты, чем каждй раз прототипирование на пайтоне и переписывание этого на сях . Изменения а они будут всегда, вносятся быстрее почти на порядок. Поэтому я не удивлен что гуру машинного обучения может не знать R или пайтона.

 

PS: На счет “тысяч функций и монографий”. Ну вот например на Mql тоже написаны тысячи, возможно десятки тысяч функций, классов, программ и сколькими из них(чужого изготовления) пользуетесь Вы?(риторический вопрос)

 
J.B:

Константина Вячеславовича знаю лично, не по наслышке, знаю уровень его компетенции и умение решать РЕАЛЬНЫЕ задачи, ставлю его в один ряд с Лукуном и Хинтоном, по респекту, с Вашей метрикой оценки спецов по ML не согласен. И поясню почему.

Сейчас например в широких массах популярен пайтон для ML, ИМХО такие сценарные языки как пайтон, матлаб, R и тп хороши в основном для новичков, чтобы БЫСТРО перепробовать много СТАНДАРНЫХ инструментов и сразу визуализировать результаты работы. В продакшине к сожалению практика показала что стандартные инструменты крайне редко применяются как есть, всё своё, всё модифицированное и постоянно модифицируемое и нужно чтобы быстро работало, каждый раз переписывать со сценарного языка на С++ сами наверно знаете какой это гемор((( А вот написать ряд запчастей и оболочек, виджетов чтобы работать также комфортно из своей среды, на родных плюсах почти также лаконично(для стандарных задач) как в пайтоне можно И НУЖНО, это принесет ОГРОМНЫЕ дивиденты, чем каждй раз прототипирование на пайтоне и переписывание этого на сях . Изменения а они будут всегда, вносятся быстрее почти на порядок. Поэтому я не удивлен что гуру машинного обучения может не знать R или пайтона.

 

PS: На счет “тысяч функций и монографий”. Ну вот например на Mql тоже написаны тысячи, возможно десятки тысяч функций, классов, программ и сколькими из них(чужого изготовления) пользуетесь Вы?(риторический вопрос)

Ничего Вы не поняли: гуру может не пользоваться, но ГУРУ ОБЯЗАН УПОМЯНУТЬ АНАЛОГИЧНЫЕ РАБОТЫ. А если он не упомянул, то он не гуру. Так что дело совсем не в R. Дело в принципе.

Подобную публику я хорошо знаю с советских времен. Все эти "гуру" находились в учебных институтах и занимались наукообразием, не имеющим никакого отношения к делу. И заставить их обратить свой взор к практике было абсолютно невозможно. И если в советское время подобную публику еще как-то можно было привести в чувство, то теперь это замкнутый класс людей, судя по многочисленным ссылкам. Причем этот класс вообще не имеет никакого отношения к мировой науке, к мировому тренду - они самоизолировались и что-то там пишут, пишут...

 

ПС.

Возьмите требования к публикуемым статьям на этом сайте: обязательная ссылка на аналоги в начале статьи.  

 

Ребята, завязывайте это харканье желчу, если бы хоть 10% этой энергии да направить в нужное русло....   ехх, если бы смогли все объединиться и сделать что то вместе, ехх жаль что это невозможно...

 

Парни у меня есть как мне кажется довольно сильная идея как можно извлекать  закономерности  из данных, я уже давно ее вынашиваю и я уверен что если этот способ не сработает но не сработает никакой МО , но  нужна помощь в реализации и даже в самих выч. мощностях

 Если кто то готов присоединиться к разработке, откликнитесь ...

 

СанСаныч Фоменко:

 

гуру может не пользоваться, но ГУРУ ОБЯЗАН УПОМЯНУТЬ АНАЛОГИЧНЫЕ РАБОТЫ. А если он не упомянул, то он не гуру. 

Понял Вас, в этом он редиска наверна, но в остальном гуру, не прибавить не отнять. 

СанСаныч Фоменко:

Все эти "гуру" находились в учебных институтах и занимались наукообразием, не имеющим никакого отношения к делу. И заставить их обратить свой взор к практике было абсолютно невозможно.

 А как Вам такая поделка: http://www.forecsys.ru/ru/site/projects/safran/ в 97 году? говорите к делу не имеет отношения?)))