Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 176
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
1) no comments. Ахинея.
1) Ээээ… Ну Вы определитесь с отрицаниями мистер, в прошлый раз я согласился с Вами что намеренно всех вводил в заблуждение, что говорил лож, но Вы теперь отрицаете это, выходит я говорил истину? Или растолкуйте дефиниции терминов бред и ахинея. И что такое функция Ахинеи от Бреда
2) Снова повторюсь, я не говорил об одной ИНС какого либо типа, это «черный ящик» из множества элементов простых и сложных, некоторые из которые ИНС, что конкретно называть «шагами до обучения» в данном случае определить сложно и не нужно, честно говоря такой термин давно уже не слышал, обычно говорят предобработка или извлечение признаков, в общем отделять это процесс имеет смысл для маленьких систем, да и даже для маленьких не всегда, CNN например на сверточных слоях извлекает признаки учась фильтрации, это тоже обучение, да вообще даже у просто MLP каждый предыдущий слой это «шаги до обучения» для следующего, следуя Вашей терминологии. Про свойства «сети» могу только сказать что их много, Вам не повторить.
3)->1) сказать про L1 L2 loss function))))) Ничего нового про них не скажу, предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.
, предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.
Не совсем понял Вашу отсылку к Воронцову Константину Вячеслововичу.
Если мы посмотрим раздел СОФТ, то приведенный перечень говорит об убожестве этого ресурса, а точнее о советском наукообразном убожестве: куча формул, теорем и прочая, прочая и полное отсутствие инструментов для практической работы.
Вот мое первое, может быть поверхностное впечатление об этом ресурсе.
1) Ээээ… Ну Вы определитесь с отрицаниями мистер, в прошлый раз я согласился с Вами что намеренно всех вводил в заблуждение, что говорил лож, но Вы теперь отрицаете это, выходит я говорил истину? Или растолкуйте дефиниции терминов бред и ахинея. И что такое функция Ахинеи от Бреда
2) Снова повторюсь, я не говорил об одной ИНС какого либо типа, это «черный ящик» из множества элементов простых и сложных, некоторые из которые ИНС, что конкретно называть «шагами до обучения» в данном случае определить сложно и не нужно, честно говоря такой термин давно уже не слышал, обычно говорят предобработка или извлечение признаков, в общем отделять это процесс имеет смысл для маленьких систем, да и даже для маленьких не всегда, CNN например на сверточных слоях извлекает признаки учась фильтрации, это тоже обучение, да вообще даже у просто MLP каждый предыдущий слой это «шаги до обучения» для следующего, следуя Вашей терминологии. Про свойства «сети» могу только сказать что их много, Вам не повторить.
3)->1) сказать про L1 L2 loss function))))) Ничего нового про них не скажу, предлагаю начать с курса Воронцова по ML, гуглить пэйперы сразу не советую, видимо не хватит базы для того что бы понять в них что к чему, тут нужно с азов начинать.
Вы ничего нового не можете сказать, потому что цитаты из вики вставлять лень, а самому сформулировать ответ не представляется возможным.
Не совсем понял Вашу отсылку к Воронцову Константину Вячеслововичу.
Если мы посмотрим раздел СОФТ, то приведенный перечень говорит об убожестве этого ресурса, а точнее о советском наукообразном убожестве: куча формул, теорем и прочая, прочая и полное отсутствие инструментов для практической работы.
Вот мое первое, может быть поверхностное впечатление об этом ресурсе.
Подышите глубоко пол минуты... Сейчас пройдёт. Ну опозорились немного, с кем не бывает))) И правильно что не держите в себе, а сразу на грубости перешли, когда обиду сдерживают это потом здоровье портит(((
Позволяю тыкать, оскорблять меня, даже картинки вставлять с чем то противным и связывать это со мной, выпустите пар по полной! Чувствуется что рамки R^2 и L1 не дают вам покоя, нужна небольшая психотерапия
Уважаемый Константин Вячеславович ведет хороший вводный курс по машинному обучению на русском языке, я посоветовал Алексею Бурнакову посмотреть его для того чтобы начать освоение ML. Так как он почему то решил что я ему должен научить его что такое L1 и L2 норма.
На каком основании Вы называете его "уважаемый"?
Вот у меня есть все основания не уважать Вашего Воронцова.
Поясню.
Если мы посмотрим перечень его ученых степеней и званий, то такого уровня человек не может не знать про машинное обучение в R. Это тысячи функций и сотни монографий, которые не упомянуты, а упоминание обязательно) на сайте под названием "машинное обучение". Для профессора РАН, д.ф.-м.н. и прочая, прочая - это вещь не мыслимая! В советские времена, если удалось бы выяснить столь дремучее невежество, человек становился посмешищем до конца жизни и отмыться ему не удалось бы никогда.
Вот о чем идет речь.
На каком основании Вы называете его "уважаемый"?
Вот у меня есть все основания не уважать Вашего Воронцова.
Поясню.
Если мы посмотрим перечень его ученых степеней и званий, то такого уровня человек не может не знать про машинное обучение в R. Это тысячи функций и сотни монографий, которые не упомянуты, а упоминание обязательно) на сайте под названием "машинное обучение". Для профессора РАН, д.ф.-м.н. и прочая, прочая - это вещь не мыслимая! В советские времена, если удалось бы выяснить столь дремучее невежество, человек становился посмешищем до конца жизни и отмыться ему не удалось бы никогда.
Вот о чем идет речь.
Константина Вячеславовича знаю лично, не по наслышке, знаю уровень его компетенции и умение решать РЕАЛЬНЫЕ задачи, ставлю его в один ряд с Лекуном и Хинтоном, по респекту, с Вашей метрикой оценки спецов по ML не согласен. И поясню почему.
Сейчас например в широких массах популярен пайтон для ML, ИМХО такие сценарные языки как пайтон, матлаб, R и тп хороши в основном для новичков, чтобы БЫСТРО перепробовать много СТАНДАРНЫХ инструментов и сразу визуализировать результаты работы. В продакшине к сожалению практика показала что стандартные инструменты крайне редко применяются как есть, всё своё, всё модифицированное и постоянно модифицируемое и нужно чтобы быстро работало, каждый раз переписывать со сценарного языка на С++ сами наверно знаете какой это гемор((( А вот написать ряд запчастей и оболочек, виджетов чтобы работать также комфортно из своей среды, на родных плюсах почти также лаконично(для стандарных задач) как в пайтоне можно И НУЖНО, это принесет ОГРОМНЫЕ дивиденты, чем каждй раз прототипирование на пайтоне и переписывание этого на сях . Изменения а они будут всегда, вносятся быстрее почти на порядок. Поэтому я не удивлен что гуру машинного обучения может не знать R или пайтона.
PS: На счет “тысяч функций и монографий”. Ну вот например на Mql тоже написаны тысячи, возможно десятки тысяч функций, классов, программ и сколькими из них(чужого изготовления) пользуетесь Вы?(риторический вопрос)
Константина Вячеславовича знаю лично, не по наслышке, знаю уровень его компетенции и умение решать РЕАЛЬНЫЕ задачи, ставлю его в один ряд с Лукуном и Хинтоном, по респекту, с Вашей метрикой оценки спецов по ML не согласен. И поясню почему.
Сейчас например в широких массах популярен пайтон для ML, ИМХО такие сценарные языки как пайтон, матлаб, R и тп хороши в основном для новичков, чтобы БЫСТРО перепробовать много СТАНДАРНЫХ инструментов и сразу визуализировать результаты работы. В продакшине к сожалению практика показала что стандартные инструменты крайне редко применяются как есть, всё своё, всё модифицированное и постоянно модифицируемое и нужно чтобы быстро работало, каждый раз переписывать со сценарного языка на С++ сами наверно знаете какой это гемор((( А вот написать ряд запчастей и оболочек, виджетов чтобы работать также комфортно из своей среды, на родных плюсах почти также лаконично(для стандарных задач) как в пайтоне можно И НУЖНО, это принесет ОГРОМНЫЕ дивиденты, чем каждй раз прототипирование на пайтоне и переписывание этого на сях . Изменения а они будут всегда, вносятся быстрее почти на порядок. Поэтому я не удивлен что гуру машинного обучения может не знать R или пайтона.
PS: На счет “тысяч функций и монографий”. Ну вот например на Mql тоже написаны тысячи, возможно десятки тысяч функций, классов, программ и сколькими из них(чужого изготовления) пользуетесь Вы?(риторический вопрос)
Ничего Вы не поняли: гуру может не пользоваться, но ГУРУ ОБЯЗАН УПОМЯНУТЬ АНАЛОГИЧНЫЕ РАБОТЫ. А если он не упомянул, то он не гуру. Так что дело совсем не в R. Дело в принципе.
Подобную публику я хорошо знаю с советских времен. Все эти "гуру" находились в учебных институтах и занимались наукообразием, не имеющим никакого отношения к делу. И заставить их обратить свой взор к практике было абсолютно невозможно. И если в советское время подобную публику еще как-то можно было привести в чувство, то теперь это замкнутый класс людей, судя по многочисленным ссылкам. Причем этот класс вообще не имеет никакого отношения к мировой науке, к мировому тренду - они самоизолировались и что-то там пишут, пишут...
ПС.
Возьмите требования к публикуемым статьям на этом сайте: обязательная ссылка на аналоги в начале статьи.
Ребята, завязывайте это харканье желчу, если бы хоть 10% этой энергии да направить в нужное русло.... ехх, если бы смогли все объединиться и сделать что то вместе, ехх жаль что это невозможно...
Парни у меня есть как мне кажется довольно сильная идея как можно извлекать закономерности из данных, я уже давно ее вынашиваю и я уверен что если этот способ не сработает но не сработает никакой МО , но нужна помощь в реализации и даже в самих выч. мощностях
Если кто то готов присоединиться к разработке, откликнитесь ...
СанСаныч Фоменко:
Понял Вас, в этом он редиска наверна, но в остальном гуру, не прибавить не отнять.
СанСаныч Фоменко:
Все эти "гуру" находились в учебных институтах и занимались наукообразием, не имеющим никакого отношения к делу. И заставить их обратить свой взор к практике было абсолютно невозможно.А как Вам такая поделка: http://www.forecsys.ru/ru/site/projects/safran/ в 97 году? говорите к делу не имеет отношения?)))