Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2451
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
У меня внучка учит фарси и китайский. Просит еще японский, чтобы у них шпионить
Круто конечно, но не дальновидно (косяк родителей) , лучше бы языки програмирования учила, это еще и мышление развивает...
Уже сейчас переводчики работают очень неплого, через лет 10 думаю уже можно будет вжывлять чипы в мозг с многими плюшками, в том числе и с переводом всех языков мира, подключаться к мозгу уже научились, дальше только вопрос времени...
Так что учить много языков ребенку сейчас это тоже самое что мечтать стать пилотом, дальнобойщиком, таксистом итп, не замечая того что тесла уже сейчас проежжает мимо тебя на полном автопилоте... Очень скоро многих професий не станет навсегда, и об этом надо думать ..
С Питоном на ты
круто
Половина активаций нейронов на 1 класс, половина на другой. Исходя из такой примитивной логики. Если перекос, то, возможно, классы плохо сбалансированы. А крайние значения, кажется, вызывают взрыв или затухание градиента
Макс, не торопись с выводоизмыщлениями.
Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?
Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?
А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно.
Жи, ши пишется с буквой и
Есть исключения. ;)
Макс, не торопись с выводоизмыщлениями.
Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?
Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?
А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно.
Не занимайтесь ерундой. Вам правильно ответили, что на тесте надо выбирать модель. А еще лучше на кросс-валидации или валкинг-форварде.
Хотя опыт нарабатывается практикой... занимайтесь) Потом к тестам придете
Не занимайтесь ерундой. Вам правильно ответили, что на тесте надо выбирать модель. А еще лучше на кросс-валидации или валкинг-форварде.
Хотя опыт нарабатывается практикой... занимайтесь) Потом к тестам придете
на тесте?... тест - то же самое что производная от функции, может быть одной и той же кривой, касательной в одной и той же точке но к двум разным функциям.
не хочу никого обидеть из старожил в этой ветке, но элементарщину то знать бы надо за столько лет уже. а про опыт - вообще смешно, право.
.
Макс, не торопись с выводоизмыщлениями.
Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?
Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?
А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно.
Самому стало интересно по поводу весов ) Не встречал такой инфы. Знаю, что граничные значения плохо влияют на ф-ии активации и обучение, как следствие
да, на счет весов интересно. но ещё более интересно, какие значения принимают выходы сети.