Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2451

 
Алексей Тарабанов #:

У меня внучка учит фарси и китайский. Просит еще японский, чтобы у них шпионить

Круто конечно, но не дальновидно (косяк родителей) , лучше бы языки програмирования учила, это еще и мышление развивает...

Уже сейчас переводчики работают очень неплого, через лет 10 думаю уже можно будет вжывлять чипы в мозг с многими плюшками, в том числе и с переводом всех языков мира, подключаться к мозгу уже научились, дальше только вопрос времени...

Так что учить много языков ребенку сейчас это тоже самое что мечтать стать пилотом, дальнобойщиком, таксистом итп, не замечая того что тесла уже сейчас проежжает мимо тебя на полном автопилоте... Очень скоро многих професий не станет навсегда, и об этом надо думать ..

 
С Питоном на ты
 
Алексей Тарабанов #:
С Питоном на ты

круто

 
Maxim Dmitrievsky #:
Половина активаций нейронов на 1 класс, половина на другой. Исходя из такой примитивной логики. Если перекос, то, возможно, классы плохо сбалансированы. А крайние значения, кажется, вызывают взрыв или затухание градиента

Макс, не торопись с выводоизмыщлениями.

Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?

Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?

А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно. 

 
Алексей Тарабанов #:

Жи, ши пишется с буквой и

Есть исключения. ;)

 
Andrey Dik #:

Макс, не торопись с выводоизмыщлениями.

Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?

Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?

А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно. 

Не занимайтесь ерундой. Вам правильно ответили, что на тесте надо выбирать модель. А еще лучше на кросс-валидации или валкинг-форварде.

Хотя опыт нарабатывается практикой... занимайтесь) Потом к тестам придете

 
elibrarius #:

Не занимайтесь ерундой. Вам правильно ответили, что на тесте надо выбирать модель. А еще лучше на кросс-валидации или валкинг-форварде.

Хотя опыт нарабатывается практикой... занимайтесь) Потом к тестам придете

на тесте?... тест - то же самое что производная от функции, может быть одной и той же кривой, касательной в одной и той же точке но к двум разным функциям.

не хочу никого обидеть из старожил в этой ветке, но элементарщину то знать бы надо за столько лет уже. а про опыт - вообще смешно, право.

 

 

.

 
Andrey Dik #:

Макс, не торопись с выводоизмыщлениями.

Слово "возможно" в твоем сообщении говорит о том, что ты не задумывался над такой постановкой вопроса, так ведь?

Нейронная сеть вообще и MLP в частности - очень гибкая штука, и одно и тоже множество признаков можно разбить одинаково одной и той же сетью но при разных значениях весов нейронов.... Так ведь? - Вот и возникает вопрос, а какой из этих вариантов набора весов более робастный?

А со вторым, кто ответил на мой пост, больше не считаю нужным поддерживать диалог - бессмысленно. 

Самому стало интересно по поводу весов ) Не встречал такой инфы. Знаю, что граничные значения плохо влияют на ф-ии активации и обучение, как следствие 
 
Maxim Dmitrievsky #:
Самому стало интересно по поводу весов ) Не встречал такой инфы. Знаю, что граничные значения плохо влияют на ф-ии активации и обучение, как следствие 

да, на счет весов интересно. но ещё более интересно, какие значения принимают выходы сети.

Причина обращения: