Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 980

 
Maxim Dmitrievsky:

написано же - библиотека численного анализа alglib, портированная в MT5. Заюзал уже вдоль и поперек, косяков в общем-то нет, либа хорошая. Но без визуализации и более новых современных моделей. Кажется, что либа больше не развивается, на их сайте тишина.

Да, пропустил. Не жаль потраченного времени на тупиковую библиотеку?

 
Vladimir Perervenko:

Да, пропустил. Не жаль потраченного времени на тупиковую библиотеку?

если сейчас начнутся дифирамбы про Р то буду просто вынужден попросить вас продемонстрировать стейтмент за полгода минимум

 
Alexander Ivanov:

Добрый день ))


Пока вы тут занимаетесь поиском досихпор, у нас уже создали РПЭ - российский прорывной элемент.

Это "пятый элемент"  - грааль, философский камень, киноварь, система ци , достижение наших научных специалистов по алгоритмизации.

Теперь любые экономические-финансовые проекты будут оптимизировать через глубокий нейронный анализ на РПЭ.

Т.е. в будущем 1 рубль будет приравнен к  1 доллару- путем экономических прорывов.


мы дружно идем в светлое будущее!))

Где вы живёте, как к вам доехать? Тоже хочу таких грибов испробовать!

 
 

когда пытался обучить свой робот..... то в это время робот обучил меня самого :)))

хрен поймешь))

 
Alexander Ivanov:

когда пытался обучить свой робот..... то в это время робот обучил меня самого :)))

хрен поймешь))

Ну, да. Делаешь АТС - обучаешься сам. Вполне нормально.

 
Тут  засада вот в чем.  Тому хто знает чем кормить и  чему обучить нейросеть, это  не нужно.     Я вот знаю  и чему учить и какие нужны прости господи   предикторы,  шоб поперло.   Но мне триста лет не нужно их пихать в сетку, и чего то там обучать,   так как и без этого, намного проще   все отлично получается.    Правильно заточенный моск  - лучшая нейросеть.    Знакомый художник глазками усе паттерны за два вечера под коньячок понаходил :)     А тут 980 страниц и не одной путевой модели.    Хрень на хрени  хренью погоняет.  
 
Wizard2018:
Тут  засада вот в чем.  Тому хто знает чем кормить и  чему обучить нейросеть, это  не нужно.     Я вот знаю  и чему учить и какие нужны прости господи   предикторы,  шоб поперло.   Но мне триста лет не нужно их пихать в сетку, и чего то там обучать,   так как и без этого, намного проще   все отлично получается.    Правильно заточенный моск  - лучшая нейросеть.    Знакомый художник глазками усе паттерны за два вечера под коньячок понаходил :)     А тут 980 страниц и не одной путевой модели.    Хрень на хрени  хренью погоняет.  

Не важно. Свои мозги есть - этого достаточно. Главное, чтобы на какие-то мысли навело.

Другого опыта у меня нет, кроме своего.) Идея была почерпнута отсюда, и я 3 мес. разбирался, чем кормить НС. Разобрался, никаких предикторов, никакого их перебора - все сама НС делает.

 

В R-3.5.0 при обновлении пакетов производится их компиляция в байт-код. Раньше этого не было.

А что с пакетами, которые не обновляются?

Хотелось бы иметь все пакеты в байт-коде. Видел статью, в которой показано, что скорость байт-кода в разы выше.

 
СанСаныч Фоменко:

В R-3.5.0 при обновлении пакетов производится их компиляция в байт-код. Раньше этого не было.

А что с пакетами, которые не обновляются?

Хотелось бы иметь все пакеты в байт-коде. Видел статью, в которой показано, что скорость байт-кода в разы выше.

Может удалить и установить заново? И тогда они скомпилируются в байт код?

Интересно, а тот код который в интерпретаторе пишется самостоятельно - нельзя в байт код компилировать? Например оформив его пакетом.

Причина обращения: