Обсуждение статьи "Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging" - страница 2
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Версия
работает. При каждом запуске выдает одинаковые веса сети. Сравнивал по второй сети. Выводил env$Ens[2], а потом плагином в notepad++ сравнивал.
С многопоточностью не получилось:
Ошибка в setMKLthreads(2) :не могу найти функцию "setMKLthreads"
Что за функция такая? В коде 4 и 6 статей ее нет. Как ее подключить?
ПС: Удобнее было если бы Вы сессию R со всеми функциями и исходными данными выложили.
Я же выложил котировки, все функции и исполняемые скрипты. Последовательно выполняете копируя или из статьи или из GIThub.
функцию "setMKLthreads" можно посмотреть
Забыл спросить у Вас установлен MRO 3.4.3 ?
У меня (R-3.4.3 for Windows) отсюда установлено https://cloud.r-project.org/
Просто закоментируйте строки с установкой количества потоков. С чистым R библиотека Intel MKL не идет.
Просто закоментируйте строки с установкой количества потоков. С чистым R библиотека Intel MKL не идет.
так и сделал. Для проверки дважды запускал оптимизацию, получил одинаковый результат
numFeature r nh fact Value
1 11 8 19 4 0.768
2 8 8 18 4 0.754
3 11 8 15 4 0.753
4 11 9 13 8 0.750
5 12 8 15 4 0.750
6 9 8 39 4 0.748
7 10 8 6 3 0.745
8 11 8 20 6 0.743
9 10 8 14 3 0.743
10 8 9 40 7 0.743
Чуть похуже чем у вас, но думаю это просто менее удачная комбинация ГСЧ оказалась.
С чистым R библиотека Intel MKL не идет.
Хотел скачать MKL.. Попросили зарегистрироваться, - сделал, и вывели сообщение:
Thank you for registering for Intel® Performance Libraries.
Please check your email for instructions to download your product. Note that this may take up to two business days.
За 20 минут так и не пришла ссылка на скачивание. Они серьезно про 2 дня?
так и сделал. Для проверки дважды запускал оптимизацию, получил одинаковый результат
numFeature r nh fact Value
1 11 8 19 4 0.768
2 8 8 18 4 0.754
3 11 8 15 4 0.753
4 11 9 13 8 0.750
5 12 8 15 4 0.750
6 9 8 39 4 0.748
7 10 8 6 3 0.745
8 11 8 20 6 0.743
9 10 8 14 3 0.743
10 8 9 40 7 0.743
Чуть похуже чем у вас, но думаю это просто менее удачная комбинация ГСЧ оказалась.
Я всегда применяю при использовании foreach пакет doRNG (очень стабильный ГСЧ).
Так не должно быть. При каждом новом запуске оптимизации должны получаться разные результаты!
Я сейчас запустил оптимизацию и получил
если Вы запустите оптимизацию с полученными 10 лучшими параметрами, то получите дополнительные варианты. Вот так
Можно продолжить необходимое количество раз.
Удачи
Я всегда применяю при использовании foreach пакет doRNG (очень стабильный ГСЧ).
Так не должно быть. При каждом новом запуске оптимизации должны получаться разные результаты!
Попробовал ваш вариант 2 раза запустить - получились разные результаты .
Мне кажется, что воспроизодимость/повторяемость при перезапусках даже лучше.
Попробовал ваш вариант 2 раза запустить - получились разные результаты .
Мне кажется, что воспроизодимость/повторяемость при перезапусках даже лучше.
Теперь чувствуете разницу? Просто внимательно читайте статью. Я специально подчеркнул эту особенность байесовской оптимизации.
Удачи в экспериментах