Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 631
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
У Вас получается на входе второго слоя сигмоидом обрабатываются три нейрона? Как подбираете веса на втором слое какой диапазон выбирается от -1 до 1 с шагом к примеру 0.1.
В моей сети после обработки вторым слоем падало количество сделок и не сильно улучшался результат. В отличии от того когда просто подгонялся перпцетрон с 9 входами и одним выходным нейроном и потом брался другой независимый перпцетрон и опять подгонялся с сохраненными настройками первого и т.д.
4-м нейроном обрабатываются результаты 1-х трех, т.е. + еще 3 веса
да, от -1 до 1 с шагом 0.1, только не сигмоид а тангенс
сейчас пробовал делать промежуточный слой с теми же весами что и первый входной - кол-во сделок упало и кач-во тоже, а оптимизировать дополнительные 9 весов это уже перебор :)
Ваш вариант звучит неплохо.. я еще думал обучить обычную НС на результатах оптимизации.. надо будет попробовать. Но мне начинает надоедать такой подход
4-м нейроном обрабатываются результаты 1-х трех, т.е. + еще 3 веса
сейчас пробовал делать промежуточный слой с теми же весами что и первый входной - кол-во сделок упало и кач-во тоже, а оптимизировать дополнительные 9 весов это уже перебор :)
Ваш вариант звучит неплохо.. я еще думал обучить обычную НС на результатах оптимизации.. надо будет попробовать. Но мне начинает надоедать такой подход
У меня сложилось впечатление, что нужно сделать индикатор по первому слою и визуально видеть, какие веса нужно применять по второму слою. Или обрабатывать сигмоидом(тогда получаются значения примерно от 0.2 до 0.9, это примерно) и тогда можно брать веса небольшие и не нужен большой их диапазон.
Плюс дополнительный вес без привязки ко входу просто вес bias, то что мне подсказал Dr.Trader. Bias несколько улучшает результат, к примеру была прибыльность 1.7 с bias стала 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
У меня сложилось впечатление, что нужно сделать индикатор по первому слою и визуально видеть, какие веса нужно применять по второму слою. Или обрабатывать сигмоидом(тогда получаются значения примерно от 0.2 до 0.9, это примерно) и тогда можно брать веса небольшие и не нужен большой их диапазон.
Плюс дополнительный вес без привязки ко входу просто вес bias, то что мне подсказал Dr.Trader. Bias несколько улучшает результат, к примеру была прибыльность 1.7 с bias стала 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
сложно что-то делать на чистом экспромте :) но основная проблема пока остается - переобучение
Ну, 5-10 нейронов переобучить это вообще не проблема.)) Кажется где-то так у Вас.
На компе был интересный экземпл. Имеется кусок речи. Генерируется шум и накладывается на эту речь. Далее обучается несложный МЛП, и мы слышим опять почти чистую речь.
Я вообще прибалдел от такого, хотя в Хайкине подобный шумодав описан как пример применения.
Ну, 5-10 нейронов переобучить это вообще не проблема.)) Кажется где-то так у Вас.
На компе был интересный экземпл. Имеется кусок речи. Генерируется шум и накладывается на эту речь. Далее обучается несложный МЛП, и мы слышим опять почти чистую речь.
Я вообще прибалдел от такого, хотя в Хайкине подобный шумодав описан как пример применения.
Какой-то трэш похоже пропустил, жаль что не успел поучаствовать
удалили моё сообщение, где я ответил ув. Тереньтьву про тесты на временных рядах и сказал что местные писатели статей всего лишь любители, так как не понимают что при accuracy 70-80%, Sharp ratio будет за 20, а у них какая то ерунда
удалили моё сообщение, где я ответил ув. Тереньтьву про тесты на временных рядах и сказал что местные писатели статей всего лишь любители, так как не понимают что при accuracy 70-80%, Sharp ratio будет за 20, а у них какая то ерунда
а, ну ладно )
я тут про реинфорсмент лернинг все интересуюсь, вот нашел интересную статью, пытаюсь вкупиться и мб к боту прикрутить
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
только у него какая-то дурь, в конце только покупать учится почему-то