Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!
Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!
Только откройте для этого отдельную ветку - в этой слишком много ненужного баласта
Там коментарии по коду, думаю можно разобраться хотя местами коментарии могут не соответствовать.
Причесывать не хочу так как буду его сильно переписывать, в целях дальнейшего развития.
Минимально слоев в сетях 2. В последнем слое один нейрон. Максимально слоев практически неограниченно в коде видно где это задается, но с увеличением слоев катастрофически падает скорость обучения. Вплоть до ощущения что оно вообще не учится. Больше двух слоев врядли стоит брать По крайней мере между 2 и 4 слоями я разницы не увидел в качестве.
Конфигурация там сейчас пять сетей независимых с разным входными данными (индюки+цены).
Сети полносвязные, обучение обратное распростронение ошибки.
В паре мест есть хитрый код Если что спрашивайте, но на сильно глупые вопросы по коду отвечать буду тока
если мне совсем нечего делать будет :)
Если кому интересно куда я дальше буду это развивать.
Более умная подготовка данных, увеличение выходов сетей, в общем в сторону классификации больше нежели
предсказания курса.
2Kazeev "И почему во втором слое должен быть один нейрон а в первом четыре." количество нейронов в выходном слое далеко не так очевидно, что бы говорить, что должен быть тока один :)
2Kazeev "И почему во втором слое должен быть один нейрон а в первом четыре." количество нейронов в выходном слое далеко не так очевидно, что бы говорить, что должен быть тока один :)
Потомучто я исходил из той программы которая была здесь выложена. А слои можно накрутить как Вам душе угодно. Но нужно смотреть на задачу которую хочешь выполнить.но с увеличением слоев катастрофически падает скорость обучения. Вплоть до ощущения что оно вообще не учится. Больше двух слоев врядли стоит брать По крайней мере между 2 и 4 слоями я разницы не увидел в качестве
Именно про это я и говорил.Эксперт хороший но доводить его еще надо!! Молодец!
Кому интересно побаловаться с нейросетями выкладываю вторую версию своего эксперта...
Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!
с уважением , Пух. .
Кому интересно побаловаться с нейросетями выкладываю вторую версию своего эксперта...
Сделки за время теста советник не открыл ни единой, ничего никуда не сохранил. Последующие тесты дали аналогичные результаты, а точнее полное отсутствие всяких результатов.
И вообще, как им правильно нужно пользоваться и стоит ли пользоваться вообще? Потому, как разбираться в чужих кодах - дело нудное и неблагодарное. И если известен алгоритм работы, то гораздо проще написать свою программу с нуля, чем разбираться в чужой.
Может быть это просто злая шутка автора?
уважаемые а что на вход давать? Свечу?
Просьба сформулируйте на форуме обучающее правило сети.
--
rip
Мне хотелось бы посмотреть на вашу модификацию эксперта Решетова ( я думаю не только мне ). Если не затруднит, прошу выложить.
Не думаю, что этот код имеет хоть что-нибудь общее с экспертом от Reshetov...