Никак не могу вкурить в эту сеть. Либо я что-то не так делаю при обучении, либо я неправильно понял принцип.
- Кто тупит, я или NeuroShell® Predictor?... Вопросы для публики разбирающейся в нейросетевых программах
- Обсуждение статьи "ZigZag всему голова (Часть I). Разработка базового класса индикатора"
- Управление ордерами голосовыми командами
grell:
Никак не могу вкурить в эту сеть. Либо я что-то не так делаю при обучении, либо я неправильно понял принцип.
Расскажи как понял. Гадать никто не хочет
Никак не могу вкурить в эту сеть. Либо я что-то не так делаю при обучении, либо я неправильно понял принцип.
Само собой... Есть массив с входными данными in[n][12]. есть выходной слой out[12]. есть набор весов w[12][12]. Вычисляю для каждого n выходной слой, в котором выбираю победителя. Далее подстраиваю веса в направлении входного нейрона которого этот вес касается вместе с победителем. Вывожу матрицу 12 на 12 на чарт в цветовом представлении. И цвета просто меняются и никакого обучения и стабилизации весов не вижу. Это выборка такая разношерстная или чего не так понял?
Проблема в исходных данных, точней в их делимости на классы, все правильно значит делал. Буду тогда не классифицировать, а фильтровать по очереди каждый нейрон. Кому интересно - отпишусь о результатах, должно получиться.
grell:
Проблема в исходных данных, точней в их делимости на классы, все правильно значит делал. Буду тогда не классифицировать, а фильтровать по очереди каждый нейрон. Кому интересно - отпишусь о результатах, должно получиться.
Проблема в исходных данных, точней в их делимости на классы, все правильно значит делал. Буду тогда не классифицировать, а фильтровать по очереди каждый нейрон. Кому интересно - отпишусь о результатах, должно получиться.
аксиома 1: Если не знаешь как классифицировать входы, то НС бесполезна
аксиома 2: Если знаешь как классифицировать входы, то в НС уже нет необходимости.
sergeev:
На начальных этапах классификация была понятна, то есть комбинации входов легко без НС подпадала под известные категории. Но при подсовывании новых данных в классификатор минимальная ошибка (наиболее вероятный класс) была в среднем 25-30%, но когда входные данные были пропущены через 1 слой произвольной НС, классифицируемость не пропала, а сократилась ошибка до 8-10%, и попадание в класс стало более точным. Вот и пришла идея самоклассифицировать входы для дальнейшей работы. То есть суть не в самой НС, а в результате. Поэтому уже не вижу смысла подавать на слой Кохонена исходные данные. А через один промежуточный слой (произвольный).
аксиома 1: Если не знаешь как классифицировать входы, то НС бесполезна
аксиома 2: Если знаешь как классифицировать входы, то в НС уже нет необходимости.
grell:
Проблема в исходных данных, точней в их делимости на классы, все правильно значит делал.
Вроде как сеть Кохонена должна кластеризовать все что угодно. Может у вас проблема с интерпретацией данных?
Проблема в исходных данных, точней в их делимости на классы, все правильно значит делал.
TheXpert:
Вроде как сеть Кохонена должна кластеризовать все что угодно. Может у вас проблема с интерпретацией данных?
Да, в том-то и дело. Что классифицирует за 3-4 шага, но каждый раз по-разному.
Вроде как сеть Кохонена должна кластеризовать все что угодно. Может у вас проблема с интерпретацией данных?
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь