Что подать на вход нейросети? Ваши идеи... - страница 67

 
Запоминание это аналог записи информации на носитель. Там тоже используется/может использоваться оптимизация, алгоритмы сжатия информации для записи на диск и т.п. К обучению это не имеет отношения.

Собственно, дерево просто строится, а не обучается. А построение комитета деревьев уже больше походит на обучение случайного леса, потому что они (комитет деревьев) могут обобщать. 

Соответственно, происходит как запись (запоминание), так и обобщение. По этому комбинированному критерию потом модель и оценивается.
 
Maxim Dmitrievsky #:
Запоминание это аналог записи информации на носитель. Там тоже используется/может использоваться оптимизация, алгоритмы сжатия информации для записи на диск и т.п. К обучению это не имеет отношения.

Собственно, дерево просто строится, а не обучается. А построение комитета деревьев уже больше походит на обучение случайного леса, потому что они (комитет деревьев) могут обобщать. 

Соответственно, происходит как запись (запоминание), так и обобщение.

Да, для деревьев запись = запоминанию,  причем с первого раза. Можно сказать, что оно строится, на я бы сказал, что разделяет данные по листьям или как ранее выразился "раскидывает".
1 дерево тоже обобщает, пока не разделило до последнего возможного сплита. После этого - абсолютно точное запоминание, как в БД.

 
Forester #:

Да, для деревьев запись = запоминанию,  причем с первого раза. Можно сказать, что оно строится, на я бы сказал, что разделяет данные по листьям или как ранее выразился "раскидывает".
1 дерево тоже обобщает, пока не разделило до последнего возможного сплита. После этого - абсолютно точное запоминание, как в БД.

Отсюда же вытекает разрушающая мозг оптимизаторщиков идея о том, что не идеально подогнанные под данные модели лучше обобщают. Например, прунинг дерева позволяет ему обобщать, да.
 
Forester #:

ЧатГПТ оставит мир без людей пытающихся разобраться в вопросах самостоятельно.
Разберитесь с кодом из статьи. И таких вопросов не будет возникать. Вы же программист и можете это сделать. Или уже всё? Чат ГПТ занял место источника истинных знаний?

В рекурсии вы увидели итерационность. Нет - там не снова и снова все данные повторно обрабатываются (как у людей повторение или у НС пересчет всех весов на каждой эпохе обучения). А каждый раз набор данных делится например пополам, каждая половина делится еще пополам и так далее, пока разделить уже будет невозможно (остался 1 пример или все примеры одинаковые). Это и есть раскидывание данных по листьям за 1 проход. Очень быстро работает.

Это выбор лучшего сплита, но не оценка самих данных. Об этом я писал ранее. Вы же хотите оценить данные, чтобы запись назвать запоминанием.

Похоже на толстый троллинг или плохую шутку.))

я написал несколько сотен различных самых известных и наименее известных алгоритмов чисто по текстовому описанию и придумал несколько десятков своих ещё до того, как появились языковые модели.

Вы хотите чтобы я специально для вас написал статью с полным разбором базовых понятий и кодом на MQL5? - могу, потому что вижу, что это будет вам полезным. Но посчитал достаточным, что то, чему люди научили GPT, вам будет достаточно, к тому же весьма лень писать длинные посты на такие элементарные вещи.

Вы только скажите, если есть желание разобраться и позадавать вопросы - помогу, напишу статью. К сожалению, с вашими трудами мне не посчастливилось познакомиться.
 
Maxim Dmitrievsky #:
Подобный "разговор" уже был с ним в МО теме, все как под копирку. Попытка доказать что-то, пока ещё не придумано что конкретно :) но по ходу пьесы он обязательно придумает.

Чел пытался доказать, что обучение - это оптимизация, насколько я понял тогда.

Потом он придумает, что победил в споре, хотя не понятно о чем он вообще был :)) Если вы с ним не согласитесь, то начнет вам даже угрожать.

Пора надевать защитный скуфандр.


Судя по статьям программист он опытный. Если все же найдет пару часов, чтобы разобраться с кодом, то может станет еще одним активным МО-шником)
А если недельку на разбор леса в Алглибе, то вообще таких вопросов не будет. И сможет сам разные фишки придумывать и воплощать.

Но думаю человеческая лень в паре с ЧатГПТ (или аналогов) погубит человечество. Ну скорее превратит всех в юзеров...
Как пример - в одном из фантастических фильмов топовые технари на космическом корабле говорили, что ядро их системы было написано более 500 лет назад и никто понятия не имеет, как оно работает...

 
Forester #:

Судя по статьям программист он опытный. Если все же найдет пару часов, чтобы разобраться с кодом, то может станет еще одним активным МО-шником)
А если недельку на разбор леса в Алглибе, то вообще таких вопросов не будет. И сможет сам разные фишки придумывать и воплощать.

Но думаю человеческая лень в паре с ЧатГПТ (или аналогов) погубит человечество. Ну скорее превратит всех в юзеров...
Как пример - в одном из фантастических фильмов топовые технари на космическом корабле говорили, что ядро их системы было написано более 500 лет назад и никто понятия не имеет, как оно работает...

Если не брать в расчет, что эти статьи - сизифов труд, поскольку все давно уже написано за него и намного больше, то, наверное, опытный. В том же алглибе есть прекрасные общепринятые алгоритмы оптимизации, которые предназначены для тренировки в т.ч. нейронок с огромным кол-вом параметров.
 
Andrey Dik #:
Похоже на толстый троллинг или плохую шутку.))

я написал несколько сотен различных самых известных и наименее известных алгоритмов чисто по текстовому описанию и придумал несколько десятков своих ещё до того, как появились языковые модели.

Вы хотите чтобы я специально для вас написал статью с полным разбором базовых понятий и кодом на MQL5? - могу, потому что вижу, что это будет вам полезным. Но посчитал достаточным, что то, чему люди научили GPT, вам будет достаточно, к тому же весьма лень писать длинные посты на такие элементарные вещи.

Вы только скажите, если есть желание разобраться и позадавать вопросы - помогу, напишу статью. К сожалению, с вашими трудами мне не посчастливилось познакомиться.
Да, я видел ваши статьи. Потому и называю вас опытным программистом.
Не просил статью от вас. И не спрашиваю ничего. Все что мне нужно я вижу в коде.
Разберитесь с деревом из статьи, воспроизведите, поэкспериментируйте. Оно простое. В Алглибе сложнее и с недостатками, но тоже интересно.
 
Никто в здравом уме не будет серьезно заниматься МО на платформе для трейдинга. Потому что это просто неудобно. Поэтому для серьезных МОшников добавлен ONNX.
 
Maxim Dmitrievsky #:
Если не брать в расчет, что эти статьи - сизифов труд, поскольку все давно уже написано за него и намного больше, то, наверное, опытный. В том же алглибе есть прекрасные алгоритмы оптимизации, которые предназначены для обучения в т.ч. нейронок с огромным кол-вом параметров.
Может и сизифов. Но есть возможности экспериментировать. Я вот тоже из алглибовского леса сделал свой вариант и много разных фишек приделал. Но на рыночных данных все это особо не помогло. Самые лучшие графики скидывал год назад. Рост баланса можно получить, но с просадками по 2 года.
Через месяц закончу другой проект (за деньги) появится свободное время и снова  МО займусь.
 
Forester #:
Может и сизифов. Но есть возможности экспериментировать. Я вот тоже из алглибовского леса сделал свой вариант и много разных фишек приделал. Но на рыночных данных все это особо не помогло. Самые лучшие графики скидывал год назад. Рост баланса можно получить, но с просадками по 2 года.
Через месяц закончу другой проект (за деньги) появится свободное время и снова  МО займусь.
Автоматически отстаешь на несколько лет, а то и десятков лет, пытаясь перетащить все на платформу. Плюс упомянутое юзабилити страдает. Каждый месяц появляются новые алгоритмы, которые уже никто не переписывает. Этим занимаются специальные сообщества и крупные компании.