Что подать на вход нейросети? Ваши идеи... - страница 38

 
Ivan Butko #:

Уточните, пожалуйста, в контексте обычного оптимизатора МТ5 и обычного советника. 

Как это бы выглядело? 

Взять два сета из списка оптимизации (некорелированных), соединить и запустить? Или что-то другое имеется ввиду

По результатам у Вас получились коэффициенты некие, прописывайте жестко в код их вашей НС перед кодом, который работает с оптимизируемыми переменными.

В результате получаете фильтр от первого прохода, а вторая сеть уже учится не на всех примерах, а только отфильтрованных первой НС.

Цель - повысить мат. ожидание за счет снижения ложных входов - судя по графику он очень низкий.

Либо, как я уже ранее предлагал - попробовать уже обучаться на полученных отфильтрованных результатах с помощью других методов - того же CatBoost.

 
Andrey Dik #:
Специалисты из ветки МО утверждают

Суть то не в этом - искать можно что угодно и как угодно, просто оптимальный вариант на данных поиска не гарантирует совсем такой результат на данных вне этого поиска (применительно к рынку).

Вот если есть алгоритм, который не только ищет оптимальные параметры с математической точки зрения по ФФ, но и учитывает как то структуру данных, позволяющий увидеть какую то зависимость стабильную на двух выборках после обучения, тогда это действительно ценно для применения к рынку. А просто найти что-то случайно всегда можно, что я показал в теме МО - в своих последних изысканиях.

 
Aleksey Vyazmikin #:

По результатам у Вас получились коэффициенты некие, прописывайте жестко в код их вашей НС перед кодом, который работает с оптимизируемыми переменными.

В результате получаете фильтр от первого прохода, а вторая сеть уже учится не на всех примерах, а только отфильтрованных первой НС.

Цель - повысить мат. ожидание за счет снижения ложных входов - судя по графику он очень низкий.

Либо, как я уже ранее предлагал - попробовать уже обучаться на полученных отфильтрованных результатах с помощью других методов - того же CatBoost.

А, понял

Благодарю за идею

 
Ivan Butko #:

А, понял

Благодарю за идею

Да пожалуйста! Делитесь результатами.

 
Aleksey Vyazmikin #:

Да пожалуйста! Делитесь результатами.

и ботами

это по статье про персептрон бот? тогда нинада
 
Aleksey Vyazmikin #:

1. Суть то не в этом - искать можно что угодно и как угодно,

2. просто оптимальный вариант на данных поиска не гарантирует совсем такой результат на данных вне этого поиска (применительно к рынку).

3. Вот если есть алгоритм, который не только ищет оптимальные параметры с математической точки зрения по ФФ, но и учитывает как то структуру данных, позволяющий увидеть какую то зависимость стабильную на двух выборках после обучения, тогда это действительно ценно для применения к рынку.

4. А просто найти что-то случайно всегда можно, что я показал в теме МО - в своих последних изысканиях.

1. А в чем суть? - не то что искасть что угодно, а именно, в чем суть поиска?

2. А что гарантирует?

3. Я не видел конкретного цельного алгоритма,  который мог бы найти "зависимость стабильную на двух выборках после обучения", но есть логические соображения, комплекс методик и соображений, каким образом этого можно достичь (или, по крайней мере, чтобы понимать, в какую сторону двигаться).

4. А зачем искать что-то случайно, когда можно неслучайно?

 
Andrey Dik #:

1. А в чем суть? - не то что искасть что угодно, а именно, в чем суть поиска?

2. А что гарантирует?

3. Я не видел конкретного цельного алгоритма,  который мог бы найти "зависимость стабильную на двух выборках после обучения", но есть логические соображения, комплекс методик и соображений, каким образом этого можно достичь (или, по крайней мере, чтобы понимать, в какую сторону двигаться).

4. А зачем искать что-то случайно, когда можно неслучайно?

1. Суть в том, что важен не только алгоритм, но и характер/происхождение данных - речь как о (не)стационарности процессов, так и о не репрезентативности выборки, если мы говорим о допустимости применении разных методов оптимизации.

2. У меня нет ответа - в поисках нахожусь.

3. Об этом с интересом послушал бы.

4. Тут я писал о том, что если нет алгоритма из пункта 2, то все подходы по сути случайно показывают эффективность на новых данных - лучше или хуже - не вопрос логики алгоритма (хотя допускаю наличие эвристик, улучшающих результат), а случайность полученных данных определяет результат.

Когда Вы исследуете известную функцию, то она (её константы) не меняется от входящих переменных, чем больше примеров, тем больше шансов подобрать её коэффициенты правильно. В рыночных данных есть ограничения по числу примеров, которые можно получить, и есть проблема в том, что работает сразу множества таких генераторов чисел со своей функцией (пусть даже это будут крупные участники, правила поведения которых утверждены и напечатаны, по примеру нашего ЦБ). Вот и получается, что в идеале можно подстроится под похожие правила поведения разных участников, будет такая шумная функция, которая описывает только часть рынка, и вот под неё можно поискать ФФ - я так вижу ситуацию. При этом участники могут перетекать из одной функции поведения в другую...

Сами по себе алгоритмы оптимизации из статей очень интересны. Попробуйте рассмотреть вопрос о допустимости их применения в лоб, может так же взять сотню разных функций замиксовать и попробовать описать хотя бы одну? В общем поставить эксперимент более сложный.

 
Aleksey Vyazmikin #:

1. Суть в том, что важен не только алгоритм, но и характер/происхождение данных - речь как о (не)стационарности процессов, так и о не репрезентативности выборки, если мы говорим о допустимости применении разных методов оптимизации.

2. У меня нет ответа - в поисках нахожусь.

3. Об этом с интересом послушал бы.

4. Тут я писал о том, что если нет алгоритма из пункта 2, то все подходы по сути случайно показывают эффективность на новых данных - лучше или хуже - не вопрос логики алгоритма (хотя допускаю наличие эвристик, улучшающих результат), а случайность полученных данных определяет результат.

Когда Вы исследуете известную функцию, то она (её константы) не меняется от входящих переменных, чем больше примеров, тем больше шансов подобрать её коэффициенты правильно. В рыночных данных есть ограничения по числу примеров, которые можно получить, и есть проблема в том, что работает сразу множества таких генераторов чисел со своей функцией (пусть даже это будут крупные участники, правила поведения которых утверждены и напечатаны, по примеру нашего ЦБ). Вот и получается, что в идеале можно подстроится под похожие правила поведения разных участников, будет такая шумная функция, которая описывает только часть рынка, и вот под неё можно поискать ФФ - я так вижу ситуацию. При этом участники могут перетекать из одной функции поведения в другую...

Сами по себе алгоритмы оптимизации из статей очень интересны. Попробуйте рассмотреть вопрос о допустимости их применения в лоб, может так же взять сотню разных функций замиксовать и попробовать описать хотя бы одну? В общем поставить эксперимент более сложный.

Далее по тексту: две цитаты, после - мой текст

1.

Суть то не в этом - искать можно что угодно и как угодно,

Суть в том, что важен не только алгоритм, но и характер/происхождение данных - речь как о (не)стационарности процессов, так и о не репрезентативности выборки, если мы говорим о допустимости применении разных методов оптимизации.

По первому пункту я ничего не говорил про алгоритмы оптимизации. Суть любого поиска - оптимум, описанный пользователем. Неважно какой алгоритм оптимизации используется, АО лишь позволяет избежать необходимости делать полный перебор. Если есть возможность делать полный перебор, то АО не нужен, но вопрос "что именно нужно" остаётся, при этом совершенно неважно, стационарный это процесс или нет.

2.

просто оптимальный вариант на данных поиска не гарантирует совсем такой результат на данных вне этого поиска (применительно к рынку).

У меня нет ответа - в поисках нахожусь.

На этот вопрос ни у кого нет четкого ответа. Если не знать что искать, то никто и ничто это не сделает за того, кто ищет, ведь неизвестно что именно искать, а раз так, то и любой результат невозможно классифицировать как "то что искали".

3.

Я не видел конкретного цельного алгоритма,  который мог бы найти "зависимость стабильную на двух выборках после обучения", но есть логические соображения, комплекс методик и соображений, каким образом этого можно достичь (или, по крайней мере, чтобы понимать, в какую сторону двигаться).

Об этом с интересом послушал бы.

А мне, при благоприятных обстоятельствах, будет приятно рассказать (если понимаете, о чем я).

4.

А просто найти что-то случайно всегда можно, что я показал в теме МО - в своих последних изысканиях.

Тут я писал о том, что если нет алгоритма из пункта 2, то все подходы по сути случайно показывают эффективность на новых данных - лучше или хуже - не вопрос логики алгоритма (хотя допускаю наличие эвристик, улучшающих результат), а случайность полученных данных определяет результат.

Вот именно, если не знать что именно искать, то и невозможно это самое найти.

Когда Вы исследуете известную функцию, то она (её константы) не меняется от входящих переменных, чем больше примеров, тем больше шансов подобрать её коэффициенты правильно. В рыночных данных есть ограничения по числу примеров, которые можно получить, и есть проблема в том, что работает сразу множества таких генераторов чисел со своей функцией (пусть даже это будут крупные участники, правила поведения которых утверждены и напечатаны, по примеру нашего ЦБ). Вот и получается, что в идеале можно подстроится под похожие правила поведения разных участников, будет такая шумная функция, которая описывает только часть рынка, и вот под неё можно поискать ФФ - я так вижу ситуацию. При этом участники могут перетекать из одной функции поведения в другую...

Об этом и напрашивается обсуждение.

Сами по себе алгоритмы оптимизации из статей очень интересны. Попробуйте рассмотреть вопрос о допустимости их применения в лоб, может так же взять сотню разных функций замиксовать и попробовать описать хотя бы одну? В общем поставить эксперимент более сложный.

Скажу так, алгоритмы оптимизации (понимание их внутренней логики и методов поиска) открывают глаза на многие вещи и открывают пути и видение путей поиска (будь то оптимизация в общем виде или обучение в частном). В планах статья с таким экспериментом, с миксом из функций.

Что значит "допустимость применения в лоб"? - не понимаю такой постановки вопроса.

Буквально на днях приступил к проекту заказчика, советник с нейронной сетью (есть возможность выбора внутреннего алгоритма оптимизации, SGD и многие другие), обучение, валидация и всё как полагается, проект на несколько десятков плотных строк кода.... Так о чём я?... о том, что нейронка показывает каждый раз новые результаты на одних и тех же данных для обучения.))) Нейронка плохо работает на новых данных? Дак она и на одних и тех же данных показывает разные результаты, о каких новых данных может идти речь? Но дело не в нейронке, ведь нейронка это лишь статичная формула по сути, подбираются веса и смещения, а нейронка не меняется. Тогда в чем дело, почему получаются разные результаты? А дело в элементарном - SGD (и другие) застревает, внимание, на функции потерь)) Т.е, мало того что нейросеть обучают непонятно чему, так ещё и внутренний алгоритм оптимизации не способен вытащить.

Хочу сделать эксперимент, сравнить одну и ту же нейронку по результатам с градиентными и классическими алгоритмами оптимизации. Вентилировал этот вопрос, не нашёл никаких исследований по этой теме, только вижу и слышу как догму "надо использовать градиентные спуски и иже с ними", на вопрос "почему надо" внятного ответа нет. Спрашивал у разных гпт-подобных, один выдаёт рандомные статьи с одного известного научного ресурса, другой не выдаёт ссылок, но упрямо твердит что "так надо", а третий признался, что его так научили говорить и доказательств его слов у него нет, но был бы рад узнать о них (доказательствах).

 
Andrey Dik #:

По первому пункту я ничего не говорил про алгоритмы оптимизации. Суть любого поиска - оптимум, описанный пользователем. Неважно какой алгоритм оптимизации используется, АО лишь позволяет избежать необходимости делать полный перебор. Если есть возможность делать полный перебор, то АО не нужен, но вопрос "что именно нужно" остаётся, при этом совершенно неважно, стационарный это процесс или нет.

1. А мне показалось, что Вы сделали отсылку на ветку МО, так как мнение об обозреваемых в ваших статьях алгоритмах у некоторых участников было критичным. Я просто решил пояснить, как я понял, в чём предметно причина разногласий по существу, на мой взгляд. Тему личностей поднимать нехочу.

Andrey Dik #:
На этот вопрос ни у кого нет четкого ответа. Если не знать что искать, то никто и ничто это не сделает за того, кто ищет, ведь неизвестно что именно искать, а раз так, то и любой результат невозможно классифицировать как "то что искали".

2. Что искать я знаю - статистически устойчивые зависимости на квантовых отрезках предикторов, а вот какие признаки об этом говорят - пока не знаю. При построении модели надо иметь высокую вероятность сделать правильный шаг на новой итерации - всего то :)

Andrey Dik #:

А мне, при благоприятных обстоятельствах, будет приятно рассказать (если понимаете, о чем я).

3. Совсем не понимаю, если честно.

Andrey Dik #:

Вот именно, если не знать что именно искать, то и невозможно это самое найти.

4. Всё же, Вы не поняли о чём я. Если упростить, то представьте, что Вы можете при итеративном подходе, согласно алгоритму оптимизации, принудительно проверить все исходы вариантов из которых нужно сделать выбор и такой выбор будет приближать модель к конкретной цели на всех доступных выборках. И, вот в кармане такая модель (или коэффициенты - как угодно назвать можно), которая хороша на имеющихся данных, но это не обязательно лучший вариант. Т.е. алгоритм при выборе шага для решения на итерации подсматривал, что будет с ФФ на итоговых данных. Так я и говорю, что когда Вы не подсматриваете, то случайно можете получить хороший результат, который зависел от случайных шагов. Речь о рыночных данных. И результат может стать плохим, если подать новые данные. В общем, я о том, что понять случайно получилась хорошая модель, или благодаря алгоритму не так просто на нерепрезентативной подвыборке.

Andrey Dik #:

Об этом и напрашивается обсуждение.

Andrey Dik #:

Скажу так, алгоритмы оптимизации (понимание их внутренней логики и методов поиска) открывают глаза на многие вещи и открывают пути и видение путей поиска (будь то оптимизация в общем виде или обучение в частном). В планах статья с таким экспериментом, с миксом из функций.

С интересом почитал бы про такой эксперимент и на сколько он отражает модель формирования рынка.

Andrey Dik #:

Что значит "допустимость применения в лоб"? - не понимаю такой постановки вопроса.

Значит использование так же, как и штатный оптимизатор с его генетикой и стандартными ФФ. При этом допустимость тут отсылка на вероятность получения устойчивой модели (настроек) на новых данных. Так то понятно, что будет искаться и находится...

Кстати, делали оценку, как алгоритмы справляются с категориальными признаками?

Andrey Dik #:
Тогда в чем дело, почему получаются разные результаты?

Многие алгоритмы используют рандомизацию для вариативности, разве Вам такие вне рамок МО не попадались? Хотите повторяемость результата - зафиксируйте seed.

Andrey Dik #:
Хочу сделать эксперимент, сравнить одну и ту же нейронку по результатам с градиентными и классическими алгоритмами оптимизации.

Надо сравнивать не одну модель, а хотя бы сотню - по каким то описательным стат. критериям. Как раз вероятность выбора правильных настроек (модели) можете оценить на новых данных...

Andrey Dik #:
Вентилировал этот вопрос, не нашёл никаких исследований по этой теме

Градиентный спуск применяется как эффективный метод по использованию вычислительных ресурсов. Есть там методы посложней и потяжелей, как то лектор упоминал в одном видео, но я не запомнил, только вот обоснование уяснил.

 
Вот так и заспамниваются ветки....