Существет ли процесс, анализ одного из участков которого не позволяет прогнозироать следующий его участок. - страница 12

 
tara:

Если прочно сели на сетки,- ищите быстрый алгоритм, предшествующий медленному. Имхо, само-собою :)

Ээээ... аааа... оо..... поясните немного плиз. Звучит более чем фундаментально. Но не очень понятно. Обожаю скоростные алгоритмы, готов искать, но не понимаю где. Не сочтите за подкол, я серьёзно.
 
herhuman:
Сам как думаешь, это заслуга сетки или алгоритма обучения?
без друг дружки они бессмысленны и бесполезны. каждой твари по паре ну и так далее, так что - обоих.
 
tara:


Здрасте!

Жизнь нельзя прогнозировать так, чтобы на этом прогнозировании делать деньги.

Но: "Не продается вдохновенье, но можно рукопись продать" :)

Если прочно сели на сетки,- ищите быстрый алгоритм, предшествующий медленному. Имхо, само-собою :)

Ничего не понял, сори.
 
MetaDriver:
Ээээ... аааа... оо..... поясните немного плиз. Звучит более чем фундаментально. Но не очень понятно. Обожаю скоростные алгоритмы, готов искать, но не понимаю где. Не сочтите за подкол, я серьёзно.


Принцип максимальной свободы выбора для быстрого алгоритма. Каждый шаг делать, обеспечивая возможность максимальной свободы выбора направления следующего шага.

Впервые применено в электротехнике (теории электрических машин). Вот автор: http://www.uni-dubna.ru/departments/sustainable_development/Portal/Nauch_trudy_kafedry/Osnov_trudy/Kron/

Не просто, конечно, ... но и не очень просто :)

 
joo:


2. ГСЧ, как впрочем и СЧ, прогнозируется - зная предыдущий участок можно с определённой степенью точности прогнозировать значение на окончании следующего участка (числа не могут топтаться достаточно долго около одного значения - иначе это уже не будет являться рядом СЧ).

Mischek2:

Шутка ? Провокация ? ))

Делал так.

Брал 10000 случайно сгенерированных чисел: -1,0,1. Это типа цена упала/стоит_на_месте/выросла.

Брал на каждое сгенеренное число -1,0,1 ещё 3 сгенеренных случайно в диапазоне [-1.0;1.0] и подавал на нейронную сеть, соответственно сеть должна выдавать три выходных сигнала -1,0,1. Если правильный ответ, то +1, если неправильный то -1 к сумме ответов, сумма ответов - ФФ для обучения, которую, конечно, максимизирую.

Это при обучении. О вот при "прогоне" на случайном ряде, так сказать виртуальной торговле, если сетка даёт совпадающее значение с -1 или 1, то выйгрыш соответственно на продаже или покупке, а если сеть даёт сигнал 0, то выигрыш 0.

Таким образом я добавил своеобразное "Зеро", только это зеро на моей стороне. В итоге - положительное МО на прогнозировании случайного ряда!

Глядим на жирную синею линию - как видим, она ползет в верх! - это рост виртуального баланса, если убыток, то -1, если прибыль, то 1, если 0, то 0.

Любой желающий может повторить этот фокус покус. И, соответственно, применить в реальной торговле. :)

 
joo:

Делал так.

Брал 10000 случайно сгенерированных

Наверно правильнее будет псевдо случайно сгенерированных.

На котировках тоже так получается?

Похоже что сетка запомнила таблицу рандом генератора.

 
herhuman:

1. Наверно правильнее будет псевдо случайно сгенерированных.

2. На котировках тоже так получается?

3. Похоже что сетка запомнила таблицу рандом генератора.

1. Да. Правильнее.

2. Ещё лучше получается. Пробуйте, товарисчи, пробуйте. Единственный отягчающий МО фактор - спред, поэтому на минутках так колбасить не получится. Начиная с М10 - вполне.

3. 7 скрытых нейронов запомнили/"просекли" таблицу рандома? - то есть сетка усвоила алгоритм генератора? - это невозможно. Период генератора лежит гораздо дальше 10000.

 
joo:

1. Да. Правильнее.

2. Ещё лучше получается. Пробуйте, товарисчи, пробуйте. Единственный отягчающий МО фактор - спред, поэтому на минутках так колбасить не получится. Начиная с М10 - вполне.

3. 7 скрытых нейронов запомнили/"просекли" таблицу рандома? - то есть сетка усвоила алгоритм генератора? - это невозможно. Период генератора лежит гораздо дальше 10000.


Интересный результат. Нельзя ли по-подробнее о сети.

1. Сколько слоёв? Я так понял всего один скрытый слой с 7-ю нейронами. Правильно?

2. На выходы этих нейронов что подаётся? -1, 0, +1 изменения цены что-ли?

3. Сколько входов?

4. Какая передаточная функция скрытого нейрона?

5. Как обучается сеть? Генетикой?

6. Сколько баров в обучаемой выборке?

7. Показанный результат это что - форвард тест?

8. Как генерировались случайные числа? Mersenne twister mt19937? Если нет, то попробуйте этот генератор и обязательно форвард тест. Будет очень интересно сравнить результаты.

 
gpwr:


Интересный результат. Нельзя ли по-подробнее о сети.

1. Сколько слоёв? Я так понял всего один скрытый слой с 7-ю нейронами. Правильно?

2. На выходы этих нейронов что подаётся? -1, 0, +1 изменения цены что-ли?

3. Сколько входов?

4. Какая передаточная функция скрытого нейрона?

5. Как обучается сеть? Генетикой?

6. Сколько баров в обучаемой выборке?

7. Показанный результат это что - форвард тест?

8. Как генерировались случайные числа? Mersenne twister mt19937? Если нет, то попробуйте этот генератор и обязательно форвард тест. Будет очень интересно сравнить результаты.

1. 3 слоя, 3-7-1: 3 входных нейрона, 7 в скрытом, 1 на выходе.

2. На входе 3 ПСЧ числа в диапазоне -1.0 ... 1.0

3. 3.

4. Сигмоида симметричная относительно 0.

5. Генетикой собственного пошиба.

6. 10000.

7. Участок sample. Но, как утверждают здесь многие, рандом невозможно предсказывать, невозможно обучить сеть и вообще нихрена с ним поделать нельзя. А раз так, то oos или sample не имеет никакой разницы. Но, ради хохмы, можно oos забабахать.

8. ПСЧ генерились встроенным в МТ5 генератором (говорят, он нативный С++-ный).

А вообще, я клоню к тому, что уж реалпрайсы поболее информации содержат, чем ПСЧ. А это означает лишь одно.


ЗЫ Вот OOS 10000 "баров" в будущее.


ЗЗЫ Сделаю ремарку - требую признать мои методы антинаучными, а так же предупреждаю о высоких рисках в торговле на фин.рынках.

ЗЗЗЫ Предыдущее ЗЗЫ не адресовано Владимиру.

 
joo:

7. Участок sample. Но, как утверждают здесь многие, рандом невозможно предсказывать, невозможно обучить сеть и вообще нихрена с ним поделать нельзя. А раз так, то oos или sample не имеет никакой разницы. Но, ради хохмы, можно oos забабахать.

это кто такую глубость утверждал? Конечно НС может запомнить в т.ч. и случайные данные. Разве это прогноз?