Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну незнаю, я пользуюсь его оптимизатором, который он написал в прошлом году 2016 и вполне доволен, даже более чем...
Подскажите, пожалуйста, где можно узнать о его оптимизаторе.
D Вот нашёл на просторах сети
https://sites.google.com/site/libvmr/home
Ну незнаю, я пользуюсь его оптимизатором, который он написал в прошлом году 2016 и вполне доволен, даже более чем...
Нейронные сети не нужны в торговле, они переобучаются и не понятны.
Нейронные сети не нужны в торговле, они переобучаются и не понятны.
Повторюсь, если Вам не понятно, это не значит что это не работает. Работает и ещё как. вы просто не умеете их готовить :-)
Доброго времени! Можете подсказать, для сети LSTM, в каком виде подаются входные параметры. Я как понимаю есть система переключения "вентилей".
Пока думаю ни Питоне попытаться реализовать, вот вопрос, каким образом подавать входные параметры, чтоб можно было контролировать систему вентилей, что запомнить что стереть
Повторюсь, если Вам не понятно, это не значит что это не работает. Работает и ещё как. вы просто не умеете их готовить :-)
Ошибаетесь, рынок как толпа баранов, он инстинктивен, рынок как не далёкая эмоциональная женщина, она не считает она ЧУЕТ, рынок не содержит никакой сложной математики и искусственного интеллекта, в рынке столько же математики сколько в средней провинциальной поварихе или продавщице.
Всё это легко ловится обычными и необычными(JMA) машками, посмотрите в код JMA, может там найдете искусственный интеллект, я его не понял, но профитно торгую JMA, поэтому и утверждаю своё мнение.
Другое заблуждение это что усреднение это плохо, такой же бред как и то что нейросети это хорошо. Для трендовых стратегий нужно закрываться по стопу, а для откатных усредняться.
В один бар, а что это? - Спуск по градиенту?
В принципе входные переменные предполагают значения относящихся к одному качественному порядку.
Для меня симптом пока не ясен! Есть какие предложения?
Как думаете, как с рекурентной работать?
С lstm
+from keras.preprocessing import sequence
+from keras.models import Sequential
+from keras.layers import Dense, Activation, Embedding
+from keras.layers import LSTM
+from keras.datasets import imdb
+
+# Устанавливаем seed для повторяемости результатов
+np.random.seed(42)
+# Максимальное количество слов (по частоте использования)
+max_features = 5000
+# Максимальная длина рецензии в словах
+maxlen = 80
+
+# Загружаем данные
+(X_train, y_train), (X_test, y_test) = imdb.load_data(nb_words=max_features)
+
+# Заполняем или обрезаем рецензии
+X_train = sequence.pad_sequences(X_train, maxlen=maxlen)
+X_test = sequence.pad_sequences(X_test, maxlen=maxlen)
+
+# Создаем сеть
+model = Sequential()
Как управлять входом, что зацикливать в цикле
+model = Sequential()
+# Слой для векторного представления слов
+model.add(Embedding(max_features, 32, dropout=0.2))
+# Слой долго-краткосрочной памяти
+model.add(LSTM(100, dropout_W=0.2, dropout_U=0.2)) # try using a GRU instead, for fun
+# Полносвязный слой
+model.add(Dense(1, activation="sigmoid"))
+
+# Копмилируем модель
+model.compile(loss='binary_crossentropy',
+ optimizer='adam',
+ metrics=['accuracy'])
+
+# Обучаем модель
+model.fit(X_train, y_train, batch_size=64, nb_epoch=7,
+ validation_data=(X_test, y_test), verbose=1)
+# Проверяем качество обучения на тестовых данных
+scores = model.evaluate(X_test, y_test,
+ batch_size=64)
+print("Точность на тестовых данных: %.2f%%" % (scores[1] * 100))