Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1136
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Indicador Heiken Ashi sem configurações.
Oh meu... o quadro não é grave
Todos sabemos que qualquer indicador pode ser ajustado a uma determinada parte da história para se tornar um graal, o mesmo pode ser feito para "qualquer parâmetro" apenas para caber na história, isto é para ***, para os vendedores de "graal".
Tudo isto é muito fácil de verificar, colocar um indicador numa bandeja e depois voltar atrás no OOS (uma vez), num grande pedaço de história para ter pelo menos 500 negócios, o erro é inversamente proporcional ao quadrado do número de negócios.
Hmm, eu não sei se postar aqui ou no tópico de humor:
De manhã eu desabilitei o bloqueio de anúncios no navegador no android tvbox para RBC banido para banozer (na TV usada para navegar na rede), agora eu estava surpreso que eu estava nos sites começou a oferecer para se inscrever para cursos de aprendizagem de máquinas, até que eu lembrei que banozer está desativado, para pagar cursos por 12 semanas, não vai para, mas o programa de treinamento para promessas gratuitas para dar, existe um programa de treinamento para o MOE ??? - Precisava de algo quando você quer puxar a teoria para cima!
SZS: Estou a ter um dia mau, finalmente sequestrei a minha caixa de spam, há dois anos atrás comecei uma nova, preciso de começar de novo, para todo o tipo de regs esquerdistas ... Faço-o amanhã.
https://www.youtube.com/watch?v=qLBkB4sMztk&list=PLJOzdkh8T5kp99tGTEFjH_b9zqEQiiBtC
há uma lista de reprodução à direitaEntão você está dizendo que não há nada mais explicativo do que Vorontsov na web sobre o MoD em russo?
Guardei o Vorontsov para mais tarde. Já fiz uma página no YouTube para mim, enquanto ainda estou preso na teoria, muitos detalhes que não estão escritos em artigos ou em fóruns.
Tudo na mesma, em geral.
Eu não sei o que estudar, eu sei quase tudo ))))Eu estava interessado em fazer uma IA que aprendesse a se comercializar, apenas com preços, sem um professor ou informação especializada. Fiz o upload do que fiz para o kodobase, vou melhorá-lo mais tarde.
Eu já fiz o download do kodobase.
por exemplo, a questão da melhor escolha de saídas (automática, é claro, sem intervenção) não foi resolvida
Eu estava interessado em fazer uma IA que aprende a se comercializar apenas com preços, sem um professor ou informação especializada.
Esta é a IA (inteligência artificial forte) que criou a matriz e pôs os russos contra os americanos.
Procura emhttps://cloud.mail.ru/public/HRZX/uS3xg38cg e diz que é um SII, mas feito de forma tortuosa.
Há uma versão simples de Andriy Kuchemenko, um activista da Bandera:
void AI()
{
std::map<std::string, std::string> memory; // Словарь
while (true) // цикл
{
cout << "enter question" << endl; // попросить ввести вопрос
string question;
cin >> question; // ввести вопрос с клавиатуры в переменную question
string answer = memory[question]; // запросить вопрос в словаре
// если в словаре есть такой ответ(не пустой) то вывести ответ на консоль
if (answer != "") cout << question << " this is " << answer << endl;
else // если нет в словаре ответа попросить ввести ответ
{
cout << "enter answer" << endl;
std::cin >> answer;
memory[question] = answer; // записать пару вопрос-ответ в словарь
}
}
}
Estava a fazer algum abate de folhas de árvores e descobri que estava a balançar cerca de zero no período de teste (M1), e acho que isso é treta - matei quase um ano em todo este MO, e depois testei acidentalmente um EA com outro TF (M5), e de repente mostrou um resultado normal, comecei a tentar diferentes TFs e encontrei outro com bons resultados (M2), tanto no treino como no período de teste. Período de formação do minuto de 2015 a 2017 inclusive, testes em 2018.
Isto é um acaso, ou uma manifestação de fractalidade?
O período de treino é apenas M1.
Eu estava interessado em fazer uma IA que aprendesse a se comercializar, apenas com preços, sem um professor ou informação especializada. Eu atirei o que fiz para a kodobase, vou melhorá-la mais tarde.
Eu já fiz o download do kodobase.
por exemplo, a melhor escolha de saídas não é resolvida (automática, claro, sem adulteração)
Tanto quanto entendi, o agente sinaliza aleatoriamente para abrir ordens no testador, e no final a floresta é construída sobre amostras colhidas através de polinómios.
Penso que as entradas podem ser marcadas por diferença de preço e sem ordens, claro, IMHO, mas para busca de saídas, com o máximo lucro, apenas para...
Tanto quanto eu entendi o comerciante sinaliza aleatoriamente para abrir ordens no testador, e no final a floresta é construída sobre amostras selecionadas através de polinómios.
Acho que você pode marcar entradas por diferença de preço e sem ordens, claro, IMHO, mas para busca de saídas, com o máximo de lucro, apenas por exemplo...
1º sim, e os polinómios podem ser mudados para o que você quiser, assim como a própria floresta para outra coisa.
2º, não percebo bem.
1º sim, e os polinómios podem ser mudados para o que você quiser, assim como a própria floresta para outra coisa.
2 - não o apanhou bem.
A segunda é sobre a razão pela qual a disparo aleatório de ordens deve procurar por inputs, porque eles são quase inequivocamente definidos como tops e troughs do BP existente, enquanto os outputs são menos inequívocos, é isso que podemos procurar.
Por saídas entendemos tanto a compra como a venda de marcas (qualquer tipo). Eu não considero nenhum algoritmo especial de posições de saída, porque um sinal de venda é um sinal natural para fechar uma ordem de compra(embora possa estar errado, eu não pensei nisso)
Portanto, esta é uma tarefa interessante - como amostrar marcas aleatoriamente, a partir de alguma distribuição, ou enumerando distribuições, a fim de obter um conjunto de estratégias únicas e selecionar as melhores então
em outras palavras, como mudar uma função de recompensa de uma maneira eficiente