Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 637

 
Alexander_K2:

:)))) Neste caso, o feiticeiro deve ser chamado para pedir ajuda :))))

A única coisa que posso dizer é que é a não-entrropia que é responsável pela tendência/estado plano. A tendência é a "memória" do processo, a sua "cauda" de distribuição e a não-entrípia é enorme, enquanto que no estado plano é quase 0. Eu próprio só lido com isso, mas compreendo a importância deste parâmetro pouco estudado.

Nada o pode ajudar agora. A mudança de tendência/frota, como uma colher para o jantar, deve ser boa a tempo.

A linha vermelha é a verdadeira. Syn.-model. Neste exemplo, é tarde. Na foto de baixo, o modelo está atrasado.


 
Mihail Marchukajtes:
Irmãos, é apenas um pequeno passo para nós, mas será um grande passo para toda a humanidade.....

Misha, eu acreditei! Eu sabia! Bonitão! Você é o melhor!))

 
Vizard_:

Misha, eu acreditei nisso! Eu sabia! Bonitão! Você é o melhor!)))

Obrigado pelo seu apoio mate!!!!! Preciso mesmo dele. Soletra bem da próxima vez que te dirigires a mim. HandsomeGGGG!!!! Soa muito mais sólido dessa forma....

 

Vamos continuar...

Existem duas colunas com valores, calculei a probabilidade de evento na coluna A e a probabilidade de outro evento na coluna B. A condição é muito simples >0. Contei o número de eventos maior que zero na coluna A e dividido pelo número total de linhas, o mesmo contei o número de valores na coluna B e dividido pelo número total de observações.

A seguir, usando os meus valores, como calcular a probabilidade condicional???? Considerando que eu tenho duas colunas e ambas têm 40 filas????

 
Mihail Marchukajtes:

Está bem, eu vou lá do outro lado. Suponha que eu tenha um conjunto de 100 entradas. Eu calculo a entropia para cada entrada e obtenho resultados de -10 a 10. Pergunta: Que entradas são preferíveis a tomar????

Digamos que eu tenho 10 entradas abaixo de zero, o resto acima, MAS todos os valores estão entre -10 e 10.....

Mihail Marchukajtes:

E também... não posso calcular a informação mútua.... Ou melhor, probabilidade condicional, para o cálculo subsequente da entropia e VI.

Alguém pode explicar com os dedos ou um exemplo melhor.

primeira coluna 40 linhas variável de entrada

segunda coluna 40 linhas de saída....

Fez muito trabalho durante a noite para identificar a hipótese. Tropeçou nestas coisas e de maneira nenhuma. Por favor, ajude-me e eu darei a minha opinião sobre a minha hipótese...


Eu não estudei teoria da informação, mas tenho alguma experiência com entropia em R.

Essencialmente, quanto maior for a entropia, mais caos há nos dados. Um preditor com alta entropia está bastante pouco relacionado com o alvo. Por outro lado, a baixa entropia indica que o preditor é facilmente identificado a partir do preditor.

A não-entrropia é o oposto da entropia, não traz novos conhecimentos em comparação com a entropia, apenas é introduzida por conveniência. Se o preditor tem uma grande entropia, então a não-entropia é pequena. Se a entropia é pequena, então a não-entropia é grande. É como o calor e o frio, luz e escuridão, etc., um flui sem problemas para o outro.

Mas não é só isso, também há o cruzamento de centros. É assim que os dois preditores juntos estão relacionados com o alvo, a centralidade alta é má, a baixa é boa. Na aprendizagem mecânica acontece frequentemente que dois preditores com alta entropia quando usados juntos dão baixa centralidade cruzada, que é o que todos nós precisamos. Mesmo que cada um dos preditores possa estar mal associado ao alvo por si só (alta entropia para ambos), mas juntos podem atingir o alvo (baixa entropia cruzada). Portanto, não se pode simplesmente medir a entropia de cada preditor separadamente, e escolher um conjunto de acordo com a estimativa. Você precisa selecionar todo o conjunto de preditores com baixa centralidade cruzada, eu, por exemplo, não olho para qual é a entropia deles individualmente.

Aqui estão alguns exemplos -

1) Preditor com alta entropia. Não há forma de prever a classe alvo.

2) Preditor com baixa entropia. Se você olhar com atenção, se o valor do preditor for de 0 a 0,25 ou inferior a 0,4, então o valor da classe = 1. Caso contrário, classe = 2. Este é um preditor muito útil para usar em MO.

3) Dois preditores, cada um com alta entropia, e o modelo nunca será capaz de prever o alvo usando apenas o primeiro ou apenas o segundo preditor. Mas ao desenhá-los juntos (o eixo X é o valor do primeiro, e o valor Y do segundo) podemos imediatamente ver que eles juntos dão muito boa informação sobre a classe do alvo (mesmo sinal para ambos os preditores = classe1, sinal diferente = classe2). Este é um exemplo de baixa centralidade cruzada.


 
Mihail Marchukajtes:

Obrigado por seu apoio Fellow!!!!! Preciso mesmo dele. Soletra bem da próxima vez que te dirigires a mim. HandsomeGGGGG!!!! Isso soa muito mais sólido....

É por isso que te amamos, professor! Ele está sempre lá, sempre a corrigir-nos. Você é o nosso querido homem!!!!)

"As Testemunhas de Mishanin". Fevereiro de 2018.


 
Apesar das recriminações, eu vou continuar. A probabilidade condicional é calculada da seguinte forma. O número de dados que satisfazem a condição na primeira coluna é 19, na segunda 20. Para encontrar a probabilidade condicional. Eu somo 19+20 e divido tudo pelo número total de entradas que é 80 (40 na primeira coluna e 40 na segunda). E você tem que dividir pela probabilidade.... Se eu tiver coluna A - entrada e coluna B - saída, então para saber a probabilidade condicional de entrada para sair você precisa dividir a probabilidade total pela probabilidade da coluna de entrada. Isto está correcto?
 
Mihail Marchukajtes:

Mais uma vez, uma pergunta. Existem oito modelos de NS. Ao sinal de corrente, as entropia das saídas NS são as seguintes

5,875787568 -5,702601649 5,066989592 9,377441857 7,41065367 1,401022575 4,579082852 5,119647925

Qual delas devo escolher? O vermelho? Porque tem entropia negativa ou o azul? Está mais perto de zero. Vou dizer que estes dois modelos olham em direcções diferentes, mas sabemos que o tempo dirá quem estava certo.... No final, um deles vai ganhar. Quem está a pensar nisso?

Resumindo o que escrevi acima - você precisa primeiro determinar a centralidade cruzada das combinações preditoras, e tomar a combinação preditoras onde a centralidade cruzada é mais baixa. Estranho que seja negativo, no meu caso é apenas infinito a zero, mas o que quer que seja, pegue o mais negativo então.

A entropia da saída NS é, na minha opinião, ruim como uma estimativa da própria neurônica. Você pode ajustar as saídas da rede para dar uma resposta correta em 100% dos casos, e ela terá uma baixa entropia, mas pode ter um grande excesso de equipamento. A sobrealimentação é má.

 

A questão é que encontrei um add-on para o Excel, que calcula a entropia. Terminei-o da maneira que eu queria, sem alterar a lógica do cálculo e, portanto, tenho esta pergunta. Explique o que está a acontecer aqui no cálculo destes ciclopes. O que é que eles fazem exactamente, eu compreendo, mas de alguma outra forma.... HM....

Para cada valor no ActiveSheet.Range(Data1)

X(I) = Valor

Nn = Nn + Valor

I = I + 1

Valor seguinte

Neste loop, o array X é escrito e há também uma soma acumulativa, como se não houvesse dúvidas, mas mais....

Para I = 1 Para N

X(I) = X(I) / Nn

Próximo I

Dividimos cada elemento da matriz pela soma total dos valores, suspeito que esta seja apenas a busca de frequência. Right????

Ok... acho que já percebi, precisamos de somar todas as frequências para encontrar a probabilidade. Certo?

 
Dr. Trader:

Para resumir o que escrevi acima, primeiro determine a centralidade cruzada das combinações preditoras, e pegue a combinação preditoras com a centralidade cruzada inferior. É estranho que seja negativo, no meu caso é apenas infinito a zero, mas não importa, pegue o mais negativo então.

A entropia da saída NS é, na minha opinião, ruim como uma estimativa da própria neurônica. Você pode ajustar as saídas da rede para dar uma resposta correta em 100% dos casos, e ela terá uma baixa entropia, mas pode ter um grande excesso de equipamento. A sobrealimentação é má.

Para encontrar entropia cruzada primeiro você precisa encontrar entropia condicional de dois eventos, que é o que eu estou fazendo agora....

E a estimativa da entropia do modelo é necessária quando o modelo está em OOS. Tendo emitido um sinal, podemos calcular a entropia deste sinal e usá-lo para tirar conclusões. A entropia do sinal aumentou. Que se lixe, está em baixo - é a nossa locomotiva a vapor....