Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2743
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
além de Maxim Dmitrievsky .
É disso que estou falando:
para fazer a classificação, não se deve fazer apenas com base na direção para cima/para baixo, mas primeiro, pelo menos, fazer uma análise de agrupamento para determinar quantas classes alocar formalmente (como chamá-las é uma questão de gosto subjetivo)...
e só então determinar as funções discriminantes com base nas quais atribuir as amostras a esta ou àquela classe.... então a classificação será feita com uma porcentagem normal de precisão - quando soubermos que as classes em que nos dividimos realmente existem...
A PCA é apenas uma variante da análise fatorial para selecionar recursos ortogonais, mas ela explica TODA a variação, sem selecionar os fatores principais,
porque os componentes principais são apenas os dados brutos transformados em coeficientes de vetor próprio ("loadings"), que, quando multiplicados pelos dados brutos, dão pc_scores... (algo assim - lembrei-me há muito tempo - os componentes principais são apenas os dados brutos transformados em coeficientes de vetor próprio ("loadings"), que, quando multiplicados pelos dados brutos, dão pc_scores... (algo assim - não me lembro do algoritmo há muito tempo)
- mas, no final, a PCA explica TODA a variação, sem fs... Em contraste, a análise do fator principal usa "apenas a variação da variável, comum a outras variáveis também"... (Não insisto que essa seja a melhor fs -- mas há nuances em toda parte)
em geral FS ninguém consegue fazer corretamente e tenta culpar a biblioteca...
PCA em combinação com +/-3sq.cv. off - pode ajudar a remover outliers, mas isso é apenas para distribuição normal, e você ainda precisa provar que sua população genérica obedece à lei de distribuição normal! - também estatisticamente... caso contrário, o PCA mostrará "óleo no Repin" (e não vice-versa)...
== Vejo uma maneira estatisticamente adequada de criar um modelo aproximadamente como este....
===
e a biblioteca já é a décima coisa (mesmo que os moderadores chamem nomes sem entender do que estamos falando em DataScience normal - os perdedores sempre sonham com um banquete e culpam o mundo inteiro) - enquanto aqueles que realmente querem entender, há muito tempo perceberam que não é a linguagem do programador que importa, mas os algoritmos por trás de certas entidades, implementados até mesmo em uma biblioteca alienígena - a essência das relações de causa e efeito não muda isso (o nome da biblioteca).
p.s..
enquanto os moderadores estão no banquete(, outros estão trabalhando - você deveria tomar o exemplo deles - não espalhe desinformação.
A PCA é apenas uma variante da análise fatorial para selecionar recursos ortogonais, mas explica TODA a variação, sem selecionar os fatores principais,
Existe a PCA que leva em conta o objetivo, ela isolará os componentes que caracterizam o objetivo, mas o triste é que o objetivo é uma variável subjetiva e "flutuará" assim que o treinamento for superado.... E como isso difere do treinamento normal de professores?
além de Maxim Dmitrievsky .
É disso que estou falando:
para fazer a classificação, não se deve fazer apenas com base na direção para cima/para baixo, mas primeiro, pelo menos, fazer uma análise de agrupamento para determinar quantas classes devem ser formalmente alocadas (como chamá-las é uma questão de gosto subjetivo)...
e só então determinar as funções discriminantes com base nas quais atribuir as amostras a esta ou àquela classe.... então a classificação será feita com uma porcentagem normal de precisão - quando soubermos que as classes em que nos dividimos realmente existem...
A PCA é apenas uma variante da análise fatorial para selecionar recursos ortogonais, mas explica TODA a variação, sem selecionar os fatores principais,
porque os componentes principais são apenas os dados originais transformados em coeficientes de vetor próprio ("loadings"), que, quando multiplicados pelos dados originais, dão pc_scores... (algo assim - lembrei-me há muito tempo - faz muito tempo)... (algo assim - não me lembro do algoritmo há muito tempo)
- mas, no final, a PCA explica TODA a variação, sem fs... Em contraste, a análise do fator principal usa "apenas a variação da variável, comum a outras variáveis também"... (Não insisto que essa seja a melhor fs -- mas há nuances em toda parte)
em geral FS ninguém consegue fazer corretamente e tenta culpar a biblioteca...
PCA em combinação com +/-3sq.cv. off - pode ajudar a remover outliers, mas isso é apenas para distribuição normal, e você ainda precisa provar que sua população genérica obedece à lei de distribuição normal! - também estatisticamente... caso contrário, a PCA mostrará "óleo no Repin" (e não vice-versa)...
== Vejo a maneira estatisticamente adequada de criar um modelo da seguinte forma...
===
e a biblioteca já é a 10ª coisa (mesmo que os moderadores chamem nomes sem entender do que estamos falando em DataScience normal - os perdedores sempre sonham com um banquete e culpam o mundo inteiro) - enquanto aqueles que realmente querem entender, há muito tempo perceberam que não é a linguagem do programador que importa, mas os algoritmos por trás de certas entidades, implementados até mesmo em uma biblioteca alienígena - a essência das relações de causa e efeito não muda isso (o nome da biblioteca).
p.s..
enquanto os moderadores estão no banquete(, outros estão trabalhando - você deveria tomar o exemplo deles - não espalhe desinformação.
.
dito por quem? por um idiota que não consegue juntar três palavras sem quebrar a lógica )) ahaha, é sério....
por quem? por um idiota que não consegue juntar três palavras para manter a lógica intacta )) ahaha, isso é sério....
você não entende de turnos de fala, não entende quando é escrito para ser breve, não entende de definições, isso não é nada.
você está apenas falando fora do tópico. Essa é a marca registrada de um universitário.
Ninguém o está acusando disso, as pessoas são diferentes. Só não vá onde você é um carvalho, não se envolva :Dvocê não entende os padrões de fala
genius)) escrevemos qualquer besteira e, se alguém que pensa nos cutuca no nariz, dizemos a essa pessoa - você não entende de fala, ptushnik.
O que você tem contra os ptushniks? Eles não são pessoas? Ou seu ex é de lá?
...
Escreva em russo, é impossível de ler. E com amostras é até engraçado. A maioria de suas postagens eu geralmente não leio por causa disso.
Para resumir a teoria de Sanych (já que ele mesmo não conseguiu formalizá-la adequadamente e dar exemplos):
Depois das explicações de Sanych, parei de entender um pouco o que significam os preditores significativos no final. De acordo com sua explicação, eles ocorrem com frequência e sua magnitude está correlacionada com o resultado. Mas esses são aparentemente sinais gerais da série, durante todo o período de treinamento. Não consigo identificar o que é isso no modelo da série. Acontece que esses são preditores que funcionam sempre, se bastante simplificados, ou na maioria das vezes. Em geral, fica claro que o uso de configurações que funcionam com mais frequência produzirá um resultado mais positivo do que o uso de configurações que funcionam apenas em um determinado segmento....
Não consigo entender o que está sendo pesquisado e por quê.
gênio)) escrevemos qualquer besteira e, se alguém que pensa o cutuca no nariz, você diz: você não entende os padrões de fala, ptuschestvo.
O que você tem contra os ptushniks? Eles não são pessoas? Ou seu ex é de lá?