Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3081

 

Este artigo é uma ilustração perfeita da promoção publicitária de resultados triviais.

O próprio título"Causal Effects" nos cutuca, pois, ao estudarmos vários senos, não percebemos que esse é o resultado do Causal Effects de alimentar a entrada do pecado com dados de entrada e obter o resultado.

O autor pega o RF, fornece dados de entrada para o input e obtém um erro como resultado.

Para que todos percebam que estamos lidando com uma direção totalmente nova em MO, os dados de entrada (preditores) são chamados de covariáveis, o algoritmo de RF é chamado de meta-aprendiz e todo o processo é chamado deEfeitos Causais.

Os apologistas dosefeitos causais não sabem que, às vezes, em russo, covariáveis são os preditores que têm efeito não apenas sobre a variável-alvo, mas também sobre os preditores vizinhos, ou seja, o termo deve ser usado com mais precisão para evitar ambiguidade.

Chamar o algoritmo RF de "metaaprendiz" é outro golpe publicitário do Causal Effects, pois esse algoritmo que produz regras certamente NÃO é um aprendiz. Mas, do ponto de vista da publicidade, no aprendizado de máquina deve haver alunos e a importância do "meta" e do basta.

O documento justifica em alguns detalhes a escolha do RF como algoritmo de base , afirmando especificamente que qualquer algoritmo MO (?) pode ser usado no lugar doRF. Como uma generalização desse pensamento, o termo incômodo, ou seja, desagradável, detestável, irritante , é usado. Se for por texto, provavelmente deveria ser traduzido como "uma função do ruído", ou seja, o algoritmo de RF é uma "função do ruído". Mas como isso soa intrincado e bonito, e o mais importante é que o leitor, que antes achava que a RF produzia regras com algum erro, simplesmente se diverte com isso.

Podemos continuar, mas o que foi dito acima é suficiente para que todo esse Causal Effects seja pura publicidade, por sinal muito bem-sucedida, quando o verdadeiro absurdo foi vendido e conseguiu um lugar como professor na Universidade de Stanford, conseguindo seguidores que querem acompanhar as novas tendências avançadas.

Então, quem é o autor da suposta mais nova tendência de ponta em ME? A julgar pelo número de referências, um tal de Victor Chernozhukov, um homem que não tem formação de perfil, formado em um instituto agrícola no início dos anos 90. Eu me lembro muito bem dessa época, quando milhões de Chernozhukovs, sob os gritos de uma consciência sem nuvens de educação e fatos, corriam e faziam todo tipo de bobagem, e muitos deles se tornaram bilionários e políticos importantes.


Hoje, o mundo inteiro vive de acordo com as leis da publicidade, em todas as esferas, achando que o MO passará por essa copa. Bem, não.

 
СанСаныч Фоменко #:

Esse artigo é uma ilustração perfeita da promoção publicitária de resultados triviais.

O próprio nome"Causal Effects" nos cutuca no nariz por causa do nosso atraso, pois, ao estudarmos vários senos, não percebemos que esse é o resultado do Causal Effects de fornecer dados de entrada para a entrada do pecado e obter o resultado.

O autor pega o RF, fornece dados de entrada e obtém um erro como resultado.

Para que todos percebam que estamos lidando com uma direção completamente nova em MO, os dados de entrada (preditores) são chamados de covariáveis, o algoritmo de RF é chamado de meta-aprendiz e todo o processo é chamado deEfeitos Causais .

Os apologistas dosefeitos causais não sabem que, às vezes, em russo, covariáveis são os preditores que têm efeito não apenas sobre a variável-alvo, mas também sobre os preditores vizinhos, ou seja, o termo deve ser usado com mais precisão para evitar ambiguidade.

Chamar o algoritmo RF de "metaaprendiz" é outro golpe publicitário do Causal Effects, pois esse algoritmo que produz regras certamente NÃO é um aprendiz. Mas, do ponto de vista da publicidade em aprendizado de máquina, deve haver estudantes e a importância de "meta" e basta.

O documento justifica com alguns detalhes a escolha do RF como algoritmo de base , afirmando especificamente que qualquer algoritmo MO (?) pode ser usado no lugar doRF. Como uma generalização desse pensamento, o termo incômodo, ou seja, desagradável, detestável, irritante , é usado. Se for por texto, provavelmente deve ser traduzido como "uma função do ruído", ou seja, o algoritmo de RF é uma "função do ruído". Mas como isso soa intrincado e bonito, e o mais importante é que o leitor, que antes achava que a RF produzia regras com algum erro, simplesmente se diverte com isso.

É possível continuar, mas o que foi dito acima é suficiente para remeter todo esse Causal Effects à pura publicidade, que, por sinal, foi muito bem-sucedida, quando o verdadeiro absurdo foi vendido e ganhou um lugar de professor na Universidade de Stanford, conseguindo seguidores que querem acompanhar as novas tendências avançadas.

Então, quem é o autor da suposta mais nova tendência de ponta em EM? A julgar pelo número de referências, um tal de Victor Chernozhukov, um homem que não tem formação de perfil, formado em um instituto agrícola no início dos anos 90. Eu me lembro muito bem dessa época, quando milhões de Chernozhukovs, sob os gritos de uma consciência sem nuvens de educação e fatos, estavam correndo e movendo todo tipo de bobagem, e muitos deles se tornaram bilionários e políticos importantes.


Hoje, o mundo inteiro vive de acordo com as leis da publicidade, em todas as esferas, achando que o MO passará por essa Copa. Bem, não.

Obrigado pela análise, pois não a li. O vídeo sobre o mesmo assunto foi suficiente.
 
СанСаныч Фоменко #:

Este artigo é uma ilustração perfeita da promoção publicitária de resultados triviais.

O próprio nome"Causal Effects" nos cutuca no nariz por causa do nosso atraso, pois, ao estudarmos vários senos, não percebemos que esse é o resultado do Causal Effects de fornecer dados de entrada para a entrada do pecado e obter o resultado.

O autor pega o RF, fornece dados de entrada e obtém um erro como resultado.

Para que todos percebam que estamos lidando com uma direção completamente nova em MO, os dados de entrada (preditores) são chamados de covariáveis, o algoritmo de RF é chamado de meta-aprendiz e todo o processo é chamado deEfeitos Causais .

Os apologistas dosefeitos causais não sabem que, às vezes, em russo, covariáveis são os preditores que têm efeito não apenas sobre a variável-alvo, mas também sobre os preditores vizinhos, ou seja, o termo deve ser usado com mais precisão para evitar ambiguidade.

Chamar o algoritmo RF de "metaaprendiz" é outro golpe publicitário do Causal Effects, pois esse algoritmo que produz regras certamente NÃO é um aprendiz. Mas, do ponto de vista da publicidade em aprendizado de máquina, deveria haver estudantes e a importância de "meta" e basta.

O documento justifica com alguns detalhes a escolha do RF como algoritmo de base , afirmando especificamente que qualquer algoritmo MO (?) pode ser usado no lugar doRF. Como uma generalização desse pensamento, o termo incômodo, ou seja, desagradável, detestável, irritante , é usado. Se for por texto, provavelmente deveria ser traduzido como "uma função do ruído", ou seja, o algoritmo de RF é uma "função do ruído". Mas como isso soa intrincado e bonito, e o mais importante é que o leitor, que antes achava que a RF produzia regras com algum erro, simplesmente se diverte com isso.

É possível continuar, mas o que foi dito acima é suficiente para remeter todo esse Causal Effects à pura publicidade, que, por sinal, foi muito bem-sucedida, quando o verdadeiro absurdo foi vendido e ganhou um lugar de professor na Universidade de Stanford, conseguindo seguidores que querem acompanhar as novas tendências avançadas.

Então, quem é o autor da suposta mais nova tendência de ponta em EM? A julgar pelo número de referências, um tal de Victor Chernozhukov, um homem que não tem formação de perfil, formado em um instituto agrícola no início dos anos 90. Eu me lembro muito bem dessa época, quando milhões de Chernozhukovs, sob os gritos de uma consciência sem nuvens de educação e fatos, estavam correndo e movendo todo tipo de bobagem, e muitos deles se tornaram bilionários e políticos importantes.


Hoje, o mundo inteiro vive de acordo com as leis da publicidade, em todas as esferas, achando que o MO passará por essa Copa. Bem, não.

Isso é apenas a apoteose de sua inépcia profissional, quando novas informações não vão para a taça. Ou problemas com a tradução. Só posso me solidarizar :)

 
Maxim Dmitrievsky #:

É apenas o apogeu de sua profanação quando novas informações não entram mais na tigela de forma alguma. Ou problemas de tradução. Só posso me solidarizar :)

todos os termos são distorcidos, as informações básicas são distorcidas de forma irreconhecível.

Você pode transmitir aos plebeus as informações não distorcidas?

 
СанСаныч Фоменко #:

...

O documento justifica com alguns detalhes a escolha do RF como algoritmo de base , estipulando especificamente que qualquer (?) algoritmo MO pode ser usado no lugar do RF. Como uma generalização desse pensamento, o termo incômodo, ou seja, desagradável, detestável, irritante, é usado. Se for por texto, provavelmente deveria ser traduzido como "uma função do ruído", ou seja, o algoritmo de RF é uma "função do ruído". Mas como isso soa intrincado e bonito, e o mais importante é que o leitor, que antes achava que o RF produzia regras com algum erro, simplesmente se diverte com isso.

...

Eu estava lendo e procurando uma aplicação prática de tudo isso - então você não encontrou nenhuma?

Pareceu-me que o artigo deveria fornecer uma ferramenta para avaliar a medida do desvio da área da amostra agregada em relação à amostra na qual o treinamento foi realizado. Dessa forma, com essa ferramenta, é possível detectar partes anômalas da amostra. Você acha que ela existe ou não?

 
Aleksey Vyazmikin #:

Você pode transmitir informações não adulteradas para os plebeus?

Eu posso simpatizar

 
СанСаныч Фоменко #:

Pensei que estava recebendo um boquete ..... Ah, não.

E eu sou da mesma opinião.))

Estas palavras profundas descrevem todo este tópico
 
Aleksey Vyazmikin #:

Eu li e procurei por uma aplicação prática de tudo isso - então você não encontrou nenhuma?

Pareceu-me que o artigo deveria fornecer uma ferramenta para avaliar a medida do desvio da área da amostra agregada em relação à amostra na qual o treinamento foi realizado. Dessa forma, com essa ferramenta, é possível detectar partes anômalas da amostra. Você acha que ela está lá ou não?

Não está no artigo.

Ele descreve o ajuste usual com diferentes divisões dos preditores originais, incluindo validação cruzada. Uma rotina que foi camuflada com palavras.

 
СанСаныч Фоменко #:

Isso não está no artigo.

O ajuste usual com diferentes divisões dos preditores originais, incluindo validação cruzada, é descrito. Uma rotina que foi camuflada com palavras.

Obrigado pela opinião do especialista.

 
Maxim Dmitrievsky #:


e as funções(ou parâmetros) incômodas não são funções de ruído, mas auxiliares, que não são funções de destino para uma tarefa específica


Posso ter um link no artigo para uma visualização dessas funções "auxiliares"?

Ao mesmo tempo, os motivos para usar a RF, que é chamada de função básica e que calcula muitas informações como resultado do trabalho, são descritos com muitos detalhes:

Um objeto da classe randomForest , que é uma lista com os seguintes componentes:

chamada

a chamada original para randomForest

tipo

um dos tipos de regressão, classificação ou não supervisionado.

previsto

os valores previstos dos dados de entrada com base em amostras fora do saco.

importância

uma matriz com nclasses + 2 (para classificação) ou duas colunas (para regressão). Para classificação, as primeiras colunas nclass são as medidas específicas da classe computadas como redução média na precisão. A coluna nclass + 1 é a redução média da precisão em todas as classes. A última coluna é a redução média no índice Gini. Para Regressão, a primeira coluna é a redução média na precisão e a segunda é a redução média no MSE. Se importance=FALSE , a última medida ainda será retornada como um vetor.

importanceSD

Os "erros padrão" da medida de importância baseada em permutação. Para classificação, uma matriz p por nclasse + 1 correspondente às primeiras colunas nclasse + 1 da matriz de importância. Para regressão, um vetor de comprimento p.

localImp

uma matriz p por n contendo as medidas de importância casewise, cujo elemento [i,j] é a importância da i-ésima variável no j-ésimo caso. NULL se localImp=FALSE .

ntree

número de árvores cultivadas.

mtry

número de preditores amostrados para divisão em cada nó.

forest

(uma lista que contém a floresta inteira; NULL se randomForest for executado no modo não supervisionado ou se keep.forest=FALSE .

err.rate

(somente classificação) vetor de taxas de erro da previsão nos dados de entrada, sendo o i-ésimo elemento a taxa de erro (OOB) de todas as árvores até a i-ésima.

confusion

(somente classificação) a matriz de confusão da previsão (com base nos dados OOB).

votos

(somente classificação) uma matriz com uma linha para cada ponto de dados de entrada e uma coluna para cada classe, fornecendo a fração ou o número de "votos" (OOB) da floresta aleatória.

oob.times

número de vezes que os casos estão "fora do saco" (e, portanto, usados no cálculo da estimativa de erro OOB).

proximidade

se proximity=TRUE quando randomForest é chamado, uma matriz de medidas de proximidade entre a entrada (com base na frequência em que os pares de pontos de dados estão nos mesmos nós terminais).

mse

(somente regressão) vetor de erros quadrados médios: soma dos resíduos ao quadrado dividida por n .

rsq

(somente regressão) "pseudo R-quadrado": 1 - mse / Var(y).

teste

Se o conjunto de teste for fornecido (por meio dos argumentos xtest ou ytest adicionalmente ), esse componente será uma lista que contém os valores correspondentes de predicted, err.rate, confusion, votes ( para classificação) ou predicted, mse e rsq ( para regressão) para o conjunto de teste. Se proximity=TRUE , há também um componente, proximity , que contém a proximidade entre o conjunto de testes e a proximidade entre os dados de teste e de treinamento.


Não se sabe exatamente o que o autor usa da lista acima, mas simplesmente não há outras fontes para determinar erros de classificação ou regressão ao usar RF, e não há necessidade delas.

Os erros produzidos pela RF serão diferentes para diferentes combinações de dados de entrada. É isso que o autor estuda e tira conclusões sobre a variação do erro e uma certa tendência, que não se sabe como foi calculada.