Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 858

 
Maxim Dmitrievsky:

Eu não uso os algoritmos de outras pessoas.

Claro, o espírito Kulibin é uma coisa boa, mas as coisas mais interessantes e necessárias já foram inventadas, e estão na palma da minha mão. Eu não recusaria décadas de pesquisa em todo o mundo.

 
Maxim Dmitrievsky:

Eu também tenho esses, e há também aqueles que fazem dinheiro mas nem sempre, e eu quero fazê-lo sempre (ou quase sempre). E só então eu poderei dar conselhos.

No mealheiro! Vou inseri-lo sempre que começar a dar dicas onde você não sabe :)

 
Dr. Trader:

Claro que o espírito Kulibin é uma coisa boa, mas as coisas mais interessantes e necessárias já foram inventadas, e estão ali mesmo na palma da sua mão. Eu não me importaria de décadas de pesquisa ao redor do mundo.

Relatório? Estás a matar-me aqui com as tuas afirmações vazias.

 
Dr. Trader:

No mealheiro! Vou colocá-lo sempre que você começar a dar conselhos onde você não sabe :)

Aprendi que é inútil pedir a um cavalo morto para dizer algo inteligível, é mais fácil descer e não reagir.

 
Vizard_: Aqui vamos nós! Massa lubrificante fresca para os punheteiros...


Após 2 minutos de trabalho com uma matriz 13x6400 (10 vezes maior do que o exemplo)
Isto acontece.
Erro: Não consigo colocar 3.2 Gb vector.
E está a tentar tirar 12-13 Gb, enquanto eu tenho um total de 16 Gb


 
R normalmente ocupa a memória em pedaços um pouco de cada vez. Ele já tomou 12-13, quer mais 3, e não há como saber quantos mais ele vai precisar mais tarde.
 
Dr. Trader:
R normalmente ocupa a memória em pedaços um pouco de cada vez. Ele já tomou 12-13, quer mais 3, e quem sabe quantos mais ele precisará depois.

Reduziu a matriz - nem conseguia contar 13x500... Aparentemente, dados de mercado sem um padrão está a deixá-lo louco)). Não é como se estivesses a usar glicose para determinar a diabetes.

Alguém já tentou com dados do mercado? Alguma sorte?

Finalmente... Consegui com 13x100: (mas é uma tolice peneirar algo em 100 linhas). Algo de entrada #2 parecia ser o mais importante, em pacotes anteriores era no final. Provavelmente, isto é causado pelo facto de a avaliação se basear em 100 linhas e não em 6400.

Variáveis ordenadas ( importância decrescente):
2 5 10 12 64 7 8 9 1 11
Pontuações 0,24 0,025 0,019 -0,048 -0,055 -0,057 -0,05 -0,063 -0,067 -0,072
3
Pontuações NA

---

Matriz de pontuações:
2 5 10 12 64 7 8 9 1 11
2 0.24
5 0.128 0.025
10 0.186 -0.002 0.019
12 0.015 -0.043 -0.051 -0.048
6 0.086 -0.053 -0.011 -0.068 -0.05
4 0.066 -0.029 -0.073 -0.054 -0.065 -0.055
7 0.134 -0.088 -0.101 -0.188 -0.121 -0.099 -0.057
8 0.12 -0.202 -0.069 -0.1 -0.068 -0.089 -0.061 -0.05
9 0.092 -0.004 -0.138 -0.097 -0.088 -0.069 -0.112 -0.088 -0.063
1 0.086 -0.06 -0.088 -0.107 -0.083 -0.084 -0.066 -0.081 -0.076 -0.067
11 0.095 -0.017 -0.183 -0.115 -0.083 -0.078 -0.066 -0.086 -0.066 -0.082 -0.072
3 0.059 -0.132 -0.102 -0.146 -0.114 -0.126 -0.109 -0.113 -0.131 -0.117 -0.135


 

Hi!


O neuro robô com IA está pronto?


Experimenta. )))



entretanto descobri como fazer um tick bot - para fazer funcionar como no testador ))))

 

Uma Introdução à Greta


Fiquei surpreendido com agreta. Eu havia assumido que ofluxo tensor e os pacotesreticulados eventualmente permitiriam aos desenvolvedores R olhar além das aplicações de aprendizado profundo e explorar a plataformaTensorFlow para criar todos os tipos de aplicações estatísticas de grau de produção. Mas eu não estava a pensar Bayesian. Afinal de contas,Stan é provavelmente tudo o que um modelista Bayesiano poderia querer. Stan é um poderoso motor de modelagem de distribuição de probabilidade a nível de produção, com umainterface R inteligente, documentação profunda e uma equipe de desenvolvimento dedicada.

Mas a greta permite aos usuários escrever modelos Bayesianos baseados em TensorFlow diretamente em R! O que poderia ser mais encantador? A greta remove a barreira da aprendizagem de uma linguagem de modelagem intermediária, ao mesmo tempo em que promete oferecer modelos MCMC de alto desempenho que rodam em qualquer lugar que o TensorFlow possa ir.

Neste post, vou apresentá-lo à greta com um modelo simples usado por Richard McElreath na seção 8.3 de seu livro iconoclástico:Statistical Rethinking: A Bayesian Course with Examples in R and Stan. Este modelo procura explicar o registo do PIB de um país com base numa medida de robustez do terreno, enquanto controla se o país está ou não em África. Vou usá-lo apenas para ilustrar a amostra MCMC com a greta. O exemplo estendido no livro de McElreath, entretanto, é uma meditação sobre as sutilezas das interações de modelagem, e vale bem a pena estudar.

Primeiro, nós carregamos os pacotes necessários e buscamos os dados. O DiagrammeR é para traçar o diagrama de fluxo TensorFlow do modelo, e o bayesplot é usado para traçar diagramas de traçado das correntes Markov. O conjunto de dados robusto que fornece 52 variáveis para 234 é bastante interessante, mas usaremos um conjunto de dados recortados com apenas 170 condados e três variáveis.


library(rethinking)
library(greta)
library(DiagrammeR)
library(bayesplot)
library(ggplot2)

O código a utilizar é o seguinte.


Olá inventores ciclistas!

 
Vizard_:

)))

Para a primeira busca, é aconselhável usar ou "peng " (mais rápido) ou "esteves".
(mais fiável mas muito mais lento para grandes conjuntos de dados) e, no caso de o número de
variáveis é grande (>100), restringir a pesquisa "forward" a "n.var = 100". O
A barra de progresso dar-lhe-á uma ideia do tempo de execução restante.


biblioteca(varrank)

data(nassCDS, pacote = "DAAG")

nassCDS.varrank <- varrank(data.df = nassCDS,
método = "peng",
variável.importante = "morto",
variable.method = "dead", variable.method = "sturges",
algoritmo = "forward",
esquema = "meio",
verboso = FALSO)

resumo(nassCDS.varrank)
plot(nassCDS.varrank, notecex = 0.5)

Este algoritmo em particular, é seleccionar os preditores bons ou maus?


Em geral, na seleção dos preditores, o que é bom e o que é ruim?

Na superfície, é uma questão de ligar a seleção do preditor ao desempenho de um modelo.

Isso parece-me ser um segundo passo.

O primeiro passo é SEMPRE lidar com o supertreinamento do modelo, uma situação em que o comportamento do modelo no futuro não corresponde ao seu comportamento no passado. Se não tivermos ideias sobre isto, então é tudo um jogo de números.


Para voltar ao seu posto.

Acredito que o comportamento futuro do modelo será pouco diferente do comportamento nos dados históricos se a PRESCRIBUIÇÃO dos preditores à medida que a janela se mover não mudará muito.

As classificações que o pacote calcula vão mudar em algum conjunto de preditores ou não? Claramente o resultado pode ser diferente para diferentes conjuntos de preditores, no entanto, se (como fiz acima) tais posts fossem postados aqui...