Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2451

 
Alexei Tarabanov #:

Está tudo à nossa frente.

Como assim?

 

A minha neta está a aprender farsi e chinês. Ela também pede japonês para poder espiá-los.

 
Alexei Tarabanov #:

A minha neta está a aprender farsi e chinês. Ela também pede japonês para poder espiá-los.

Fixe, é claro, mas não é uma questão de pensamento (culpa dos pais), seria melhor para ela aprender linguagens de programação, que também desenvolve habilidades de pensamento...

Os tradutores são muito bons agora, em 10 anos eu acho que podemos implantar chips no cérebro com muitas coisas boas, incluindo a tradução de todas as línguas, eles aprenderam como se conectar ao cérebro, é apenas uma questão de tempo ...

Assim, aprender muitas línguas é como sonhar em ser piloto, camionista, taxista, etc., sem reparar que o Tesla já está a passar por si em piloto automático completo... Muito em breve muitos empregos desaparecerão para sempre e tens de pensar nisso...

 
Você está em primeiro nome com Python.
 
Alexei Tarabanov #:
Em primeiro nome com Python

legal

 
Maxim Dmitrievsky #:
Metade das ativações dos neurônios são para a classe 1, metade são para a outra classe. Baseado em tal lógica primitiva. Se distorcidas, então talvez as classes estejam pouco equilibradas. E os valores extremos parecem fazer explodir ou desvanecer o gradiente.

Max, não tires conclusões precipitadas.

A palavra "possivelmente" no seu posto sugere que você não pensou nesta formulação da pergunta, não é verdade?

A rede neural em geral e o MLP em particular é muito flexível, e o mesmo conjunto de características pode ser dividido da mesma forma pela mesma rede, mas com diferentes valores de pesos de neurónios.... Certo? - Surge então a questão, qual destas variantes do conjunto de pesos é mais robusta?

E com o segundo, que respondeu ao meu posto, não creio que seja mais necessário manter um diálogo - é inútil.

 
Alexei Tarabanov #:

Zhi, shi são soletrados com um i.

Há excepções. ;)

 
Andrey Dik #:

Max, não tires conclusões precipitadas.

A palavra "talvez" no seu post sugere que você não pensou nessa formulação da pergunta, não é?

A rede neural em geral e o MLP em particular é muito flexível, e o mesmo conjunto de características pode ser dividido igualmente pela mesma rede mas com diferentes valores de pesos de neurónios.... Certo? - Surge então a questão, qual destas variantes do conjunto de pesos é mais robusta?

E com o segundo, que respondeu ao meu posto, não creio que seja mais necessário manter um diálogo - não faz sentido.

Não te envolvas em disparates. Você foi corretamente respondido que deveria escolher um modelo no teste. E ainda melhor na validação cruzada ou no encaminhamento de avaliação.

Embora a experiência seja adquirida pela prática... Estuda) Depois vais aos testes.

 
elibrarius #:

Não faças nenhum disparate. Foi-lhe dito corretamente que você deve escolher um modelo no teste. Ou ainda melhor em validação cruzada ou valuation-forwarding.

Embora a experiência seja adquirida pela prática... Virá para os testes mais tarde.

no teste...? um teste é o mesmo que a derivada de uma função, pode ser a mesma curva, tangente ao mesmo ponto, mas a duas funções diferentes.

Não quero ofender nenhum dos veteranos neste tópico, mas você deve saber o básico depois de tantos anos.

 

.