Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1967

 
mytarmailS:

Eu não sei... Já o li quatro vezes e ainda não percebi, talvez o professor seja um apoio?

+ há mais votações a decorrer a partir das camadas.

Bem sim, a memória em LQV na forma das últimas saídas dos neurónios LQV , mas como eu entendo a memória é apenas um passo atrás...

E esta fantástica analogia com a chaleira e o café? É o grão inteiro...


Ele não te disse nada?

Onde será que ensinam estas coisas? É como cibernética, robótica, e...

Os DataSynthians são apenas educadores físicos no instituto tecnológico).


==============================================================

há também o LVQ dinâmico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detalhes

dlvq : Os dados de entrada devem ser normalizados para utilizar o DLVQ.

Aprendizagem DLVQ: um vector médio (protótipo) é calculado para cada classe e armazenado num módulo oculto (recentemente criado). A rede é então utilizada para classificar cada padrão usando o protótipo mais próximo. Se um padrão for mal classificado como classe y em vez da classe x, o protótipo classe y é afastado do padrão e o protótipo classe x é movido em direcção ao padrão.Este procedimento é repetido iterativamente até que não haja mais mudanças na classificação. Em seguida, novos protótipos são introduzidos na rede para cada classe como novas unidades ocultas e inicializados pelo vetor médio de gabaritos mal classificados nessa classe.

Arquitetura de rede: a rede tem apenas uma camada oculta contendo uma unidade para cada protótipo. Os protótipos/unidades ocultas também são chamados de vetores de livro de código. Como o SNNS gera unidades automaticamente e não requer uma especificação prévia do número de unidades, o procedimento no SNNS é chamado LVQ dinâmico .

As funções de inicialização, aprendizagem e actualização por defeito são as únicas adequadas para este tipo de rede. Os três parâmetros da função de aprendizagem definem duas taxas de aprendizagem (para casos classificados correcta / incorrectamente) e o número de ciclos para os quais a rede é treinada antes de calcular os vectores médios.

Referências

Kohonen, T. (1988), Auto-organização e memória associativa, Vol. 8, Springer-Verlag.



=========================================================


Meu, eu li este LVQ, é igual ao Kohonen (SOM) mas com um professor.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

Não é o LVQ, é o VQ.

não responde

Provavelmente devido às ligações esparsas, de alguma forma nem todos os neurónios estão sempre activos, por isso a memória pode demorar mais tempo a reter... Além disso, há a memória associativa (que conjuntos de características pertencem a que cluster). O livro de códigos é assim chamado.

Bem, é tudo da teoria do controlo, provavelmente ensinam-na na universidade. O artigo original é de 2015 de alguns chineses. Eu não tenho acesso a ele. Este provavelmente já é um refazer.

 
Maxim Dmitrievsky:

Não é o LVQ, é o VQ.

não responde.

Provavelmente devido às ligações esparsas, de alguma forma nem todos os neurónios estão sempre activos, por isso a memória pode demorar mais tempo a reter... Além disso, existe a memória associativa (que conjuntos de características pertencem a que cluster). O livro de códigos é assim chamado.

Bem, é tudo da teoria do controlo, provavelmente ensinam-na na universidade. O artigo original é de 2015 de alguns chineses. Eu não tenho acesso a ele. O mais provável é que este já seja um retrabalho.

Acontece que a quantificação vectorial é realizada primeiro com base em dados nus e depois com resultados tidos em conta, sendo o resultado mais exacto. Ao menos um filtro para um resultado negativo aparece. Conjuntos de características para diferentes clusters, é como dividir uma linha em diferentes segmentos estáveis.

 
Valeriy Yastremskiy:

Acontece que a quantificação dos vetores é feita primeiro nos dados brutos e depois no resultado, o que torna o resultado mais preciso. Pelo menos o filtro para o resultado negativo aparece. Conjuntos de características para diferentes clusters, é como dividir uma linha em diferentes secções estáveis.

É difícil imaginar de onde vem a longa memória. Por exemplo, na iteração anterior, o último neurônio produziu um zero, adicione-o ao vetor de entrada do primeiro neurônio na iteração seguinte. Iteração. É + 1 dimensão, ou seja, colocamos características num novo espaço e obtemos um estado condicional mais complexo que depende da acção anterior. O primeiro neurónio funcionou e enviou um vector de unidade para o último neurónio. Este último voltou 0 ou 1 para o primeiro. Suponha que existem apenas 2 clusters. Onde é que a memória vai mais fundo do que um passo atrás?

Suponha que haja um terceiro neurônio que leva outro valor +1. Um estado condicional ainda mais complexo. E assim, em ordem ascendente, a memória é armazenada... difícil de imaginar :)

 
Maxim Dmitrievsky:

......... memória armazenada... difícil de imaginar :)

ainda mais difícil para mim )

====


rede associativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Isto é o mesmo que agrupamento, não é? E a imagem associativa é o protótipo de um agrupamento.

 
mytarmailS:

ainda mais difícil para mim )

Na camada 2 você também pode adicionar memória na forma de links de recorrência, mas funciona sem eles. Então a memória está na camada 1, afinal.

 
mytarmailS:

é ainda mais difícil para mim )

====


rede associativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


É o mesmo que clustering, não é? E a imagem associativa é um protótipo de cluster

bem, sim, mas não tem memória das acções anteriores do agente, isso é diferente

Vou ler a pasta de novo, depois mexo no código.

 
Maxim Dmitrievsky:

Bem, sim, mas não há memória das acções anteriores do agente, isso é diferente.

Vou ler a pasta de novo, depois vou dar uma olhadela no código.

vamos ver, vamos pensar sobre isso )

uma ação de agente é uma imagem, um padrão (cluster)

a seqüência de ações (clusters) é memória


uma ação de agente ou qualquer coisa pode ser representada como uma seqüência de clusters

mas um padrão como "servir café"... mas "o café já deve ter sido feito".


pode ser representado como um padrão de transições


 
mytarmailS:

vamos ver, vamos pensar sobre isso).

uma ação de agente é uma imagem, um padrão (cluster)

uma sequência de acções (clusters) é memória

uma ação de agente ou qualquer outra que possa ser representada como uma seqüência de clusters

Não é bem assim. A ação anterior de um agente + estado ambiental (conjunto de características) é um padrão (estado condicional). Tanto a acção anterior como as características são empurradas para 1 vector.

Mas nos neurónios não há informação explícita sobre a sequência de padrões passados, apenas através da gravação de sinais de saída. E apenas 1 (corrente) padrão foi processado. Isto é, estados condicionais mais complexos são codificados por um grupo de neurónios de alguma forma.

 

Maxim Dmitrievsky:

Tanto a acção anterior como as fichas são empurradas para 1 vector.

Mas nos neurónios não há informação explícita sobre a sequência, apenas através da gravação dos sinais de saída. E apenas um padrão foi processado.

Bem, pode ser reduzido a um único vector, pela mesma umap. Eu comprimi 2k chips dessa maneira )

 
mytarmailS:

Bem, pode ser consolidado em um único vetor, pela mesma umap. Foi assim que eu comprimi 2k chips)

é isso que esta camada faz.