O que alimentar a entrada da rede neural? Suas ideias... - página 38
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Por favor, esclareça no contexto de um otimizador MT5 comum e de um EA comum. Como seria? Pegar dois conjuntos da lista de otimização (não correlacionados), combiná-los e executá-los? Ou há algo mais em mente?
De acordo com os resultados, você obteve alguns coeficientes, escreva-os no código do seu EA antes do código que trabalha com as variáveis otimizadas.
Como resultado, você obtém um filtro da primeira passagem, e a segunda rede aprende não com todos os exemplos, mas somente com aqueles filtrados pela primeira NS.
O objetivo é aumentar a matriz de expectativa reduzindo as entradas falsas - a julgar pelo gráfico, ela é muito baixa.
Ou, como já sugeri anteriormente, tentar treinar com os resultados filtrados usando outros métodos, como o CatBoost.
Os especialistas da filial do MoD dizem
Essa não é a questão - você pode pesquisar o que quiser e como quiser, só que a variante ideal nos dados da pesquisa não garante o mesmo resultado nos dados fora dessa pesquisa (em relação ao mercado).
Se houver um algoritmo que não apenas busque os parâmetros ideais do ponto de vista matemático no FF, mas que também leve em conta a estrutura dos dados, permitindo ver alguma dependência estável em duas amostras após o treinamento, então ele será realmente valioso para aplicação no mercado. E sempre é possível encontrar algo por acaso, como mostrei no tópico MO - em minha pesquisa recente.
De acordo com os resultados, você obteve alguns coeficientes, escreva-os no código do seu NS antes do código que trabalha com as variáveis otimizadas.
Como resultado, você obtém um filtro da primeira passagem, e a segunda rede aprende não com todos os exemplos, mas somente com aqueles filtrados pela primeira NS.
O objetivo é aumentar a matriz de expectativa reduzindo as entradas falsas - a julgar pelo gráfico, ela é muito baixa.
Ou, como já sugeri anteriormente, tentar treinar com os resultados filtrados usando outros métodos, como o CatBoost.
Ah, entendi Obrigado pela ideia
Ah, entendi. Obrigado pela ideia
De nada! Compartilhe seus resultados.
Sim, por favor! Compartilhe seus resultados.
e bots.
Isso é do artigo sobre o perseptron bot? Então não.1. Essa não é a questão - você pode pesquisar o que quiser e como quiser,
2. simplesmente a variante ideal nos dados da pesquisa não garante o mesmo resultado nos dados fora dessa pesquisa (conforme aplicado ao mercado).
3. Se houver um algoritmo que não apenas busque os parâmetros ideais do ponto de vista matemático no FF, mas que também leve em conta a estrutura dos dados, permitindo ver alguma dependência estável em duas amostras após o treinamento, então ele será realmente valioso para aplicação no mercado.
4. e sempre é possível encontrar algo por acaso, como mostrei no tópico de MO - em minha pesquisa recente.
1. Qual é o objetivo? - Não que você possa pesquisar qualquer coisa, mas qual é exatamente o objetivo da pesquisa?
2. e o que garante isso?
3. eu não vi um algoritmo específico de peça única que possa encontrar "dependência estável em duas amostras após o treinamento", mas há considerações lógicas, um conjunto de técnicas e considerações sobre como isso pode ser alcançado (ou pelo menos para entender qual caminho seguir).
4) Por que procurar algo aleatório quando se pode procurar algo não aleatório?
1. qual é o objetivo? - Não que você possa pesquisar qualquer coisa, mas qual é o objetivo da pesquisa?
2. o que garante isso?
3. não vi um algoritmo específico de peça única que possa encontrar "dependência estável em duas amostras após o treinamento", mas há considerações lógicas, um conjunto de técnicas e considerações sobre como conseguir isso (ou pelo menos para entender qual caminho seguir).
4) Por que procurar algo aleatório quando se pode procurar algo não aleatório?
1. A questão é que não é apenas o algoritmo que importa, mas também a natureza/origem dos dados - estamos falando sobre a (não) estacionariedade dos processos e a não representatividade da amostra se estivermos falando em permitir diferentes métodos de otimização.
2. Não tenho uma resposta - estou procurando por uma.
3. eu gostaria de saber mais sobre isso.
4) Escrevi aqui que, se não houver um algoritmo a partir do ponto 2, então todas as abordagens mostram eficiência essencialmente aleatória em novos dados - melhor ou pior não é uma questão de lógica de algoritmo (embora eu admita que há heurísticas que melhoram o resultado), mas a aleatoriedade dos dados obtidos determina o resultado.
Quando você examina uma função conhecida, ela (suas constantes) não muda com as variáveis de entrada, quanto mais exemplos você tiver, maior será a chance de escolher corretamente os coeficientes. Nos dados de mercado, há limites para o número de exemplos que podem ser obtidos, e há um problema no fato de que há muitos desses geradores de números trabalhando ao mesmo tempo com sua própria função (mesmo que sejam grandes participantes cujas regras de comportamento sejam aprovadas e impressas, seguindo o exemplo de nosso Banco Central). Portanto, o ideal é que seja possível se ajustar a regras de comportamento semelhantes de diferentes participantes, pois haverá uma função ruidosa que descreve apenas uma parte do mercado, e é assim que vejo a situação. Ao mesmo tempo, os participantes podem passar de uma função de comportamento para outra....
Os algoritmos de otimização dos próprios artigos são muito interessantes. Tente considerar a admissibilidade de sua aplicação de frente, talvez também pegue uma centena de funções diferentes misturadas e tente descrever pelo menos uma? Em geral, torne o experimento mais complicado.
1. A questão é que não é apenas o algoritmo que importa, mas também a natureza/proveniência dos dados - estamos falando tanto da (não) estacionariedade dos processos quanto da não representatividade da amostra, se estivermos falando da admissibilidade de diferentes métodos de otimização.
2. Não tenho uma resposta - estou em busca de uma.
3. gostaria de saber mais sobre ela.
4. escrevi aqui que, se não houver um algoritmo a partir do ponto 2, então todas as abordagens mostram desempenho essencialmente aleatório em novos dados - melhor ou pior não é uma questão de lógica de algoritmo (embora eu admita que há heurísticas que melhoram o resultado), mas a aleatoriedade dos dados obtidos determina o resultado.
Quando você examina uma função conhecida, ela (suas constantes) não muda em relação às variáveis recebidas, quanto mais exemplos você tiver, maior será a chance de escolher seus coeficientes corretamente. Nos dados de mercado, há limites para o número de exemplos que podem ser obtidos, e há um problema no fato de que há muitos desses geradores de números trabalhando ao mesmo tempo com sua própria função (mesmo que sejam grandes participantes cujas regras de comportamento sejam aprovadas e impressas, seguindo o exemplo de nosso Banco Central). Portanto, o ideal é que seja possível se ajustar a regras de comportamento semelhantes de diferentes participantes, pois haverá uma função ruidosa que descreve apenas uma parte do mercado, e é assim que vejo a situação. Ao mesmo tempo, os participantes podem passar de uma função de comportamento para outra....
Os algoritmos de otimização dos próprios artigos são muito interessantes. Tente considerar a admissibilidade de sua aplicação de frente, talvez também pegue uma centena de funções diferentes misturadas e tente descrever pelo menos uma? Em geral, torne o experimento mais complicado.
Mais adiante no texto: duas citações, depois disso - meu texto
1.
Essa não é a questão - você pode pesquisar o que quiser e como quiser,
A questão é que não apenas o algoritmo é importante, mas também a natureza/origem dos dados - estamos falando sobre a (não) estacionariedade dos processos e a não representatividade da amostra, se estivermos falando sobre a admissibilidade de diferentes métodos de otimização.
Quanto ao primeiro ponto, não falei nada sobre algoritmos de otimização. A essência de qualquer pesquisa é o ótimo descrito pelo usuário. Não importa qual algoritmo de otimização seja usado, a AO só permite evitar a necessidade de fazer uma busca completa. Se for possível fazer uma busca completa, então a AO não será necessária, mas a questão "o que exatamente é necessário" permanece, e não importa se o processo é estacionário ou não.
2.
O fato de um ótimo ser obtido em dados de pesquisa não garante o mesmo resultado em dados fora dessa pesquisa (com relação ao mercado).
Não tenho uma resposta - estou pesquisando.
Ninguém tem uma resposta clara para essa pergunta. Se não se sabe o que pesquisar, então ninguém e nada fará isso por quem está pesquisando, porque não se sabe exatamente o que pesquisar e, como esse é o caso, é impossível classificar qualquer resultado como "o que foi pesquisado".
3.
Não vi um algoritmo específico de peça única que possa encontrar "dependência estável em duas amostras após o treinamento", mas há considerações lógicas, um conjunto de técnicas e considerações sobre como isso pode ser alcançado (ou pelo menos para entender qual caminho seguir).
Eu gostaria de saber mais sobre isso.
E eu, em circunstâncias favoráveis, ficaria feliz em falar sobre isso (se é que você me entende).
4.
E encontrar algo por acaso é sempre possível, como mostrei no tópico MO - em minha pesquisa recente.
Aqui eu escrevi que, se não houver um algoritmo a partir do ponto 2, todas as abordagens essencialmente aleatórias mostram eficiência em novos dados - melhor ou pior não é uma questão de lógica de algoritmo (embora eu admita que há heurísticas que melhoram o resultado), mas a aleatoriedade dos dados obtidos determina o resultado.
Exatamente, se você não sabe o que procurar, é impossível encontrá-lo.
Quando você examina uma função conhecida, ela (suas constantes) não muda com as variáveis de entrada, quanto mais exemplos você tiver, mais chances terá de encontrar seus coeficientes corretamente. Nos dados de mercado, há limites para o número de exemplos que podem ser obtidos, e há um problema no fato de que há muitos desses geradores de números trabalhando ao mesmo tempo com sua própria função (mesmo que sejam grandes participantes cujas regras de comportamento sejam aprovadas e impressas, seguindo o exemplo de nosso Banco Central). Portanto, o ideal é que seja possível se ajustar a regras de comportamento semelhantes de diferentes participantes, pois haverá uma função ruidosa que descreve apenas uma parte do mercado, e é assim que vejo a situação. Ao mesmo tempo, os participantes podem passar de uma função comportamental para outra....
É disso que se trata a discussão.
Os algoritmos de otimização dos próprios artigos são muito interessantes. Tente considerar a questão da admissibilidade de sua aplicação de frente, talvez também pegue uma centena de funções diferentes, misture-as e tente descrever pelo menos uma? Em geral, é mais complicado configurar um experimento.
Deixe-me colocar desta forma: os algoritmos de otimização (entendendo sua lógica interna e seus métodos de pesquisa) abrem seus olhos para muitas coisas e abrem caminhos e visões de caminhos de pesquisa (seja otimização em uma forma geral ou aprendizado em uma forma particular). Estou planejando um artigo com uma experiência desse tipo, com uma mistura de recursos.
O que você quer dizer com"admissibilidade de aplicação direta"? - Não entendo essa formulação da pergunta.
Ainda outro dia iniciei o projeto de um cliente, um consultor com uma rede neural (há a possibilidade de escolher um algoritmo de otimização interno, SGD e muitos outros), treinamento, validação e tudo como deveria ser, o projeto tem várias dezenas de linhas densas de código..... Então, o que estou dizendo...? é que a neuronka mostra sempre novos resultados com os mesmos dados de treinamento.))))) A Neuronics não tem um bom desempenho com novos dados? Bem, ela mostra resultados diferentes com os mesmos dados, portanto, de que novos dados podemos falar? Mas não se trata da neuronka, porque a neuronka é apenas uma fórmula estática, os pesos e os offsets são ajustados, mas a neuronka não muda. Então, qual é o problema, por que você obtém resultados diferentes? E a questão é elementar - o SGD (e outros) fica preso, atenção, na função de perda))) Ou seja, não apenas a rede neural é treinada de forma incompreensível, mas também o algoritmo de otimização interna não consegue se recuperar.
Quero fazer um experimento para comparar a mesma rede neural nos resultados com algoritmos de otimização clássicos e de gradiente. Ventilei essa pergunta, não encontrei nenhuma pesquisa sobre esse tópico, só vejo e ouço como dogma "você deve usar descidas de gradiente e assim por diante", não há uma resposta clara à pergunta "por que você deve". Perguntei a diferentes pessoas do tipo gpt, uma delas forneceu artigos aleatórios de uma fonte científica bem conhecida, outra não forneceu links, mas teimosamente disse que "é necessário", e a terceira confessou que foi ensinada a dizer isso e não tem provas de suas palavras, mas ficaria feliz em conhecê-las (provas).
Com relação ao primeiro ponto, eu não disse nada sobre algoritmos de otimização. A essência de qualquer pesquisa é o ótimo descrito pelo usuário. Não importa qual algoritmo de otimização seja usado, o AO apenas evita a necessidade de fazer uma pesquisa completa. Se for possível fazer uma busca completa, então a AO não será necessária, mas a questão "o que exatamente é necessário" permanece, e não importa se o processo é estacionário ou não.
1 E eu pensei que você tivesse feito uma referência ao tópico MO, porque a opinião de alguns participantes sobre os algoritmos analisados em seus artigos era crítica. Decidi apenas esclarecer, pelo que entendi, qual é o motivo da discordância em substância, em minha opinião. Não quero trazer à tona o tópico de personalidades.
A ndrey Dik #: Ninguém tem uma resposta clara para essa pergunta. Se você não sabe o que procurar, então ninguém nem nada fará isso por quem está procurando, porque não se sabe exatamente o que procurar e, nesse caso, qualquer resultado não pode ser classificado como "o que estava procurando".
2. Eu sei o que procurar - dependências estatisticamente estáveis em segmentos quânticos de preditores, mas o que os sinais dizem sobre isso - eu ainda não sei. Ao criar um modelo, você precisa ter uma alta probabilidade de dar o passo certo em uma nova iteração - isso é tudo :)
A ndrey Dik #:
E eu, em circunstâncias favoráveis, terei o prazer de lhe dizer (se é que você me entende).
3. Não estou entendendo nada, para ser sincero.
A ndrey Dik #:
Exatamente, se você não sabe exatamente o que procurar, é impossível encontrar.
4. Ainda assim, você não entendeu o que eu quis dizer. Para simplificar, imagine que você possa, em uma abordagem iterativa, de acordo com o algoritmo de otimização, verificar à força todos os resultados das variantes entre as quais você precisa fazer uma escolha, e essa escolha aproximará o modelo de uma meta específica em todas as amostras disponíveis. E, aqui no bolso, há esse modelo (ou coeficientes - como você quiser chamá-lo), que é bom para os dados disponíveis, mas não é necessariamente a melhor opção. Ou seja, o algoritmo dá uma olhada no que será o FF nos dados finais ao escolher uma etapa para resolver em uma iteração. É isso que estou dizendo: quando você não observa, pode acidentalmente obter um bom resultado que dependia de etapas aleatórias. Estamos falando de dados de mercado. E o resultado pode se tornar ruim quando novos dados são fornecidos. De qualquer forma, o que quero dizer é que não é tão fácil entender se você obteve um bom modelo por acaso ou devido a um algoritmo em uma subamostra não representativa.
A ndrey Dik #:
É disso que se trata a discussão.
A ndrey Dik #:
Deixe-me colocar da seguinte forma: os algoritmos de otimização (entendendo sua lógica interna e seus métodos de busca) abrem seus olhos para muitas coisas e abrem caminhos e visões de caminhos de busca (seja otimização de uma forma geral ou aprendizado de uma forma específica). Estou planejando um artigo com uma experiência desse tipo, com uma mistura de recursos.
Eu teria interesse em ler sobre esse experimento e o quanto ele reflete o modelo de formação de mercado.
A ndrey Dik #:
O que significa"admissibilidade de aplicação direta"? - Não entendo essa formulação da pergunta.
Significa usá-lo da mesma forma que o otimizador padrão com sua genética e FFs padrão. A aceitabilidade aqui se refere à probabilidade de obter um modelo estável (configurações) em novos dados. Portanto, está claro o que será pesquisado e encontrado....
A propósito, você avaliou como os algoritmos lidam com recursos categóricos?
A ndrey Dik #: Então qual é o objetivo, por que você obtém resultados diferentes?
Muitos algoritmos usam randomização para variabilidade. Você não se deparou com isso fora do MOE? Se você quer resultados repetíveis, fixe a semente.
A ndrey Dik #: Quero fazer um experimento para comparar o mesmo neurônio por resultados com algoritmos de otimização clássicos e de gradiente.
É necessário comparar não apenas um modelo, mas pelo menos cem, por meio de alguns critérios estatísticos descritivos. Apenas a probabilidade de escolher as configurações corretas (modelo) pode ser estimada com base em novos dados...
A ndrey Dik #: Ventilou essa pergunta, mas não encontrou nenhuma pesquisa sobre esse tópico
A descida de gradiente é usada como um método eficiente para utilizar recursos computacionais. Há métodos mais complicados e mais pesados, como o palestrante mencionou em um vídeo, mas não me lembro, apenas a lógica é clara.