Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3296

 
Maxim Dmitrievsky #:
Não tenho uma pergunta. Escrevi por que um grande número de recursos produz resultados ruins na inferência causal.

e eu lhe disse que é apenas a sua hipótese "à medida que o número de recursos aumenta, os resultados pioram".

e expus minha hipótese. ninguém aqui no MO tentou testar isso ainda devido ao custo da experimentação. mas lembro que algumas pessoas fizeram isso com o GPT, houve um salto na qualidade das conexões de informações heterogêneas até o ponto em que foi possível criar novas conexões e inferências.

 
Andrey Dik #:

e eu escrevi para você que essa é apenas a sua hipótese "à medida que as características aumentam, os resultados pioram".

Eu expus minha hipótese. Ninguém aqui no MO tentou testá-la ainda por causa do custo dos experimentos. Mas lembro que algumas pessoas fizeram isso para o GPT, houve um salto na qualidade das conexões de informações heterogêneas a tal ponto que se tornou possível criar novas conexões e conclusões.

Escrevi para você que essa é a sua hipótese, eu não levantei a hipótese. Ela está rigorosamente comprovada.

Não compare dedo com dedo, os modelos de linguagem grandes são treinados exatamente da mesma forma. E você não tem ideia de qual é o erro de aprendizado.

Mais alguma pergunta?

 
Maxim Dmitrievsky #:
Eu escrevi para você que essa é a sua hipótese, eu não a levantei. Ela está estritamente comprovada.

Alguma outra pergunta?

O que você disse NÃO está comprovado, é um julgamento empírico, portanto, sua afirmação é uma hipótese.

Eu não tinha perguntas para você.

 
Andrey Dik #:

o que você disse NÃO está comprovado, são julgamentos empíricos, portanto, sua afirmação é uma hipótese.

Eu não tinha perguntas para você.

Está comprovado. Só porque você não sabe que está comprovado, não significa que não esteja comprovado. Mais uma vez, estou fornecendo um link para a relação entre a variância e o baes.

E não me faça começar a falar sobre o que é comprovado e o que não é comprovado. Há gurus mais sérios por aí.
 
Maxim Dmitrievsky #:

Não compare dedo com dedo, os modelos de idiomas grandes são treinados exatamente da mesma forma. E você não tem ideia do tipo de erro de aprendizado que existe.

Que dedo com dedo?

Exatamente, os grandes modelos de linguagem são treinados exatamente da mesma forma e usam algoritmos de otimização (você pode perguntar ao GPT com quais algoritmos ele foi treinado, há alguns meses ele respondeu sem ambiguidade, agora está fazendo humor, mas direi apenas que o ADAM é um deles). Os autores são bons apenas porque conseguiram criar critérios de avaliação para um modelo grande, o que é muito difícil, pois não basta coletar informações, é preciso ser capaz de avaliar corretamente a qualidade do treinamento (como eu disse, criar critérios de avaliação não é menos importante).

 
Maxim Dmitrievsky #:

E não me faça começar a falar sobre o que é comprovado e o que não é. Há professores mais sérios.

Você gosta de se medir. Não estou lhe ensinando, você deveria entender essas coisas se acha que é um superprofissional.

 
Andrey Dik #:

Você gosta de se medir. Não estou lhe ensinando, você deveria entender essas coisas se acha que é um superprofissional.

Você é quem pensa que sou um superprofissional e está fora do assunto. Não gosto de tagarelice, um amontoado de argumentos não relacionados, salpicados de truques psicológicos como citar autoridades. Se você é preguiçoso demais para ler as evidências, não posso ajudá-lo mais.
 
Maxim Dmitrievsky #:
É você quem pensa que sou um superprofissional e que escrevo fora do tópico. Não gosto de tagarelice, um amontoado de argumentos não relacionados, salpicados de truques psicológicos, como referências a autoridades. Se você é preguiçoso demais para ler as evidências, não posso ajudá-lo mais.

Que autoridades eu citei? Acho que você costuma exibir referências a autoridades e seus artigos.
Não sou especialista em MO, mas sei muito sobre otimização e, como o MO não existe sem otimização, posso participar de qualquer discussão aqui sem hesitação.
 
Andrey Dik #:

A que autoridades eu me referi? Acho que você costuma ostentar referências a autoridades e seus artigos.
Não sou especialista em MO, mas sei muito sobre otimização e, como não existe MO sem otimização, posso participar de qualquer discussão aqui sem hesitação.
Você citou o GPT como uma espécie de prova de algo que não entende. Você escreve só por escrever. Não há nenhuma mensagem significativa. Não estou interessado em otimização, essa é a terceira pergunta. Eu não escrevi sobre otimização e não perguntei sobre isso. Se o aprendizado inclui otimização, isso não significa que aprendizado seja otimização. A conversa não foi sobre isso, de forma alguma.

Você simplesmente não entendeu o que eu escrevi e começou a escrever sobre coisas doentias que estão mais próximas de você.
 
Maxim Dmitrievsky #:
Você citou o GPT como uma espécie de prova de que não faz ideia do que seja. Você está escrevendo apenas por escrever. Não há nenhuma mensagem significativa. Não estou interessado em otimização, essa é a terceira pergunta. Eu não escrevi sobre otimização e não perguntei sobre isso. Se o aprendizado inclui otimização, isso não significa que aprendizado seja otimização. A conversa não era sobre isso.

Você não escreveu sobre otimização, então por que está bisbilhotando?
Eu não escrevi para você.
E o aprendizado é um caso especial de otimização, lembre-se disso.
Veja, ele não escreveu! Agora tenho que pedir permissão para escrever sobre o que escrever e sobre o que não escrever? Acalme-se.