![MQL5 - Linguagem para estratégias de negociação inseridas no terminal do cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
CS480/680 Introdução ao aprendizado de máquina - primavera de 2019 - Universidade de Waterloo
CS480/680 Aula 1: Introdução ao Curso
Esta palestra apresenta o conceito de aprendizado de máquina, que é um novo paradigma na ciência da computação, onde os computadores podem ser ensinados a realizar tarefas complexas sem a necessidade de escrever instruções. Este vídeo fornece um breve histórico do aprendizado de máquina e apresenta os três principais componentes de um algoritmo de aprendizado de máquina - dados, tarefa e desempenho.
bem, está indo, mas não tem uma resposta definida para qual é a resposta certa.
CS480/680 Aula 2: K vizinhos mais próximos
CS480/680 Aula 2: K vizinhos mais próximos
Este vídeo aborda os fundamentos do aprendizado supervisionado, incluindo as diferenças entre classificação e regressão. Ele também fornece uma breve introdução ao aprendizado de máquina e explica como funciona o algoritmo do vizinho mais próximo. Por fim, discute como avaliar um algoritmo usando validação cruzada e como o underfitting pode afetar o aprendizado de máquina. Esta palestra discute como usar o algoritmo k-vizinhos mais próximos para regressão e classificação, bem como ponderar os vizinhos com base em sua distância. A validação cruzada é usada para otimizar o hiperparâmetro e todo o conjunto de dados é usado para treinar o modelo.
problema de previsão, onde a entrada são dados do sensor e imagens de satélite e a saída é uma previsão de chuva ou não. O quarto exemplo é um problema em que a entrada é uma pergunta sobre os hábitos de sono de uma pessoa e a saída é uma previsão de se a pessoa terá ou não um bom sono.
CS480/680 Aula 3: Regressão Linear
CS480/680 Aula 3: Regressão Linear
A palestra sobre Regressão Linear começa com uma introdução ao problema de encontrar a melhor reta que se aproxime o máximo possível de um determinado conjunto de pontos. O palestrante explica que as funções lineares podem ser representadas por uma combinação de entradas ponderadas. A regressão linear pode ser resolvida via otimização, com o objetivo de minimizar a perda euclidiana variando o vetor de peso, o que pode ser feito de forma eficiente usando problemas de otimização convexa. O processo de resolução de uma equação de regressão linear envolve encontrar a variável W, ou pesos, que fornecerá o mínimo global para a função objetivo, o que pode ser feito usando técnicas como inversão de matriz ou métodos iterativos. A importância da regularização na prevenção do overfitting também é discutida, com um termo de penalidade adicionado à função objetivo para restringir a magnitude dos pesos e forçá-los a serem os menores possíveis. A palestra termina discutindo a importância de abordar a questão do overfitting na regressão linear.
CS480/680 Aula 4: Aprendizagem Estatística
CS480/680 Aula 4: Aprendizagem Estatística
Nesta palestra sobre aprendizado estatístico, o professor explica vários conceitos, como regra de marginalização, probabilidade condicional, probabilidade conjunta, regra de Bayes e aprendizado bayesiano. Esses conceitos envolvem o uso de distribuições de probabilidade e sua atualização para reduzir a incerteza no aprendizado. A palestra enfatiza a importância de entender esses conceitos para justificar e explicar vários algoritmos. A palestra também destaca as limitações desses conceitos, principalmente ao lidar com grandes espaços de hipóteses. Apesar dessa limitação, o aprendizado bayesiano é considerado ótimo desde que a priori esteja correta, fornecendo informações significativas aos usuários.
Nesta palestra, o instrutor explica o conceito de aprendizado bayesiano aproximado como uma solução para o problema de tratabilidade com o aprendizado bayesiano. A máxima verossimilhança e o máximo a posteriori são aproximações comumente usadas no aprendizado estatístico, mas elas vêm com seu próprio conjunto de fraquezas, como superajuste e previsões menos precisas do que o aprendizado bayesiano. A palestra também aborda o problema de otimização decorrente da maximização da verossimilhança, a quantidade de dados necessária para diferentes problemas e a importância dos próximos slides para a tarefa do curso. O instrutor conclui enfatizando que o algoritmo irá convergir para a melhor hipótese dentro do espaço dado, mesmo que algumas razões não sejam realizáveis.
CS480/680 Aula 5: Regressão Linear Estatística
CS480/680 Aula 5: Regressão Linear Estatística
Nesta palestra sobre regressão linear estatística, o professor aborda vários tópicos, começando com o conceito de máxima verossimilhança e distribuições gaussianas de verossimilhança para dados corrompidos e ruidosos. Eles explicam o uso de técnicas de máxima verossimilhança para encontrar os pesos que dão a máxima probabilidade para todos os pontos de dados no conjunto de dados. A palestra então se aprofunda na ideia de máximo a posteriori (MAP), gaussiano esférico e a matriz de covariância. O palestrante também discute o uso da informação a priori e a regularização. O erro esperado na regressão linear é então dividido em dois termos: um responsável pelo ruído e outro dependente do vetor de ponderação, W, que pode ainda ser dividido em viés e variância. A palestra termina com uma discussão sobre o uso do aprendizado bayesiano para calcular a distribuição a posteriori. No geral, a palestra abrange uma ampla gama de tópicos relacionados à regressão linear estatística e fornece informações valiosas sobre a otimização de modelos para reduzir o erro de previsão.
A palestra se concentra na regressão bayesiana, que estima uma distribuição posterior que converge para o verdadeiro conjunto de pesos à medida que mais pontos de dados são observados. A distribuição a priori é mostrada como uma distribuição sobre pares de W nada e W1 e é uma distribuição de linhas. Depois de observar um ponto de dados, a distribuição posterior é calculada usando distribuições anteriores e de probabilidade, resultando em uma crença atualizada sobre a posição da linha. Para fazer previsões, uma combinação ponderada das previsões das hipóteses é feita com base na distribuição posterior, levando a uma previsão gaussiana com média e variância dadas por fórmulas específicas. O truque para obter uma previsão de ponto real é obter a média da previsão gaussiana.
CS480/680 Aula 6: Ferramentas para pesquisas (Paulo Pacheco)
CS480/680 Aula 6: Ferramentas para pesquisas (Paulo Pacheco)
Neste vídeo, Paulo Pacheco apresenta duas ferramentas acadêmicas para pesquisas: Google Scholar e RefWorks. Ele explica como pesquisar trabalhos acadêmicos e classificá-los por citações usando o Google Scholar e sugere filtrar artigos mais antigos para os mais recentes. Pacheco enfatiza a importância de exportar e gerenciar citações e apresenta o RefWorks como uma ferramenta para essa tarefa. Ele também fornece dicas para acessar publicações acadêmicas, incluindo o uso de pesquisas de palavras-chave criativas e a possível necessidade de acesso à rede da universidade ou VPN.
CS480/680 Aula 6: Conjuntos de dados Kaggle e competições
CS480/680 Aula 6: Conjuntos de dados Kaggle e competições
A palestra discute Kaggle, uma comunidade para profissionais de ciência de dados competirem em competições patrocinadas usando conjuntos de dados fornecidos para um prêmio em dinheiro, oferecendo kernels para treinamento de modelo de aprendizado de máquina e extração de recursos de dados e uma vasta seleção de quase 17.000 conjuntos de dados para uso no design de algoritmos. O palestrante também observa que os repositórios GitHub da empresa podem fornecer conjuntos de dados, códigos e artigos publicados valiosos para competições.
CS480/680 Aula 6: Normalizando fluxos (Priyank Jaini)
CS480/680 Aula 6: Normalizando fluxos (Priyank Jaini)
O vídeo fornece uma introdução à normalização de fluxos em modelos generativos profundos, uma técnica que aprende uma função para transformar uma distribuição em outra, com o objetivo de transformar uma distribuição conhecida em uma distribuição desconhecida de interesse. O vídeo também discute possíveis projetos de pesquisa relacionados à normalização de fluxos, incluindo a realização de um levantamento de diferentes trabalhos e avanços relacionados à normalização de fluxos e análise da transformação de um único gaussiano em uma mistura de gaussianos. O palestrante incentiva a exploração das diversas aplicações de normalização de fluxos.
CS480/680 Aula 6: Tradução de palavras não supervisionada (Kira Selby)
CS480/680 Aula 6: Tradução de palavras não supervisionada (Kira Selby)
O vídeo discute a tradução de palavras não supervisionada, que envolve o treinamento de um modelo de aprendizado de máquina para traduzir de e para um idioma sem nenhuma informação multilíngue ou correspondência de dicionário. O modelo Muse é apresentado como uma abordagem que pode atingir precisão de ponta em centenas de idiomas sem nenhuma informação multilíngue e se aproxima de modelos supervisionados em desempenho. O processo de tradução não supervisionada de palavras emprega uma matriz que traduz os espaços de incorporação de palavras de diferentes idiomas, usando GAN ou redes adversárias generativas. Ao treinar esses dois modelos um contra o outro, cria-se uma forma de mapear duas distribuições para um espaço, proporcionando melhores resultados de tradução. Os modelos podem atingir 82,3% de precisão em traduções palavra a palavra.
CS480/680 Aula 6: Verificação de fatos e aprendizado por reforço (Vik Goel)
CS480/680 Aula 6: Verificação de fatos e aprendizado por reforço (Vik Goel)
O cientista da computação Vik Goel discute a aplicação do aprendizado por reforço em notícias on-line de verificação de fatos e propõe o uso de um sistema de recomendação para inserir evidências de suporte em tempo real. Ele sugere usar um grande corpus de trabalhos acadêmicos como fonte de dados para treinar um classificador para prever onde uma citação é necessária. Além disso, Goel explica como os pesquisadores começaram a codificar antecedentes humanos em modelos de aprendizado por reforço para acelerar o processo e reconhecer diferentes objetos em videogames. Isso apresenta uma área de pesquisa promissora em que prévias adicionais podem melhorar o processo de aprendizado.