Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aula 9 -- Monte Carlo -- Philipp Hennig
Numéricos de ML 9 -- Monte Carlo -- Philipp Hennig
Neste vídeo sobre Monte Carlo, Philipp Hennig explica como a integração é um problema fundamental no aprendizado de máquina quando se trata de inferência Bayesiana usando o Teorema de Bayes. Ele apresenta o algoritmo de Monte Carlo como uma forma específica de fazer integração e fornece um breve histórico do método. Ele também discute as propriedades dos algoritmos de Monte Carlo, como estimativa imparcial e redução de variância com o aumento do número de amostras. Além disso, Hennig investiga o algoritmo Metropolis-Hastings, Markov Chain Monte Carlo e Hamiltonian Monte Carlo, fornecendo uma visão geral das propriedades de cada algoritmo e como eles funcionam ao amostrar de uma distribuição de probabilidade. Por fim, Hennig observa a importância de entender por que os algoritmos são usados, em vez de aplicá-los cegamente, para obter resultados ideais e eficientes.
Na segunda parte do vídeo, Philipp Hennig discute os métodos de Monte Carlo para distribuições de alta dimensão, especificamente o algoritmo No U-turn Sampler (NUTS) que supera o problema com a ideia de U-turn de quebrar o equilíbrio detalhado. Hennig enfatiza que, embora esses algoritmos sejam complexos e complicados de implementar, entendê-los é crucial para usá-los com eficiência. Ele também questiona a abordagem instintiva para calcular valores esperados usando métodos de Monte Carlo e sugere que pode haver outras maneiras de aproximar sem aleatoriedade. Hennig discute o conceito e as limitações da aleatoriedade, a falta de taxas de convergência para os métodos de Monte Carlo e propõe a necessidade de considerar outros métodos para aprendizado de máquina em vez de confiar na aleatoriedade determinística.
Aula 10 -- Quadratura Bayesiana -- Philipp Hennig
Numéricos de ML 10 -- Quadratura Bayesiana -- Philipp Hennig
Neste vídeo, Philipp Hennig discute a Quadratura Bayesiana como um método eficiente para o problema computacional de integração em aprendizado de máquina. Ele explica como uma função de valor real pode ser identificada de forma única, mas difícil de responder a perguntas diretamente. Quadratura bayesiana é um método de inferência que trata o problema de encontrar uma integral como um problema de inferência, colocando um prior sobre o objeto desconhecido e as quantidades que podem ser calculadas e, em seguida, executa a inferência bayesiana. Hennig também compara essa abordagem à rejeição de Monte Carlo e à amostragem de importância, mostrando como a quadratura bayesiana pode superar as regras de quadratura clássicas. A palestra aborda o algoritmo de filtro de Kalman para Quadratura Bayesiana e sua conexão com algoritmos clássicos de integração, com uma discussão sobre o uso de estimativas de incerteza em métodos numéricos. Por fim, Hennig explora como a estrutura social da computação numérica afeta o design de algoritmos, discute um método para projetar métodos computacionais para problemas específicos e como o aprendizado de máquina probabilístico pode estimar o erro em tempo real.
Na segunda parte do vídeo, Philipp Hennig discute a quadratura bayesiana, que envolve colocar distribuições anteriores sobre as quantidades que nos interessam, como integrais e valores de algoritmo, para calcular algo de maneira bayesiana. O método atribui uma estimativa posterior e uma estimativa de incerteza em torno das estimativas, que podem ser identificadas com métodos clássicos. Hennig explica como o algoritmo se adapta à função observada e usa um procedimento de aprendizado ativo para determinar onde avaliar a seguir. Este algoritmo pode trabalhar em dimensões maiores e tem algumas taxas de convergência inteligentes não triviais. Ele também discute as limitações de algoritmos clássicos e regras de quadratura e propõe uma solução alternativa por meio do raciocínio adaptativo.
Aula 11 -- Otimização para Deep Learning -- Frank Schneider
Numéricos de ML 11 -- Otimização para Deep Learning -- Frank Schneider
Frank Schneider discute os desafios da otimização para aprendizado profundo, enfatizando a complexidade do treinamento de redes neurais e a importância de selecionar os métodos e algoritmos de otimização corretos. Ele observa o número esmagador de métodos disponíveis e a dificuldade em comparar e fazer benchmarking de diferentes algoritmos. Schneider fornece exemplos do mundo real de treinamento bem-sucedido de grandes modelos de linguagem e a necessidade de cronogramas de taxa de aprendizado não padrão e alterações no meio do voo para que o modelo seja treinado com sucesso. Schneider destaca a importância de fornecer aos usuários mais informações sobre como usar esses métodos e como os hiperparâmetros afetam o processo de treinamento, bem como a criação de exercícios de benchmarking para ajudar os profissionais a selecionar o melhor método para seu caso de uso específico. Ele também discute métodos mais recentes, como o Alpha, e como ele pode ser aproveitado para orientar o processo de treinamento de uma rede neural.
Na segunda parte do vídeo sobre os números de otimização para deep learning, Frank Schneider apresenta a ferramenta Cockpit "Deep Debugger", que fornece instrumentos adicionais para detectar e corrigir problemas no processo de treinamento, como bugs de dados e blocos de modelo. Ele explica a importância de normalizar dados para hiperparâmetros ideais, a relação entre as taxas de aprendizado e a precisão do teste e os desafios de treinar redes neurais com estocasticidade. Schneider incentiva os alunos a trabalhar para melhorar o treinamento de redes neurais, considerando o gradiente como uma distribuição e desenvolvendo melhores métodos autônomos no longo prazo.
Aula 12 -- Otimização de Segunda Ordem para Deep Learning -- Lukas Tatzel
Numéricos de ML 12 -- Otimização de Segunda Ordem para Deep Learning -- Lukas Tatzel
Neste vídeo, Lukas Tatzel explica os métodos de otimização de segunda ordem para aprendizado profundo e seus possíveis benefícios. Ele compara as trajetórias e taxas de convergência de três métodos de otimização - SGD, Adam e LBFGS - usando o exemplo da função de Rosenberg em 2D. Tatzel observa que o comportamento saltitante do SGD torna a convergência mais lenta em comparação com os passos bem informados do LBFGS. Ele apresenta o passo de Newton como um método mais rápido de otimização e discute suas limitações, como a dependência do número de condição. Tatzel também explica o conceito da matriz Generalized Gauss-Newton (GGN) como uma aproximação ao Hessian para lidar com problemas mal condicionados. Além disso, ele discute o problema da região de confiança, como lidar com funções objetivas não convexas e a abordagem livre de Hessian que usa CG para minimizar funções quadráticas.
Esta segunda parte do vídeo explora técnicas de otimização de segunda ordem para aprendizado profundo, incluindo BFGS e LBFGS, otimização sem Hessian e KFC. O palestrante explica que a abordagem Hessian-free lineariza o modelo usando o produto Jacobiano Vector, enquanto o KFC é uma curvatura aproximada baseada em métricas de informações oficiais. No entanto, estocasticidade e vieses podem ocorrer com esses métodos, e o amortecimento é recomendado para resolver esses problemas. O palestrante propõe o uso de algoritmos especializados que podem usar quantidades mais ricas como distribuições para fazer atualizações e observa que o problema fundamental da estocasticidade permanece sem solução. No geral, os métodos de otimização de segunda ordem oferecem uma solução parcial para os desafios do aprendizado profundo.
Aula 13 -- Incerteza em Deep Learning -- Agustinus Kristiadi
Numéricos de ML 13 -- Incerteza em Deep Learning -- Agustinus Kristiadi
O vídeo discute a incerteza no aprendizado profundo, particularmente nos pesos das redes neurais, e a importância de incorporar a incerteza devido ao problema de excesso de confiança assintótica, em que as redes neurais fornecem previsões de alta confiança para exemplos fora de distribuição que não devem ser classificados com certeza. O vídeo fornece informações sobre como usar quantidades de segunda ordem, especificamente estimativas de curvatura, para obter incerteza em redes neurais profundas, usando uma distribuição Gaussiana para aproximar os pesos da última camada e a matriz Hessiana para estimar a curvatura da rede neural. O vídeo também discute o formalismo bayesiano e as aproximações de LaPlace para selecionar modelos e parâmetros de redes neurais.
Na segunda parte da palestra, Agustinus Kristiadi discute várias maneiras de introduzir incerteza em modelos de aprendizado profundo neste vídeo. Uma técnica envolve o uso de aproximações linearizadas de Laplace para transformar uma rede neural em um modelo gaussiano. Outra abordagem é o treinamento fora da distribuição, onde a incerteza é adicionada em regiões que não são cobertas pelo conjunto de treinamento original. Kristiadi enfatiza a importância de adicionar incerteza para evitar o excesso de confiança no modelo e sugere o uso de medidas probabilísticas para evitar o custo de encontrar o posterior ideal. Essas técnicas serão exploradas em um próximo curso sobre aprendizado de máquina probabilístico.
Aula 14 -- Conclusão -- Philipp Hennig
Numéricos de ML 14 -- Conclusão -- Philipp Hennig
Philipp Hennig apresenta um resumo do curso "Numerics of Machine Learning", enfatizando a importância da resolução de problemas matemáticos no aprendizado de máquina relacionados à análise numérica, como integração, otimização, equações diferenciais e álgebra linear. Ele discute a complexidade de realizar álgebra linear em um conjunto de dados e como ela se relaciona com a unidade de processamento e o disco. Hennig também cobre tópicos como lidar com conjuntos de dados de tamanhos não triviais, algoritmos para resolver sistemas lineares, resolver equações diferenciais parciais e estimar integrais. Ele conclui reconhecendo a dificuldade em treinar redes neurais profundas e a necessidade de soluções para superar o problema de estocasticidade.
Na conclusão de sua série de palestras, Philipp Hennig enfatiza a importância de ir além de apenas treinar modelos de aprendizado de máquina e saber o quanto o modelo sabe e o que não sabe. Ele fala sobre estimar a curvatura da função de perda para construir estimativas de incerteza para redes neurais profundas e a importância de ser probabilístico, mas não necessariamente aplicar o teorema de Bayes em todos os casos devido à complexidade computacional. Hennig também enfatiza a importância da computação numérica no aprendizado de máquina e a necessidade de desenvolver novas formas de computação centradas em dados. Finalmente, ele pede feedback sobre o curso e discute o próximo exame.
Suporta Vector Machine (SVM) em 7 minutos - Fun Machine Learning
Suporta Vector Machine (SVM) em 7 minutos - Fun Machine Learning
O vídeo explica o Support Vector Machines (SVM), um algoritmo de classificação usado para conjuntos de dados com duas classes que desenha um limite de decisão, ou hiperplano, com base nos extremos do conjunto de dados. Ele também discute como o SVM pode ser usado para conjuntos de dados não linearmente separáveis, transformando-os em espaços de recursos dimensionais superiores usando um truque do kernel. O vídeo identifica as vantagens do SVM, como eficácia em espaços de alta dimensão, eficiência de memória e capacidade de usar kernels diferentes para funções personalizadas. No entanto, o vídeo também identifica as desvantagens do algoritmo, como baixo desempenho quando o número de recursos é maior que o número de amostras e a falta de estimativas de probabilidade diretas, que exigem validação cruzada cara.
'A Revolução do Aprendizado Profundo' - Geoffrey Hinton - Palestra do Presidente da RSE 2019
'A Revolução do Aprendizado Profundo' - Geoffrey Hinton - Palestra do Presidente da RSE 2019
Geoffrey Hinton, conhecido como o "Padrinho do Aprendizado Profundo", discute a história e a evolução do aprendizado profundo e das redes neurais, os desafios e as possibilidades emocionantes de usar o aprendizado profundo para criar máquinas que podem aprender da mesma forma que os cérebros humanos e as truques e técnicas que tornaram a retropropagação mais eficaz. Ele também descreve o sucesso das redes neurais no reconhecimento de fala e visão computacional, a evolução das redes neurais para visão computacional e pré-treinamento não supervisionado e sua eficácia na modelagem de linguagem e tradução automática. Ele termina destacando o valor do raciocínio por analogia e discute sua teoria das "cápsulas" e da conexão do conhecimento em um modelo que prevê partes a partir do todo.
Geoffrey Hinton, pioneiro em aprendizado profundo, apresenta uma palestra defendendo a integração de memórias associativas, memórias rápidas e múltiplas escalas de tempo em redes neurais para permitir conhecimento de longo prazo e armazenamento temporário, o que é necessário para o raciocínio real. Além disso, ele discute o ato de equilíbrio entre crenças anteriores e dados, o potencial de aprendizado não supervisionado, a eficiência das redes convolucionais no reconhecimento de objetos com a incorporação de conhecimento do ponto de vista e equivariância translacional, e a necessidade de combinar raciocínio simbólico com redes conexionistas, como transformadores redes. Ele também aborda a questão dos vieses inconscientes no aprendizado de máquina e acredita que eles podem ser corrigidos mais facilmente do que o viés humano, identificando e corrigindo os vieses. Por fim, ele enfatiza a necessidade de mais financiamento e apoio a jovens pesquisadores no campo da IA.
Como o ChatGPT realmente funciona
Como o ChatGPT realmente funciona
O ChatGPT é um modelo de aprendizado de máquina capaz de identificar corretamente o conteúdo prejudicial em conversas de bate-papo. Sua arquitetura é baseada na entrada humana e suas deficiências são delineadas. Leituras recomendadas também são fornecidas.
Curso completo de aprendizado de máquina do zero
Curso completo de aprendizado de máquina do zero
A implementação de modelos de aprendizado de máquina por conta própria é uma das melhores maneiras de dominá-los. Apesar de parecer uma tarefa desafiadora, geralmente é mais fácil do que você imagina para a maioria dos algoritmos. Nos próximos 10 dias, usaremos Python e, ocasionalmente, Numpy para cálculos específicos para implementar um algoritmo de aprendizado de máquina por dia.
Você pode encontrar o código em nosso repositório GitHub: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch