Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Gail Weiss: Pensando como Transformers
Gail Weiss: Pensando como Transformers
Gail Weiss discute o conceito de codificadores transformadores neste vídeo, explicando sua capacidade de processar sequências e codificá-las em vetores. Weiss destaca vários estudos que exploram os pontos fortes e limitações dos codificadores transformadores e apresenta uma linguagem de programação chamada linguagem de processamento de sequência de acesso restrito (RASP) para representar as habilidades dos codificadores transformadores. Ela também discute a atenção multifacetada, padrões de seleção e os desafios do softmax sob certas condições, antes de se aprofundar no uso de operadores de sequência e funções de biblioteca para calcular o inverso e o seletor flip. Weiss fornece informações sobre a criação de um programa ideal para um transformador e as percepções dos transformadores universais e de sanduíche, discutindo, em última análise, o predicado selecionado e relações binárias versus ordem três.
Ele também fala sobre os potenciais benefícios e desvantagens de usar atenção de ordem superior em modelos de transformadores, bem como a importância de conexões residuais na manutenção de informações nas camadas. Ela também discute possíveis problemas com transformadores muito profundos que se desviam do modelo RASP e sugere o uso de incorporações mais longas para superar a imprecisão nas informações.
Visualizando e Compreendendo Redes Neurais Profundas por Matt Zeiler
Visualizando e Compreendendo Redes Neurais Profundas por Matt Zeiler
Matt Zeiler discute a visualização e compreensão de redes neurais convolucionais (CNNs) para reconhecimento de objetos em imagens e vídeos. Ele descreve o desempenho das redes neurais profundas em comparação com humanos e primatas no reconhecimento de objetos e mostra como as CNNs aprendem a identificar objetos passando pelas camadas. Zeiler explica o processo de melhoria da arquitetura CNN e discute as limitações ao treinar com dados limitados. Por fim, ele responde a perguntas sobre o uso de camadas inferiores em camadas superiores e a aplicação de convoluções em redes neurais.
Como o ChatGPT é treinado
Como o ChatGPT é treinado
O ChatGPT é um sistema de aprendizado de máquina projetado para imitar a conversa humana. Ele é primeiro treinado usando uma abordagem de pré-treinamento generativa que depende de grandes quantidades de dados de texto não estruturados e, em seguida, ajustado usando o aprendizado por reforço para se adaptar melhor às preferências do usuário.
O potencial REAL da IA generativa
O potencial REAL da IA generativa
A IA generativa tem o potencial de revolucionar a forma como os produtos são criados, ajudando os desenvolvedores com prototipagem, avaliação e personalização. No entanto, a tecnologia ainda está em seus estágios iniciais e mais pesquisas são necessárias para garantir que ela seja usada de forma ética e segura.
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introdução ao Machine Learning (MLVU2019)
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introdução ao Machine Learning (MLVU2019)
Este vídeo fornece uma introdução ao aprendizado de máquina e aborda vários tópicos relacionados a ele. O instrutor explica como se preparar para o curso e aborda preocupações comuns sobre a intimidação do aprendizado de máquina. Ele apresenta os diferentes tipos de aprendizado de máquina e os distingue da programação tradicional baseada em regras. O vídeo também aborda os fundamentos do aprendizado supervisionado e fornece exemplos de como o aprendizado de máquina pode ser usado para problemas de classificação e regressão. Os conceitos de espaço de recursos, função de perda e resíduos também são explicados.
A segunda parte do vídeo fornece uma introdução ao aprendizado de máquina e explica seu principal objetivo de encontrar padrões e criar modelos precisos para prever os resultados de um conjunto de dados. O palestrante discute a importância de usar algoritmos específicos e divisão de dados para evitar o overfitting e alcançar a generalização. Ele também apresenta o conceito de estimativa de densidade e suas dificuldades com dados complexos. O palestrante esclarece a diferença entre aprendizado de máquina e outros campos e faz alusão a uma estratégia para quebrar grandes conjuntos de dados para fazer previsões precisas. O vídeo também menciona o aumento de pessoas trabalhando em machine learning com o desenvolvimento do deep learning e dá dicas para iniciantes na área.
2 modelos lineares 1: hiperplanos, pesquisa aleatória, descida de gradiente (MLVU2019)
2 modelos lineares 1: hiperplanos, pesquisa aleatória, descida de gradiente (MLVU2019)
Este vídeo aborda os conceitos básicos de modelos lineares, métodos de pesquisa e algoritmos de otimização. Modelos lineares são explicados em 2 dimensões e múltiplas dimensões, e o processo de busca de um bom modelo por meio de métodos como pesquisa aleatória e descida de gradiente é discutido. A importância da convexidade no aprendizado de máquina é explicada e as desvantagens da pesquisa aleatória em paisagens não convexas são abordadas. O vídeo também apresenta métodos evolutivos e pesquisa de ramificação como métodos de pesquisa. Finalmente, é explicado o uso de cálculo e descida de gradiente para otimizar a função de perda, incluindo o processo de encontrar a direção de descida mais íngreme para um hiperplano.
A segunda parte discute gradiente descendente e sua aplicação a modelos lineares, onde o algoritmo atualiza os parâmetros dando passos na direção do gradiente negativo da função de perda. A taxa de aprendizado é crucial para determinar a rapidez com que o algoritmo converge para o mínimo, e as funções lineares permitem que se elabore o modelo ideal sem a necessidade de pesquisa. No entanto, modelos mais complexos requerem o uso de gradiente descendente. O vídeo também apresenta limites de classificação e decisão, onde o objetivo é separar os pontos azuis dos pontos vermelhos, encontrando uma linha que faça isso de maneira ideal. As limitações dos modelos lineares incluem sua incapacidade de classificar conjuntos de dados não linearmente separáveis, mas eles são computacionalmente baratos e funcionam bem em espaços de recursos de alta dimensão. O instrutor também visualiza tópicos futuros que serão discutidos, como metodologia de aprendizado de máquina.
3 Metodologia 1: Área sob a curva, viés e variância, sem almoço grátis (MLVU2019)
3 Metodologia 1: Área sob a curva, viés e variância, sem almoço grátis (MLVU2019)
O vídeo aborda o uso da métrica de área sob a curva (AUC) na avaliação de modelos de aprendizado de máquina, bem como apresenta os conceitos de viés e variância e o teorema "sem almoço grátis". A métrica AUC mede o desempenho do modelo de classificação calculando a área sob a curva ROC. Além disso, o viés e a variância são discutidos, pois desempenham um papel crucial em quão bem o modelo se ajusta aos dados de treinamento e se generaliza para novos dados. Além disso, o teorema "sem almoço grátis" destaca a necessidade de selecionar o algoritmo apropriado para cada problema específico, uma vez que não existe um algoritmo universalmente aplicável para todos os problemas de aprendizado de máquina.
Este vídeo aborda três conceitos importantes de aprendizado de máquina: AUC (área sob a curva), viés e variância e o teorema "sem almoço grátis". AUC é uma métrica usada para avaliar modelos de classificação binária, enquanto o viés e a variância referem-se às diferenças entre os valores previstos de um modelo e os valores verdadeiros em um conjunto de dados. O teorema "sem almoço grátis" destaca a importância de selecionar o algoritmo apropriado para um determinado problema, pois não existe um algoritmo único que possa funcionar de maneira ideal em todos os problemas e conjuntos de dados possíveis.
4 Metodologia 2: Limpeza de Dados, Análise de Componentes Principais, Eigenfaces (MLVU2019)
4 Metodologia 2: Limpeza de Dados, Análise de Componentes Principais, Eigenfaces (MLVU2019)
Esta primeira parte do vídeo aborda vários aspectos importantes do pré-processamento e limpeza de dados antes da aplicação de algoritmos de aprendizado de máquina, começando com a importância crucial de entender os vieses e distorções dos dados. O palestrante discute métodos para lidar com dados ausentes, outliers, desequilíbrio de classe, seleção de recursos e normalização. O vídeo continua discutindo o conceito de base e a distribuição MVN, explicando como usar o branqueamento para transformar dados em uma distribuição normal para normalização e conclui com o uso da análise de componentes principais (PCA) para redução de dimensionalidade. Desde a manipulação do conjunto de treinamento até o uso de métodos de imputação, o PCA projeta os dados em um espaço dimensional inferior enquanto retém as informações dos dados originais.
Esta segunda parte do vídeo discute o uso da Análise de Componentes Principais (PCA) na limpeza de dados e redução de dimensionalidade para aprendizado de máquina. O método envolve centrar os dados na média, calcular a covariância da amostra e decompô-la usando a decomposição própria para obter os vetores próprios alinhados com o eixo que captura a maior variância. O uso dos primeiros K componentes principais fornece uma boa reconstrução de dados, permitindo um melhor desempenho do aprendizado de máquina. O conceito de Eigenfaces também é introduzido e o PCA mostra-se eficaz na compactação dos dados em 30 dimensões, mantendo a maioria das informações necessárias para o aprendizado de máquina. Várias aplicações do PCA são discutidas, incluindo seu uso em antropologia e no estudo de conjuntos de dados complexos, como DNA e rostos.
Aula 5 Probabilidade 1: Entropia, (Naive) Bayes, perda de entropia cruzada (MLVU2019)
5 Probabilidade 1: Entropia, (ingênuo) Bayes, perda de entropia cruzada (MLVU2019)
O vídeo aborda vários aspectos da teoria da probabilidade e sua aplicação no aprendizado de máquina. O palestrante apresenta a entropia, que mede a quantidade de incerteza em um sistema, e explica como ela está relacionada ao Bayes ingênuo e à perda de entropia cruzada. Os conceitos de espaço amostral, espaço de eventos, variáveis aleatórias e probabilidade condicional também são discutidos. O teorema de Bayes é explicado e considerado um conceito fundamental no aprendizado de máquina. O vídeo também aborda o princípio de estimativa de máxima verossimilhança e a probabilidade bayesiana, bem como o uso de código sem prefixo para simular distribuições de probabilidade. Por fim, o palestrante discute classificadores discriminativos versus generativos para classificação binária, incluindo o classificador Naive Bayes.
A segunda parte explica o conceito de computação de probabilidades para um novo ponto pertencente a uma determinada classe usando um modelo de distribuição normal multivariada. Ele discute a independência condicional de recursos para ajustar eficientemente distribuições de probabilidade para um classificador e a necessidade de suavizar ou ajustar pseudo-observações para lidar com instâncias zero. O palestrante também apresenta a perda de entropia como uma função de perda mais eficaz para classificadores lineares do que a precisão e discute a capacidade da função de perda de entropia cruzada de medir a diferença entre dados preditos e reais, com a função sigmoide colapsando as simetrias da função para simplificá-la. Por fim, o vídeo sugere que a próxima palestra abordará a perda SVM como a função de perda final.
Aula 6 Modelos Lineares 2: Redes Neurais, Backpropagation, SVMs e métodos Kernel (MLVU2019)
6 Modelos Lineares 2: Redes Neurais, Backpropagation, SVMs e métodos Kernel (MLVU2019)
Esta primeira parte do vídeo sobre modelos lineares se concentra na introdução de não linearidade em modelos lineares e explora dois modelos que dependem da expansão do espaço de recursos: redes neurais e máquinas de vetores de suporte (SVMs). Para redes neurais, o palestrante explica como configurar uma rede para problemas de regressão e classificação usando funções de ativação como sigmoid ou softmax. A palestra então se aprofunda na retropropagação, um método usado para calcular gradientes usados em redes neurais. Para SVMs, o palestrante apresenta o conceito de maximização da margem para os pontos mais próximos de cada classe e demonstra como isso pode ser expresso como um problema de otimização restrito. O vídeo fornece uma introdução clara aos princípios de redes neurais e SVMs, recomendando que os alunos se concentrem na primeira metade da palestra como ponto de partida para o restante do curso.
A segunda parte do vídeo aborda os tópicos de máquinas de vetor de suporte (SVMs), SVMs de margem suave, truques de kernel e diferenças entre SVMs e redes neurais. Os SVMs de margem suave são introduzidos como uma forma de lidar com dados não separáveis linearmente, permitindo que um valor de penalidade seja adicionado aos pontos que não atendem às restrições de classificação. O truque do kernel permite o cálculo do produto escalar em um espaço de dimensão superior, expandindo o espaço de recursos para aumentar significativamente o poder do modelo. As diferenças entre SVMs e redes neurais são explicadas, e a mudança para redes neurais devido à sua capacidade de realizar tipos mais avançados de classificação, mesmo que não totalmente compreendidas, é discutida.