Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aprendizado profundo 1: retropropagação para tensores, redes neurais convolucionais (MLVU2019)
7 Deep Learning 1: Backpropagation para tensores, Convolutional Neural Networks (MLVU2019)
Esta primeira parte do vídeo sobre aprendizado profundo e retropropagação abrange vários tópicos, incluindo os fundamentos de uma estrutura de aprendizado profundo, tensores, o algoritmo de retropropagação e o problema do gradiente de fuga. O palestrante explica como as redes neurais podem ser implementadas usando uma sequência de operações de álgebra linear e como o algoritmo de retropropagação pode ser usado para definir um modelo como uma composição de funções. O vídeo também aborda como calcular derivadas usando operações de matriz e explora soluções para o problema do gradiente de fuga, como inicialização de peso e o uso de ReLU como uma função de ativação. Por fim, o vídeo aborda a descida de gradiente em minilote e vários otimizadores que podem ser utilizados em uma rede neural complexa.
Esta segunda parte abrange uma variedade de tópicos relacionados ao aprendizado profundo, incluindo algoritmos de otimização e técnicas de regularização. A otimização de Adam é explicada como um algoritmo popular para aprendizado profundo, enquanto a regularização L1 e L2 é explorada como métodos para prevenir o overfitting. O potencial das redes neurais no processamento de imagens também é discutido, com as redes neurais convolucionais destacadas como uma ferramenta poderosa para tarefas de reconhecimento de imagens. O vídeo também investiga o funcionamento dessas redes e como elas criam recursos para reconhecer imagens complexas, bem como o conceito de aprendizado de ponta a ponta como forma de superar as limitações de encadear vários módulos.
8 Probabilidade 2: Máxima Verossimilhança, Modelos de Mistura Gaussiana e Maximização de Expectativas (MLVU2019)
8 Probabilidade 2: Máxima Verossimilhança, Modelos de Mistura Gaussiana e Maximização de Expectativas (MLVU2019)
Esta seção do vídeo centrou-se em modelos de probabilidade para estimativa de densidade usando estimativa de probabilidade máxima, distribuições normais, modelos de mistura gaussiana e algoritmo de maximização de expectativa. O palestrante explicou o princípio da Máxima Verossimilhança e mostrou sua aplicação na seleção do melhor modelo de probabilidade. Eles exploraram distribuições normais, explicaram a diferença entre funções de probabilidade e densidade de probabilidade e introduziram modelos de mistura gaussiana. O palestrante também discutiu o método de amostragem de uma distribuição normal univariada e multivariada e como o Modelo de Mistura Gaussiana ajuda a identificar diferentes agrupamentos dentro de uma população. Além disso, o algoritmo Expectation Maximization foi introduzido para ajustar modelos de mistura gaussiana a conjuntos de dados. O palestrante também explicou como formalizar a abordagem de Maximização de Expectativas usando a aproximação da função Q e provou que ela converge para um ótimo local.
Este vídeo aborda os tópicos de Máxima Verossimilhança, Modelos de Mistura Gaussiana e Maximização de Expectativas (EM). O palestrante explica o algoritmo EM, sua prova e por que ele converge. Eles também discutem o passo M, onde maximizam L escolhendo teta enquanto mantêm Q fixo. Ajustar um modelo de mistura gaussiana aos dados requer o uso do algoritmo EM, e o palestrante explica suas aplicações, como agrupamento e análise exploratória, e como ele pode ser usado para classificação ajustando um modelo de mistura gaussiana a cada classe. O vídeo também menciona a próxima palestra sobre como ajustar modelos de probabilidade a redes neurais complicadas.
Aula 9 Deep Learning 2: Modelos generativos, GANs, Variational Autoencoders (VAEs) (MLVU2019)
9 Deep Learning 2: modelos generativos, GANs, Variational Autoencoders (VAEs) (MLVU2019)
O vídeo aborda vários tópicos relacionados ao aprendizado profundo, incluindo dados divididos para projetos de aprendizado profundo, aprendizado de transferência e foco em modelos generativos. O palestrante explora o conceito de usar redes neurais para gerar resultados aleatórios e distribuições de probabilidade, explicando diferentes métodos de treinamento de geradores, como redes adversárias generativas e autoencoders. Eles também se aprofundam na importância de GANs, GANs condicionais, esteganografia e codificadores automáticos em vários aplicativos de aprendizado de máquina, como manipulação de dados e redução de dimensionalidade. O palestrante discute a manipulação de dados no espaço latente para manipulações de dados de alto nível sem muitos dados rotulados e a necessidade de uma abordagem alternativa como codificadores automáticos variacionais.
Esta segunda parte do vídeo explora autoencoders variacionais (VAEs), um tipo de modelo generativo destinado a abordar a questão do colapso de modo frequentemente visto com outros modelos. Duas redes neurais são usadas para codificar a entrada no espaço latente e decodificá-la de volta ao espaço de entrada, permitindo a otimização da codificação e da decodificação. O alto-falante divide a função de perda em um termo de divergência KL e um termo de probabilidade de log esperado, que pode ser usado para otimizar a rede. Os desafios de maximizar uma expectativa em VAEs são explicados, e o truque da reparametrização é discutido como uma forma de superar esse problema. O palestrante compara os VAEs com outras técnicas, como GANs e PCA, concluindo que, embora os VAEs sejam mais poderosos, eles também são mais difíceis de treinar.
Aula 10 Modelos e Conjuntos de Árvores: Árvores de Decisão, AdaBoost, Gradient Boosting (MLVU2019)
10 modelos e conjuntos de árvores: árvores de decisão, AdaBoost, aumento de gradiente (MLVU2019)
Esta primeira parte do vídeo apresenta as árvores de decisão, um modelo popular de aprendizado de máquina usado para classificação e regressão, que funciona segmentando o espaço da instância e escolhendo uma classe para cada segmento. O vídeo também discute como as árvores de decisão podem ser treinadas usando o ganho de informações e como a poda pode ajudar a mitigar o overfitting. O palestrante enfatiza a importância de dividir os dados em conjuntos de treinamento, validação e teste para garantir a imparcialidade entre os modelos. Além disso, o vídeo discute o aprendizado conjunto, em que várias árvores de decisão ou outros modelos são treinados e combinados para resolver problemas como alta variância e instabilidade. O boosting também é introduzido como uma técnica de conjunto de modelos, que envolve o treinamento sequencial de classificadores e a reponderação dos dados para melhorar o conjunto. Por fim, é explicado o algoritmo Adaboost, que seleciona classificadores que minimizam uma função de perda para melhorar o ensemble.
Esta segunda parte do vídeo abrange vários modelos e conjuntos de árvores, incluindo AdaBoost e aumento de gradiente. AdaBoost é um método popular de reforço para modelos de classificação que pondera instâncias de dados com base no desempenho do classificador. O reforço de gradiente envolve inicializar um modelo com uma função constante, computar resíduos, ajustar um novo modelo aos resíduos rotulados e adicioná-lo ao conjunto. O palestrante explica as diferenças entre o aumento de gradiente e o AdaBoost e observa que os conjuntos não são muito usados em pesquisas, pois podem confundir os resultados. Além disso, o ensacamento reduz a variância e o aumento reduz o viés.
Aula 11 Dados Sequenciais: Modelos de Markov, Word Embeddings e LSTMs
11 Dados Sequenciais: Modelos de Markov, Word Embeddings e LSTMs
Neste vídeo, o palestrante discute os diferentes tipos de dados sequenciais encontrados no aprendizado de máquina, como dados numéricos ou simbólicos organizados no tempo ou na sequência. Eles introduzem modelos de Markov, incorporações de palavras e LSTMs como modelos para lidar com esses problemas. O vídeo descreve o processo de treinamento e previsão com dados sequenciais, incluindo o conceito de validação e treinamento em dados que ocorreram antes da coisa específica que está sendo testada. Além disso, o palestrante explica como modelar sequências com redes neurais, incluindo como lidar com sequências de diferentes comprimentos e modelagem de tempo, e o processo de treinamento de uma rede neural recorrente usando retropropagação no tempo. Por fim, o vídeo aborda aspectos da classificação de sequência para rótulo, que podem ser aprimorados com modelos de Markov quando redes neurais recorrentes esquecem as coisas rapidamente.
O vídeo abrange uma variedade de tópicos relacionados ao processamento de dados sequenciais, incluindo modelos de Markov e suas limitações, redes de memória longa e curta (LSTM) e suas vantagens, usando LSTMs para geração de texto e imagem, técnicas de forçamento de professores e legendas de imagens. O palestrante fornece explicações detalhadas sobre a estrutura LSTM e os vários portões que ela contém, bem como como treinar e obter amostras dessas redes para tarefas como geração de texto shakespeariano e legendagem de imagens. A importância do uso de camadas de incorporação para melhorar LSTMs de nível de palavra também é discutida, juntamente com o espectro de métodos disponíveis para processamento de sequência - de modelos mais simples a modelos mais poderosos, como LSTMs.
12 modelos de matrizes: sistemas de recomendação, PCA e convoluções de grafos
12 modelos de matrizes: sistemas de recomendação, PCA e convoluções de grafos
Na primeira parte do vídeo, o palestrante discute modelos matriciais e suas aplicações em sistemas de recomendação, que podem ser usados para recomendações de produtos, notícias e redes sociais. Os sistemas de recomendação dependem de feedback explícito e implícito, bem como de informações secundárias, e podem ser manipulados para espalhar informações falsas se não forem projetados adequadamente. A fatoração de matriz é um método comum para prever classificações com base no comportamento do usuário, com o problema de otimização de encontrar matrizes U e M para tornar o UTM o mais próximo possível de R resolvido por meio de métodos de erro quadrado e cálculo da norma Frobenius. O palestrante também discute métodos para otimizar esse problema usando gradiente descendente e explica a regra de atualização de gradiente para filtragem colaborativa. Além disso, o palestrante aborda cinco maneiras de melhorar o modelo de fatoração de matriz, incluindo o controle do viés do usuário e do filme, o uso de curtidas implícitas e a incorporação de informações do site. Por fim, o palestrante discute o poder da fatoração de matrizes no cenário clássico de aprendizado de máquina, as extensões do PCA na fatoração de matrizes e a utilidade dos modelos de gráficos no armazenamento de dados.
A segunda parte do vídeo apresenta vários modelos de matriz para sistemas de recomendação, incluindo convoluções de grafos para classificação de nós e previsão de links. As convoluções gráficas misturam incorporações de nós multiplicando a matriz de adjacência com as incorporações originais, mas essa abordagem tem limitações na representação de grandes gráficos sociais. Os métodos de validação tradicionais não funcionam para modelos de recursos mistos usados em sistemas de recomendação, portanto, o aprendizado transdutivo é necessário, onde apenas os rótulos do conjunto de treinamento são retidos, mas não os recursos. Além disso, a modelagem de dados de tempo e avaliações requer levar em consideração os dados de carimbo de data/hora e o aprendizado transdutivo. O vídeo termina com um resumo da palestra e uma prévia da discussão a seguir sobre aprendizado por reforço.
13 Aprendizagem por Reforço: Gradientes de Política, Q Learning, AlphaGo, AlphaStar (MLVU2019)
13 Aprendizagem por Reforço: Gradientes de Política, Q Learning, AlphaGo, AlphaStar (MLVU2019)
O vídeo fornece uma introdução ao aprendizado por reforço e seus componentes fundamentais, discutindo exemplos como o carro robótico de equilíbrio e o jogo da velha. O palestrante investiga os desafios do aprendizado por reforço, incluindo funções não diferenciáveis, o atraso no recebimento de recompensas e o problema de atribuição de crédito. O problema de atribuição de crédito é abordado por meio de técnicas como busca aleatória, gradientes de políticas e Q-learning, onde o palestrante explica cada algoritmo, seus benefícios e suas limitações. O algoritmo Q-learning é discutido com mais detalhes, com uma explicação de como ele funciona usando uma grande tabela de números para representar os valores-Q. A apresentação termina com uma explicação de como o Q-learning profundo e o AlphaGo revolucionaram o campo do aprendizado por reforço.
14 Revisão: viés indutivo, viés algorítmico, impacto social do aprendizado de máquina (MLVU2019)
14 Revisão: viés indutivo, viés algorítmico, impacto social do aprendizado de máquina (MLVU2019)
Esta primeira parte do vídeo fornece uma revisão abrangente dos tópicos de aprendizado de máquina, incluindo funções de perda, sistemas de aprendizado profundo, viés indutivo e algorítmico e problemas em aberto no aprendizado de máquina. O palestrante enfatiza a importância da metodologia e dos casos de uso do mundo real no processo de ciência de dados e fornece dicas para estudar e superar a procrastinação. O palestrante também discute estratégias para melhorar a compreensão dos conceitos de aprendizado de máquina e oferece recursos para aprendizado adicional. Por fim, o vídeo destaca o problema da generalização em modelos de aprendizado de máquina e a importância dos vieses indutivos na melhoria do desempenho do modelo.
A segunda parte do vídeo discute vários problemas relacionados ao aprendizado de máquina, incluindo viés indutivo, viés algorítmico e o impacto social do aprendizado de máquina. O viés indutivo pode ser construído em uma rede neural para resolver problemas de causalidade, composicionalidade e generalização. No entanto, esta abordagem também tem limitações, incluindo robustez reduzida contra variáveis não modeladas. O viés algorítmico pode ser perpetuado se os modelos de aprendizado de máquina reforçarem os vieses nos dados. Isso pode ser problemático em casos como algoritmos de reconhecimento facial que falham em reconhecer pessoas de cor ou algoritmos usados no sistema judicial dos EUA que têm preconceitos em relação aos negros. O desenvolvimento responsável desses sistemas é importante para evitar a perpetuação de preconceitos e promover a equidade nos processos de tomada de decisão.
Segmentar Imagens e Vídeos em Python usando o Modelo de Qualquer Coisa de Segmento (SAM) | YOLOv5 | YOLOv8 e SAM
Segmentar Imagens e Vídeos em Python usando o Modelo de Qualquer Coisa de Segmento (SAM) | YOLOv5 | YOLOv8 e SAM
Este vídeo apresenta o Segment Anything Model (SAM), um modelo de IA que pode identificar e extrair objetos de imagens e vídeos para várias tarefas. O SAM é treinado em um enorme conjunto de dados de 11 bilhões de imagens e 1,1 bilhão de máscaras e tem forte desempenho em uma variedade de tarefas de segmentação. O vídeo fornece instruções passo a passo para usar o SAM em um sistema local, incluindo como instalar os pacotes necessários, baixar pontos de verificação de modelos pré-treinados e realizar segmentação em imagens e vídeos usando Python. O vídeo também demonstra como usar o SAM com YOLOv5 ou YOLOv8 para criar caixas delimitadoras em torno de objetos de interesse. O SAM também tem aplicações potenciais em animação.
Curso YOLOv8 - Aplicação Web de Detecção de Objetos em Tempo Real usando YOLOv8 e Flask - Webcam/Câmera IP
Curso YOLOv8 - Aplicação Web de Detecção de Objetos em Tempo Real usando YOLOv8 e Flask - Webcam/Câmera IP
O curso YOLOv8 é uma série de tutoriais que orientam os visualizadores na criação de um aplicativo da web de detecção de objetos em tempo real usando YOLOv8 e Flask. Os tutoriais cobrem a instalação do software necessário, como Python e PyCharm, criando um ambiente virtual, instalando pacotes e testando a detecção de objetos em imagens e webcams. Os tutoriais também abrangem a conversão de saída de tensores para inteiros, rotulação dos objetos detectados e salvamento do vídeo de saída com detecções. Os visualizadores aprendem como integrar o YOLOv8 com o Flask e como executar o aplicativo da web de detecção de objetos em tempo real em vídeos e feeds de webcam ao vivo.
Na segunda parte do vídeo, o apresentador demonstra como criar um aplicativo web usando Flask e YOLOv8 para detecção de objetos em feeds e vídeos ao vivo da webcam, além de mostrar o treinamento e a inferência de um modelo personalizado para detecção de equipamentos de proteção individual. O aplicativo da web tem uma página inicial, uma página de vídeo e uma página de feed de webcam ao vivo, com estilo CSS para cada página, e o apresentador percorre os arquivos HTML e Flask usados para o projeto. O vídeo demonstra o processo de importação de um conjunto de dados, preparando-o para treinar o modelo YOLOv8, treinar o modelo, analisar os resultados e testar o modelo em vídeos de demonstração. No geral, o vídeo fornece um tutorial abrangente para desenvolver e testar um aplicativo da web de detecção de objetos em tempo real.
O apresentador também discute as alterações feitas em um aplicativo da web que usa o modelo YOLOv8 treinado em um conjunto de dados de equipamento de proteção individual (EPI). As alterações incluem modificar o código para atribuir cores diferentes a caixas delimitadoras e retângulos de rótulos com base em nomes de classe e definir uma pontuação de confiança acima de 0,5 para caixas delimitadoras e retângulos aparecerem. O apresentador demonstra a detecção bem-sucedida de itens de EPI em um vídeo e feed de webcam ao vivo, marcando o final do curso.