Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aprendizagem por Reforço em 3 Horas | Curso Completo Usando Python
Código: https://github.com/nicknochnack/ReinforcementLearningCourse
Aprendizagem por Reforço em 3 Horas | Curso Completo Usando Python
00:00:00 - 01:00:00 O curso em vídeo "Aprendizado por Reforço em 3 Horas" abrange uma variedade de tópicos em aprendizado por reforço, incluindo implementação prática e ponte entre a teoria e a prática. O curso abrange tudo, desde a configuração do ambiente RL até a construção de ambientes personalizados, com foco no treinamento de agentes de aprendizado por reforço e na avaliação deles usando diferentes algoritmos e arquiteturas. Aplicações populares de RL, como robótica e jogos, são discutidas, bem como as limitações de RL, como a suposição de que os ambientes são markovianos e o potencial para treinamento instável. O curso usa Stable Baselines, uma biblioteca RL de código aberto e OpenAI Gym para criar ambientes simulados. O instrutor explica os diferentes tipos de espaços usados para representar ações e valores que os agentes podem assumir em um ambiente, bem como diferentes algoritmos de RL, como A2C e PPO. A importância de entender o ambiente antes de implementar algoritmos é enfatizada, e os usuários são orientados na configuração da plataforma de computação para aprendizado por reforço, escolha de algoritmos RL apropriados e treinamento e teste do modelo.
01:00:00 - 02:00:00 Este vídeo do YouTube oferece um curso de três horas sobre aprendizado por reforço usando Python. O instrutor explica os principais componentes do aprendizado por reforço, incluindo o agente, o ambiente, a ação e a recompensa. A seção discute como definir um ambiente, treinar um modelo usando aprendizado por reforço e visualizar logs de treinamento usando o TensorBoard para monitorar o processo de treinamento. O palestrante também aborda outros tópicos, como salvar e recarregar um modelo treinado, testar e melhorar o desempenho do modelo, definir uma arquitetura de rede para um ator personalizado e função de valor em uma rede neural e usar o aprendizado por reforço para jogar o jogo Breakout do Atari. Além disso, o curso inclui três projetos que os alunos construirão usando técnicas de aprendizado por reforço, incluindo o jogo Breakout no Atari, a construção de um carro de corrida para direção autônoma e a criação de ambientes personalizados usando os espaços do OpenAI Gym.
02:00:00 - 03:00:00 Este vídeo do YouTube intitulado "Aprendizado por reforço em 3 horas | Curso completo usando Python" abrange vários tópicos relacionados ao aprendizado por reforço. O instrutor demonstra como treinar um agente de aprendizado por reforço para jogos Atari e direção autônoma usando o ambiente de carro de corrida. Eles também apresentam várias dependências de ginásio OpenAI, auxiliares e linhas de base estáveis, bem como diferentes tipos de espaços para aprendizado de reforço. Além disso, o vídeo aborda como criar um ambiente personalizado para aprendizado por reforço, definindo o estado do ambiente, seus espaços de observação e ação, testando e treinando o modelo e salvando o modelo treinado após o aprendizado. O instrutor também discute a importância de treinar modelos por períodos mais longos para um melhor desempenho e incentiva os espectadores a entrar em contato caso encontrem alguma dificuldade.
Parte 2
Parte 3
Detecção de linguagem de sinais usando RECONHECIMENTO DE AÇÃO com Python | Modelo de aprendizado profundo LSTM
Código: https://github.com/nicknochnack/ActionDetectionforSignLanguage
Detecção de linguagem de sinais usando RECONHECIMENTO DE AÇÃO com Python | Modelo de aprendizado profundo LSTM
Neste vídeo do YouTube intitulado "Detecção de linguagem de sinais usando RECONHECIMENTO DE AÇÃO com Python | Modelo de aprendizado profundo LSTM", o apresentador explica como criar um fluxo de detecção de linguagem de sinais em tempo real usando detecção de ação e modelos-chave. O apresentador usa OpenCV e MediaPipe Holistic para extrair pontos-chave de mãos, rosto e corpo e, em seguida, TensorFlow e Keras para construir um modelo LSTM que prevê a ação que está sendo demonstrada em uma sequência de quadros. O apresentador passa pelo processo de acesso e extração de pontos-chave da webcam, configura um loop para acessar a webcam e facilita a detecção da língua de sinais aplicando os pontos de referência ao último quadro capturado da webcam. Eles também demonstram como modificar o código para lidar com pontos-chave ausentes e adicionar tratamento de erros ao modelo de pose e à detecção de marcos faciais. Por fim, o apresentador explica a função de extração de pontos-chave para detecção de linguagem de sinais usando reconhecimento de ação com Python.
O vídeo fornece uma explicação detalhada de como criar um modelo de detecção de linguagem de sinais usando reconhecimento de ação com Python. Para coletar os dados, o apresentador cria pastas para cada ação e sequência e modifica o loop do MediaPipe para coletar 30 valores de pontos-chave por vídeo para cada ação. Os dados são pré-processados criando rótulos e recursos para o modelo de aprendizado profundo LSTM, e o modelo é treinado usando TensorFlow e Keras. O modelo treinado é avaliado usando uma matriz de confusão de vários rótulos e uma função de pontuação de precisão. Por fim, a detecção em tempo real é estabelecida criando novas variáveis para detecção, concatenando quadros e aplicando lógica de previsão, com uma variável de limite implementada para renderizar resultados acima de uma determinada métrica de confiança.
O tutorial em vídeo mostra como usar Python e um modelo LSTM Deep Learning para detecção de linguagem de sinais usando reconhecimento de ação. O palestrante percorreu a lógica de previsão e explicou o código, tornando-o fácil de entender. Eles também mostraram aos visualizadores como ajustar o código usando o método append, aumentando o limite de detecção e adicionando visualização de probabilidade para tornar a detecção visualmente atraente. O palestrante também abordou como verificar se o resultado está acima do limite, como manipular probabilidades e como estender e modificar o projeto adicionando ações ou visualizações adicionais. Por fim, o palestrante apresentou a lógica adicional do modelo, que minimiza as falsas detecções e melhora a precisão do modelo, juntamente com um convite para apoiar o vídeo e o canal.
Numerics of Machine Learning na Universidade de Tübingen no período de inverno de 2022/23. Aula 1 - Introdução -- Philipp Hennig
Numéricos de ML 1 -- Introdução -- Philipp Hennig
Neste vídeo, Philipp Hennig discute a importância de entender os algoritmos numéricos no aprendizado de máquina e apresenta o conteúdo do curso para o semestre. O primeiro algoritmo numérico abordado é a Álgebra Linear, com aplicação em Regressão de Processos Gaussianos. Hennig também discute o papel da simulação, equações diferenciais, integração e otimização no aprendizado de máquina. Ele apresenta novos desenvolvimentos em algoritmos numéricos, como espinhos algorítmicos, observáveis e algoritmos numéricos probabilísticos. Ao longo do vídeo, Hennig enfatiza a importância de atualizar algoritmos clássicos usados em aprendizado de máquina para resolver problemas complexos e destaca o papel de escrever código nesta aula de ciência da computação.
Philipp Hennig está apresentando seu curso Numerics of Machine Learning, que visa explorar como os algoritmos de aprendizado de máquina funcionam dentro da caixa e como eles podem ser adaptados ou alterados para melhorar as máquinas de aprendizado. O conhecimento altamente técnico em algoritmos numéricos e algoritmos de aprendizado de máquina é muito procurado por pesquisadores e profissionais da indústria. O curso consistirá em teoria e trabalho de codificação, com atribuições classificadas em um sistema binário. Hennig enfatiza a importância dos algoritmos numéricos no aprendizado de máquina e convida os alunos a participar desse experimento de ensino exclusivo com nove instrutores diferentes.
Aula 2 -- Álgebra Linear Numérica -- Marvin Pförtner
Numéricos de ML 2 -- Álgebra Linear Numérica -- Marvin Pförtner
A álgebra linear numérica é fundamental para aprendizado de máquina, processos gaussianos e outros métodos de regressão não paramétricos. A palestra cobre vários aspectos da álgebra linear numérica, incluindo a importância de entender a estrutura de uma matriz para uma multiplicação mais eficiente, a otimização de algoritmos de aprendizado de máquina por meio da solução de problemas de seleção de hiperparâmetros e matrizes de computação de kernel, e a solução de um sistema linear usando o decomposição LU, entre outros. A palestra também enfatiza a importância de implementar algoritmos adequadamente, pois o algoritmo usado para operações matemáticas tem um impacto significativo no desempenho, estabilidade e consumo de memória.
Na segunda parte do vídeo, Marvin Pförtner discute a importância da álgebra linear numérica em algoritmos de aprendizado de máquina. Ele cobre vários tópicos, incluindo decomposição LU, decomposição de Cholesky, lema de inversão de matriz e regressão de processo gaussiano. Pförtner enfatiza a importância de utilizar a estrutura para tornar os algoritmos mais eficientes e destaca a importância da estabilidade numérica na resolução de grandes sistemas de equações na regressão do processo gaussiano. Ele também discute técnicas como aprendizado ativo e aproximações de classificação baixa para lidar com grandes conjuntos de dados e as possíveis limitações de memória de matrizes de kernel. No geral, o vídeo mostra o papel crucial que a álgebra linear numérica desempenha em muitos aspectos do aprendizado de máquina.
Aula 3 -- Escalando Processos Gaussianos -- Jonathan Wenger
Numéricos de ML 3 -- Escalando Processos Gaussianos -- Jonathan Wenger
Jonathan Wenger discute técnicas para dimensionar processos gaussianos para grandes conjuntos de dados no vídeo "Numerics of ML 3". Ele explora métodos iterativos para resolver sistemas lineares e aprender a matriz inversa, com o objetivo principal de alcançar generalização, simplicidade/interpretabilidade, estimativas de incerteza e velocidade. Wenger introduz aproximações de baixo escalão para a matriz kernel, como a decomposição iterativa de Cholesky, Cholesky parcial e métodos de gradiente conjugado. Ele também discute o pré-condicionamento para acelerar a convergência e melhorar a estabilidade ao lidar com grandes conjuntos de dados. Finalmente, ele propõe o uso de uma matriz ortogonal Z para reescrever o traço de uma matriz, o que poderia potencialmente levar a um tempo quadrático para escalar processos Gaussianos.
Na segunda parte da palestra, Jonathan Wenger discute o escalonamento de Processos Gaussianos (GP) para grandes conjuntos de dados neste vídeo. Ele apresenta várias estratégias para melhorar a taxa de convergência das estimativas de Monte Carlo para a regressão GP, incluindo o uso de pré-condicionadores existentes para a solução do sistema linear para estimar a matriz kernel e sua inversa. Ele também introduz a ideia de PG de tempo linear por meio de aproximação variacional e abordagem da quantificação de incerteza usando o método de ponto indutor. Ao usar essas estratégias, é possível aumentar a escala para conjuntos de dados com até um milhão de pontos de dados com a GPU, facilitando a otimização rápida de hiperparâmetros.
Aula 4 -- Processos gaussianos com reconhecimento de computação -- Jonathan Wenger
Numéricos de ML 4 -- Processos gaussianos com reconhecimento de computação -- Jonathan Wenger
Neste vídeo sobre Numerics of ML, Jonathan Wenger discute os processos gaussianos com reconhecimento de computação e sua capacidade de quantificar o erro de aproximação e a incerteza nas previsões. Ele explora a importância de escolher as ações certas e como os gradientes conjugados podem reduzir significativamente a incerteza e acelerar o aprendizado. Wenger também fala sobre o uso de aproximações GP de tempo linear baseadas em pontos indutores, mas destaca os problemas que surgem de tais aproximações. Finalmente, ele discute a atualização de crenças sobre pesos representativos e o uso de algoritmos de aprendizado probabilístico para resolver o erro nos pesos representativos. No geral, o vídeo demonstra a eficácia dos processos gaussianos com reconhecimento de computação para melhorar a precisão das previsões, levando em conta as incertezas computacionais.
Jonathan Wenger também discute o processo gaussiano com reconhecimento de computação e sua complexidade neste vídeo. Ele explica que é necessário apenas calcular e armazenar o quadrante superior da matriz do kernel, e o custo computacional do algoritmo é proporcional ao tamanho desse quadrante. O processo gaussiano pode ser usado em conjuntos de dados de tamanho arbitrário, desde que os cálculos tenham como alvo apenas determinados pontos de dados, confundindo a linha entre dados e computação. Wenger argumenta que o GP pode ser modelado para dar conta dessa situação, condicionando os dados projetados. Ele apresenta um novo teorema que permite a quantificação exata da incerteza com um modelo aproximado. Por fim, ele prevê a palestra da próxima semana sobre a extensão do modelo GP para casos em que uma lei física governa parcialmente a função que está sendo aprendida.
Aula 5 -- Modelos de Espaço de Estados -- Jonathan Schmidt
Numéricos de ML 5 -- Modelos de espaço de estado -- Jonathan Schmidt
Nesta seção, Jonathan Schmidt apresenta modelos de espaço de estado e sua aplicação ao aprendizado de máquina. Ele explica que os modelos de espaço de estado são usados para modelar sistemas dinâmicos complexos, que são apenas parcialmente observáveis e envolvem interações altamente não lineares. A palestra cobre a representação gráfica de modelos de espaço de estados e as propriedades importantes da propriedade de Markov e medições condicionalmente independentes. Schmidt apresenta diferentes algoritmos para calcular várias distribuições, como predição, filtragem e distribuições de suavização, que são usadas para estimar o estado de um sistema, usando medições obtidas em diferentes pontos no tempo. A palestra também aborda a implementação de algoritmos de filtro de Kalman em Julia e o cálculo de estimativas de suavização em modelos de espaço de estado gaussianos lineares. Finalmente, Schmidt discute o filtro de Kalman estendido, que permite a estimativa de dinâmica não linear e medições em modelos de espaço de estado.
Jonathan Schmidt também discute modelos de espaço de estados e sua implementação usando código, focando especificamente na dinâmica não linear e no filtro de Kalman estendido. Ele também demonstra algoritmos de suavização e métodos alternativos de filtragem bayesiana, destacando seus prós e contras. A palestra termina com uma recomendação de aprendizado adicional e antecipação para a próxima palestra, onde Nathaniel apresentará números probabilísticos para simulação de sistemas dinâmicos.
Aula 6 -- Resolução de Equações Diferenciais Ordinárias -- Nathanael Bosch
Numéricos de ML 6 -- Resolução de Equações Diferenciais Ordinárias -- Nathanael Bosch
Nathanael Bosch cobre o conceito de ODEs em aprendizado de máquina, que descreve a derivada de uma função dada sua entrada e sistemas de modelo que evoluem ao longo do tempo. Ele discute os desafios de resolver EDOs e apresenta métodos numéricos, como Euler progressivo e Euler inverso, e suas propriedades de estabilidade. A Bosch explora diferentes métodos numéricos e suas compensações em precisão e complexidade, como ponto médio explícito e métodos clássicos de quarta ordem. Ele enfatiza a importância do erro local, ordem e compreensão da estabilidade para evitar problemas no uso de bibliotecas para resolver EDOs.
Esta segunda parte do vídeo discute o problema de estimar o campo vetorial e o valor inicial de uma equação diferencial ordinária (ODE) usando técnicas de aprendizado de máquina. O palestrante explica a importância de anotar o modelo generativo e o modelo de observação para os estados da EDO para resolver o problema de inferência. A função de verossimilhança é maximizada minimizando a verossimilhança logarítmica negativa, que produz uma estimativa de parâmetro. O palestrante demonstra essa abordagem usando um modelo SIR-D e discute o uso de redes neurais para melhorar a estimativa da taxa de contato. A importância das ODEs na pesquisa de aprendizado de máquina e seu papel na solução de problemas do mundo real também é destacada.
Aula 7 -- Solvers EDO Numéricos Probabilísticos -- Nathanael Bosch
Numéricos de ML 7 -- Solvers Numéricos Probabilísticos EDO -- Nathanael Bosch
Neste vídeo, Nathanael Bosch apresenta o conceito de solucionadores ODE numéricos probabilísticos, que combinam estimativa de estado e solucionadores numéricos ODE para fornecer distribuições sobre os estados ou soluções ODE. A Bosch explica como um processo Wiener integrado Q vezes pode ser usado para modelar a verdadeira solução e como esse processo permite quantificar e propagar incertezas no sistema. Em seguida, ele demonstra como usar filtros de Kalman estendidos para resolver EDOs e como os tamanhos dos passos afetam as estimativas de erro. O vídeo termina com uma discussão sobre calibração de incerteza e uso do filtro de Kalman estendido para estimar parâmetros em modelos de espaço de estados não lineares.
Na segunda parte da palestra, Nathanael Bosch fala sobre os benefícios de usar métodos probabilísticos para resolver EDOs, incluindo a obtenção de estimativas de incerteza significativas e a flexibilidade de incluir recursos adicionais do modelo, como valores iniciais. Ele demonstra essa abordagem com exemplos como o oscilador harmônico e equações algébricas diferenciais. Bosch também mostra como a inclusão de informações adicionais e o uso de técnicas probabilísticas podem levar a resultados mais significativos, usando um exemplo de modelo epidêmico que falhou em representar com precisão os dados usando métodos escalares tradicionais. Ele usa filtros de Kalman estendidos e suavizadores para resolver EDOs por meio de estimativa de estado, tratando a estimativa como um problema probabilístico e destaca a importância de ser bayesiano na tomada de decisão.
Aula 8 -- Equações Diferenciais Parciais -- Marvin Pförtner
Numéricos de ML 8 -- Equações Diferenciais Parciais -- Marvin Pförtner
Marvin Pförtner discute equações diferenciais parciais (PDEs) e sua importância na modelagem de vários sistemas do mundo real. Ele explica como os PDEs representam o mecanismo de um sistema com uma função desconhecida e um operador diferencial linear, mas requerem a resolução de parâmetros que muitas vezes são desconhecidos. A inferência do processo gaussiano pode ser usada para analisar modelos PDE e injetar conhecimento mecanicista em modelos estatísticos. Pförtner examina a distribuição de calor em uma unidade de processamento central em um computador, restringindo o modelo a uma distribuição de calor bidimensional e apresentando as suposições feitas para o modelo. A palestra também cobre o uso de processos gaussianos para resolver PDEs e adicionar condições de contorno realistas para modelar a incerteza. No geral, a abordagem GP combinada com a noção de um operador de informação nos permite incorporar conhecimento prévio sobre o comportamento do sistema, injetar conhecimento mecanístico na forma de um PDE linear e lidar com condições de contorno e lados direitos.
Na segunda parte deste vídeo, Marvin Pförtner discute o uso de processos Gaussianos para resolver equações diferenciais parciais (PDEs) estimando uma medida de probabilidade sobre funções em vez de uma estimativa pontual. Ele explica os benefícios da quantificação da incerteza e observa que essa abordagem é mais honesta porque reconhece a incerteza na estimativa da função do lado direito da PDE. Pförtner também explica o kernel Matern, que é útil na prática e pode controlar a diferenciabilidade do GP, e fornece uma fórmula para calcular o parâmetro P para o kernel Matern. Ele ainda explica como construir um kernel d-dimensional para PDEs tomando produtos de kernels Matern unidimensionais sobre as dimensões e a importância de ser matematicamente cuidadoso na construção do modelo.