Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
AlphaZero do zero – Tutorial de aprendizado de máquina
AlphaZero do zero – Tutorial de aprendizado de máquina
00:00:00 - 01:00:00 O vídeo "AlphaZero from Scratch – Machine Learning Tutorial" ensina aos usuários como construir e treinar o algoritmo AlphaZero usando Python e PyTorch para jogar jogos de tabuleiro complexos em níveis sobre-humanos, com exemplos dados para Tic -tac-toe e Connect 4. Um dos principais componentes do algoritmo é a busca da árvore de Monte Carlo, que envolve selecionar a ação mais promissora, expandir a árvore e simular o jogo, com os resultados retropropagados para treinamento. O tutorial demonstra a expansão de nós durante o algoritmo de pesquisa de Monte Carlo, o processo de execução automática e como treinar o modelo usando funções de perda que minimizam a diferença entre a política e a distribuição MCTS, e valor e recompensa final. O vídeo termina criando um jogo da velha e testando-o por meio de um loop while.
01:00:00 - 02:00:00 Nesta seção do tutorial sobre como construir o AlphaZero do zero, o instrutor demonstra a implementação do algoritmo Monte Carlo Tree Search (MCTS) para o jogo Tic-tac-toe. O algoritmo é implementado por meio de uma nova classe para MCTS que inclui um método de busca definindo um loop de iterações repetidas para as fases de seleção, expansão, simulação e retropropagação. O vídeo também aborda a implementação da arquitetura da rede neural AlphaZero, que inclui duas cabeças, uma para política e outra para valor, e utiliza uma rede residual com conexões skip. O cabeçalho da política usa uma função softmax para indicar a ação mais promissora, enquanto o cabeçalho do valor fornece uma estimativa de quão bom é o estado atual. O palestrante também discute a implementação do bloco inicial e backbone para a classe ResNet e explica como usar o modelo AlphaZero para obter uma política e um valor para um determinado estado no Tic-Tac-Toe.
02:00:00 - 03:00:00 O tutorial "AlphaZero from Scratch" demonstra a construção do algoritmo AlphaZero por meio de aprendizado de máquina. O apresentador cobre uma ampla gama de tópicos, desde a atualização do algoritmo MCTS, auto-play e métodos de treinamento, até melhorias como adição de temperatura à distribuição de probabilidade, decaimento de peso e suporte a GPU no modelo e adição de ruído ao nó raiz. O tutorial leva o visualizador passo a passo através da implementação desses recursos, mostrando como codificar o estado do nó, obter saídas de política e valor e ajustar a política usando softmax, movimentos válidos e ruído aleatório de Dirichlet para adicionar exploração enquanto garante ações promissoras não são perdidas.
03:00:00 - 04:05:00 Neste tutorial do YouTube sobre como criar AlphaZero do zero usando aprendizado de máquina, o instrutor aborda vários tópicos, como adicionar exploração à política com um fator de ruído, incorporar suporte de CPU e GPU para modelos de treinamento em jogos mais complexos, atualizando o código fonte para criar um jogo Connect Four, aumentando a eficiência da implementação do AlphaZero através da paralelização, criando duas novas classes em Python para jogos self-play, codificando estados para aumentar a eficiência, implementando o algoritmo Monte Carlo Tree Search para AlphaZero, e treinando um modelo para Connect Four usando fs0 paralelizado. O tutorial fornece orientação passo a passo sobre cada tópico com foco na criação de uma implementação AlphaZero eficiente e eficaz. O apresentador demonstra como criar um ambiente Connect Four usando o pacote de ambientes Kegel, em seguida, executa e visualiza o jogo com dois agentes que usam o algoritmo de busca MCTS baseado em um modelo AlphaZero treinado. O apresentador também faz pequenas correções no código e define o jogador um como o agente usando o algoritmo MCTS para previsões com base no modelo treinado. O tutorial termina com o apresentador disponibilizando um repositório GitHub com jupyter notebooks para cada checkpoint e uma pasta de pesos com o último modelo para Tic-tac-toe e Connect Four, manifestando interesse em fazer um vídeo de acompanhamento no Mu Zero se houver interesse nele.
Parte 1
Parte 2
Parte 3
Parte 4
Google entra em pânico com o ChatGPT [As guerras da IA começaram]
Google entra em pânico com o ChatGPT [As guerras da IA começaram]
O vídeo discute como o Google está se preparando para o potencial dos chatbots se tornarem mais poderosos e como isso pode impactar seu modelo de negócios. A Microsoft está trabalhando em um chatbot que permitiria aos usuários se comunicar com o Bing de uma maneira mais humana, e esse recurso será benéfico para pesquisas em que as imagens não existem atualmente. A Microsoft disse que está trabalhando de perto com IA aberta para que esse recurso não gere visuais explícitos ou inapropriados. Portanto, parece que o Bing está passando por uma grande reformulação com os recursos de bate-papo GPT e Dali 2 integrados.
CONFERÊNCIA JENSEN HUANG (NVIDIA) e ILYA SUTSKEVER (OPEN AI).AI HOJE E VISÃO DO FUTURO
CONFERÊNCIA JENSEN HUANG (NVIDIA) e ILYA SUTSKEVER (OPEN AI).AI HOJE E VISÃO DO FUTURO
O CEO da NVIDIA, Jensen Huang, e o cofundador da OpenAI, Ilya Sutskever, discutem as origens e os avanços da inteligência artificial (IA) em uma conferência. Sutskever explica como o aprendizado profundo ficou claro para ele, como o aprendizado não supervisionado por compressão levou à descoberta de um neurônio que correspondia ao sentimento e como o pré-treinamento de uma rede neural levou à instrução e refinamento com a colaboração humana e de IA. Eles também discutem os avanços e limitações do GPT-4 e do aprendizado multimodal, bem como o papel da geração de dados sintéticos e da melhoria da confiabilidade dos sistemas de IA. Apesar de ser o mesmo conceito de 20 anos atrás, ambos se maravilham com o progresso feito na pesquisa de IA.
É hora de prestar atenção à IA (ChatGPT e além)
É hora de prestar atenção à IA (ChatGPT e além)
O vídeo discute o desenvolvimento da inteligência artificial (IA) e como ela está mudando a maneira como trabalhamos e vivemos. Algumas pessoas estão entusiasmadas com o potencial da IA, enquanto outras estão preocupadas com suas possíveis implicações. O palestrante também fornece um breve resumo de um episódio recente do podcast.
A história interna do potencial surpreendente do ChatGPT | Greg Brockman | TED
A história interna do potencial surpreendente do ChatGPT | Greg Brockman | TED
Nesta seção do vídeo, Greg Brockman discute o papel da IA na melhoria da educação. Ele argumenta que os métodos tradicionais de educação são muitas vezes ineficientes e ineficazes, com os alunos lutando para reter o conhecimento e os professores lutando para ensinar de uma forma que envolva todos os alunos. Brockman sugere que a IA pode ajudar a resolver esses problemas, fornecendo experiências de aprendizado personalizadas para cada aluno. Com ferramentas de IA, é possível acompanhar o progresso do aluno em tempo real, ajustando o currículo às suas necessidades e preferências. Isso pode levar a experiências de aprendizado mais envolventes e eficientes, permitindo que os alunos retenham mais conhecimento e os professores se concentrem em tarefas mais importantes. Brockman também enfatiza a importância de projetar ferramentas de IA com privacidade em mente, garantindo que os dados dos alunos sejam protegidos e usados apenas para fins educacionais.
MIT Deep Learning em Ciências da Vida - primavera de 2021
MIT Deep Learning em Ciências da Vida - primavera de 2021
O curso "Deep Learning in Life Sciences" aplica aprendizado de máquina a várias tarefas de ciências da vida e é ministrado por um pesquisador em aprendizado de máquina e genômica com uma equipe de professores de alunos de doutorado e graduandos do MIT. O curso abrange fundamentos de aprendizado de máquina, circuitos reguladores de genes, variação em doenças, interações e dobras de proteínas e geração de imagens usando o TensorFlow por meio do Python em uma plataforma do Google Cloud. O curso consistirá em quatro conjuntos de problemas, um questionário e um projeto de equipe, com sessões de orientação intercaladas para ajudar os alunos a criar seus próprios projetos. O instrutor enfatiza a importância de formar uma equipe com habilidades e interesses complementares e fornece vários marcos e entregas ao longo do período. O curso visa fornecer experiência do mundo real, incluindo redação de propostas de bolsas e bolsas, revisão por pares, relatórios anuais e desenvolvimento de habilidades de comunicação e colaboração. O palestrante discute as diferenças entre a IA tradicional e o aprendizado profundo, que constrói uma representação interna de uma cena com base em estímulos observáveis, e enfatiza a importância do aprendizado profundo nas ciências da vida devido à convergência de dados de treinamento, poder de computação e novos algoritmos .
O vídeo é uma palestra introdutória sobre aprendizado profundo em ciências da vida, explicando a importância do aprendizado de máquina e do aprendizado profundo na exploração da complexidade do mundo. A palestra enfoca o conceito de inferência bayesiana e como ela desempenha um papel crucial no aprendizado de máquina clássico e profundo, juntamente com as diferenças entre abordagens generativas e discriminativas para o aprendizado. A palestra também destaca o poder das máquinas de vetores de suporte, desempenho de classificação e álgebra linear para entender redes em sistemas biológicos. O palestrante observa que o curso abordará vários tópicos em aprendizado profundo, incluindo regularização, evitando overfitting e conjuntos de treinamento. A palestra termina abordando questões relacionadas à interpretabilidade de neurônios artificiais e redes profundas para futuras palestras.
Fundamentos do Machine Learning - Aula 02 (Primavera de 2021)
Machine Learning Foundations - Deep Learning in Life Sciences Palestra 02 (Primavera de 2021)
Esta palestra aborda os fundamentos do aprendizado de máquina, apresentando conceitos como conjuntos de treinamento e teste, tipos de modelos como discriminativo e generativo, avaliando funções de perda, regularização e overfitting e redes neurais. O palestrante continua explicando a importância dos hiperparâmetros, avaliando a precisão em ciências da vida, testes de correlação e cálculos de probabilidade para teste de modelo. Por fim, são discutidos os fundamentos das redes neurais profundas e a estrutura de um neurônio, destacando o papel da não linearidade no aprendizado de funções complexas.
Na segunda seção da palestra, é explicado o conceito de funções de ativação em aprendizado profundo, bem como o processo de aprendizado de ajuste de pesos para corresponder à função de saída usando derivadas parciais no ajuste de atualizações de peso para minimizar erros, que é a base do gradiente aprendizado baseado em O conceito de retropropagação é introduzido como um método de propagação de derivadas através de uma rede neural para ajustar os pesos. Os vários métodos para otimizar pesos em várias camadas de modelos de aprendizado profundo são discutidos, incluindo descida de gradiente estocástico e o conceito de capacidade do modelo e a dimensão VC. A eficácia da capacidade de um modelo em um gráfico e o viés e a variância também são discutidos, juntamente com várias técnicas de regularização, como parada antecipada e decaimento de peso. A importância de encontrar o equilíbrio certo de complexidade é enfatizada e os alunos são incentivados a se apresentarem positivamente aos colegas.
Redes Neurais Convolucionais de CNNs - Aula 03 (Primavera de 2021)
Redes neurais convolucionais CNNs - Deep Learning in Life Sciences - Palestra 03 (Primavera de 2021)
Esta palestra em vídeo aborda o tópico de redes neurais convolucionais (CNNs) em aprendizado profundo para ciências da vida. O palestrante discute os princípios do córtex visual e como eles se relacionam com as CNNs, incluindo os blocos de construção dos sistemas visuais humanos e animais, como os blocos de construção básicos de soma e pesagem e o limiar de ativação de viés de um neurônio. Eles explicam que as CNNs usam neurônios especializados para operações de detecção de baixo nível e camadas de unidades ocultas para aprendizado de conceitos abstratos. A palestra também aborda o papel das camadas de convolução e agrupamento, o uso de vários filtros para extrair vários recursos e o conceito de aprendizagem por transferência. Por fim, também são discutidas não linearidades e o uso de padding para tratar casos de borda em convolução. No geral, a palestra destaca o poder e o potencial das CNNs em uma variedade de aplicações de ciências da vida.
A segunda parte da palestra abrange vários conceitos relacionados a redes neurais convolucionais (CNNs). Na palestra, o palestrante fala sobre a importância de manter o tamanho da entrada nas CNNs, o aumento de dados como meio de obter invariância às transformações e as diferentes arquiteturas de CNN e suas aplicações. A palestra também aborda os desafios associados ao aprendizado em CNNs profundas, hiperparâmetros e seu impacto no desempenho geral e abordagens para ajuste de hiperparâmetros. O palestrante enfatiza a importância de entender os princípios fundamentais por trás das CNNs e destaca sua versatilidade como técnica aplicável em vários ambientes.
RNNs de Redes Neurais Recorrentes, GNNs de Redes Neurais de Gráfico, LSTMs de Memória de Longo Prazo - Aula 04 (Primavera de 2021)
RNNs de redes neurais recorrentes, GNNs de redes neurais de gráfico, LSTMs de memória de longo prazo
Este vídeo abrange uma variedade de tópicos, começando com redes neurais recorrentes (RNNs) e sua capacidade de codificar o contexto temporal, o que é crítico para o aprendizado de sequência. O palestrante apresenta o conceito de modelos de markov ocultos e suas limitações, o que leva à discussão dos módulos de memória de curto prazo (LSTM) como uma abordagem poderosa para lidar com sequências longas. O vídeo também discute o módulo transformador, que aprende relacionamentos temporais sem desenrolar ou usar RNNs. Redes neurais de grafos são introduzidas e suas aplicações potenciais na resolução de problemas clássicos de redes e em biologia computacional. A palestra termina com uma discussão sobre as fronteiras de pesquisa em redes neurais de grafos, como sua aplicação em modelos de grafos degenerativos e inferência de grafos latentes.
Esta segunda parte do vídeo discute os módulos de Redes Neurais Recorrentes (RNNs), Redes Neurais de Gráfico (GNNs) e Memória de Longo Prazo (LSTM). Ele explica como as redes neurais feedforward tradicionais têm limitações ao lidar com dados baseados em gráficos, mas as GNNs podem lidar com uma ampla gama de invariâncias e propagar informações pelo gráfico. Os palestrantes também discutem Graph Convolutional Networks (GCNs) e suas vantagens e desafios. Além disso, o vídeo descreve a importância das funções de atenção para tornar os GNNs mais poderosos e flexíveis.
Aprendizagem Profunda Interpretável - Aprendizagem Profunda em Ciências da Vida - Aula 05 (Primavera de 2021)
Aprendizagem Profunda Interpretável - Aprendizagem Profunda em Ciências da Vida - Aula 05 (Primavera de 2021)
Este vídeo discute a importância da interpretabilidade em modelos de aprendizado profundo, especialmente no campo das ciências da vida, onde as decisões podem ter consequências terríveis. O palestrante explica dois tipos de interpretabilidade: incorporá-la ao design do modelo desde o início e desenvolver métodos post hoc de interpretabilidade para modelos já construídos. Eles exploram diferentes técnicas para interpretar modelos, incluindo visualização de peso, construção de modelo substituto e maximização de ativação, e discutem a importância de entender as representações internas do modelo. O palestrante também explica vários métodos para interpretar decisões individuais, como métodos baseados em exemplos e métodos de atribuição. Além disso, o palestrante discute o desafio de interpretar conceitos complexos e as limitações das interpretações de modelos de redes neurais, além de explorar hipóteses relacionadas à descontinuidade de gradientes em redes neurais de aprendizado profundo.
Na segunda parte da palestra, o palestrante abordou os desafios dos gradientes descontínuos e das funções saturadas em modelos de aprendizagem profunda na área de ciências da vida. Eles propuseram métodos como a média de pequenas perturbações de entrada em várias amostras para obter um gradiente mais suave, usando ruído aleatório para destacar os recursos salientes na classificação de imagens e técnicas de retropropagação, como redes neurais deconvolucionais e retropropagação guiada para interpretar modelos reguladores de genes. O palestrante também discutiu a avaliação quantitativa dos métodos de atribuição, incluindo o procedimento de inversão de pixel e a abordagem de remoção e substituição de pontuação. Finalmente, eles enfatizaram a necessidade de interpretabilidade em modelos de aprendizado profundo e as várias técnicas para alcançá-lo.