Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Mega-R1. Sistemas Baseados em Regras
Mega-R1. Sistemas Baseados em Regras
Este vídeo se concentra em Mega-Recitação, que é uma palestra em estilo tutorial para ajudar os alunos a trabalhar com o material abordado em palestras e recitações. O vídeo aborda vários tópicos relacionados a sistemas baseados em regras, incluindo encadeamento reverso, encadeamento direto, ordem de desempate para regras e o processo de correspondência. O processo de encadeamento reverso envolve observar o consequente de uma regra e adicionar os antecedentes conforme necessário para alcançar o objetivo principal, e o desempate e a desambiguação são cruciais para a árvore de objetivos. O vídeo também discute o encadeamento direto e as regras de correspondência para asserções usando uma série de asserções. O palestrante enfatiza a importância de verificar as afirmações antes de usar uma regra e evitar regras impotentes que não fazem nada. O processo de correspondência envolve o uso de encadeamento reverso para determinar quais regras correspondem às asserções fornecidas, e o sistema priorizará as regras de numeração inferior, independentemente de serem novas ou não.
Mega-R2. Pesquisa básica, pesquisa ideal
Mega-R2. Pesquisa básica, pesquisa ideal
Este vídeo do YouTube abrange vários algoritmos e técnicas de pesquisa, incluindo pesquisa em profundidade, pesquisa em largura, pesquisa ideal e algoritmo A*. O vídeo usa um exemplo divertido de um Overlord do Mal, Mark Vader, em busca de uma nova fortaleza para ilustrar esses conceitos. O apresentador enfatiza a importância da admissibilidade e consistência na busca de grafos e explica o uso de listas estendidas para evitar a reavaliação de nós. O vídeo aborda erros e perguntas comuns do público e incentiva os espectadores a fazer mais perguntas. No geral, o vídeo fornece uma introdução completa a esses algoritmos e técnicas de pesquisa.
Mega-R3. Jogos, Minimax, Alpha-Beta
Mega-R3. Jogos, Minimax, Alpha-Beta
Este vídeo aborda vários tópicos relacionados à teoria dos jogos e ao algoritmo minimax, incluindo minimax regular, adições alfa-beta, poda alfa-beta, avaliação estática, aprofundamento progressivo e reordenação de nós. O instrutor fornece explicações e demonstrações desses conceitos usando exemplos e pede ao público que participe da determinação dos valores em diferentes nós em uma árvore de jogo. O vídeo termina com uma discussão sobre as possíveis falhas nas funções heurísticas e conselhos para o próximo teste.
Mega-R4. Redes Neurais
Mega-R4. Redes Neurais
O vídeo cobre vários aspectos das redes neurais, incluindo suas representações, confusão sobre entradas e saídas, funções sigmóides e de desempenho, pesos e vieses, retropropagação, alteração das funções sigmóides e de desempenho, pesos limite, visualização e o potencial das redes neurais. O instrutor explica várias fórmulas necessárias para o questionário e como calcular e ajustar deltas recursivamente. Ele também discute os tipos de redes neurais necessárias para resolver problemas simples e menciona uma aplicação recente de redes neurais no mundo real em uma competição de jogos na Universidade de Maryland. Por fim, ele menciona que, embora as redes neurais tenham caído em desuso devido às suas limitações e complexidades na pesquisa, elas ainda são úteis para questionários.
Mega-R5. Máquinas de vetores de suporte
Mega-R5. Máquinas de vetores de suporte
O vídeo explica as Support Vector Machines (SVMs), que determinam a linha divisória ou os limites de decisão nos dados, encontrando os vetores de suporte que não são iguais a qualquer outro ponto de dados. Também inclui o uso de funções do kernel que permitem ao kernel calcular o produto escalar sem manipular diretamente os vetores. O professor esclarece o objetivo de encontrar os Alphas que fornecem o melhor W para a estrada mais larga e como W é o limite de decisão para SVM. Os alunos perguntam sobre a intuição por trás do SVM, e a otimização baseada em Alphas cria o caminho mais amplo para uma melhor classificação de dados. O SVM Kernel também ajuda a otimizar o processo, tornando-o mais eficiente.
Mega-R6. Impulsionando
Mega-R6. Impulsionando
No vídeo "Mega-R6. Boosting", o palestrante explica o conceito de boosting no aprendizado de máquina e demonstra o processo de seleção dos classificadores corretos para minimizar erros. Eles dão um exemplo de identificação de vampiros com base em certas qualidades e discutem como escolher os classificadores mais eficazes. Os classificadores selecionados são usados para criar um classificador final que é aplicado aos pontos de dados para determinar quantos são classificados corretamente. O palestrante também enfatiza que a escolha de quando interromper o processo é importante e reconhece que nem sempre é possível atingir a precisão total.
Mega-R7. Quase Acidentes, Arch Learning
Mega-R7. Quase Acidentes, Arch Learning
No vídeo, é apresentado o conceito de near miss learning, envolvendo o aprendizado sobre diferentes tipos de fontes de luz e suas características. A abordagem Arch Learning usa seis heurísticas para refinar um modelo, incluindo link obrigatório, link proibido, árvore de subida, conjunto de extensão, intervalo fechado e link de queda. O vídeo discute várias técnicas usadas no aprendizado de máquina, como estender conjunto, escalar árvore, intervalo fechado e soltar link. Os palestrantes também falam sobre questões relacionadas à fragilidade e vulnerabilidade do modelo Arch Learning à ordenação, levando a reações inconsistentes a informações contraditórias. O vídeo também discute o conceito de generalização do Mega-R7 e como ele difere dos modelos anteriores. Além disso, são discutidos os trade-offs entre o aprendizado irlandês e o aprendizado de rede em termos de sua capacidade de expressar subconjuntos de informações, bem como ensinar o sistema usando vários modelos com diferentes detalhes de implementação.
AlphaGo - O Filme | Documentário premiado completo
AlphaGo - O Filme | Documentário premiado completo
Um documentário sobre o desenvolvimento do programa de computador AlphaGo, projetado para derrotar jogadores humanos no jogo de Go. O filme segue a vitória do programa sobre um jogador humano campeão mundial em uma partida de cinco jogos. Alguns espectadores acham que a vitória do AlphaGo pode anunciar o fim da raça humana como a conhecemos, à medida que as máquinas se tornam cada vez melhores na execução de tarefas cognitivas.
Deepmind AlphaZero - Dominando jogos sem conhecimento humano
Deepmind AlphaZero - Dominando jogos sem conhecimento humano
O vídeo explora o desenvolvimento da arquitetura de aprendizado por reforço profundo da DeepMind, AlphaZero, que utiliza uma política unificada e uma rede de valor para obter sucesso em jogos com enormes espaços de estado sem nenhum dado humano prévio. O algoritmo do AlphaZero envolve o treinamento de uma rede neural para prever a ação escolhida por toda uma pesquisa em árvore de Monte Carlo, destilando conhecimento de forma iterativa para gerar jogadores mais fortes ao longo do tempo. O algoritmo mostrou curvas de aprendizado impressionantes, superando as versões anteriores em apenas algumas horas de treinamento e exibindo escalabilidade notável, apesar de avaliar menos posições do que os mecanismos de pesquisa anteriores. O vídeo também discute a capacidade do AlphaZero de combinar o melhor das abordagens humana e mecânica, ao mesmo tempo em que mostra potencial para aprendizado por reforço de uso geral.
AlphaGo - Como a IA dominou o jogo de tabuleiro mais difícil da história
AlphaGo - Como a IA dominou o jogo de tabuleiro mais difícil da história
O vídeo explora os detalhes técnicos do AlphaGo Zero, um sistema de IA que foi treinado inteiramente por meio de reprodução automática e sem o uso de conjuntos de dados humanos. O sistema usou uma arquitetura de rede residual e uma abordagem de duas pesquisas para prever valor e movimentos fortes. O vídeo destaca as melhorias feitas, incluindo a capacidade de prever os resultados do jogo e a descoberta do sistema e o afastamento de movimentos conhecidos no Go. No entanto, a aplicação do sistema no mundo real é limitada pela necessidade de um simulador perfeito, dificultando a aplicação da abordagem em outras áreas.