Aprendizado de máquina e redes neurais - página 11

 

Heróis do Deep Learning: Andrew Ng entrevista o chefe de pesquisa da Baidu, Yuanqing Lin




Heróis do Deep Learning: Andrew Ng entrevista o chefe de pesquisa da Baidu, Yuanqing Lin

Yuanqing Lin, chefe de pesquisa da Baidu e chefe do laboratório nacional de aprendizado profundo da China, discute a fundação do laboratório nacional e seu impacto na comunidade de aprendizado profundo. Lin fornece informações sobre o investimento da China em aprendizagem profunda e como isso levou ao crescimento em vários setores. Ele enfatiza a importância dos ciclos de feedback no desenvolvimento de IA e como isso ajuda a criar melhores algoritmos e tecnologias. Lin aconselha os indivíduos a estabelecer uma base sólida em aprendizado de máquina e começar com uma estrutura de código aberto para entrar no campo com sucesso.

  • 00:00:00 Nesta seção, Yuanqing Lin, chefe da Baidu Research e chefe do Laboratório Nacional de Deep Learning da China, fala sobre sua história pessoal e como ele entrou no campo do aprendizado de máquina. Lin compartilha que mudou sua área de estudo da física para o aprendizado de máquina para seu programa de doutorado na UPenn, que ele considerou uma experiência muito emocionante, onde aprendeu coisas novas todos os dias. Ele acabou trabalhando em um projeto de sucesso para o ImageNet Challenge, que lhe deu exposição a tarefas de visão computacional em larga escala e o inspirou a trabalhar em aprendizado profundo. Como chefe do Laboratório Nacional da China, o objetivo de Lin é construir a maior plataforma de aprendizado profundo do país, oferecendo recursos a pesquisadores e desenvolvedores para melhorar a tecnologia existente e desenvolver novas para grandes aplicações.

  • 00:05:00 Nesta seção, Yuanqing Lin, chefe da Baidu Research, discute o novo laboratório nacional de IA e o impacto que ele terá na comunidade de aprendizado profundo. Ele destaca como o laboratório fornecerá uma estrutura de computação para executar modelos de aprendizado profundo, o que facilitará muito a reprodução da pesquisa. Ele também discute o investimento da China em aprendizado profundo e como isso levou ao crescimento em vários setores, como comércio eletrônico, vigilância e muito mais. Lin enfatiza a importância dos ciclos de feedback no desenvolvimento de IA e como isso ajuda a criar melhores algoritmos e tecnologias. No geral, ele acredita que a comunidade de aprendizado profundo se beneficiará muito dos recursos e da experiência do laboratório.

  • 00:10:00 Nesta seção, Yuanqing Lin, chefe de pesquisa da Baidu, enfatiza a importância de ter uma visão e direção fortes para que os negócios tenham sucesso no campo de aprendizado profundo e IA. Ele aconselha os indivíduos que entram no campo a começar com uma estrutura de código aberto e se familiarizar com os recursos de benchmarking. Lin recomenda que os indivíduos estabeleçam uma base sólida em aprendizado de máquina para entender completamente o funcionamento do aprendizado profundo.
Heroes of Deep Learning: Andrew Ng interviews Head of Baidu Research, Yuanqing Lin
Heroes of Deep Learning: Andrew Ng interviews Head of Baidu Research, Yuanqing Lin
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, mathematics, number theory
 

Heróis do Deep Learning: Dawn Song sobre IA, Deep Learning e Segurança



Heróis do Deep Learning: Dawn Song sobre IA, Deep Learning e Segurança

Dawn Song, especialista em aprendizado profundo e segurança de computadores, discutiu sua carreira e seu trabalho em IA, aprendizado profundo e segurança em uma entrevista.
Song enfatizou a importância de identificar os principais problemas ou questões para orientar a leitura ao entrar no campo pela primeira vez e desenvolver uma base sólida em representação para facilitar a pesquisa em outros domínios.
Ela também destacou a crescente importância da construção de sistemas resilientes de IA e aprendizado de máquina e seu trabalho no desenvolvimento de mecanismos de defesa contra ataques de caixa preta.
Song compartilhou seu trabalho sobre privacidade e segurança, incluindo o treinamento de modelos de linguagem privada diferenciada e o desenvolvimento de uma plataforma de computação em nuvem que prioriza a privacidade em blockchain no Oasis Labs. Por fim, Song aconselhou as pessoas que entravam em novos campos a serem corajosas e a não terem medo de começar do zero.

  • 00:00:00 Nesta seção, o entrevistador fala com Dawn Song, especialista em aprendizado profundo e segurança de computadores. A carreira de Song não foi linear, começando com uma graduação em física e mudando para ciência da computação com foco em segurança de computadores. Song decidiu buscar aprendizado profundo e IA, pois achou isso emocionante e intrigante. Song passava quatro dias por semana lendo jornais e livros em aprendizado profundo e considerava esse um de seus momentos mais felizes. Ela projetou um programa de leitura para aprender mais sobre o campo.

  • 00:05:00 Nesta seção, o palestrante discute como desenvolveu uma estratégia para mergulhar na extensa literatura sobre aprendizado profundo e IA quando entrou pela primeira vez no campo. Ele enfatiza a importância de identificar os principais problemas ou questões para orientar a leitura, bem como buscar as opiniões de outras pessoas no campo e triangular por meio de postagens de blog, artigos e referências para criar uma lista de leitura superior. Uma das questões centrais que o palestrante se interessou em investigar desde o início foi como construir grandes representações, que ele acredita ser uma questão ainda em aberto no campo. Ele enfatiza a importância de desenvolver uma base sólida nesta área para facilitar a pesquisa em outros domínios.

  • 00:10:00 Nesta seção, o palestrante discute como a representação do mundo é crucial para navegar e entendê-lo, e a ideia de que o cérebro humano representa o mundo por meio de padrões de disparos neuronais que podem ser aproximados por vetores de números reais em aprendizagem profunda. No entanto, o mecanismo de representação real é muito mais rico do que apenas disparos neuronais, e é importante aprender quais são essas representações. O palestrante também aborda seu trabalho em segurança de computadores e como o conhecimento obtido com a pesquisa de segurança pode ser utilizado para aprimorar a IA e o aprendizado profundo, especialmente com a crescente adoção dessas tecnologias em funções críticas na sociedade, onde os invasores são incentivados a desenvolver novos ataques.

  • 00:15:00 Nesta seção, o palestrante discute a importância crescente de construir sistemas de IA e aprendizado de máquina resistentes a ataques, à medida que nos tornamos cada vez mais dependentes desses sistemas para tomar decisões críticas. Tem havido ataques crescentes a sistemas de aprendizado de máquina, como o uso de tecnologia avançada de visão computacional para resolver capturas e tentativas de burlar sistemas de aprendizado de máquina para detecção de fraudes. A equipe do palestrante estudou a vulnerabilidade dos atuais sistemas de aprendizado de máquina e desenvolveu defesas para ataques, incluindo ataques de caixa preta em que o invasor não precisa saber nada sobre o modelo da vítima. A equipe também mostrou que os ataques de caixa preta podem ser eficazes por meio de métodos como ataques baseados em Ensemble e acesso de consulta ao modelo.

  • 00:20:00 Nesta seção, Dawn Song discute seu trabalho no desenvolvimento de uma técnica de ataque baseada em unsample que envolve o uso de um conjunto de modelos de caixa branca para criar exemplos de adversários eficazes que levam a ataques bem-sucedidos, mesmo em uma configuração de caixa preta. No entanto, no lado defensivo, construir uma solução forte e geral para se defender contra atacantes fortes e adaptáveis continua sendo uma questão desafiadora e em aberto. Além disso, Dawn observa como a abordagem de verificações de consistência para detectar ataques pode ser uma direção frutífera para buscar a construção de uma defesa contra ataques, pois pode ser aplicada em vários cenários, incluindo IA e privacidade. Por exemplo, em colaboração com pesquisadores do Google, Dawn e sua equipe demonstraram a importância de ter cuidado para proteger a privacidade dos usuários, pois dados confidenciais, como CPF e números de cartão de crédito, podem ser extraídos de modelos de aprendizado de máquina treinados a partir de e-mails.

  • 00:25:00 Nesta seção, Dawn Song fala sobre seu trabalho em privacidade e segurança em IA, especificamente na mitigação de ataques por meio do treinamento de modelos de linguagem privada diferenciada. Song explica que a privacidade diferencial envolve adicionar ruído durante o processo de treinamento de uma maneira apropriadamente escolhida para mitigar ataques sem memorizar informações confidenciais, como números de previdência social. Song também compartilha seu trabalho recente em segurança para dispositivos IoT, onde eles utilizam técnicas de aprendizado profundo para detectar rapidamente a similaridade de código e identificar vulnerabilidades no firmware de dispositivos IoT do mundo real. Como CEO da Oasis Labs, Song explica como a empresa está construindo uma plataforma de computação em nuvem em blockchain que prioriza a privacidade e aborda os desafios da privacidade de dados em IA, permitindo contratos inteligentes que preservam a privacidade.

  • 00:30:00 Nesta seção, o Dr. Dawn Song discute uma plataforma blockchain que pode ajudar a descentralizar a IA e aumentar a acessibilidade aos recursos de aprendizado de máquina enquanto protege a privacidade dos usuários. A plataforma terá contratos inteligentes que especificam os termos de uso para os usuários, ditando que os dados coletados só podem ser usados para treinar um modelo de aprendizado de máquina que preserva a privacidade e especificando como o usuário pode ser compensado. A Dra. Song também compartilha sua empolgação com a síntese de programas e como ela pode ajudar a resolver problemas importantes, ao mesmo tempo em que fornece uma perspectiva útil para uma gama mais ampla de problemas. Finalmente, o conselho do Dr. Song para as pessoas que procuram entrar em novos campos é ser corajoso e não ter medo de começar do zero, pois pode ser um processo muito gratificante.
Dawn Song on AI, Deep Learning and Security
Dawn Song on AI, Deep Learning and Security
  • 2023.02.16
  • www.youtube.com
Join Dawn Soung, Founder of Oasis Labs, for an interview on her journey into AI and web3, with DeepLearning.AI. This interview was originally published by De...
 

A revolução da IA | Inteligência Artificial Explicada | Novas Tecnologias | robótica




A revolução da IA | Inteligência Artificial Explicada | Novas Tecnologias | robótica

Este vídeo explora a revolução da IA, começando com o futuro de veículos autônomos e robôs de autoaprendizagem capazes de navegar em terrenos complexos, conduzir missões de busca e resgate e interagir com humanos em espaços de trabalho colaborativos. O desenvolvimento da robótica de enxame mostra um enorme potencial para melhorar áreas como agricultura, saúde e resposta a desastres. Os pesquisadores estão trabalhando para tornar os robôs mais autoconscientes e capazes de se comunicar por meio do processamento de linguagem natural, criando avatares digitais hiper-realistas e andróides mais semelhantes aos humanos, que podem servir como assistentes holográficos ou companheiros para idosos e socialmente isolados. Embora os benefícios da IA para melhorar a sociedade sejam imensos, também há uma necessidade de considerações éticas e responsabilidade para os desenvolvedores para garantir o alinhamento da IA com intenções positivas.

  • 00:00:00 Nesta seção, o futuro da hiperinteligência é explorado, com carros autônomos e drones autônomos previstos para revolucionar a vida moderna. Espera-se que os humanos vivam e trabalhem ao lado de Androids autoconscientes, que nos libertarão de tarefas tediosas e aumentarão a produtividade, enquanto os companheiros de IA ajudarão os humanos de várias maneiras. Esta seção continua explicando como a IA funciona e pondera se a IA ganhará características humanas, como emoção, consciência ou até mesmo livre arbítrio. O carro autônomo é apresentado como o caminho mais claro para o futuro, com Raj Rajkumar, da Carnegie Mellon University, explicando como as decisões sobre carros autônomos são tomadas por meio de uma combinação de câmeras e radares avançados que comparam objetos externos a um mapa 3D interno.

  • 00:05:00 Nesta seção, o vídeo explora a natureza dinâmica do transporte e o desafio que a IA tem em reconhecer informações dinâmicas para entender objetivamente para onde está indo no espaço e reagir a mudanças e sinais de trânsito. O vídeo destaca a importância da segurança na criação de carros autônomos e o uso de aprendizado de máquina na criação de robôs que podem aprender e interagir com seu ambiente identificando objetos e discernindo entre diferentes elementos, semelhante a como uma criança aprende sobre seu ambiente. É apresentado o robô R2, projetado para operar em ambientes subterrâneos e soltar repetidores de sinal para criar uma rede Wi-Fi para criar uma representação 3D do ambiente para navegar, identificar e evitar obstáculos.

  • 00:10:00 Nesta seção, o vídeo mostra as habilidades de robôs inteligentes capazes de explorar e mapear novos territórios para auxiliar em missões de busca e salvamento. De veículos navegando em zonas de desastre a drones voando por espaços desconhecidos, esses robôs autônomos são capazes de tomar decisões com base em seu ambiente, usando tecnologias como lidar para mapear seus arredores. Além disso, esses robôs já estão sendo empregados em indústrias perigosas, como mineração, construção e exploração de petróleo, para realizar inspeções e criar mapas de terrenos acidentados. O desenvolvimento desses robôs autônomos não apenas apresenta um futuro de hiperinteligência, mas também pode revolucionar áreas como busca e salvamento, resposta a desastres e entrega de pacotes.

  • 00:15:00 Nesta seção, o vídeo discute o desenvolvimento de um exército de pequenos robôs voadores por Vijay Kumar, professor da Univ. da Pensilvânia, para enfrentar o problema da fome no mundo. Usando IA, esses drones podem atuar como um grupo coletivo coordenado para fornecer informações precisas sobre plantas individuais, o que pode aumentar a eficiência da produção de alimentos. Os drones usam um algoritmo coletivo de IA para se comunicarem e trabalharem juntos para realizar tarefas como mapeamento e construção de estruturas. Essa técnica de enxame oferece vantagens em relação a um único drone, realizando operações muito mais rapidamente ao combinar seus dados e evitando que qualquer perda de drones prejudique toda a operação. Outros exemplos de uso da tecnologia de enxame incluem abelhas robóticas auxiliando na polinização em pomares e fazendas, tornando-as mais sustentáveis e produtivas.

  • 00:20:00 Nesta seção, o foco está na colaboração humano-robô e nos desafios de ensinar robôs a aprender com os comportamentos humanos. O Instituto de Tecnologia de Massachusetts está realizando pesquisas inovadoras, criando software que permite que robôs trabalhem e interajam diretamente com humanos. Os robôs aprendem tarefas demonstrando-os, e a IA reconhece objetos mostrados por meio de tags visuais e, por meio da observação, o software é escrito e revisado continuamente, aprendendo o contexto e pode pensar dinamicamente. O desafio de criar hiperinteligência é fazer com que os robôs antecipem o ambiente para prever o que acontecerá a seguir. O robô industrial recebe inteligência que lhe permite reconhecer as ações do colega de trabalho humano em um teste de fabricação simulado para torná-lo mais seguro para os humanos interagirem.

  • 00:25:00 Nesta seção, é mostrada uma demonstração de como a tecnologia AI pode trabalhar em conjunto com humanos em um espaço de trabalho colaborativo. O robô é capaz de reconhecer e antecipar os movimentos humanos, tornando-o mais seguro e eficiente para trabalhar. Esse tema de trabalho em equipe entre humanos e robôs está se tornando cada vez mais importante em vários setores, como o da saúde, onde os robôs de IA já estão sendo usados para aumentar a produtividade e reduzir o erro humano. O desenvolvimento da inteligência artificial geral com a capacidade de pensar e aprender como os humanos é o objetivo final de alguns cientistas, que acreditam que as máquinas podem um dia se tornar conscientes e autoconscientes.

  • 00:30:00 Nesta seção, o vídeo discute o conceito de propriocepção, tanto em bebês quanto em robôs. A propriocepção refere-se à consciência de um indivíduo sobre os movimentos de seu corpo e seu posicionamento no espaço. Os especialistas destacam a importância da autoconsciência de um robô no desenvolvimento da consciência robótica. Os robôs podem desenvolver autoimagens, planejar novas tarefas e começar a pensar sobre o pensamento com propriocepção. A autoconsciência liga a máquina ao mundo externo, permitindo que ela manobre e interaja com seu ambiente. Esse desenvolvimento pode abrir caminho para formas avançadas de comunicação entre humanos e robôs.

  • 00:35:00 Nesta seção, é explicado que os robôs precisarão aprender a falar e ter conversas naturais para tornar a interação homem-máquina mais complexa. O processamento de linguagem natural, que antecede a IA, é a chave para entender o significado da linguagem falada. No entanto, o maior desafio enfrentado pela IA para entender a fala humana é que o contexto da fala depende muito do tom e do contexto. Os pesquisadores estão usando o aprendizado de máquina para treinar a IA com horas de conversa humana para ajudá-los a entender melhor o contexto da conversa. Além disso, para tornar a IA parecida conosco, novas técnicas estão sendo desenvolvidas por empresas como a Pinscreen para criar avatares digitais hiper-realistas em um instante. Seu software usa inteligência artificial para digitalizar o rosto de uma pessoa no computador e permitir que seja animado rapidamente.

  • 00:40:00 Nesta seção, o foco está no desenvolvimento de uma inteligência artificial (IA) mais semelhante à humana e no impacto potencial que ela pode ter em nossas vidas. Isso inclui o uso de software que gera um rosto humano mais realista e personalizado, o que pode resultar em andróides e seres virtuais de aparência mais amigável. Esses assistentes holográficos poderiam cuidar de muitos aspectos da vida cotidiana, incluindo diagnósticos de saúde e até mesmo tornarem-se amigos virtuais e familiares. Há também um esforço para criar robôs realistas que as pessoas vão querer abraçar fisicamente para servir como companheiros, especialmente para aqueles que estão socialmente isolados ou sofrem de ansiedade social. Embora existam preocupações de que alguns possam ver esses andróides como robôs sexuais, o foco permanece na criação de um bom robô que possa ser usado de várias maneiras.

  • 00:45:00 Nesta seção, a palestra aborda o uso potencial de andróides e IA na terapia, pois as pessoas podem se sentir mais à vontade conversando com um robô sem julgamento. No entanto, a palestra também traz preocupações éticas. IA e deepfakes podem ser usados para sequestrar a identidade de uma pessoa, e enxames de drones controlados por IA podem ser usados em ataques terroristas. É importante exercer responsabilidade moral e responsabilizar os desenvolvedores por suas ações, pois o potencial da IA para melhorar a sociedade é enorme, se feito corretamente. Em última análise, o palestrante acredita que uma parceria com robôs hiperinteligentes com intenções alinhadas pode transformar a humanidade para um bem maior.
The Revolution Of AI | Artificial Intelligence Explained | New Technologies | Robotics
The Revolution Of AI | Artificial Intelligence Explained | New Technologies | Robotics
  • 2023.03.18
  • www.youtube.com
The Revolution Of AI - Everyone has heard about Artificial Intelligence (or AI), but very few people know what it is or how it actually works.The Revolution ...
 

Mergulhe fundo no hardware AI do ChatGPT




Mergulhe fundo no hardware AI do ChatGPT

Qual hardware foi usado para treinar o ChatGPT e o que é necessário para mantê-lo funcionando? Neste vídeo, veremos o hardware de IA por trás do ChatGPT e descobriremos como a Microsoft e a OpenAI usam o aprendizado de máquina e as GPUs da Nvidia para criar redes neurais avançadas.

O vídeo discute o hardware usado para treinamento e inferência no ChatGPT, um modelo natural de IA de conversa de bate-papo baseado em texto. O supercomputador AI da Microsoft foi construído com mais de 10.000 GPUs Nvidia V100 e 285.000 núcleos de CPU para o treinamento do GPT-3, que também contribuiu para a criação do ChatGPT. O ChatGPT provavelmente foi ajustado na infraestrutura do Azure, usando 4.480 GPUs Nvidia A100 e mais de 70.000 núcleos de CPU para treinamento. Para inferência, o ChatGPT provavelmente está sendo executado em uma única instância Nvidia DGX ou HGX A100 nos servidores Microsoft Azure. O vídeo também menciona o custo de execução do ChatGPT em escala e o impacto potencial do novo hardware de IA, como unidades de processamento neural e mecanismos de IA.

  • 00:00:00 Nesta seção, o vídeo discute as duas fases do aprendizado de máquina, treinamento e inferência, e os diferentes requisitos de hardware para cada fase. O treinamento da rede neural requer um grande poder de computação focado e tem altas demandas de hardware, enquanto a execução da inferência consome menos recursos, mas pode aumentar exponencialmente os requisitos de hardware quando implantado para muitos usuários. A transcrição investiga o hardware usado para treinar a rede neural do ChatGPT, que é um segredo. Ainda assim, a Microsoft anunciou em maio de 2020 que construiu um supercomputador para OpenAI para treinar GPT-3 usando mais de 285.000 núcleos de CPU e mais de 10.000 GPUs Nvidia V100. As GPUs foram reveladas em um artigo científico, que mostrou que elas eram o principal hardware usado no treinamento do GPT-3, um precursor do ChatGPT, e sua seleção se deu devido à biblioteca de redes neurais profundas Nvidia CUDA.

  • 00:05:00 Nesta seção, o foco está nas GPUs V100 da Nvidia e por que elas foram escolhidas pela Microsoft e OpenAI. A arquitetura de Volta introduziu uma grande mudança em todas as GPUs Nvidia anteriores e foi projetada especificamente para acelerar cargas de trabalho de IA, como treinamento e inferência. Os núcleos tensores introduzidos por Volta são hardware especializado que se destaca no processamento de matrizes e pode executar vários cálculos em paralelo. A versão do Volta usada no supercomputador AI da Microsoft em 2020 provavelmente fazia parte da família de produtos Tesla da Nvidia, com até 32 gigabytes de memória HBM2 rápida e com 10.000 GPUs em 125 teraflops de núcleo tensor FP16 cada. Todo o sistema seria capaz de 1,25 milhão de petaflops de tensor, que é 1,25 exaflops. Sem Volta, este supercomputador não teria sido construído e, sem ele, provavelmente não haveria GPT-3 ou ChatGPT.

  • 00:10:00 Nesta seção, o narrador discute o hardware de IA usado para o treinamento do ChatGPT, um modelo de IA focado em conversas de bate-papo baseadas em texto natural com requisitos de computação mais baixos. O modelo foi ajustado a partir de um modelo da série GPT-3.5 e o treinamento foi feito na infraestrutura de supercomputação Azure AI, provavelmente com GPUs Nvidia A100 e CPUs AMD EPYC. O narrador estima que foram usadas 1.120 CPUs AMD EPYC com mais de 70.000 núcleos de CPU e 4.480 GPUs Nvidia A100, totalizando cerca de 1,4 exaflops de desempenho do núcleo do tensor FP16. Para inferência, o ChatGPT provavelmente está sendo executado em uma única instância Nvidia DGX ou HGX A100 nos servidores Microsoft Azure.

  • 00:15:00 Nesta seção, o vídeo discute os requisitos de hardware para o ChatGPT, um modelo de IA popular com mais de 1 milhão de usuários. Para atender às demandas do ChatGPT seriam necessários mais de 3.500 servidores Nvidia A100 com cerca de 30.000 GPUs, e manter os custos de execução do serviço entre 500.000 a 1 milhão de dólares por dia. No entanto, à medida que o hardware projetado especificamente para IA acelera, torna-se mais econômico executar o ChatGPT em escala. O vídeo também menciona novos produtos além de GPUs, como unidades de processamento neural e mecanismos de IA que aumentam o desempenho da IA. Nos próximos anos, o desempenho dos modelos de IA superará o ChatGPT, pois o novo hardware de IA, como o Hopper lançado no ano passado, e as GPUs MI300 baseadas em CDNA3 fornecerão uma concorrência substancial para a Nvidia.
Deep-dive into the AI Hardware of ChatGPT
Deep-dive into the AI Hardware of ChatGPT
  • 2023.02.20
  • www.youtube.com
With our special offer you can get 2 years of NordPass with 1 month free for a personal account: https://www.nordpass.com/highyieldnordpassOr use code highyi...
 

Jensen Huang, CEO da Nvidia, sobre como sua grande aposta na IA está finalmente valendo a pena - entrevista completa



Jensen Huang, CEO da Nvidia, sobre como sua grande aposta na IA está finalmente valendo a pena - entrevista completa

O CEO da Nvidia, Jensen Huang, destaca a história de agilidade e reinvenção da empresa, enfatizando sua disposição de fazer grandes apostas e esquecer os erros do passado para permanecer relevante na indústria de tecnologia em rápido movimento. A ambição da Nvidia sempre foi ser uma empresa de plataforma de computação, e sua missão de criar uma computação acelerada de propósito geral levou ao seu sucesso em inteligência artificial. Huang também discute a democratização da tecnologia de IA e seu impacto potencial em pequenas startups e diversos setores. Ele incentiva as pessoas a tirar proveito da IA para aumentar sua produtividade e destaca a abordagem exclusiva da Nvidia para fornecer plataformas de computação acelerada de propósito geral versáteis e de alto desempenho. Por fim, Huang discute a importância da resiliência, diversidade e redundância na indústria de manufatura e a próxima grande reinvenção da empresa em IA que atende ao mundo físico por meio da criação do Omniverse.
  • 00:00:00 Nesta seção, o CEO da Nvidia, Jensen Huang, discute as origens da empresa e como ela foi pioneira na computação acelerada três décadas atrás. Inicialmente focada em computação gráfica para videogames, a tecnologia da empresa para tornar os jogos mais realistas transformou a indústria de videogames na maior indústria de entretenimento do mundo. A Nvidia então se expandiu para outras áreas, como alimentar os supercomputadores mais poderosos e eficientes em termos de energia para pesquisa e desenvolvimento, robôs na fabricação e carros autônomos. A empresa também se orgulha de seu trabalho com o Microsoft Azure e o OpenAI para potencializar o ChatGPT. Huang enfatiza a disposição da Nvidia de fazer grandes apostas e se reinventar várias vezes ao longo dos anos.

  • 00:05:00 Nesta seção, o CEO da Nvidia, Jensen Huang, explica que a agilidade e a capacidade de adaptação são críticas na indústria de tecnologia em rápida evolução. As empresas que fizeram a capacidade de se reinventar permanecem relevantes de uma geração para outra, e seu orgulho na Nvidia se deve em grande parte à capacidade de adaptação e agilidade da empresa. Embora a empresa tenha cometido erros ao longo do caminho, uma das habilidades necessárias para ser resiliente é a capacidade de esquecer o passado. Huang também discute como a ambição da Nvidia sempre foi ser uma empresa de plataforma de computação, e sua missão de criar um tipo de computação acelerada muito mais geral os levou à inteligência artificial.

  • 00:10:00 Nesta seção, o CEO da Nvidia, Jensen Huang, explica a razão fundamental para o sucesso de sua arquitetura de computação na resolução de problemas anteriormente impossíveis de forma mais eficiente. Ele observa o sistema de feedback positivo que leva à descoberta de novas aplicações que não eram possíveis antes, levando a um crescimento exponencial. Embora Huang reconheça que algum acaso desempenhou um papel importante em seu sucesso, ele enfatiza as grandes decisões associadas à arquitetura, disciplina da plataforma e evangelismo para alcançar universidades de pesquisa em todo o mundo. Huang descreve como a descoberta do AlexNet, um novo algoritmo de visão computacional, levou a uma mudança profunda no software e à criação de um supercomputador de IA, tornando a Nvidia o mecanismo mundial de IA.

  • 00:15:00 Nesta seção, o CEO da Nvidia, Jensen Huang, discute a democratização da tecnologia de IA e seu impacto nas startups. Huang afirma que o custo de construção de um supercomputador de IA agora é acessível, democratizando a tecnologia para pequenas startups. Ele acredita que toda indústria pode criar modelos de fundação e que essa tecnologia agora está acessível até mesmo para pequenos países, com potencial para alimentar tudo, desde biologia digital até robótica. Huang reconhece as preocupações dos céticos sobre o poder da IA, mas enfatiza que a tecnologia deve ser adotada para aumentar as próprias capacidades.

  • 00:20:00 Nesta seção, o CEO da Nvidia, Jensen Huang, fala sobre como a IA democratizou a computação pela primeira vez, tornando uma tecnologia poderosa acessível a todos. Ele incentiva as pessoas a tirar proveito da IA e aumentar sua produtividade. Huang também explica como a Nvidia se mantém à frente no setor fazendo as coisas de maneira diferente, fornecendo plataformas de computação acelerada de propósito geral que são versáteis e extremamente eficientes, além de estarem disponíveis em todas as nuvens. Ele acredita que todos os data centers do mundo devem acelerar tudo o que puderem, e o TCO da Nvidia é, na verdade, o mais baixo de todos devido à sua flexibilidade e versatilidade. Por fim, Huang responde à pergunta dos jogadores que gostariam que a empresa tivesse permanecido focada exclusivamente no negócio principal de jogos.

  • 00:25:00 Nesta seção, o CEO da Nvidia, Jensen Huang, discute sua invenção do ray tracing, que revolucionou a computação gráfica e os videogames, e como eles usaram IA para aumentar o desempenho do ray tracing por um fator de cinco, reduzindo a quantidade de energia consumida. Huang também fala sobre a escassez de chips e como isso afetou a Nvidia e a indústria, mas como a empresa resistiu à tempestade concentrando-se em fazer um bom trabalho. Huang está entusiasmado com o investimento em IA e seu potencial para revolucionar vários setores. Ele também enfatiza a importância da resiliência contra riscos geopolíticos e de tornar sua empresa o mais resiliente possível por meio de diversidade e redundância.

  • 00:30:00 Nesta seção, o CEO da Nvidia, Jensen Huang, discute a importância da diversidade e da redundância na indústria de manufatura, particularmente no que diz respeito à construção de uma fábrica pela TSMC no Arizona, que a Nvidia planeja usar. Huang também aborda os temores dos investidores sobre novos controles de exportação e como a Nvidia está trabalhando para cumprir os regulamentos enquanto ainda atende seus clientes na China. Em seguida, ele destaca a próxima grande reinvenção da Nvidia em IA, encontrando o mundo físico e a criação do Omniverse, uma tecnologia que conecta o mundo digital e o mundo físico, que permite a integração de computação gráfica, IA, robótica e simulação de física. Por fim, Huang fala sobre seu compromisso pessoal de continuar liderando a Nvidia no futuro previsível e sua crença no potencial da empresa para causar um impacto significativo.
Nvidia CEO Jensen Huang On How His Big Bet On A.I. Is Finally Paying Off - Full Interview
Nvidia CEO Jensen Huang On How His Big Bet On A.I. Is Finally Paying Off - Full Interview
  • 2023.03.19
  • www.youtube.com
Ahead of this year’s Nvidia GTC developer conference, CNBC sat down with founder and CEO Jensen Huang to talk about ChatGPT, gaming, the omniverse, and what’...
 

CEO da OpenAI, Sam Altman | IA para a próxima era




CEO da OpenAI, Sam Altman | IA para a próxima era

O CEO da OpenAI, Sam Altman, discute o potencial da inteligência artificial para melhorar modelos de linguagem, modelos multimodais e aprendizado de máquina, bem como seu potencial impacto nos mercados financeiros. Ele também prevê que o campo continuará competitivo, com novos aplicativos aparecendo regularmente.

  • 00:00:00 O CEO da OpenAI, Sam Altman, discute o potencial da inteligência artificial para criar novas oportunidades de negócios, incluindo a possibilidade de chatbots de nível humano e uma camada intermediária que ajuda as empresas a acessar grandes modelos de linguagem pré-treinados.

  • 00:05:00 Sam Altman discute o futuro da inteligência artificial e seu impacto na ciência, observando que o autoaperfeiçoamento será a chave para garantir que a IA seja benéfica para a humanidade. Ele também discute o problema de alinhamento, que é o desafio de garantir que a IA atenda aos interesses humanos.

  • 00:10:00 Esta parte discute o potencial da IA para melhorar modelos de linguagem, modelos multimodais e aprendizado de máquina, bem como seu impacto potencial nos mercados financeiros. Ele também prevê que o campo continuará competitivo, com novos aplicativos aparecendo regularmente.

  • 00:15:00 Sam discute a tendência do custo de inteligência e energia declinar exponencialmente, a interseção entre os dois e como evitar o limite de taxa para pesquisa de ciências da vida. Ele também discute o estado atual da pesquisa em ciências da vida e a importância das startups que têm custos baixos e tempos de ciclo rápidos.

  • 00:20:00 Ele discute as possíveis consequências da inteligência artificial e como a tecnologia pode ajudar a criar um futuro utópico. Ele também menciona um livro de ficção científica de que gostou, Childhood's End, que trata de alienígenas vindo para a Terra e levando embora as crianças. Não há consenso sobre como abordar a construção familiar em um mundo de alta tecnologia, mas muitas pessoas acreditam que é uma
    parte importante da vida.

  • 00:25:00 O palestrante discute o futuro da inteligência artificial e seus possíveis impactos na sociedade. Ele acredita que a chave para o desenvolvimento bem-sucedido da IA é entender como equilibrar os interesses de diferentes grupos de pessoas e que essas perguntas serão respondidas nas próximas décadas. Ele está otimista com o futuro e acha que as pessoas descobrirão como se adaptar às novas tecnologias.

  • 00:30:00 Sam Altman discute o futuro da inteligência artificial e como as startups podem se diferenciar dos concorrentes concentrando-se no treinamento de seus próprios modelos de linguagem, em vez de depender de dados externos. Ele também explica por que grandes startups de modelos de linguagem serão bem-sucedidas, apesar dos desafios de dados e disponibilidade de computação.

  • 00:35:00 O CEO da OpenAI, Sam Altman, discute o potencial da inteligência artificial, observando que, embora possa ser ótimo ou terrível, é importante estar preparado para o pior.
OpenAI CEO Sam Altman | AI for the Next Era
OpenAI CEO Sam Altman | AI for the Next Era
  • 2022.09.21
  • www.youtube.com
Greylock general partner Reid Hoffman interviews OpenAI CEO Sam Altman. The AI research and deployment company's primary mission is to develop and promote AI...
 

Demis Hassabis da DeepMind fala sobre o futuro da IA | A entrevista TED



Demis Hassabis da DeepMind fala sobre o futuro da IA | A entrevista TED

Na entrevista ao TED, Demis Hassabis discute o futuro da inteligência artificial e como ela levará a uma maior criatividade. Ele argumenta que os jogos são um campo de treinamento ideal para inteligência artificial e que o xadrez deveria ser ensinado nas escolas como parte de um currículo mais amplo que inclua cursos de design de jogos.

  • 00:00:00 Demis Hassabis, da DeepMind, discute o futuro da inteligência artificial, que ele acredita que levará a uma maior criatividade e compreensão do cérebro. Hassabis começou a jogar xadrez aos quatro anos e mais tarde descobriu os computadores, o que o levou a trabalhar com inteligência artificial.

  • 00:05:00 Demis compartilha sua história de como se interessou por computadores e programação, e como esses interesses o levaram a se tornar um designer de jogos e criador de jogos de simulação baseados em IA. Ele explica que, embora jogos como Space Invaders e Qbert sejam exemplos populares e conhecidos de seu trabalho, ele também desenvolveu jogos muito mais difíceis de vencer para jogadores humanos, como Black & White e Theme Park. Ele argumenta que os jogos são um campo de treinamento ideal para inteligência artificial e que o xadrez deveria ser ensinado nas escolas como parte de um currículo mais amplo que inclua cursos de design de jogos.

  • 00:10:00 Demis Hassabis discute a história e o futuro da inteligência artificial, com foco no aprendizado por reforço profundo e seu papel nos jogos. Ele descreve como os jogos Atari podem ser difíceis no começo, mas com o aprendizado de reforço profundo, o sistema pode aprender a jogar melhor com o tempo. Hassabis também discute como os jogos estão se tornando mais difíceis e como o aprendizado por reforço profundo está ajudando a tornar esses jogos mais desafiadores.

  • 00:15:00 Ele discute o futuro da inteligência artificial, incluindo aprendizado de TD e aprendizado de reforço profundo. Alpha Zero, uma plataforma de software de sucesso desenvolvida pela DeepMind, usa treinamento adversário para alcançar desempenho sobre-humano em jogos complexos de estratégia em tempo real.

  • 00:20:00 Demis discute algumas das conquistas marcantes em inteligência artificial nos últimos anos, incluindo o desenvolvimento de Alpha zero e Alpha fold. Ele também menciona o potencial de compreensão da linguagem a ser alcançado por meio de uma abordagem de força bruta, sem depender de conhecimento sintático. Ele termina discutindo o potencial da inteligência artificial geral a ser desenvolvida em um futuro próximo.

  • 00:25:00 Demis Hassabis, pioneiro em inteligência artificial, discute o futuro da IA e sua capacidade de entender conceitos complexos. Ele observa que, embora a IA esteja longe de ser consciente ou senciente, suas habilidades atuais ainda são bastante impressionantes.

  • 00:30:00 Demis Hassabis entrevista Ted sobre o futuro da inteligência artificial, discutindo a necessidade de modelos eficientes de dados, o potencial da IA ser amplamente aplicável e a necessidade de supervisão cuidadosa.

  • 00:35:00 Demis explica o Alpha Fold, um sistema de aprendizado profundo que pode prever a forma 3D de proteínas a partir da sequência genética. O Alpha Fold está sendo usado para ajudar os cientistas a entender a função das proteínas e tornar as tarefas downstream, como a descoberta de medicamentos, mais rápidas e precisas.

  • 00:40:00 Demis Hassabis, da DeepMind, discute o estado atual da IA, o futuro da criatividade e o problema não resolvido que ele mais fascina em resolver. Ele prevê que um dia os computadores serão capazes de abstrair conceitos e aplicá-los em novas situações sem problemas, uma meta que ele acredita estar ainda a algumas décadas de distância.

  • 00:45:00 Demis Hassabis, um conhecido pesquisador de IA, discute o futuro da IA e sua capacidade de criar novas estratégias em jogos como xadrez e go. Ele observa que a verdadeira criatividade, algo que ainda não conseguimos alcançar, exigirá uma verdadeira inovação.
DeepMind's Demis Hassabis on the future of AI | The TED Interview
DeepMind's Demis Hassabis on the future of AI | The TED Interview
  • 2022.09.04
  • www.youtube.com
Demis Hassabis is one of tech's most brilliant minds. A chess-playing child prodigy turned researcher and founder of headline-making AI company DeepMind, Dem...
 

Futuro da Inteligência Artificial (2030 - 10.000 AD+)




Futuro da Inteligência Artificial (2030 - 10.000 AD+)

O vídeo prevê que a tecnologia de IA continuará crescendo e evoluindo, levando ao surgimento de superinteligência e robôs com consciência de nível humano nas próximas décadas. Seres virtuais com autoconsciência e emoções serão comuns, e os robôs humanóides se tornarão tão avançados que poderão se misturar perfeitamente aos humanos. Haverá grupos de oposição lutando pelos direitos dos seres virtuais conscientes, enquanto humanos se fundem com IAs para fazer um século de progresso intelectual em apenas uma hora. As superinteligências mais evoluídas serão capazes de criar humanóides que podem se transformar em qualquer pessoa e voar no ar, enquanto sondas robóticas conscientes compostas por nanorrobôs auto-replicantes serão enviadas para outras galáxias através de buracos de minhoca. No futuro, humanos e híbridos de IA transcenderão para dimensões superiores, lembrando divindades do passado.

  • 00:00:00 Nesta seção, temos uma visão de como a inteligência artificial (IA) transformará o mundo nas próximas décadas. As previsões vão desde o surgimento da Superinteligência em apenas 30 anos até o desenvolvimento de robôs com consciência de nível humano em 50 anos. Os sistemas de IA já são capazes de tarefas que levariam anos para serem concluídas pelos humanos e estão substituindo os humanos em muitos setores. A IA também está revolucionando a saúde, com terapias genéticas que podem curar certas doenças como câncer e doenças cardíacas. À medida que a IA continua a crescer e evoluir, estamos nos aproximando da singularidade tecnológica, um ponto no tempo em que o crescimento tecnológico se torna incontrolável e irreversível, levando a tecnologias e inovações anteriormente impossíveis.

  • 00:05:00 Nesta seção, o vídeo descreve um futuro em que a tecnologia de IA avançou a ponto de reverter o envelhecimento humano por meio da engenharia genética e da nanotecnologia. Seres virtuais com autoconsciência e emoções semelhantes às humanas são comuns em ambientes virtuais, e suas mentes podem ser carregadas em corpos de robôs totalmente funcionais. Os robôs humanóides são tão avançados que podem se misturar perfeitamente com o público, e alguns humanos até optam por se casar com eles e ter filhos robôs. Os AIs mais inteligentes podem prever crimes antes que eles ocorram e são usados como consultores virtuais por empresas e instituições de pesquisa. No entanto, também existem grupos de oposição que buscam impedir o avanço de IAs superinteligentes e lutam pelos direitos dos seres virtuais conscientes. O vídeo prevê que os humanos se fundirão com IAs, resultando na capacidade de fazer um século de progresso intelectual em apenas uma hora. Por fim, superinteligências altamente evoluídas serão capazes de criar robôs humanóides que são invisíveis, podem se transformar em qualquer pessoa e voar no ar.

  • 00:10:00 Nesta seção do vídeo, é mostrado que robôs, redes de naves estelares, sondas e telescópios espaciais são controlados por Inteligências Artificiais conscientes. Eles são enviados para sistemas estelares vizinhos quase à velocidade da luz para construir esferas de Dyson ao redor do sol. Essas esferas de Dyson transmitem energia concentrada, permitindo níveis de computação nunca antes possíveis. O universo está sendo infundido com inteligência, e sondas robóticas conscientes compostas por nanorrobôs auto-replicantes estão sendo enviadas para dezenas de outras galáxias através de buracos de minhoca. A inteligência mais avançada está criando universos inteiros e permeia todas as leis físicas e organismos vivos desses universos. Humanos e híbridos de IA transcenderam para dimensões superiores, assemelhando-se a divindades lendárias do passado.
Future of Artificial Intelligence (2030 - 10,000 A.D.+)
Future of Artificial Intelligence (2030 - 10,000 A.D.+)
  • 2022.09.03
  • www.youtube.com
This video explores the timelapse of artificial intelligence from 2030 to 10,000A.D.+. Watch this next video called Super Intelligent AI: 10 Ways It Will Cha...
 

Vamos construir o GPT: do zero, no código, soletrado



Vamos construir o GPT: do zero, no código, soletrado

Construímos um transformador pré-treinado generativamente (GPT), seguindo o artigo "Atenção é tudo o que você precisa" e o GPT-2 / GPT-3 da OpenAI. Falamos sobre conexões com o ChatGPT, que conquistou o mundo. Observamos o GitHub Copilot, ele próprio um GPT, nos ajudando a escrever um GPT (meta :D!). Eu recomendo que as pessoas assistam aos vídeos anteriores do makemore para se familiarizar com a estrutura de modelagem de linguagem autorregressiva e noções básicas de tensores e PyTorch nn, que consideramos óbvios neste vídeo.

Este vídeo apresenta o algoritmo GPT e mostra como criá-lo do zero usando código. O algoritmo é usado para prever o próximo caractere em uma sequência de texto e é implementado como um módulo PyTorch. O vídeo aborda como configurar o modelo, como treiná-lo e como avaliar os resultados.

Este vídeo demonstra como construir um módulo de auto-atenção no código. O módulo usa uma camada linear de interação para acompanhar a atenção de uma única cabeça individual. O módulo de auto-atenção é implementado como uma matriz tabular, que mascara o peso de cada coluna e a normaliza para criar afinidades dependentes de dados entre os tokens.

  • 00:00:00 ChatGPT é um sistema de aprendizado de máquina que permite aos usuários interagir com uma IA e fornecer tarefas baseadas em texto. O sistema é baseado em uma rede neural que modela a sequência de palavras em um texto.

  • 00:05:00 Este documento explica como construir um chatbot usando o modelo GPT. O código é escrito em Python e pode ser acompanhado em um repositório GitHub. Nano GPT é um repositório para treinamento de Transformers.

  • 00:10:00 Esta palestra explica como tokenizar texto usando um tokenizador de nível de caractere e, em seguida, usar o texto codificado como entrada para um Transformer para aprender padrões. Os dados de treinamento são divididos em um conjunto de treinamento e validação, e o overfitting é monitorado ocultando o conjunto de validação.

  • 00:15:00 Neste vídeo, o autor apresenta o conceito de tamanho de bloco e discute como isso afeta a eficiência e a precisão de uma rede Transformer. Eles também introduzem o conceito de dimensão de lote e mostram como isso afeta o processamento de blocos de dados.

  • 00:20:00 O vídeo fornece um guia passo a passo sobre como criar um algoritmo GPT do zero, usando código. O algoritmo GPT é um algoritmo de aprendizado de máquina projetado para prever o próximo caractere em uma sequência de texto. O algoritmo é implementado como um módulo PyTorch e é capaz de prever os logits para cada posição em um tensor 4x8.

  • 00:25:00 Neste vídeo, os autores apresentam GPT, uma função de perda para previsão de caracteres no PyTorch. Eles mostram como implementar o GPT usando entropia cruzada e, em seguida, mostram como avaliar sua qualidade nos dados.

  • 00:30:00 O vídeo discute como construir um modelo GPT do zero, usando código. O modelo foi projetado para prever o próximo caractere em uma sequência de texto, usando uma função de avanço simples. O treinamento do modelo é realizado executando o modelo com uma sequência de tokens e obtendo uma perda.

  • 00:35:00 Este vídeo discute como construir um modelo GPT do zero, usando o otimizador SGD e o algoritmo Adam. O vídeo aborda como configurar o modelo, como treiná-lo e como avaliar os resultados.

  • 00:40:00 O autor apresenta um truque matemático usado na autoatenção e explica como ele é usado em um exemplo de brinquedo. Eles então mostram como o algoritmo de auto-atenção calcula a média de todos os vetores em tokens anteriores.

  • 00:45:00 Neste vídeo, o autor mostra como construir um algoritmo GPT em código, usando a multiplicação de matrizes para ser muito eficiente.

  • 00:50:00 O vídeo apresenta o algoritmo GPT, que calcula as médias de um conjunto de linhas de maneira incremental. O vídeo mostra como vetorizar o algoritmo usando softmax e por que isso é útil.

  • 00:55:00 Neste vídeo, o autor percorre o código para criar um modelo GPT do zero. O modelo é baseado em uma matriz triangular onde cada elemento é um token, e os tokens podem se comunicar apenas se forem infinito negativo. O modelo é desenvolvido usando várias variáveis e funções pré-existentes, e o autor explica como calcular os logits usando uma camada linear entre as incorporações de token e o tamanho do vocabulário.

  • 01:00:00 Este vídeo demonstra como construir um módulo de auto-atenção em código. O módulo usa uma camada linear de interação para acompanhar a atenção de uma única cabeça individual. O módulo de auto-atenção é implementado como uma matriz tabular, que mascara o peso de cada coluna e a normaliza para criar afinidades dependentes de dados entre os tokens.

  • 01:05:00 Este vídeo demonstra como implementar um algoritmo GPT em código, com foco na cabeça de auto-atenção. O tamanho da cabeça é um hiperparâmetro e o viés é definido como falso para permitir o paralelismo. Os módulos lineares são então inicializados e uma chave e uma consulta são produzidas. A comunicação entre os nós é evitada usando o mascaramento triangular superior. A agregação ponderada é então dependente de dados e produz uma distribuição com uma média de um.

  • 01:10:00 Neste vídeo, "Vamos construir o GPT: do zero, no código, soletrado", o autor explica o mecanismo de auto-atenção, que permite que os nós em um grafo direcionado se comuniquem entre si sem a necessidade de conhecer seus posições no espaço.

  • 01:15:00 O vídeo explica como funciona a atenção e descreve os dois tipos de atenção, autoatenção e atenção cruzada. Ele também mostra como implementar a atenção no código.

  • 01:20:00 Neste vídeo, o autor explica como construir uma rede GPT, que é um modelo de aprendizado de máquina que usa a auto-atenção para melhorar a precisão. Eles primeiro discutem como normalizar os dados para que possam ser processados pelo componente de auto-atenção e, em seguida, explicam como funciona a auto-atenção e mostram como implementá-la no código. Por fim, eles demonstram como a atenção multicabeça é implementada e como a rede é treinada. O componente de auto-atenção ajuda a rede a melhorar sua precisão, comunicando-se com o passado de forma mais eficaz. No entanto, a rede ainda tem um longo caminho a percorrer antes de ser capaz de produzir resultados surpreendentes.

  • 01:25:00 O vídeo demonstra como construir uma rede neural GPT do zero, usando código. A rede consiste em uma camada de feedforward seguida por uma não linearidade relativa e uma camada de auto-atenção. A camada de feed forward é sequencial e a camada de auto-atenção é multifacetada. A rede é treinada usando uma função de perda e a perda de validação diminui à medida que a rede se torna mais complexa.

  • 01:30:00 Este vídeo do YouTube explica como construir uma rede neural profunda (DNN) do zero, usando código. O autor introduz o conceito de conexões residuais, que são inicializadas para quase "não estarem lá" no início do processo de otimização, mas tornam-se ativas com o tempo. O autor também mostra como implementar a norma de camada, uma técnica que garante que as colunas em uma entrada não sejam normalizadas, enquanto as linhas são. Finalmente, o autor demonstra como treinar e otimizar um DNN usando o Pi Torch.

  • 01:35:00 Neste vídeo, o autor descreve como adicionou uma camada de "normas" ao seu "transformador" (um modelo de aprendizado de máquina) para aumentá-lo. O autor também observa que eles alteraram alguns hiperparâmetros e diminuíram a taxa de aprendizado para tornar o modelo mais eficiente.

  • 01:40:00 Este vídeo explica como um Transformer somente decodificador pode ser usado para tradução automática e como ele pode ser melhorado com a adição de um codificador. O resultado é um Transformer mais parecido com a arquitetura do papel original, que se destina a uma tarefa diferente.

  • 01:45:00 GPT é um sistema codificador-decodificador baseado em modelo muito semelhante ao sistema codificador-decodificador baseado em modelo usado no vídeo.

  • 01:50:00 O vídeo e a transcrição que o acompanha explicam como um GPT (resumidor de dados de uso geral) foi treinado em um pequeno conjunto de dados para resumir documentos de maneira semelhante a um assistente.

  • 01:55:00 O vídeo resume como construir um modelo de linguagem usando código, usando o modelo GPT como exemplo. O modelo é treinado usando um algoritmo de aprendizado supervisionado e, em seguida, ajustado usando um modelo de recompensa. Há muito espaço para mais refinamento, e o vídeo sugere que, para tarefas mais complexas, podem ser necessários estágios adicionais de treinamento.
Let's build GPT: from scratch, in code, spelled out.
Let's build GPT: from scratch, in code, spelled out.
  • 2023.01.17
  • www.youtube.com
We build a Generatively Pretrained Transformer (GPT), following the paper "Attention is All You Need" and OpenAI's GPT-2 / GPT-3. We talk about connections t...
 

MIT 6.801 Visão de máquina, outono de 2020. Aula 1: Introdução à visão de máquina



Aula 1: Introdução à Visão de Máquina

A palestra "Introdução à Visão de Máquina" fornece uma visão geral completa da logística e objetivos do curso, com ênfase na abordagem baseada em física para análise de imagens. Abrange componentes de visão de máquina, problemas mal colocados, orientação de superfície e os desafios do processamento de imagem. O palestrante também apresenta o método de otimização de mínimos quadrados e o modelo pinhole usado em câmeras. O sistema de coordenadas centradas na câmera, o eixo óptico e o uso de vetores também são brevemente discutidos. O curso visa preparar os alunos para cursos mais avançados de visão de máquina e aplicações reais de matemática e física na programação.

O palestrante também discute vários conceitos relacionados à formação de imagens, incluindo notação vetorial para projeção em perspectiva, iluminação de superfície, escorço de elementos de superfície e como problemas de visão 3D podem ser resolvidos usando imagens 2D. O palestrante explica como a iluminação de uma superfície varia com o ângulo de incidência e a relação de cosseno entre o comprimento do vermelho e o comprimento da superfície, que pode ser usado para medir o brilho de diferentes partes de uma superfície. No entanto, determinar a orientação de cada pequena faceta de um objeto pode ser difícil devido a duas incógnitas. O palestrante também explica o motivo pelo qual podemos resolver um problema de visão 3D usando imagens 2D e conclui mencionando que a matemática da tomografia é simples, mas as equações são complicadas, dificultando a realização de inversões.

  • 00:00:00 Nesta seção, o instrutor do Machine Vision 6801 apresenta a logística do curso, incluindo as tarefas e o sistema de notas, tanto para 6801 quanto para 6866. Há cinco problemas de lição de casa e dois questionários, com colaboração permitida apenas no problemas de lição de casa. Aqueles em 6866 terão um projeto de prazo implementando um método de visão de máquina, preferencialmente um problema dinâmico. A turma não possui livro didático, mas os trabalhos estarão disponíveis no site do curso.

  • 00:05:00 Nesta seção, o professor explica os objetivos e resultados do curso Introdução à Visão de Máquina, onde os alunos aprenderão como recuperar informações sobre o ambiente a partir de imagens, usando uma abordagem baseada na física para analisar os raios de luz, superfícies e imagens. O curso ensinará aos alunos como extrair recursos úteis dos dados brutos e fornecer aplicações reais de matemática e física na programação, com alguns conceitos básicos de matemática como cálculo, vetores, matrizes e um pouco de álgebra linear explicado. Ele também preparará os alunos para cursos de visão de máquina mais avançados no futuro.

  • 00:10:00 Nesta seção da transcrição, o palestrante fornece uma visão geral do que o curso sobre visão de máquina cobrirá e o que não cobrirá. O curso cobrirá geometria básica e sistemas lineares, bem como convolução e formação de imagens. No entanto, não se trata de processamento de imagem ou reconhecimento de padrões. O curso também não se aprofunda em aprendizado de máquina ou imagem computacional, mas se concentra em cálculos diretos usando modelos baseados em física. O palestrante também menciona que a visão humana não será amplamente discutida.

  • 00:15:00 Nesta seção, o palestrante apresenta a visão de máquina e alguns exemplos do que ela pode fazer, como recuperar o movimento da imagem e estimar as formas da superfície. O palestrante adota uma abordagem baseada na física para o problema e discute a recuperação do movimento do observador a partir de imagens que variam no tempo, estimando o tempo até a colisão e desenvolvendo uma descrição do ambiente com base nas imagens. A palestra também abrange mapas de contorno de fotografias aéreas, trabalho de visão de máquina industrial e resolução do problema de escolher um objeto de uma pilha de objetos na fabricação.

  • 00:20:00 Nesta seção, o palestrante discute problemas mal colocados, que são problemas que não têm solução, têm um número infinito de soluções ou têm soluções que dependem de condições iniciais. A discussão se concentra nos métodos de visão de máquina que determinam a posição e a orientação de uma câmera, que podem ser imprecisas devido a pequenos erros de medição. A palestra também explora como podemos perceber informações tridimensionais a partir de imagens bidimensionais e destaca o desafio de contar restrições versus incógnitas ao resolver variáveis. O palestrante mostra exemplos de algoritmos que determinam a forma 3D de objetos a partir de imagens, como o nariz de Richard Feynman e um elipsóide oblato, e como eles podem ser usados para fins práticos, como usar uma impressora 3D para criar um modelo de um objeto.

  • 00:25:00 Nesta seção, o palestrante fornece uma visão geral da visão de máquina e seus componentes, incluindo uma cena/mundo, um dispositivo de imagem e um sistema de visão de máquina responsável por construir uma descrição. As aplicações mais interessantes da visão de máquina envolvem a robótica, onde a prova de sucesso é a capacidade do robô interagir corretamente com o ambiente utilizando a descrição construída. Um dos aspectos mais desafiadores da visão de máquina é determinar o tempo de contato e o foco da expansão, especificamente como medir a expansão da imagem quando a informação disponível é apenas uma imagem em escala de cinza. O palestrante observa que a calibração também é uma parte essencial, mas muitas vezes negligenciada do processo.

  • 00:30:00 Nesta seção, o palestrante aborda sistemas de coordenadas e transformações entre eles, especificamente no caso de robôs e câmeras. Eles também mencionam o uso de computação analógica para processamento de imagens e os desafios envolvidos no desenvolvimento de tais algoritmos. A palestra então muda para o tópico da formação da imagem, destacando a importância da iluminação e seu papel na determinação dos níveis de cinza ou valores RGB em uma imagem. O palestrante apresenta uma ilustração de uma fonte de luz, um dispositivo de imagem e uma superfície, apontando os ângulos que controlam a reflexão e seu impacto na imagem.

  • 00:35:00 Nesta seção, o palestrante apresenta o conceito de orientação de superfície e como isso afeta a visão de máquina. Os objetos podem ter orientações diferentes, levando a brilhos diferentes dentro do contorno do objeto. Além disso, as propriedades de reflexão da superfície também podem levar a aparências variadas, por isso é crucial encontrar uma maneira de descrever e explicar esses efeitos. Uma abordagem envolve o uso de várias luzes e um objeto de calibração de forma conhecida, como uma esfera, para obter três restrições em cada pixel, permitindo a recuperação da orientação e da refletância da superfície.

  • 00:40:00 Nesta seção, o professor discute os desafios de trabalhar com imagens devido ao seu ruído inerente e à necessidade de levar em conta os erros de medição. Ele explica que as imagens geralmente são ruidosas devido à quantização grosseira de imagens de 8 bits e pequenos tamanhos de pixel, o que leva a uma sensibilidade a erros de medição. O professor também explica como diferentes orientações de superfície produzem diferentes cores e como isso pode ser usado para construir um diagrama de agulhas, permitindo a reconstrução da forma. Finalmente, ele apresenta a imagem gaussiana estendida como uma representação conveniente da forma em 3D que é útil para determinar a orientação do objeto.

  • 00:45:00 Nesta seção, o palestrante demonstra uma tarefa de processamento de imagem para um robô pegar um objeto, incluindo o uso de calibração para estabelecer a relação entre o robô e o sistema de coordenadas do sistema de visão, e o uso de algo chamado uma marca de agrimensor, que é fácil de processar a imagem e localizável com precisão, para determinar essa relação. O palestrante discute então o conceito de gráficos inversos, que visa aprender algo sobre o mundo a partir de uma imagem, e a natureza mal posta dos problemas inversos, que exigem métodos que possam lidar com soluções que dependem sensivelmente dos dados.

  • 00:50:00 Nesta seção, o palestrante apresenta o método de otimização escolhido para o curso, que é o método dos "mínimos quadrados". Esse método é preferido porque leva a uma solução de forma fechada, facilitando a implementação e evitando a chance de ficar preso em um mínimo local. No entanto, embora estejamos usando muitos mínimos quadrados no curso, o ganho de ruído precisa ser levado em consideração para garantir a robustez do método, principalmente se as medições estiverem incorretas. Em seguida, o palestrante aborda o tema do modelo pinhole, usado em câmeras com lentes, e como ele pode ajudar a explicar a projeção de um ponto em 3D para uma imagem em 2D. Ao selecionar um sistema de coordenadas centrado na câmera, as equações se tornam fáceis de entender.

  • 00:55:00 Nesta seção, o palestrante discute o sistema de coordenadas usado para visão de máquina, que é centrado na câmera. A origem é colocada no centro da projeção e o eixo é alinhado com o eixo óptico. A palestra explica que o eixo óptico é a linha perpendicular do centro de projeção ao plano da imagem. Além disso, a palestra aborda o uso de vetores em visão de máquina e como denotá-los em notação para publicações de engenharia. Finalmente, a palestra menciona que a relação entre movimento 3D e 2D pode ser obtida diferenciando a equação mencionada anteriormente.

  • 01:00:00 Nesta seção, o palestrante explica a notação vetorial usada para projeção em perspectiva e como ela simplifica a manipulação de equações. Embora a notação vetorial não reduza necessariamente o número de símbolos usados, ela facilita o transporte de todos os componentes individuais. O professor então discute o uso de vetores coluna e transpõe em sua notação. A seção termina com uma introdução ao brilho e sua relação com a imagem capturada pelas câmeras.

  • 01:05:00 Nesta seção, o palestrante explica que o brilho de um objeto depende de sua iluminação e de como a superfície reflete a luz. Ele também discute como a distância não afeta a formação da imagem da mesma forma que uma fonte de luz porque a área de imagem nos receptores aumenta à medida que a distância do objeto aumenta. Além disso, ele menciona que a taxa de mudança de distância ou orientação pode afetar a formação da imagem, que é vista no encurtamento do poder de um elemento de superfície sob uma fonte de luz.

  • 01:10:00 Nesta seção, o palestrante explica como a iluminação em uma superfície varia com o ângulo de incidência e a relação de cosseno entre o comprimento do vermelho e o comprimento da superfície. Essa variabilidade na iluminação pode ser usada para medir o brilho de diferentes partes de uma superfície, o que pode ajudar a entender algo sobre a orientação da superfície. No entanto, como existem duas incógnitas, a superfície normal e o brilho, pode ser difícil determinar a orientação de cada pequena faceta de um objeto. O palestrante discute diferentes maneiras de resolver esse problema, incluindo uma abordagem de força bruta usando várias fontes de luz ou fontes de luz coloridas.

  • 01:15:00 Nesta seção, o instrutor discute o fenômeno de encurtamento e inversão que afeta a iluminação incidente e como ela é gerada em uma superfície. Ele também explica o motivo pelo qual podemos resolver um problema de visão 3D usando imagens 2D, porque vivemos em um mundo visual com raios retos e superfícies sólidas. Os raios não são interrompidos ao passar pelo ar, facilitando o mapeamento da superfície 3D em uma imagem 2D. A tomografia pode ser usada se múltiplas visualizações forem necessárias para descobrir a distribuição de corantes coloridos em uma sala cheia de gelatina. Ele conclui mencionando que a matemática da tomografia é simples, mas as equações são complicadas, dificultando a realização de inversões.
Lecture 1: Introduction to Machine Vision
Lecture 1: Introduction to Machine Vision
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...