Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Heróis do Deep Learning: Andrew Ng entrevista o chefe de pesquisa da Baidu, Yuanqing Lin
Heróis do Deep Learning: Andrew Ng entrevista o chefe de pesquisa da Baidu, Yuanqing Lin
Yuanqing Lin, chefe de pesquisa da Baidu e chefe do laboratório nacional de aprendizado profundo da China, discute a fundação do laboratório nacional e seu impacto na comunidade de aprendizado profundo. Lin fornece informações sobre o investimento da China em aprendizagem profunda e como isso levou ao crescimento em vários setores. Ele enfatiza a importância dos ciclos de feedback no desenvolvimento de IA e como isso ajuda a criar melhores algoritmos e tecnologias. Lin aconselha os indivíduos a estabelecer uma base sólida em aprendizado de máquina e começar com uma estrutura de código aberto para entrar no campo com sucesso.
Heróis do Deep Learning: Dawn Song sobre IA, Deep Learning e Segurança
Heróis do Deep Learning: Dawn Song sobre IA, Deep Learning e Segurança
Dawn Song, especialista em aprendizado profundo e segurança de computadores, discutiu sua carreira e seu trabalho em IA, aprendizado profundo e segurança em uma entrevista.
Song enfatizou a importância de identificar os principais problemas ou questões para orientar a leitura ao entrar no campo pela primeira vez e desenvolver uma base sólida em representação para facilitar a pesquisa em outros domínios.
Ela também destacou a crescente importância da construção de sistemas resilientes de IA e aprendizado de máquina e seu trabalho no desenvolvimento de mecanismos de defesa contra ataques de caixa preta.
Song compartilhou seu trabalho sobre privacidade e segurança, incluindo o treinamento de modelos de linguagem privada diferenciada e o desenvolvimento de uma plataforma de computação em nuvem que prioriza a privacidade em blockchain no Oasis Labs. Por fim, Song aconselhou as pessoas que entravam em novos campos a serem corajosas e a não terem medo de começar do zero.
A revolução da IA | Inteligência Artificial Explicada | Novas Tecnologias | robótica
A revolução da IA | Inteligência Artificial Explicada | Novas Tecnologias | robótica
Este vídeo explora a revolução da IA, começando com o futuro de veículos autônomos e robôs de autoaprendizagem capazes de navegar em terrenos complexos, conduzir missões de busca e resgate e interagir com humanos em espaços de trabalho colaborativos. O desenvolvimento da robótica de enxame mostra um enorme potencial para melhorar áreas como agricultura, saúde e resposta a desastres. Os pesquisadores estão trabalhando para tornar os robôs mais autoconscientes e capazes de se comunicar por meio do processamento de linguagem natural, criando avatares digitais hiper-realistas e andróides mais semelhantes aos humanos, que podem servir como assistentes holográficos ou companheiros para idosos e socialmente isolados. Embora os benefícios da IA para melhorar a sociedade sejam imensos, também há uma necessidade de considerações éticas e responsabilidade para os desenvolvedores para garantir o alinhamento da IA com intenções positivas.
Mergulhe fundo no hardware AI do ChatGPT
Mergulhe fundo no hardware AI do ChatGPT
Qual hardware foi usado para treinar o ChatGPT e o que é necessário para mantê-lo funcionando? Neste vídeo, veremos o hardware de IA por trás do ChatGPT e descobriremos como a Microsoft e a OpenAI usam o aprendizado de máquina e as GPUs da Nvidia para criar redes neurais avançadas.
O vídeo discute o hardware usado para treinamento e inferência no ChatGPT, um modelo natural de IA de conversa de bate-papo baseado em texto. O supercomputador AI da Microsoft foi construído com mais de 10.000 GPUs Nvidia V100 e 285.000 núcleos de CPU para o treinamento do GPT-3, que também contribuiu para a criação do ChatGPT. O ChatGPT provavelmente foi ajustado na infraestrutura do Azure, usando 4.480 GPUs Nvidia A100 e mais de 70.000 núcleos de CPU para treinamento. Para inferência, o ChatGPT provavelmente está sendo executado em uma única instância Nvidia DGX ou HGX A100 nos servidores Microsoft Azure. O vídeo também menciona o custo de execução do ChatGPT em escala e o impacto potencial do novo hardware de IA, como unidades de processamento neural e mecanismos de IA.
Jensen Huang, CEO da Nvidia, sobre como sua grande aposta na IA está finalmente valendo a pena - entrevista completa
Jensen Huang, CEO da Nvidia, sobre como sua grande aposta na IA está finalmente valendo a pena - entrevista completaO CEO da Nvidia, Jensen Huang, destaca a história de agilidade e reinvenção da empresa, enfatizando sua disposição de fazer grandes apostas e esquecer os erros do passado para permanecer relevante na indústria de tecnologia em rápido movimento. A ambição da Nvidia sempre foi ser uma empresa de plataforma de computação, e sua missão de criar uma computação acelerada de propósito geral levou ao seu sucesso em inteligência artificial. Huang também discute a democratização da tecnologia de IA e seu impacto potencial em pequenas startups e diversos setores. Ele incentiva as pessoas a tirar proveito da IA para aumentar sua produtividade e destaca a abordagem exclusiva da Nvidia para fornecer plataformas de computação acelerada de propósito geral versáteis e de alto desempenho. Por fim, Huang discute a importância da resiliência, diversidade e redundância na indústria de manufatura e a próxima grande reinvenção da empresa em IA que atende ao mundo físico por meio da criação do Omniverse.
CEO da OpenAI, Sam Altman | IA para a próxima era
CEO da OpenAI, Sam Altman | IA para a próxima era
O CEO da OpenAI, Sam Altman, discute o potencial da inteligência artificial para melhorar modelos de linguagem, modelos multimodais e aprendizado de máquina, bem como seu potencial impacto nos mercados financeiros. Ele também prevê que o campo continuará competitivo, com novos aplicativos aparecendo regularmente.
parte importante da vida.
Demis Hassabis da DeepMind fala sobre o futuro da IA | A entrevista TED
Demis Hassabis da DeepMind fala sobre o futuro da IA | A entrevista TED
Na entrevista ao TED, Demis Hassabis discute o futuro da inteligência artificial e como ela levará a uma maior criatividade. Ele argumenta que os jogos são um campo de treinamento ideal para inteligência artificial e que o xadrez deveria ser ensinado nas escolas como parte de um currículo mais amplo que inclua cursos de design de jogos.
Futuro da Inteligência Artificial (2030 - 10.000 AD+)
Futuro da Inteligência Artificial (2030 - 10.000 AD+)
O vídeo prevê que a tecnologia de IA continuará crescendo e evoluindo, levando ao surgimento de superinteligência e robôs com consciência de nível humano nas próximas décadas. Seres virtuais com autoconsciência e emoções serão comuns, e os robôs humanóides se tornarão tão avançados que poderão se misturar perfeitamente aos humanos. Haverá grupos de oposição lutando pelos direitos dos seres virtuais conscientes, enquanto humanos se fundem com IAs para fazer um século de progresso intelectual em apenas uma hora. As superinteligências mais evoluídas serão capazes de criar humanóides que podem se transformar em qualquer pessoa e voar no ar, enquanto sondas robóticas conscientes compostas por nanorrobôs auto-replicantes serão enviadas para outras galáxias através de buracos de minhoca. No futuro, humanos e híbridos de IA transcenderão para dimensões superiores, lembrando divindades do passado.
Vamos construir o GPT: do zero, no código, soletrado
Vamos construir o GPT: do zero, no código, soletrado
Construímos um transformador pré-treinado generativamente (GPT), seguindo o artigo "Atenção é tudo o que você precisa" e o GPT-2 / GPT-3 da OpenAI. Falamos sobre conexões com o ChatGPT, que conquistou o mundo. Observamos o GitHub Copilot, ele próprio um GPT, nos ajudando a escrever um GPT (meta :D!). Eu recomendo que as pessoas assistam aos vídeos anteriores do makemore para se familiarizar com a estrutura de modelagem de linguagem autorregressiva e noções básicas de tensores e PyTorch nn, que consideramos óbvios neste vídeo.
Este vídeo apresenta o algoritmo GPT e mostra como criá-lo do zero usando código. O algoritmo é usado para prever o próximo caractere em uma sequência de texto e é implementado como um módulo PyTorch. O vídeo aborda como configurar o modelo, como treiná-lo e como avaliar os resultados.
Este vídeo demonstra como construir um módulo de auto-atenção no código. O módulo usa uma camada linear de interação para acompanhar a atenção de uma única cabeça individual. O módulo de auto-atenção é implementado como uma matriz tabular, que mascara o peso de cada coluna e a normaliza para criar afinidades dependentes de dados entre os tokens.
MIT 6.801 Visão de máquina, outono de 2020. Aula 1: Introdução à visão de máquina
Aula 1: Introdução à Visão de Máquina
A palestra "Introdução à Visão de Máquina" fornece uma visão geral completa da logística e objetivos do curso, com ênfase na abordagem baseada em física para análise de imagens. Abrange componentes de visão de máquina, problemas mal colocados, orientação de superfície e os desafios do processamento de imagem. O palestrante também apresenta o método de otimização de mínimos quadrados e o modelo pinhole usado em câmeras. O sistema de coordenadas centradas na câmera, o eixo óptico e o uso de vetores também são brevemente discutidos. O curso visa preparar os alunos para cursos mais avançados de visão de máquina e aplicações reais de matemática e física na programação.
O palestrante também discute vários conceitos relacionados à formação de imagens, incluindo notação vetorial para projeção em perspectiva, iluminação de superfície, escorço de elementos de superfície e como problemas de visão 3D podem ser resolvidos usando imagens 2D. O palestrante explica como a iluminação de uma superfície varia com o ângulo de incidência e a relação de cosseno entre o comprimento do vermelho e o comprimento da superfície, que pode ser usado para medir o brilho de diferentes partes de uma superfície. No entanto, determinar a orientação de cada pequena faceta de um objeto pode ser difícil devido a duas incógnitas. O palestrante também explica o motivo pelo qual podemos resolver um problema de visão 3D usando imagens 2D e conclui mencionando que a matemática da tomografia é simples, mas as equações são complicadas, dificultando a realização de inversões.