Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Explicação das redes neurais convolucionais (visualização da CNN)
Explicação das redes neurais convolucionais (visualização da CNN)
O vídeo explica as redes neurais convolucionais (CNNs) e sua estrutura para reconhecimento de imagens, usando o exemplo de reconhecimento de números.
A primeira camada oculta, a camada convolucional, aplica kernels ou detectores de recursos para transformar os pixels de entrada e destacar recursos, como arestas, cantos e formas, levando a vários mapas de recursos que passam por uma função não linear.
Os mapas de recursos recém-produzidos são usados como entradas para a próxima camada oculta, uma camada de pooling, que reduz as dimensões dos mapas de recursos e ajuda a construir abstrações adicionais para a saída, retendo informações significativas. A camada de agrupamento reduz o overfitting enquanto acelera o cálculo por meio de mapas de recursos de downsampling. O segundo componente da CNN é o classificador, que consiste em camadas totalmente conectadas que usam recursos de alto nível abstraídos da entrada para classificar corretamente as imagens.
Por que as redes neurais convolucionais funcionam tão bem?
Por que as redes neurais convolucionais funcionam tão bem?
O sucesso das redes neurais convolucionais (CNNs) reside no uso de entradas de baixa dimensão, tornando-as facilmente treináveis com apenas dezenas de milhares de exemplos rotulados.
O sucesso também é obtido por meio do uso de camadas convolucionais que produzem apenas pequenas quantidades de informações úteis devido à compressibilidade de manchas de pixels que existem no mundo real, mas não necessariamente em imagens rearranjadas artificialmente. Embora as CNNs sejam usadas para executar várias tarefas de processamento de imagens, seu sucesso não pode ser totalmente atribuído à sua capacidade de aprendizado, uma vez que humanos e redes neurais não podem aprender com dados de alta dimensão. Em vez disso, estruturas espaciais codificadas em sua arquitetura devem existir antes do treinamento para "ver" o mundo.
A IA pode aprender a diferença entre certo e errado? [4K] | INTELIGÊNCIA ARTIFICIAL | Fagulha
A IA pode aprender a diferença entre certo e errado? [4K] | INTELIGÊNCIA ARTIFICIAL | Fagulha
O vídeo discute o estado atual e o potencial da IA e da robótica, abordando tópicos como aprendizado profundo, recursos de robôs, impacto potencial em vários setores, ética, inteligência emocional e limitações.
Embora a IA tenha transitado sem problemas em vários campos, os especialistas ainda acreditam que os seres humanos são necessários para lidar com situações inesperadas e dilemas éticos. O medo de transformar robôs em armas e o potencial da IA para se desenvolver sem o controle humano também são discutidos. No entanto, o potencial da IA para criatividade e inteligência emocional, conforme demonstrado por Yumi, é algo a se esperar no futuro. O principal desafio é ganhar a confiança do público na confiabilidade e segurança da IA à medida que sua integração se torna cada vez mais vital em nossa sociedade.
Jensen Huang — CEO da NVIDIA na próxima geração de IA e MLOps
Jensen Huang — CEO da NVIDIA na próxima geração de IA e MLOps
O CEO da NVIDIA, Jensen Huang, explica a história da empresa de foco no aprendizado de máquina, começando com a aceleração de modelos de rede neural para a competição ImageNet. Ele discute o tipo de computação full-stack da NVIDIA e seu sucesso na construção de uma GPU universal para diferentes aplicativos. Huang prevê o crescimento da IA na fabricação e design de chips e o potencial de algoritmos de aprendizado profundo para simular estratégias de mitigação das mudanças climáticas. Ele também discute a importância de MLOps e compara o processo de refino para aprendizado de máquina a uma fábrica. Por fim, Huang compartilha sua empolgação com o futuro da inovação e criatividade no mundo virtual.
tornando-o mais vulnerável e atraindo mais críticas, ele vê isso como uma forma de refinar suas ideias e tomar decisões mais informadas. Jensen também fala sobre sua abordagem de liderança, afirmando que seu comportamento e forma de enfrentar os problemas permanecem consistentes independentemente do desempenho das ações da empresa. Como uma empresa de capital aberto, ele reconhece a pressão externa para ter sucesso, mas acredita que, se forem claros ao expressar sua visão e por que estão fazendo algo, as pessoas estarão dispostas a tentar.
CEO da OpenAI, CTO sobre riscos e como a IA irá remodelar a sociedade
CEO da OpenAI, CTO sobre riscos e como a IA irá remodelar a sociedade
O CEO e CTO da OpenAI, Sam Altman, disse a Rebecca Jarvis, da ABC News, que a IA vai remodelar a sociedade e reconhece os riscos: desenvolvimento responsável que se alinhe com os valores humanos e evite consequências negativas, como eliminação de empregos ou aumento do preconceito racial.
Eles afirmam que, embora a IA tenha perigos potenciais, não usar essa tecnologia pode ser mais perigoso. Os CEOs também destacam a importância do controle humano e da contribuição do público na definição de barreiras para a IA, bem como o potencial da IA para revolucionar a educação e fornecer aprendizado personalizado para cada aluno. Embora reconheçam os riscos associados à IA, eles expressam otimismo sobre seus potenciais benefícios em áreas como saúde e educação.
Redes neurais são árvores de decisão (com Alexander Mattick)
Redes neurais são árvores de decisão (com Alexander Mattick)
Redes Neurais são Árvores de Decisão são um tipo de algoritmo de aprendizado de máquina adequado para problemas que possuem estatísticas bem definidas. Eles são especialmente bons em aprender dados tabulares, que é um tipo de dados fácil de armazenar e entender.
Neste vídeo, Alexander Mattick, da Universidade de Cambridge, discute um artigo recente publicado sobre redes neurais e árvores de decisão.
Esta é uma virada de jogo! (AlphaTensor por DeepMind explicou)
Esta é uma virada de jogo! (AlphaTensor por DeepMind explicou)
AlphaTensor é um novo algoritmo que pode acelerar a multiplicação de matrizes, decompondo-a em um tensor de classificação inferior. Este é um avanço na multiplicação de matrizes que pode economizar muito tempo e energia.
Este vídeo explica como o AlphaTensor, uma ferramenta desenvolvida pela DeepMind do Google, pode ser um divisor de águas no campo da inteligência artificial.
Inteligência de IA do Google: quão perto estamos realmente? | Podcast de resumo de notícias de tecnologia | Wall Street Journal
Inteligência de IA do Google: quão perto estamos realmente? | Podcast de resumo de notícias de tecnologia | Wall Street Journal
A controvérsia sobre se o sistema de IA do Google, Lambda, poderia se tornar senciente é discutida neste segmento. Embora os especialistas tenham descartado a ideia, há preocupações sobre a percepção de que isso poderia acontecer e os perigos potenciais representados por formuladores de políticas e regulamentações. A discussão destaca que há mais foco nas consequências de os sistemas de IA serem hipercompetentes e discriminatórios ou manipuladores, em vez do dano que poderia advir deles simplesmente não funcionando corretamente.
A rede neural, uma introdução visual | Visualizando Deep Learning, Capítulo 1
A rede neural, uma introdução visual | Visualizando Deep Learning, Capítulo 1
O vídeo fornece uma introdução visual clara à estrutura básica e aos conceitos de uma rede neural, incluindo neurônios artificiais, funções de ativação, matrizes de peso e vetores de viés.
Ele demonstra o uso de uma rede neural para encontrar padrões em dados, determinando linhas de fronteira e limites de decisão complexos em conjuntos de dados. A importância da função de ativação também é destacada, pois ajuda a lidar com limites de decisão mais complicados e classificar dados.
O vídeo conclui reconhecendo o apoio dos pioneiros do aprendizado profundo e explorando a aparência de uma rede neural treinada.
Visualizando Deep Learning 2. Por que as redes neurais são tão eficazes?
Visualizando Deep Learning 2. Por que as redes neurais são tão eficazes?
Este vídeo explora a eficácia das redes neurais, mergulhando na função softmax, limites de decisão e transformações de entrada. O vídeo explica como a função signoid pode ser usada para atribuir uma probabilidade a cada saída em vez da função argmax tradicional.
Em seguida, demonstra o uso da função softmax para agrupar pontos semelhantes e torná-los linearmente separáveis durante o treinamento. No entanto, ao sair da região de treinamento inicial, a rede neural estende os limites de decisão linearmente, levando a classificações imprecisas.
O vídeo também explica como o primeiro neurônio em uma rede neural pode ser traduzido em uma equação plana para limites de decisão e demonstra uma ferramenta interativa para visualizar a transformação de dígitos manuscritos por meio de uma rede neural.