Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
CS 198-126: Aula 20 - Estilizando Imagens
CS 198-126: Aula 20 - Estilizando Imagens
O vídeo discute várias técnicas para estilização de imagem, incluindo transferência de estilo neural, GANs e Pix2Pix, que requerem dados pareados, e CycleGAN, que usa dados não pareados para tradução de imagem para imagem. As limitações do CycleGAN podem ser abordadas pelo StarGAN, que pode obter informações de vários domínios para treinar geradores para tarefas de transição de imagens de vários domínios. O palestrante também discute a tradução multimodal não supervisionada de imagem para imagem usando informações de domínio e códigos latentes de baixa dimensão para produzir diversas saídas, exemplificadas pelo modelo BicycleGAN. Por fim, são mencionados os benefícios potenciais do uso de Vision Transformers com GANs para tarefas de tradução de imagens, e a palestra termina com exemplos divertidos de imagens e uma oportunidade para perguntas e discussões.
CS 198-126: Aula 21 - Áudio Gerativo
CS 198-126: Aula 21 - Áudio Gerativo
Nesta palestra sobre áudio generativo, o apresentador aborda diversos temas como quantização, aliasing, processamento de sinais, projeções, deep learning e Transformers. O palestrante discute como amostrar e quantizar sinais contínuos e a compensação entre a precisão das profundidades de bits e o poder de computação. O teorema de amostragem de Shannon-Nequist e seus efeitos na reconstrução de sinais e a importância das projeções e seu uso para a reconstrução de sinais também são explicados. O aprendizado profundo é explorado para a reconstrução de áudio, e o apresentador apresenta o áudio generativo e como ele pode reconstruir músicas de gravações perdidas ou danificadas. O uso de Transformers é discutido para geração de áudio e o processo de representação da música como uma série de tokens é explicado. O palestrante também enfatiza a importância de ter um conjunto de dados grande e variado e discute a operação do modelo transformador para previsões musicais. A palestra termina com uma demonstração da música gerada, mostrando a capacidade do modelo de prever notas futuras com precisão.
CS 198-126: Aula 22 - Aprendizagem Multimodal
CS 198-126: Aula 22 - Aprendizagem Multimodal
A aprendizagem multimodal envolve a representação de objetos de diferentes maneiras, como por meio de texto, imagens, vídeos ou áudio, embora ainda reconheça que são o mesmo objeto. As palestras explicam a importância do aprendizado multimodal na captura de diversos conjuntos de dados e na solução do problema de mudança de distribuição. O vídeo se concentra no CLIP, um método de pré-treinamento de imagem em linguagem contrastiva, que usa codificadores de texto e imagem para criar incorporações para pares de legendas de imagem semelhantes. As incorporações podem ser usadas para classificação, robótica, geração de texto para imagem e visão 3D. O palestrante enfatiza que a universalidade dos latentes CLIP mostra a importância do aprendizado de representação e sua utilidade no aprendizado de máquina. O método CLIP levou à evolução do campo da aprendizagem multimodal.
Tensorflow for Deep Learning Research - Lecture 1
Tensorflow for Deep Learning Research - Lecture 1
The video "Tensorflow for Deep Learning Research - Lecture 1" introduces the tutorial on TensorFlow by covering the need for a deep-level tutorial, explaining the library's basics and practical applications. The lecture covers how to build and structure models using TensorFlow from a deep learning perspective. The tutorial also covers the tools used in TensorBoard for visualizing a computational graph model, including how to operate with nodes, edges, and sessions, which provide efficient computation options by running subgraphs. The lecturer recommends learning TensorFlow from scratch to build custom models and efficiently handle resources, with the ability to run on CPU, GPU, Android or iOS, while providing the ability to deploy models.
Tensorflow para pesquisa de aprendizado profundo - Aula 2
Tensorflow para pesquisa de aprendizado profundo - Aula 2
A palestra sobre TensorFlow for Deep Learning Research abrange uma ampla gama de tópicos, incluindo operações básicas, tipos de tensor, espaços reservados e carregamento lento. A importância de utilizar o TensorBoard para visualizar o gráfico que está sendo executado é enfatizada, e várias funções da API do TensorFlow são discutidas, incluindo random shuffle, random crop, multinomial TF.dot e a função random gamma. O vídeo também aborda os conceitos de definição de 0 para diferentes tipos de dados, inicialização de variáveis, atribuição de valores a elas e os benefícios de usar uma sessão interativa do TensorFlow. Por fim, o uso de espaços reservados no TensorFlow é abordado em detalhes e os possíveis problemas ao usar espaços reservados com formas indefinidas são discutidos.
O palestrante também discute o uso de espaços reservados no TensorFlow, incluindo como alimentar vários pontos de dados e usar dicts gratuitos. A palestra então passa para o carregamento lento, onde a computação é adiada até o tempo de execução para evitar o inchaço do gráfico causado por vários nós da mesma operação em loops. Separar a definição de objetos de operação da computação e estruturar o código para definições de variáveis e funções de computação ajuda a evitar problemas com a chamada de funções no TensorFlow. O palestrante também aborda como o otimizador minimiza a entropia cruzada e atualiza pesos e vieses enquanto usa propriedades para estruturar o código do TensorFlow com eficiência.
Tensorflow para pesquisa de aprendizado profundo - Aula 3
Tensorflow para pesquisa de aprendizado profundo - Aula 3
A terceira palestra sobre TensorFlow para pesquisa de aprendizado profundo abrange regressão linear e regressão logística usando o conjunto de dados MNIST. O palestrante mostra como treinar um modelo de regressão linear no TensorFlow criando espaços reservados para dados de entrada, inicializando variáveis treináveis para pesos e viés, fazendo previsões, calculando perdas e definindo o otimizador como gradiente descendente com uma taxa de aprendizado específica. A palestra também explica a descida do gradiente estocástico em minilote e a importância de lembrar a forma das variáveis. A precisão do modelo é calculada comparando o índice do valor máximo obtido da função TF argmax com a variável alvo y, calculando o número de previsões corretas usando TF reduce sum e TF float e dividindo-o pelo número total de testes exemplos. Por fim, o palestrante observa que esse modelo não é considerado poderoso e existem modelos mais robustos, como camadas convolucionais, que oferecem maior precisão.
Tensorflow para pesquisa de aprendizado profundo - Aula 5_1
Tensorflow para pesquisa de aprendizado profundo - Aula 5_1
A quinta palestra da série TensorFlow for Deep Learning Research aborda vários tópicos, incluindo como gerenciar experimentos de deep learning de maneira eficaz, a importância da diferenciação automática no TensorFlow e o processo de treinar modelos e salvar variáveis. O palestrante explica que a diferenciação automática é fornecida em estruturas de aprendizado profundo como o TensorFlow, tornando mais fácil para os usuários codificar seus modelos sem lidar com gradientes. Embora não seja essencial calcular os gradientes manualmente, ainda é útil trabalhá-los para funções e redes simples. A criação de um modelo de reconhecimento de entidade nomeada com subclasses e os espaços reservados necessários e técnicas de alimentação também é abordada, bem como salvar e restaurar variáveis no TensorFlow e o processo de salvar modelos em diferentes sessões e máquinas.
Tensorflow para pesquisa de aprendizado profundo - Aula 5_2
Tensorflow para pesquisa de aprendizado profundo - Aula 5_2
O tutorial em vídeo discute a implementação de operações de resumo do TF, que permitem a visualização de dados no TensorBoard. O tutorial abrange três tipos de operações de resumo - TF.summary.scalar, TF.summary.histogram e TF.summary.image - e explica como mesclá-los em um e gravá-los em um arquivo de evento usando a classe FileWriter. O palestrante demonstra como usar escopos de nome para visualizar o gráfico no TensorBoard e define um redator de teste e um redator treinado para escrever resumos em arquivos separados. Eles enfatizam o aproveitamento dos recursos de visualização do TensorBoard para entender melhor o desempenho do modelo. No geral, o TensorBoard é uma ferramenta crucial para acompanhar o progresso do treinamento, e a API para adicionar operações e mesclá-las é direta.
Intuição por trás da retropropagação como um gráfico computacional
Intuição por trás da retropropagação como um gráfico computacional
A intuição por trás da retropropagação como um grafo computacional é explicada neste vídeo. O palestrante discute como uma função substituta é usada para estimar a função empírica que mapeia entradas para saídas e que o objetivo é encontrar os parâmetros que minimizam a função de perda. A retropropagação permite o cálculo do gradiente da função de perda em relação a cada parâmetro por meio de uma passagem para trás do gráfico. Os gradientes locais para cada porta no gráfico são calculados e podem ser usados para calcular o gradiente da saída final em relação a cada entrada. O palestrante também explica como lidar com gradientes para operações de ramificação e vetorizadas e como garantir que a dimensionalidade funcione ao calcular derivadas.
Produção de deep learning para visão computacional
Produção de deep learning para visão computacional
O CTO e cientista-chefe da Jumio, Lavash Patel, discute como sua empresa usa uma mistura de especialistas em IA e ID para estabelecer confiança online e verificar a autenticidade dos documentos de identidade. O processo de verificação de identidade é desafiador pela variedade de IDs e subtipos, bem como pela necessidade de retificação e rejeição de imagens ilegíveis. Para manter a precisão, é adotada uma abordagem humana em loop, em que os modelos de IA detectam problemas e um humano verifica os resultados. Patel também discute como o Jumio produz aprendizado profundo usando um algoritmo de aprendizado ativo híbrido, que se adapta a novos subtipos e melhora ao se retreinar. Além disso, ele enfatiza a importância de dados limpos no reconhecimento facial e na manutenção da conformidade com o PCI ao lidar com dados confidenciais para fins de aprendizado de máquina.