Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Tensorflow para la investigación de aprendizaje profundo - Clase 1
Tensorflow para la investigación de aprendizaje profundo - Clase 1
El video "Tensorflow para la investigación de aprendizaje profundo - Conferencia 1" presenta el tutorial sobre TensorFlow cubriendo la necesidad de un tutorial de nivel profundo, explicando los conceptos básicos y las aplicaciones prácticas de la biblioteca. La conferencia cubre cómo construir y estructurar modelos usando TensorFlow desde una perspectiva de aprendizaje profundo. El tutorial también cubre las herramientas utilizadas en TensorBoard para visualizar un modelo gráfico computacional, incluido cómo operar con nodos, bordes y sesiones, que brindan opciones de cálculo eficientes mediante la ejecución de subgráficos. El disertante recomienda aprender TensorFlow desde cero para crear modelos personalizados y manejar los recursos de manera eficiente, con la capacidad de ejecutarse en CPU, GPU, Android o iOS, al tiempo que brinda la capacidad de implementar modelos.
Tensorflow para la investigación de aprendizaje profundo - Clase 2
Tensorflow para la investigación de aprendizaje profundo - Clase 2
La conferencia sobre TensorFlow para la investigación de aprendizaje profundo cubre una amplia gama de temas, incluidas operaciones básicas, tipos de tensores, marcadores de posición y carga diferida. Se enfatiza la importancia de utilizar TensorBoard para visualizar el gráfico que se está ejecutando, y se analizan varias funciones de la API de TensorFlow, incluida la reproducción aleatoria aleatoria, el recorte aleatorio, el multinomial TF.dot y la función gamma aleatoria. El video también cubre los conceptos de definir 0-ness para diferentes tipos de datos, inicializar variables, asignarles valores y los beneficios de usar una sesión interactiva de TensorFlow. Por último, se cubre en detalle el uso de marcadores de posición en TensorFlow y se analizan los problemas potenciales al usar marcadores de posición con formas indefinidas.
El orador también analiza el uso de marcadores de posición en TensorFlow, incluido cómo alimentar múltiples puntos de datos y usar dictados libres. Luego, la lección pasa a la carga diferida, donde el cálculo se difiere hasta el tiempo de ejecución para evitar que el gráfico se hinche debido a múltiples nodos de la misma operación en bucles. Separar la definición de los objetos de operación del código de cómputo y estructuración para definiciones de variables y funciones de cómputo ayuda a evitar problemas con las funciones de llamada en TensorFlow. El orador también cubre cómo el optimizador minimiza la entropía cruzada y actualiza los pesos y sesgos mientras usa propiedades para estructurar el código de TensorFlow de manera eficiente.
Tensorflow para la investigación de aprendizaje profundo - Clase 3
Tensorflow para la investigación de aprendizaje profundo - Clase 3
La tercera lección sobre TensorFlow para la investigación de aprendizaje profundo cubre la regresión lineal y la regresión logística utilizando el conjunto de datos MNIST. El disertante muestra cómo entrenar un modelo de regresión lineal en TensorFlow mediante la creación de marcadores de posición para datos de entrada, la inicialización de variables entrenables para pesos y sesgos, la elaboración de predicciones, el cálculo de pérdidas y la definición del optimizador como descenso de gradiente con una tasa de aprendizaje específica. La conferencia también explica el descenso de gradiente estocástico de mini lotes y la importancia de recordar la forma de las variables. La precisión del modelo se calcula comparando el índice del valor máximo obtenido de la función TF argmax con la variable objetivo y, calculando el número de predicciones correctas usando TF reduce sum y TF float, y dividiéndolo por el número total de pruebas. ejemplos Finalmente, el disertante señala que este modelo no se considera poderoso y existen modelos más robustos como capas convolucionales que dan mayor precisión.
Tensorflow para la investigación de aprendizaje profundo - Clase 4
Tensorflow para la investigación de aprendizaje profundo - Clase 4
En la lección 4 de la serie TensorFlow for Deep Learning Research, el orador profundiza en las incrustaciones de palabras en el procesamiento del lenguaje natural basado en el aprendizaje profundo. La conferencia explica el concepto de aprendizaje de incrustaciones de palabras para problemas de PNL y describe el proceso de representación de palabras como vectores numéricos en redes neuronales. La conferencia analiza diferentes métodos para generar vectores de palabras usando CBOW basado en IA y saltar gramos y abordar el problema de la complejidad computacional en softmax usando muestreo negativo y NCE. Además, el disertante destaca el proceso de incrustación de variables en TensorFlow y el uso de t-SNE para visualizar vectores de palabras de alta dimensión en dimensiones reducidas. Finalmente, la lección concluye con un resumen de los conceptos cubiertos y un resumen de la próxima lección, que se centrará en la construcción de modelos de palabras.
Tensorflow para la investigación de aprendizaje profundo - Clase 5_1
Tensorflow para la investigación de aprendizaje profundo - Clase 5_1
La quinta conferencia de la serie TensorFlow for Deep Learning Research cubre varios temas, incluido cómo administrar los experimentos de aprendizaje profundo de manera efectiva, la importancia de la diferenciación automática en TensorFlow y el proceso de entrenamiento de modelos y almacenamiento de variables. El orador explica que la diferenciación automática se proporciona en marcos de aprendizaje profundo como TensorFlow, lo que facilita a los usuarios codificar sus modelos sin tener que lidiar con gradientes. Si bien no es esencial calcular los gradientes manualmente, sigue siendo útil calcularlos para funciones y redes simples. También se cubre la creación de un modelo de reconocimiento de entidad con nombre con subclases y los marcadores de posición necesarios y las técnicas de alimentación, así como el guardado y la restauración de variables en TensorFlow y el proceso de guardar modelos en diferentes sesiones y máquinas.
Tensorflow para la investigación de aprendizaje profundo - Clase 5_2
Tensorflow para la investigación de aprendizaje profundo - Clase 5_2
El video tutorial analiza la implementación de operaciones de resumen de TF, que permiten la visualización de datos en TensorBoard. El tutorial cubre tres tipos de operaciones de resumen: TF.summary.scalar, TF.summary.histogram y TF.summary.image, y explica cómo fusionarlos en uno y escribirlos en un archivo de eventos usando la clase FileWriter. El disertante demuestra cómo usar los ámbitos de nombres para visualizar el gráfico en TensorBoard y define un escritor de prueba y un escritor capacitado para escribir resúmenes en archivos separados. Hacen hincapié en aprovechar las capacidades de visualización de TensorBoard para comprender mejor el rendimiento del modelo. En general, TensorBoard es una herramienta fundamental para realizar un seguimiento del progreso de la capacitación, y la API para agregar operaciones y fusionarlas es sencilla.
Intuición detrás de la retropropagación como gráfico computacional
Intuición detrás de la retropropagación como gráfico computacional
La intuición detrás de la retropropagación como gráfico computacional se explica en este video. El orador explica cómo se usa una función sustituta para estimar la función empírica que asigna entradas a salidas, y que el objetivo es encontrar los parámetros que minimizan la función de pérdida. La retropropagación permite calcular el gradiente de la función de pérdida con respecto a cada parámetro a través de un paso hacia atrás del gráfico. Se calculan los gradientes locales para cada puerta en el gráfico y se pueden usar para calcular el gradiente de la salida final con respecto a cada entrada. El orador también explica cómo manejar gradientes para operaciones de ramificación y vectorizadas y cómo garantizar que la dimensionalidad funcione al calcular derivadas.
Produciendo el aprendizaje profundo para la visión artificial
Produciendo el aprendizaje profundo para la visión artificial
El CTO y científico jefe de Jumio, Lavash Patel, analiza cómo su empresa utiliza una combinación de expertos en inteligencia artificial e identificación para generar confianza en línea y verificar la autenticidad de los documentos de identificación. El proceso de verificación de identidad es desafiante debido a la variedad de identificaciones y subtipos, así como a la necesidad de rectificación y rechazo de imágenes ilegibles. Para mantener la precisión, se adopta un enfoque humano en el circuito, donde los modelos de IA detectan problemas y un humano verifica la cordura de los resultados. Patel también analiza cómo Jumio produce aprendizaje profundo utilizando un algoritmo híbrido de aprendizaje activo, que se adapta a nuevos subtipos y mejora al volver a capacitarse. Además, enfatiza la importancia de limpiar los datos en el reconocimiento facial y mantener el cumplimiento de PCI cuando se trata de datos confidenciales con fines de aprendizaje automático.
Gail Weiss: pensando como transformadores
Gail Weiss: pensando como transformadores
Gail Weiss analiza el concepto de codificadores transformadores en este video y explica su capacidad para procesar secuencias y codificarlas en vectores. Weiss destaca varios estudios que exploran las fortalezas y limitaciones de los codificadores de transformadores e introduce un lenguaje de programación llamado lenguaje de procesamiento de secuencias de acceso restringido (RASP) para representar las capacidades de los codificadores de transformadores. También analiza la atención de múltiples cabezas, los patrones de selección y los desafíos de softmax bajo ciertas condiciones, antes de profundizar en el uso de operadores de secuencia y funciones de biblioteca para calcular el inverso y el selector de volteo. Weiss brinda información sobre la creación de un programa óptimo para un transformador y las ideas de los transformadores universales y sándwich, y finalmente analiza el predicado seleccionado y las relaciones binarias frente a orden tres.
También habla sobre los posibles beneficios y desventajas de usar atención de orden superior en los modelos de transformadores, así como la importancia de las conexiones residuales en el mantenimiento de la información a lo largo de las capas. También analiza problemas potenciales con transformadores muy profundos que se desvían del modelo RASP y sugiere el uso de incrustaciones más largas para superar la falta de claridad en la información.
Visualización y comprensión de las redes neuronales profundas por Matt Zeiler
Visualización y comprensión de las redes neuronales profundas por Matt Zeiler
Matt Zeiler analiza la visualización y la comprensión de las redes neuronales convolucionales (CNN) para el reconocimiento de objetos en imágenes y videos. Describe cómo funcionan las redes neuronales profundas en comparación con los humanos y los primates en el reconocimiento de objetos y muestra cómo las CNN aprenden a identificar objetos al atravesar las capas. Zeiler explica el proceso de mejora de la arquitectura CNN y analiza las limitaciones al entrenar con datos limitados. Por último, responde preguntas sobre el uso de capas inferiores en capas superiores y la aplicación de convoluciones en redes neuronales.