Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Seminario web NVAITC: Implementación de modelos con TensorRT
Seminario web NVAITC: Implementación de modelos con TensorRT
En esta sección del seminario web de NVAITC, la arquitecta de soluciones Nikki Loppie presenta TensorRT, el kit de desarrollo de software de NVIDIA para la inferencia de aprendizaje profundo de alto rendimiento. TensorRT proporciona un optimizador de inferencia y tiempo de ejecución para inferencia de baja latencia y alto rendimiento en una variedad de plataformas, desde dispositivos integrados hasta centros de datos. Loppie explica las cinco tecnologías que usa TensorRT para optimizar el rendimiento de la inferencia, incluida la fusión del núcleo y la calibración de precisión. Los desarrolladores pueden usar las API de Python y C++ de TensorRT para incorporar estas optimizaciones en sus propias aplicaciones, y las bibliotecas de convertidores como trtorch se pueden usar para optimizar los modelos de PyTorch para la inferencia. Loppie demuestra cómo guardar modelos optimizados de TensorRT usando la biblioteca trtorch y compara los modelos optimizados con modelos no optimizados para la clasificación de imágenes, mostrando aceleraciones significativas con la mitad de precisión.
Tutorial de ESP - Cómo: diseñar un acelerador en Keras/Pytorch/ONNX
Tutorial de ESP - Cómo: diseñar un acelerador en Keras/Pytorch/ONNX
El tutorial presenta una herramienta llamada Chalice for ML, que puede generar automáticamente un acelerador a partir de un modelo Keras/Pytorch/ONNX. Luego, el tutorial procede a demostrar cómo integrar el acelerador en ESP (Early Stage Prototyper). El orador también muestra cómo diseñar un acelerador en Keras/Pytorch/ONNX y sigue los pasos de importar un acelerador, agregar un banco de pruebas, generar RTL y crear dos versiones del acelerador. El video también cubre la compilación de Linux y la creación de una aplicación de espacio de usuario de Linux para el acelerador. Finalmente, el tutorial finaliza con recursos para seguir aprendiendo.
Inferencia óptima en hardware flexible con ONNX Runtime
Inferencia óptima en hardware flexible con ONNX Runtime
Este tutorial cubre la implementación de modelos en CPU, GPU y OpenVINO usando ONNX Runtime. El orador demuestra el uso de diferentes proveedores de ejecución, incluido OpenVINO, para la inferencia en hardware flexible. El código para la inferencia es principalmente el mismo en todos los entornos, siendo la principal diferencia el proveedor de ejecución. ONNX Runtime realiza inferencias más rápido que PyTorch en CPU y GPU, y existe una biblioteca de ONNX Runtime independiente para OpenVINO. En general, el tutorial proporciona una descripción general de cómo implementar modelos en varias opciones de hardware mediante ONNX Runtime.
Inferencia de aprendizaje automático en Flink con ONNX
Inferencia de aprendizaje automático en Flink con ONNX
El video analiza los beneficios y la implementación del uso de ONNX en la inferencia de aprendizaje automático y su implementación en el marco de computación distribuida, Flink. La separación de preocupaciones entre el entrenamiento de modelos y la inferencia de producción, la capacidad de definir especificaciones para entradas y salidas y la independencia del idioma hacen de ONNX una herramienta valiosa para los científicos de datos. El video demuestra cómo cargar un modelo ONNX en Flink, proporciona componentes clave de la función de mapa enriquecido y explica cómo agrupar los modelos junto con el código mediante un archivo jar. El orador también aborda consideraciones como la administración de memoria, la optimización de lotes y la aceleración de hardware con ONNX, y enfatiza sus beneficios para la inferencia de aprendizaje automático en tiempo real en Flink.
Mejorando la experiencia de compra en línea con ONNX
Mejorando la experiencia de compra en línea con ONNX
Este video analiza cómo las empresas de comercio electrónico utilizan la IA para crear conocimientos impactantes que diferencian las ganancias y las pérdidas en el espacio minorista en línea. El orador brinda un ejemplo de Bazaar Voice, la red más grande de marcas y minoristas que proporciona más de 8 mil millones de reseñas en total, y cómo utilizan la coincidencia de productos para compartir reseñas. Luego, el orador describe cómo desarrollaron un modelo de aprendizaje automático en Python, lo exportaron al formato ONNX y lo implementaron en una función sin servidor utilizando un entorno de nodo para ejecutar la inferencia en un tiempo de ejecución ONNX. Esta solución permite la coincidencia de alta velocidad de cientos de millones de productos en miles de catálogos de clientes al mismo tiempo que mantiene costos bajos, lo que genera ahorros significativos en costos y millones de reseñas adicionales para marcas y minoristas. El orador concluye invitando a los espectadores a explorar más formas de usar las capacidades de ONNX y compartir sus casos de uso para futuros avances tecnológicos.
DSS online #4: Implementación de aprendizaje profundo de extremo a extremo con ONNX
DSS online #4: Implementación de aprendizaje profundo de extremo a extremo con ONNX
Este video analiza los desafíos de la implementación de aprendizaje profundo de un extremo a otro, incluida la administración de diferentes lenguajes, marcos, dependencias y la variabilidad del rendimiento, así como la fricción entre los equipos y los bloqueos de formato propietario. El Open Neural Network Exchange (ONNX) se presenta como un formato basado en búfer de protocolo para la serialización de aprendizaje profundo. Es compatible con los principales marcos de aprendizaje profundo y proporciona un artefacto autónomo para ejecutar el modelo. ONNX ML también se analiza como parte de la especificación ONNX que brinda soporte para el procesamiento previo de aprendizaje automático tradicional. Se reconocen las limitaciones de ONNX, pero se lo considera un proyecto de rápido crecimiento con un fuerte apoyo de grandes organizaciones que ofrece verdadera portabilidad en diferentes dimensiones de lenguajes, marcos, tiempos de ejecución y versiones.
ONNX y ONNX Runtime con Vinitra Swamy y Pranav Sharma de Microsoft
ONNX y ONNX Runtime con Vinitra Swamy y Pranav Sharma de Microsoft
El video analiza el formato Open Neural Network Exchange (ONNX), creado para hacer que los modelos sean interoperables y eficientes en la serialización y el control de versiones. ONNX consta de una capa de representación intermedia, especificaciones del operador y admite diferentes tipos de datos. ONNX Runtime, implementado en C++ y ensamblador, ofrece compatibilidad con versiones anteriores y es extensible a través de proveedores de ejecución, operadores personalizados y optimizadores de gráficos. La API ofrece soporte para plataformas, lenguajes de programación y proveedores de ejecución. Los usuarios pueden crear sesiones, optimizar modelos y serializarlos para uso futuro. Los altavoces brindan una demostración de la versatilidad y eficiencia de ONNX Runtime, con la capacidad de ejecutarse en dispositivos Android.
compatibilidad que se remonta a CentOS 7.6. También se analiza la herramienta ONNX Go Live, una herramienta de código abierto para convertir y ajustar modelos para un rendimiento óptimo. La sección concluye con ejemplos de servicios de Microsoft que utilizan ONNX, incluida una ganancia de rendimiento de 14 veces en el modelo de determinante faltante de Office y una ganancia de rendimiento de 3 veces en el modelo de reconocimiento óptico de caracteres utilizado en los servicios cognitivos.
Jan-Benedikt Jagusch Christian Bourjau: hacer que las aplicaciones de aprendizaje automático sean rápidas y sencillas con ONNX
Jan-Benedikt Jagusch Christian Bourjau: hacer que las aplicaciones de aprendizaje automático sean rápidas y sencillas con ONNX
En este video sobre el aprendizaje automático y la implementación, los oradores analizan los desafíos de poner modelos en producción, en particular, la dificultad de decapar e implementar modelos. Presentan ONNX, un formato de archivo universal para exportar modelos de aprendizaje automático, y explican cómo puede ayudar a desvincular el entrenamiento y la inferencia, haciendo que la implementación sea más rápida y eficiente. Proporcionan una demostración en vivo usando scikit-learn, que explica cómo convertir una canalización de aprendizaje automático al formato ONNX. También analizan las limitaciones de los contenedores Docker para implementar modelos de aprendizaje automático y destacan los beneficios de usar ONNX en su lugar. Tocan el tema del cifrado de modelos para mayor seguridad y abordan el problema de usabilidad de ONNX, que aún es un ecosistema joven con algunos mensajes de error crípticos.
ONNX Runtime Azure EP para inferencia híbrida en el perímetro y la nube
ONNX Runtime Azure EP para inferencia híbrida en el perímetro y la nube
El equipo de ONNX Runtime ha lanzado su primer paso hacia el mundo híbrido que permite a los desarrolladores usar una única API para la computación perimetral y en la nube con Azure EP, que elimina los problemas de conectividad de los dispositivos y permite a los desarrolladores cambiar al modelo de nube que han optimizado. , ahorrando costes y reduciendo la latencia. Esta nueva función permite a los desarrolladores actualizar la lógica de la aplicación y elegir qué camino tomar a través de Azure EP, lo que ofrece más capacidad y potencia. El equipo demuestra la implementación de servidores para niños y modelos de detección de objetos, además de cómo probar el punto final y configurar Onnx Runtime Azure de manera sencilla. Los presentadores también analizan la capacidad de cambiar entre el procesamiento local y remoto y los posibles casos de uso, incluidos los modelos de menor rendimiento frente a los de mayor rendimiento. ONNX Runtime Azure EP se puede precargar y configurar fácilmente con los paquetes necesarios para la implementación, lo que contribuye a la facilidad de uso del software.
INT8 Inferencia de modelos entrenados con reconocimiento de cuantización utilizando ONNX-TensorRT
INT8 Inferencia de modelos entrenados con reconocimiento de cuantización utilizando ONNX-TensorRT
Dheeraj Peri, ingeniero de software de aprendizaje profundo de NVIDIA, explica los conceptos básicos de la cuantificación y cómo TensorRT admite redes cuantificadas a través de varias fusiones. Se centran en los modelos entrenados con el marco TensorFlow 2.0 y cómo realizar la cuantificación posterior al entrenamiento (PTQ) y el entrenamiento consciente de la cuantificación (QAT). Se explica el proceso de implementación de un modelo entrenado con el kit de herramientas de cuantificación Nvidia TF2 con ONNX-TensorRT, y se presentan los resultados de precisión y latencia para varios modelos de ResNet. En general, se demuestra el flujo de trabajo de QAT de extremo a extremo desde TensorFlow hasta la implementación de TensorRT a través de ONNX-TensorRT.