Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Tutorial-11 - Intercambio de redes neuronales abiertas
Demostración de PyTorch a Tensorflow | Tutorial-11 | Intercambio de redes neuronales abiertas | ONNX
El video demuestra cómo usar ONNX para convertir un modelo PyTorch al formato TensorFlow. El proceso implica entrenar el modelo en PyTorch, guardarlo en formato .pth y luego convertirlo a formato ONNX antes de convertirlo finalmente a formato TensorFlow. El proceso de conversión se muestra en detalle mediante el uso de un modelo de clasificación de dígitos escrito a mano con el conjunto de datos MNIST, y el modelo TensorFlow resultante se prueba con imágenes de muestra. El video también aborda brevemente la conversión de un modelo de Caffe2 a ONNX y sugiere que los usuarios exploren ONNX más a fondo.funciones El código del cuaderno se proporciona en la sección de recursos para que los usuarios lo sigan.
Netron es una herramienta para ver modelos de redes neuronales, aprendizaje profundo y aprendizaje automático
Vistazo rápido a Netron
Vistazo rápido a Netron
En el video, el presentador brinda una descripción general de Netron, una herramienta para ver y analizar modelos de aprendizaje automático . Netron admite varios formatos y se puede instalar en múltiples plataformas. El presentador demuestra cómo iniciar Netron y navegar a través de varios modelos de ejemplo, destacando las capacidades y limitaciones de la herramienta. Si bien Netron es útil para explorar arquitecturas de red más simples, el presentador sugiere que podría beneficiarse de funciones adicionales para visualizar modelos más complejos. En general, el presentador recomienda Netron como una herramienta útil para examinar y comprender los modelos de aprendizaje automático.
Netron - Herramienta de visualización de red | Aprendizaje automático | Magia de datos
Netron - Herramienta de visualización de red | Aprendizaje automático | Magia de datos
Netron es una biblioteca de Python que ayuda a los usuarios a explorar y examinar visualmente la estructura y los parámetros de los modelos de aprendizaje profundo. Es una biblioteca de código abierto que proporciona modelos de muestra para el análisis y tiene un proceso de instalación simple. Con solo dos líneas de código, los usuarios pueden instalar Netron y usarlo para visualizar la estructura de la red neuronal, las funciones de activación, las capas de agrupación, las capas convolucionales y todos los atributos pasados en cada capa de un modelo de aprendizaje automático dado. Netron proporciona una interfaz fácil de usar que permite a los usuarios exportar visualizaciones como archivos PNG y explorar diferentes funciones y opciones.
Cómo usamos ONNX en Zetane para completar proyectos de aprendizaje automático más rápido con menos prueba y error
Cómo usamos ONNX en Zetane para completar proyectos de aprendizaje automático más rápido con menos prueba y error
Patrick Saitama, cofundador y CTO de Zetane Systems, analiza el valor de usar ONNX en el nuevo producto de su empresa para abordar problemas relacionados con el problema de la caja negra de la IA. El motor de Zetane permite la exploración e inspección de los modelos ONNX, lo que brinda información sobre la interacción del modelo con los datos y conduce a estrategias más decisivas para mejorar su calidad. El ejemplo dado muestra cómo el motor de Zetane ayudó a depurar un modelo de tren autónomo al inspeccionar la capa de radio y agregar más imágenes de túneles etiquetados como sin obstáculos. Zetane también incluye herramientas para inspeccionar dinámicamente los tensores internos y tomar instantáneas del modelo para su posterior investigación. Además, el nuevo motor de Zetane permite instalar modelos más grandes como YOLOv3.
PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, Conversión de archivos modelo AI
[Video educativo] PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, AI Model File Conversion
El orador del video analiza las ventajas y desventajas de diferentes marcos de IA, como PyTorch, TensorFlow, Keras, ONNX, TensorRT y OpenVINO, y recomienda PyTorch como el marco preferido para la capacitación y la conversión de datos. El orador explica el proceso de conversión, incluida la conversión de modelos PyTorch a ONNX y luego a TensorRT u OpenVINO, y advierte contra el uso de archivos TensorFlow PB y Cafe. El orador también analiza la importancia de configurar correctamente el formato de punto flotante y recomienda usar FP 32 para la mayoría de los modelos. El video proporciona ejemplos de conversión de modelos y alienta a los espectadores a visitar el sitio web oficial para ver más videos educativos.
Novedades en tiempo de ejecución de ONNX
Novedades en tiempo de ejecución de ONNX
Esta charla compartirá los aspectos más destacados de los lanzamientos de ONNX Runtime 1.10-1.12, incluidos detalles sobre mejoras de rendimiento notables, características y plataformas, incluidas las móviles y la web. Ryan Hill ha estado con el equipo de AI Frameworks durante los últimos 4 años, donde ha trabajado principalmente en kernels de operadores, API de C y proveedores de ejecución de carga dinámica. Antes de esto, trabajó en el equipo de Office PowerPoint, donde su trabajo más visto son muchas de las transiciones de diapositivas. Por diversión, le gusta intentar usar las últimas características de C++ y detectar errores internos del compilador.En el video, el ingeniero de software Ryan Hill analiza las diversas características y actualizaciones de ONNX Runtime, un tiempo de ejecución multiplataforma ampliamente utilizado que puede apuntar a múltiples arquitecturas de CPU. Destaca las últimas funciones agregadas a ONNX Runtime, como la capacidad de llamar directamente a los núcleos operativos y las mejoras de rendimiento, como el optimizador de transposición y la optimización de tamaño pequeño. Hill también habla sobre los proveedores de ejecución de ONNX Runtime, que permiten un rendimiento óptimo en varios hardware y el lanzamiento de paquetes móviles que admiten la conversión de NHWC en tiempo de ejecución. El video también cubre la compatibilidad con operadores sensibles al diseño, la compatibilidad con Xamarin para aplicaciones multiplataforma, la web de ONNX Runtime y la biblioteca de extensiones de ONNX Runtime que se enfoca en el trabajo de procesamiento previo y posterior del modelo, incluidas las conversiones de texto y las operaciones matemáticas, y actualmente se enfoca en Dominios de PNL, visión y texto.
v1.12.0 ONNX Runtime: revisión de la versión
v1.12.0 ONNX Runtime: revisión de la versión
La versión v1.12.0 de ONNX Runtime (ORT) se enfoca en la inferencia, pero también incluye inversiones continuas en capacitación, con la integración con Hugging Face Optimum que da como resultado la aceleración de varios modelos de Hugging Face. Las nuevas funciones incluyen la capacidad de usar operaciones ORT nativas en operaciones personalizadas y llamar directamente a un operador nativo o de tiempo de ejecución sin crear un gráfico. El lanzamiento también incluye soporte para .NET 6 y la interfaz de usuario de aplicaciones multiplataforma (MAUI) y proveedores de ejecución para plataformas específicas como la Unidad de procesamiento neuronal en Android y Core ML en iOS. Se realizaron mejoras de rendimiento al reducir las asignaciones de memoria durante la inferencia y eliminar el registro innecesario. Se planean mejoras futuras para mejorar la localidad de caché y la utilización del grupo de subprocesos.
v1.13 ONNX Runtime: revisión de la versión
v1.13 ONNX Runtime: revisión de la versión
La versión 1.13 del tiempo de ejecución de ONNX se lanzó recientemente con parches de seguridad, correcciones de errores y mejoras de rendimiento. La actualización se enfoca en optimizar los modelos de Transformer para la cuantificación de GPU y agrega soporte para proveedores de ejecución directa de ML que son independientes del dispositivo y admiten más de 150 operadores. Además, el lanzamiento incluye actualizaciones de la infraestructura móvil ORT para compatibilidad con nuevos EPS, como el paquete XNN. También se analiza el uso de la cuantificación para mejorar el rendimiento de los modelos basados en Transformer, con la optimización del proveedor de ejecución CUDA para ejecutar el modelo BERT cuantificado y el uso de capacitación consciente cuantificada para maximizar la precisión mientras se optimiza el motor de ejecución de tiempo de ejecución ONNX.
¿Qué es el tiempo de ejecución de ONNX (ORT)?
¿Qué es el tiempo de ejecución de ONNX (ORT)?
ONNX Runtime (ORT) es una biblioteca que optimiza y acelera la inferencia de aprendizaje automático, lo que permite a los usuarios entrenar sus modelos en cualquier biblioteca de aprendizaje automático compatible, exportar al formato ONNX y realizar inferencias en su idioma preferido. El orador destaca un ejemplo de realización de inferencias usando PyTorch con ONNX Runtime y señala que los usuarios pueden visitar ONNXRuntime.ai para explorar las diferentes API y herramientas necesarias para su configuración preferida.