Estudiamos ONNX para aplicarlo al trading - página 8

 

Importación y exportación de redes neuronales con ONNX



Importación y exportación de redes neuronales con ONNX

El video demuestra el uso de ONNX como especificación multiplataforma y formato de archivo para modelos de aprendizaje automático para intercambiar modelos entre diferentes marcos de redes neuronales. Los oradores muestran cómo importar y exportar redes neuronales utilizando ONNX a través de Mathematica y Keras, y cómo inspeccionar e importar metadatos, así como establecer metadatos al exportar. También analizan la exportación e importación de modelos entre Core ML, PyTorch y Wolfram Language, y la importancia de usar el desplazamiento correcto durante la conversión. Los oradores discuten el futuro de ONNX, incluida la expansión del soporte para importar y exportar, mejorar los casos desafiantes para el importador y permitir la exportación a múltiples versiones de conjuntos de operadores. Además, el orador explica la diferencia entre ONNX y MXNet y brinda información sobre cómo verificar qué funciones se pueden exportar a ONNX utilizando utilidades internas.

  • 00:00:00 En esta sección, Matteo Salvarezza y Maria Sarksyan presentan ONNX, una especificación multiplataforma y un formato de archivo para modelos de aprendizaje automático que permite que diferentes marcos de redes neuronales intercambien modelos entre sí. Demuestran cómo importar y exportar redes neuronales usando ONNX a través de Mathematica y Keras, mostrando cómo inspeccionar e importar metadatos y cómo configurar metadatos al exportar. Luego muestran la conversión de un modelo de Fortnite de Mathematica a Keras y luego a ONNX antes de volver a importarlo a Mathematica.

  • 00:05:00 En esta sección, el orador analiza el modelo de segmentación que segmenta una imagen en materia blanca y materia gris para representar diferentes tejidos anatómicos del cerebro humano. La arquitectura de este modelo consta de un codificador de tipo de unidad compartida y decodificadores distintos. El orador describe el proceso de exportar una imagen del cerebro a un archivo JPEG, importarla a Python, ejecutar el modelo para evaluar la imagen y exportar la imagen segmentada a un archivo NS para volver a importarla a Mathematica. El proceso implica el uso de la biblioteca OneNext y la realización de una verificación adicional, seguida de la importación de la exportación ONNX, la configuración de una entrada para el modelo de Keras, la predicción y la exportación de la imagen segmentada a un archivo NS. Finalmente, el ponente destaca la importancia de asegurarse de que el rango importado de la imagen sea de cero a uno y dividido por 255.

  • 00:10:00 En esta sección del video, el orador analiza la importación y exportación de redes neuronales mediante ONNX. Mencionan la posibilidad de exportar modelos de Keras a ONNX y luego importarlos nuevamente a Mathematica. El orador enfatiza la importancia de usar la compensación correcta en el proceso de conversión y señala que es posible que sea necesario reemplazar ciertas operaciones con operadores de cirugía neta. Luego demuestran cómo mover un modelo de Core ML a ONNX usando el paquete de herramientas de ONNX ML y cómo exportar un modelo previamente entrenado y sus clases a Core ML. El video enfatiza que hay muchos pasos involucrados en el proceso y brinda ejemplos para que los usuarios evalúen por sí mismos.

  • 00:15:00 En esta sección, el ponente explica cómo exportar de ONNX a Core ML, incluida la corrección de media y varianza, utilizando las funciones adecuadas. También cubren la conversión de una red de PyTorch a ONNX y luego al lenguaje Wolfram completo. El proceso implica la cirugía necesaria para que el formato final sea utilizable, y el orador muestra cómo pudieron obtener un formato utilizable y evaluarlo. Finalmente, el orador demuestra el paso final de pasar de Wolfram Language a PyTorch a través de ONNX tomando la red y las clases previamente entrenadas y exportándolas.

  • 00:20:00 En esta sección del video, los oradores hablan sobre la importación y exportación de redes neuronales con ONNX. Explican que una vez que se carga el modelo ONNX, se puede convertir y evaluar en PyTorch, y se utilizan transformaciones como el cambio de tamaño, el recorte central y la normalización. El modelo se evalúa para obtener las tres clases con las probabilidades más altas. Luego, los oradores pasan a discutir el futuro de la importación y exportación de ONNX, incluida la expansión del soporte para la importación y exportación, la mejora de los casos desafiantes para el importador y la posibilidad de exportar a múltiples versiones de conjuntos de operadores.

  • 00:25:00 En esta sección, el orador explica la diferencia entre ONNX y MXNet. MXNet es un marco completo de red neuronal, mientras que ONNX es solo un formato de archivo que se utiliza para exportar e importar redes neuronales. El orador también menciona que hay un software separado llamado ONNX runtime, que actúa como un marco real. El altavoz también proporciona información sobre cómo verificar qué funciones se pueden exportar a ONNX utilizando utilidades internas.
Importing and Exporting Neural Networks with ONNX
Importing and Exporting Neural Networks with ONNX
  • 2022.01.22
  • www.youtube.com
ONNX is an open format to represent deep learning models. It allows easy conversion of models from one framework to another. In this talk, we will provide an...
 

Conversión del modelo Tensorflow al formato ONNX - Detección de emociones humanas



Conversión del modelo Tensorflow al formato Onnx - Detección de emociones humanas

El video analiza los beneficios de convertir modelos de TensorFlow entrenados previamente al formato ONNX, que proporciona un formato común para representar modelos de aprendizaje automático que se pueden interpretar en diferentes plataformas de hardware utilizando el tiempo de ejecución de ONNX. Al convertir modelos, los desarrolladores pueden ejecutarlos de manera más eficiente en diferentes marcos o usarlos más fácilmente con otros profesionales. El video demuestra el proceso de conversión de modelos de TensorFlow y Keras al formato ONNX mediante herramientas y especificaciones proporcionadas en el repositorio ONNX GitHub, y destaca cómo el formato ONNX optimiza el modelo y reduce el tiempo de ejecución para las predicciones. El modelo ONNX también supera al modelo TensorFlow para la detección de emociones humanas en una CPU.

  • 00:00:00 En esta sección del video, el presentador analiza el formato ONNX, que significa intercambio de redes neuronales abiertas. El estándar ONNX, desarrollado conjuntamente por Microsoft, Facebook y AWS, proporciona un formato común para representar modelos de aprendizaje automático que se pueden interpretar en diferentes plataformas de hardware mediante el tiempo de ejecución de ONNX. Al convertir modelos de TensorFlow entrenados previamente al formato ONNX, los desarrolladores pueden convertirlos en modelos en otros marcos como PyTorch, lo que permite que los modelos se ejecuten de manera aún más eficiente en un marco diferente o que otros profesionales los utilicen. El tiempo de ejecución de ONNX es un motor de inferencia ligero y modular que permite a los desarrolladores ejecutar modelos de ONNX en cualquier plataforma de hardware que elijan. En general, el presentador enfatiza la flexibilidad y la facilidad de convertir modelos al formato ONNX, lo que facilita a los desarrolladores trabajar con cualquier marco que elijan y garantiza que sus modelos también puedan ejecutarse en cualquier plataforma de hardware.

  • 00:05:00 En esta sección, el video cubre el proceso de convertir un modelo de TensorFlow al formato ONNX usando la herramienta TensorFlow a ONNX y el tiempo de ejecución de ONNX. El video explica que, si bien el modelo inicial de TensorFlow tenía un tamaño de casi un gigabyte y requiere la misma cantidad de espacio para su implementación, la versión optimizada de ONNX tiene solo 327 megabytes. Además, el video muestra cómo convertir un modelo Keras al formato ONNX utilizando las especificaciones proporcionadas en el repositorio ONNX GitHub. Finalmente, el video termina mencionando que el modelo convertido se puede probar por inferencia.

  • 00:10:00 En esta sección, el orador explica cómo ejecutar un modelo ONNX usando el tiempo de ejecución de ONNX, que elimina la necesidad de TensorFlow, al demostrar un modelo de detección de emociones que se ejecuta en una CPU. Primero, el orador muestra cómo especificar el proveedor de ejecución de la CPU e importar el tiempo de ejecución de ONNX. A continuación, el orador destaca la importancia de especificar los nombres de salida correctamente y pasa una imagen de entrada usando NumPy en lugar de TensorFlow. El modelo ONNX, que proporciona probabilidades para las emociones, puede detectar la emoción en la imagen de entrada y producir las mismas probabilidades mucho más rápido, ya que no requiere TensorFlow. Al importar la biblioteca de tiempo, el orador demuestra la diferencia de velocidad entre ejecutar el modelo de detección de emociones con TensorFlow y el tiempo de ejecución de ONNX.

  • 00:15:00 En esta sección del video, el presentador demuestra cómo medir el tiempo de inferencia para los modelos TensorFlow y ONNX usando CPU y GPU. El modelo TensorFlow con GPU tarda 0,15 segundos en ejecutarse, mientras que el modelo ONNX con CPU tarda 0,5 segundos. Luego, el presentador instala el tiempo de ejecución de ONNX con una GPU y reinicia el tiempo de ejecución para considerar la versión de la GPU. Finalmente, se mide el tiempo de inferencia para el modelo ONNX con una GPU y se compara con el modelo TensorFlow.

  • 00:20:00 En esta sección, el video muestra el proceso de conversión de un modelo TensorFlow a un formato ONNX y cómo se puede optimizar el modelo TensorFlow inicial. El formato ONNX permite optimizar el modelo y reducir el tiempo de ejecución de las predicciones. El video muestra la ejecución del modelo TensorFlow original con GPU y CPU, luego el formato ONNX con GPU, seguido de la prueba de ambos modelos con 100 predicciones para medir el tiempo promedio por predicción. El modelo ONNX resultó en un tiempo promedio de 23 milisegundos para una sola predicción, seis veces más rápido que el modelo TensorFlow inicial.

  • 00:25:00 En esta sección, el ponente analiza el rendimiento del modelo ONNX en comparación con el modelo Tensorflow para la detección de emociones humanas. Usando una CPU, el modelo ONNX se ejecuta aproximadamente el doble de rápido que el modelo Tensorflow. El orador proporciona un ejemplo específico, afirmando que 0,8 dividido por 0,35 se ejecutó con ambos modelos y el modelo Onnx superó a Tensorflow.
Converting Tensorflow model to Onnx format - Human emotions detection
Converting Tensorflow model to Onnx format - Human emotions detection
  • 2023.01.13
  • www.youtube.com
In this section we continue our human emotions detection project. We shall focus on converting the trained Tensorflow model into the Onnx format.Colab Notebo...
 

Cómo convertir casi cualquier modelo de PyTorch a ONNX y servirlo usando un matraz



Cómo convertir casi cualquier modelo de PyTorch a ONNX y servirlo usando un matraz

El video tutorial demuestra cómo convertir un modelo PyTorch al formato ONNX y servirlo usando Flask. El presentador comienza importando el conjunto de datos y definiendo el modelo usando datos paralelos, seguido de cargar los pesos del modelo y exportarlo a ONNX. El video muestra cómo crear un punto final de Flask para servir al modelo ONNX, seguido de la conversión de tensores en matrices numpy y la obtención de la salida del modelo. El orador también aplica la función sigmoide a la salida del modelo para convertirla en una probabilidad entre 0 y 1. Finalmente, cambia el dispositivo a CPU para una comparación justa y demuestra el tiempo de respuesta más rápido de la API. El video concluye señalando que hay muchas formas de optimizar los modelos ONNX para mejorar el rendimiento e invitando a los espectadores a compartir sus comentarios en la sección de comentarios.

  • 00:00:00 En esta sección, el video explica cómo convertir modelos de PyTorch al formato ONNX y cómo crear un extremo de Flask para servirlo. El video utiliza el modelo de opinión de las aves como modelo base, con ligeras modificaciones en los parámetros de longitud máxima y tamaño del lote. Luego, el video explica la importación de las dependencias necesarias y la escritura de la función principal para la conversión, incluida la especificación de la forma de entrada. El video también cubre cómo guardar el modelo convertido y cómo crear un punto final Flask para servir el modelo.

  • 00:05:00 En esta sección del video, el presentador explica cómo convertir un modelo de PyTorch a ONNX y servirlo con Flask. Comienzan importando el conjunto de datos y luego definiendo el modelo utilizando datos paralelos. A continuación, cargan los pesos del modelo y lo ponen en modo de evaluación. Muestran cómo obtener las entradas observando el modelo y determinando que las entradas son ID, máscara e ID de tipo token. Luego, el presentador muestra cómo exportar el modelo al formato ONNX, especificando los tres nombres de entrada y el nombre de salida. También definen el eje dinámico, que es un diccionario que especifica qué entradas o salidas tienen forma dinámica.

  • 00:10:00 En esta sección, el video muestra cómo convertir un modelo PyTorch al formato ONNX usando el código "convertir a ONNX" para ejecutar el modelo usando Flask. El modelo PyTorch primero se convierte a ONNX y luego se crea un nuevo archivo para hacer predicciones a partir del modelo ONNX. El video muestra cómo especificar una sesión para el modelo ONNX, lo que demuestra que el tiempo de ejecución de ONNX se puede importar y luego el modelo se puede cargar en la sesión de inferencia. El video explica que la salida y el envío del modelo al dispositivo no es necesario y que habrá algo devuelto.

  • 00:15:00 En esta sección del video tutorial, el orador demuestra cómo crear un diccionario simple para la entrada ONNX en PyTorch, lo cual es crucial porque ONNX no acepta todos los tensores. El diccionario consta de claves como nombres y valores como tensores PyTorch. Para convertir tensores en errores numpy, se crea una función a numpy usando los comandos 'separar' y 'requiere graduación'. Luego, el orador muestra cómo obtener el resultado del modelo llamando a la función model.run con los argumentos pertinentes. Finalmente, la salida se puede imprimir directamente o devolver para su uso en Flask.

  • 00:20:00 En esta sección, el presentador aplica una función sigmoidea a la salida del modelo PyTorch para convertir la salida en una probabilidad entre 0 y 1. Demuestran cómo escribir una función sigmoidea simple y luego incorporarla en la Flask API para el modelo ONNX. También muestran cómo iniciar la API en un host y un puerto locales y demuestran cómo probar la API mediante una solicitud curl. Finalmente, el presentador cambia el dispositivo a CPU por equidad en comparación con la antigua API, que se ejecutaba en GPU, y vuelve a ejecutar la API para demostrar el tiempo de respuesta más rápido.

  • 00:25:00 En esta sección del video, el ponente concluye el tutorial sobre cómo convertir modelos de PyTorch a ONNX y servirlos usando Flask. Comparan el momento de las solicitudes antiguas y nuevas, que parecen ser similares, y observan que hay muchas más optimizaciones que los usuarios pueden aplicar a los modelos ONNX para mejorar aún más su rendimiento. El ponente anima a los espectadores a experimentar con las posibilidades que ofrece ONNX para distribuir modelos a diferentes entornos y concluye agradeciendo a los espectadores por ver e invitándolos a compartir sus sugerencias en la sección de comentarios.
How to convert almost any PyTorch model to ONNX and serve it using flask
How to convert almost any PyTorch model to ONNX and serve it using flask
  • 2020.07.18
  • www.youtube.com
In this video, I show you how you can convert any #PyTorch model to #ONNX format and serve it using flask api.I will be converting the #BERT sentiment model ...
 

Cómo convertir el modelo PyTorch a Tensorflow | onnx.ai | Aprendizaje automático | Magia de datos



Cómo convertir el modelo PyTorch a Tensorflow | onnx.ai | Aprendizaje automático | Magia de datos

En este video, el presentador demuestra cómo usar la biblioteca Open Neural Network Exchange (ONNX) para convertir un modelo PyTorch en un modelo TensorFlow. Los beneficios y el uso de la biblioteca ONNX se analizan en detalle, con un modelo PyTorch creado para identificar números escritos a mano como ejemplo. Se muestra el proceso de entrenamiento del modelo y su conversión al formato ONNX, antes de cargarlo en TensorFlow para la predicción en imágenes de muestra. El modelo de TensorFlow resultante se guarda como un archivo .pb, lo que muestra cómo se puede usar la biblioteca ONNX para convertir cualquier modelo de PyTorch en TensorFlow.

  • 00:00:00 En esta sección, el presentador analiza cómo convertir un modelo PyTorch en un modelo TensorFlow con la ayuda de la biblioteca Open Neural Network Exchange (ONNX). La biblioteca ONNX es una biblioteca de código abierto que tiene como objetivo aumentar la compatibilidad entre diferentes bibliotecas de aprendizaje automático en la industria. El presentador explica los beneficios y el uso de la biblioteca y demuestra cómo instalarla y sus bibliotecas dependientes. Se crea un modelo PyTorch para identificar números escritos a mano y el presentador muestra cómo entrenar y probar el modelo con la biblioteca ONNX. El código para el modelo PyTorch no se discute en detalle ya que no es el foco del video.

  • 00:05:00 En esta sección, la transcripción analiza el proceso de convertir un modelo PyTorch entrenado en un modelo TensorFlow mediante la biblioteca Neural Network Exchange (ONNX). En primer lugar, el modelo de PyTorch se entrena y se guarda como un archivo mnist.pth. Luego, el modelo se convierte al formato ONNX y se carga en TensorFlow para hacer predicciones en imágenes de muestra. Finalmente, el modelo de TensorFlow se guarda como un archivo .pb. El proceso demuestra cómo usar la biblioteca ONNX para convertir cualquier modelo de PyTorch en TensorFlow.

  • 00:10:00 Este extracto no proporciona ningún contenido relevante para resumir, ya que solo consiste en comentarios finales del orador, incluido un mensaje de agradecimiento y un llamado a la acción para que los espectadores den Me gusta y se suscriban. El orador también invita a los espectadores a hacer preguntas y proporciona enlaces al código y los recursos utilizados en el video.
How to convert PyTorch model to Tensorflow | onnx.ai | Machine Learning | Data Magic
How to convert PyTorch model to Tensorflow | onnx.ai | Machine Learning | Data Magic
  • 2021.06.09
  • www.youtube.com
Hello Friends, In this episode, I am going to show you- How we can convert PyTorch model into a Tensorflow model. We are going to make use of ONNX[Open Neura...
 

Cómo convertir el modelo Tensorflow/modelos tflite a ONNX



Cómo convertir el modelo Tensorflow/modelos tflite a ONNX para importarlo a la unidad

tf2onnx convierte los modelos TensorFlow (tf-1.x o tf-2.x), tf.keras y tflite a ONNX a través de la línea de comandos o la API de Python.

https://github.com/onnx/tensorflow-onnx

How to convert Tensorflow model/tflite models to ONNX for importing it into unity
How to convert Tensorflow model/tflite models to ONNX for importing it into unity
  • 2021.06.07
  • www.youtube.com
tf2onnx converts TensorFlow (tf-1.x or tf-2.x), tf.keras and tflite models to ONNX via command line or python api.https://github.com/onnx/tensorflow-onnx
 

Convierta el modelo Pytorch (pytorch lightning) en modelo onnx con tamaño de lote variable



Convierta el modelo Pytorch (pytorch lightning) en modelo ONNX con tamaño de lote variable

En este tutorial, aprenderemos cómo convertir el modelo Pytorch (rayo pytorch) al modelo ONNX con un tamaño de lote variable/dinámico.

Convert Pytorch (pytorch lightning ) model to onnx model with variable batch size
Convert Pytorch (pytorch lightning ) model to onnx model with variable batch size
  • 2021.11.28
  • www.youtube.com
In this tutorial we will learn how Convert Pytorch (pytorch lightning ) model to onnx model with variable/dynamic batch size
 

Compatibilidad con la exportación ONNX de PyTorch - Lara Haidar, Microsoft



Compatibilidad con la exportación ONNX de PyTorch - Lara Haidar, Microsoft

Lara Haidar de Microsoft explica las ventajas de la función de exportación de modelos ONNX de PyTorch, que permite que los modelos pasen de la investigación a la producción y se ejecuten en varios hardware. Ella afirma que el tiempo de ejecución ONNX se ha vuelto muy popular, con millones de dispositivos que ahora lo usan y logran mejoras notables en el rendimiento. Además, el soporte de exportación de ONNX ahora incluye mejoras en la cobertura del modelo, la optimización del rendimiento y el soporte de backend para garantizar que los modelos puedan ejecutarse en varias versiones con diferentes backends. Finalmente, Lara alienta a los usuarios a probar los modelos exportados y compartir comentarios para mejorar aún más la función.

PyTorch ONNX Export Support - Lara Haidar, Microsoft
PyTorch ONNX Export Support - Lara Haidar, Microsoft
  • 2019.11.06
  • www.youtube.com
The PyTorch ONNX exporter allows trained models to be easily exported to the ONNX model format. Learn about the latest updates including increased model cove...
 

296 - Conversión del modelo entrenado de keras al formato ONNX - Ejemplo de clasificación de imágenes



296 - Conversión del modelo entrenado de keras al formato ONNX - Ejemplo de clasificación de imágenes

El video tutorial cubre el proceso de conversión de un modelo de clasificación de imágenes entrenado por Keras al formato ONNX para su implementación. El orador muestra cómo crear un modelo usando Keras, compilarlo y guardarlo como un archivo H5 antes de convertirlo al formato ONNX. Proporcionan una guía paso a paso sobre cómo importar las bibliotecas necesarias para la conversión ONNX, cómo cargar el modelo H5 guardado y cómo convertirlo al formato ONNX usando una sola línea de código. Luego, el presentador demuestra cómo usar el modelo ONNX resultante en una sesión de tiempo de ejecución de ONNX, muestra cómo predecir clases en un ejemplo de clasificación de imágenes usando ONNX y compara las probabilidades de las predicciones usando ONNX y Keras. El orador enfatiza la efectividad y las ventajas de usar ONNX para la implementación y destaca la simplicidad de convertir un archivo HDF existente a ONNX.

  • 00:00:00 En esta sección, el ponente analiza el proceso de conversión de un modelo entrenado de Keras al formato ONNX, específicamente para la clasificación de imágenes. Explican que ONNX es un formato intermediario que puede convertir modelos guardados en varios formatos de archivo, como H5, para trabajar en diferentes tiempos de ejecución, como el tiempo de ejecución de ONNX. El orador guía a la audiencia a través de la creación de un modelo de clasificación de imágenes simple con Keras, lo guarda como un archivo H5 y luego lo convierte al formato ONNX. Luego comparan la precisión de los dos formatos y analizan las diversas optimizaciones que se pueden agregar a los modelos ONNX. El ponente también destaca la instalación de las librerías necesarias para Keras, además del runtime de ONNX y H5 Pi, para realizar inferencias.

  • 00:05:00 En esta sección, el presentador analiza el conjunto de datos utilizado para entrenar y probar el modelo, que incluye 50 000 imágenes pequeñas asignadas para entrenamiento y 10 000 para prueba. Las imágenes son de 32 por 32 por 3, y él las normaliza escalando los valores entre 0 y 1. Luego, el presentador convierte los valores codificados con enteros en valores categóricos y define un modelo con capas convolucionales, normalización por lotes, abandono y softmax activación para devolver 10 valores que representan las probabilidades de cada clase. Finalmente, compila el modelo utilizando un optimizador de descenso de gradiente estocástico y realiza un seguimiento de las métricas de precisión mientras minimiza la función de pérdida de la entropía cruzada categórica. El presentador también demuestra el uso de la devolución de llamada de detención anticipada para finalizar el proceso de capacitación después de diez épocas.

  • 00:10:00 En esta sección, el ponente explica cómo entrenaron un modelo usando Keras y lo guardaron en formato H5 antes de pasar a convertirlo al formato ONNX. Muestran cómo cargar el modelo guardado, importar las bibliotecas necesarias para la conversión ONNX y usar la única línea de código requerida para convertir el modelo Keras al formato ONNX. Luego muestran cómo usar el modelo ONNX resultante en una sesión de tiempo de ejecución de ONNX y comparan las velocidades para demostrar las ventajas de usar ONNX para la implementación.

  • 00:15:00 En esta sección, el ponente explica cómo usar ONNX para predecir clases en un ejemplo de clasificación de imágenes. Primero, muestran cómo obtener los nombres de entrada y salida del modelo. Luego, demuestran cómo expandir las dimensiones para preparar la imagen para la inferencia. Después de definir la verdad básica, ejecutan la predicción y calculan la clase pronosticada usando argmax. Finalmente, grafican los resultados y comparan las predicciones utilizando ONNX y Keras. Las probabilidades son casi idénticas, lo que demuestra la eficacia de ONNX para tareas de clasificación de imágenes.

  • 00:20:00 En esta sección, el ponente demuestra la conversión exitosa de un modelo Keras entrenado al formato ONNX para la clasificación de imágenes. Los resultados de probabilidad se muestran para varias imágenes de prueba, con el modelo logrando excelentes resultados después de haber sido entrenado durante 50 épocas. El orador señala que convertir un archivo HDF existente a ONNX es un proceso simple y sugiere un próximo tutorial sobre segmentación de imágenes.
296 - Converting keras trained model to ONNX format - Image Classification example
296 - Converting keras trained model to ONNX format - Image Classification example
  • 2023.01.18
  • www.youtube.com
Code generated in the video can be downloaded from here: https://github.com/bnsreenu/python_for_microscopists/blob/master/296-Converting%20keras-trained%20mo...
 

297 - Conversión del modelo entrenado de keras al formato ONNX - Segmentación semántica


297 - Conversión del modelo entrenado de keras al formato ONNX - Segmentación semántica

Este video se enfoca en convertir un modelo entrenado con keras al formato ONNX para la segmentación semántica de imágenes de microscopía electrónica de mitocondrias. El presentador proporciona pasos detallados sobre cómo recortar y cargar imágenes, usar técnicas de aumento de datos, definir generadores para entrenamiento y validación, entrenar y guardar el modelo. El video también cubre la conversión del modelo al formato ONNX usando la biblioteca tf2onnx.convert y el uso del modelo ONNX para la predicción. El presentador destaca las mejores prácticas para la capacitación y la conversión y proporciona enlaces a sus videos anteriores sobre la segmentación de clases múltiples. El tutorial concluye con el presentador afirmando que este es el final de la serie ONNX y que se centrarán en otros temas en el próximo video.

  • 00:00:00 En esta sección, el presentador se basa en los videos anteriores donde demostró cómo guardar los pesos de un modelo entrenado de Keras en ONNX y realizar inferencias usando el modelo convertido. Esta vez, brindan pasos sobre cómo entrenar y guardar un modelo de segmentación semántica en ONNX. Utilizan un conjunto de datos de microscopía electrónica de mitocondrias, donde tienen imágenes sin procesar y etiquetadas. El presentador muestra cómo recortar las imágenes en tamaños apropiados, cargarlas en la red neuronal y usar el modelo de unidad simple para realizar la segmentación binaria. Explican cómo funciona el modelo de unidad simple y proporcionan enlaces a sus videos anteriores donde explicaron redes neuronales más complejas para la segmentación semántica de múltiples clases.

  • 00:05:00 En esta sección, el autor analiza el proceso de dividir un pequeño conjunto de datos de 165 imágenes en 12 imágenes con fines de capacitación. Aplican la biblioteca patchify para dividir las imágenes y máscaras en parches más pequeños de 256x256 píxeles. También analizan algunas imágenes aleatorias como una "comprobación de cordura" para asegurarse de que las imágenes y las máscaras se alineen con precisión. El autor utiliza técnicas de aumento de datos como el rango de cambio de altura, el rango de corte y el rango de zoom para generalizar los resultados. También mencionan cómo garantizar que las transformaciones aleatorias no sean realmente aleatorias y que se use la misma semilla para generar transformaciones tanto en imágenes como en máscaras para mantener la misma aleatoriedad. Finalmente, el autor define los generadores que se utilizarán para el entrenamiento y la validación, y las semillas se fijan para mantener la coherencia.

  • 00:10:00 En esta sección, el orador se prepara para entrenar un modelo de unidad para la segmentación semántica utilizando las mejores prácticas y combina el generador de imágenes y máscaras en uno. Continúan definiendo el tamaño de su lote y los pasos por época antes de pasar a entrenar el modelo, aplicando un umbral de 0,5 para convertir la salida de probabilidad en salida binaria. Aunque el modelo podría usar más imágenes de entrenamiento, está haciendo un trabajo moderadamente bueno al segmentar imágenes. Luego, el orador guarda el archivo H5 y procede a convertirlo en onnx utilizando la biblioteca TF2 to onnx.

  • 00:15:00 En esta sección, el video explica cómo convertir un modelo entrenado de Keras al formato ONNX usando tf2onnx.convert. Después de cargar el modelo, se pueden agregar optimizaciones antes de guardarlo como un archivo .onnx. Además, el video demuestra el uso del modelo ONNX en una sesión de tiempo de ejecución para la predicción, mostrando resultados idénticos al modelo Keras. El video concluye afirmando que este tutorial es el final de la serie ONNX, y el presentador se centrará en otros temas en el próximo video.
297 - Converting keras trained model to ONNX format​ - Semantic Segmentation
297 - Converting keras trained model to ONNX format​ - Semantic Segmentation
  • 2023.02.01
  • www.youtube.com
Code generated in the video can be downloaded from here: Main file: https://github.com/bnsreenu/python_for_microscopists/blob/master/297-Converting%20keras-t...
 

Uso de ONNX con dispositivos con tecnología Qualcomm, desde teléfonos inteligentes hasta el borde de la nube y todo lo demás



Uso de ONNX con dispositivos con tecnología Qualcomm, desde teléfonos inteligentes hasta el borde de la nube y todo lo demás

El uso del formato de intercambio ONNX en toda la gama de dispositivos de Qualcomm ayuda a admitir modelos en todos sus dispositivos. Qualcomm enfrenta arquitecturas desafiantes cuando admite diferentes dispositivos y modelos variados, pero ONNX ayuda a lograr la escalabilidad en verticales, dispositivos potentes y geografías. Qualcomm ha trabajado con Microsoft para crear un proveedor ejecutor de tiempo de ejecución ONNX que permite que los modelos ONNX se ejecuten en dispositivos con tecnología Qualcomm, incluidos los que ejecutan Windows. La pila de software unificado incluye una biblioteca llamada motor de IA que puede enrutar el modelo ONNX dinámicamente a diferentes aceleradores para obtener el mejor rendimiento, con herramientas adicionales disponibles, como generadores de perfiles, compiladores y analizadores para optimizar modelos.

  • 00:00:00 En esta sección, el orador de Qualcomm habla sobre cómo usan ONNX para admitir su variedad de dispositivos, desde pequeños auriculares hasta computadoras portátiles, cámaras seguras e incluso equipos para automóviles. Mencionan que el formato de intercambio de ONNX les permite apuntar a un modelo y usarlo en todos los dispositivos compatibles. También analizan las arquitecturas desafiantes con las que tienen que lidiar para admitir los diferentes dispositivos junto con los diferentes modelos, implementaciones y requisitos de características. Como ejemplo, hablan sobre el uso de la tecnología de sensor de profundidad de Apple para la autenticación en teléfonos móviles y cómo ahora han integrado la misma tecnología en cámaras y automóviles seguros.

  • 00:05:00 En esta sección, el orador analiza el desafío de escalabilidad que enfrenta la industria hoy en día en el campo de la IA. Explica cómo Qualcomm ha enfrentado el desafío y los beneficios de usar ONNX como formato de intercambio para lograr la escalabilidad. Al mover los algoritmos de la CPU a los aceleradores de IA, los dispositivos se pueden escalar fácilmente. La arquitectura multinúcleo permite que el sistema logre un mayor rendimiento, lo que ayuda a trabajar con transmisiones de video en vivo. Además, el formato de intercambio ahorra un tiempo considerable ya que no es necesario tratar con otros marcos. Por último, el orador explica que ONNX ayuda a escalar a través de verticales, dispositivos pequeños y potentes y geografías.

  • 00:10:00 En esta sección, el orador analiza cómo Qualcomm está trabajando con Microsoft para crear un proveedor de ejecución de tiempo de ejecución ONNX para su acelerador de IA. Esto permite que los modelos ONNX se ejecuten en una variedad de dispositivos con tecnología Qualcomm, incluidos dispositivos móviles y automotrices, así como en aquellos que ejecutan Windows. Qualcomm ha desarrollado una pila de software unificada que admite una variedad de sistemas operativos e incluye una biblioteca de software unificada llamada motor AI que puede enrutar dinámicamente el modelo ONNX a diferentes aceleradores para obtener el mejor rendimiento. También tienen una variedad de herramientas adicionales disponibles para que las usen sus clientes, como generadores de perfiles, compiladores y analizadores, para construir y optimizar modelos para sus dispositivos específicos.
Using ONNX w/ Qualcomm powered devices from smartphones to the cloud edge and everything in between
Using ONNX w/ Qualcomm powered devices from smartphones to the cloud edge and everything in between
  • 2022.07.13
  • www.youtube.com
Whenever our clients target high performant AI cloud inferencing servers, create new and exciting AI based experiences on mobile phones or improve our lives ...