Estudiamos ONNX para aplicarlo al trading - página 9

 

Implementación de ONNX Runtime IoT en Raspberry Pi



Implementación de ONNX Runtime IoT en Raspberry Pi

En este video titulado "ONNX Runtime IoT Deployment on Raspberry Pi", el presentador demuestra cómo implementar un ONNX Runtime para un modelo de visión por computadora en una Raspberry Pi usando un modelo Mobilenet optimizado para el dispositivo. El video cubre el proceso de conexión a Raspberry Pi usando el visor VNC, configurándolo y ejecutando una prueba de cámara usando OpenCV y Python. El presentador captura una imagen, ejecuta la inferencia e imprime las cinco clases principales previstas, que identifican correctamente la pluma estilográfica en la imagen. En general, el video proporciona una guía útil para implementar ONNX Runtime en una Raspberry Pi para aplicaciones de visión artificial.

ONNX Runtime IoT Deployment on Raspberry Pi
ONNX Runtime IoT Deployment on Raspberry Pi
  • 2023.02.01
  • www.youtube.com
Learn how to perform image classification on the edge using ONNX Runtime and a Raspberry Pi, taking input from the device’s camera and sending the classifica...
 

Cómo instalar ONNX Runtime en Raspberry Pi



Cómo instalar ONNX Runtime en Raspberry Pi

El video proporciona una guía detallada sobre cómo instalar ONNX Runtime en Raspberry Pi. Después de descargar e instalar Raspbian Stretch en Raspberry Pi, el usuario debe instalar el paquete estático de usuario de Docker y QMU, crear un directorio de compilación y ejecutar un comando para obtener el paquete de ruedas ONNX Runtime, que se puede instalar a través de pip. El video también explica cómo probar ONNX Runtime utilizando una red neuronal profunda entrenada en el conjunto de datos MNIST y cómo calcular el tiempo necesario para ejecutar una sesión de inferencia en una sola imagen. El orador señala que el proceso puede ser largo y complicado, pero vale la pena por la capacidad de implementar y probar redes neuronales en dispositivos periféricos.

  • 00:00:00 El sistema operativo ha sido lanzado por Raspberry Pi y puede descargar Raspberry Pi OS (anteriormente Raspbian) Stretch desde aquí. Una vez que haya descargado e instalado Docker en su Raspberry Pi, el siguiente paso es ir al repositorio ONNX Runtime Github y encontrar el Dockerfile para la plataforma ARM32v7. Hay diferentes Dockerfiles disponibles para diferentes plataformas, pero ARM32v7 es el que necesita para Raspberry Pi. Una vez que haya encontrado el Dockerfile correcto, puede seguir las instrucciones proporcionadas para instalar ONNX Runtime en su Raspberry Pi. Este puede ser un proceso un poco largo y complicado, pero vale la pena por la capacidad de implementar y probar redes neuronales en dispositivos perimetrales.

  • 00:05:00 En esta sección, el orador explica cómo instalar ONNX Runtime en Raspberry Pi. Primero, el usuario debe descargar el archivo Raspbian Stretch y el generador de imágenes Raspberry Pi para que la tarjeta SD sea de arranque. Una vez que Raspbian Stretch está instalado en Raspberry Pi, el usuario debe instalar el paquete estático de usuario de Docker y QMU. Después de crear un directorio de compilación, el usuario debe guardar el Dockerfile actualizado en el directorio de compilación y ejecutar el comando para obtener el paquete de ruedas ONNX Runtime. Una vez que el archivo de rueda se instala con pip y se prueba, se puede importar y ONNX se puede usar en Raspberry Pi con Python 3 versión 3.8.

  • 00:10:00 En esta sección, el orador explica cómo usar ONNX Runtime en Raspberry Pi para probar un modelo que ha sido entrenado en un conjunto de datos en particular. El orador ya entrenó una red neuronal profunda que puede hacer una clasificación de dígitos utilizando el conjunto de datos MNIST y proporcionó un enlace al código y al modelo. Después de importar las bibliotecas necesarias, el orador crea un script que ejecuta una sesión de inferencia utilizando ONNX Runtime. El orador encuentra una falla de segmentación y, después de investigar, aprende acerca de los tres niveles de optimizaciones de gráficos que ONNX Runtime puede hacer y los desactiva, ejecutando correctamente el script y obteniendo el resultado previsto.

  • 00:15:00 En esta sección, el orador explica cómo calcularon el tiempo que tarda su Raspberry Pi en ejecutar una sesión de inferencia en una sola imagen. Presentan una secuencia de comandos separada que usa la biblioteca de tiempo para calcular el tiempo necesario para generar resultados y ejecutar el modelo dentro del tiempo de ejecución de ONNX, lo que demora aproximadamente 0,06 segundos, lo que el orador señala que es realmente bueno para un modelo simple y un tamaño de imagen pequeño. Animan a los espectadores a instalar el tiempo de ejecución ONNX en su Raspberry Pi y comunicarse con cualquier pregunta o inquietud.
How to install ONNX Runtime on Raspberry Pi
How to install ONNX Runtime on Raspberry Pi
  • 2020.09.24
  • www.youtube.com
This video explains how to install Microsoft's deep learning inference engine ONNX Runtime on Raspberry Pi.Jump to a section:0:19 - Introduction to ONNX Runt...
 

Clasificación de imágenes trabajando en Raspberry Pi con varios modelos de MobileNet ONNX


Clasificación de imágenes trabajando en Raspberry Pi con varios modelos de MobileNet ONNX

Realice la clasificación de imágenes en Raspberry Pi 4 en ONNX Runtime usando 3 patrones de modelos MobileNet V1 ONNX.

  1. Profundidad 1,00 y 224x224
  2. Profundidad 0,50 y 160x160
  3. Profundidad 0,25 y 128x128

La clasificación se realiza en 7ms, dependiendo del modelo utilizado.

Image Classification working on Raspberry Pi with various MobileNet ONNX models
Image Classification working on Raspberry Pi with various MobileNet ONNX models
  • 2020.05.26
  • www.youtube.com
Perform image classification on Raspberry Pi 4 at ONNX Runtime using 3 pattern of MobileNet V1 ONNX models.1) Depth 1.00 & 224x2242) Depth 0.50 & 160x1603) D...
 

SSDLite Mobilenet V2 en ONNX Runtime trabajando en Raspberry Pi 4


SSDLite Mobilenet V2 en ONNX Runtime trabajando en Raspberry Pi 4

SSDLite Mobilenet V2 en ONNX Runtime trabajando en Raspberry Pi 4 sin aceleración de hardware.

SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4
SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.26
  • www.youtube.com
SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

SSDLite Mobilenet V1 0.75 profundidad en ONNX Runtime trabajando en Raspberry Pi 4


SSDLite Mobilenet V1 0.75 profundidad en ONNX Runtime trabajando en Raspberry Pi 4

SSDLite Mobilenet V1 0.75 de profundidad en ONNX Runtime trabajando en Raspberry Pi 4 sin aceleración de hardware.

SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4
SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.26
  • www.youtube.com
SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration.
 

Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4



Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4

Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4 sin aceleración de hardware.

Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.08
  • www.youtube.com
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

Clasificación y detección de objetos de Raspberry Pi 4 con tiempo de ejecución ONNX optimizado



Clasificación y detección de objetos de Raspberry Pi 4 con tiempo de ejecución ONNX optimizado

Realice la clasificación de imágenes en Raspberry Pi 4 en ONNX Runtime:

  1. Clasificación utilizando MobileNet V3;
  2. Detección usando SSDLite MobileNet V2.
Raspberry Pi 4 Classification and Object Detection with Optimized ONNX Runtime
Raspberry Pi 4 Classification and Object Detection with Optimized ONNX Runtime
  • 2020.08.06
  • www.youtube.com
Perform image classification on Raspberry Pi 4 at ONNX Runtime1) Classification using MobileNet V32) Detection using SSDLite MobileNet V2
 
https://www.youtube.com/watch?v=LZynITNcQoQ

Detección de objetos Raspberry Pi 4 con tiempo de ejecución ONNX optimizado (finales de 2020)



Detección de objetos Raspberry Pi 4 con tiempo de ejecución ONNX optimizado (finales de 2020)

Hardware: Frambuesa Pi 4B
Sistema operativo: sistema operativo Raspberry Pi (32 bits)
Software: ONNX Runtime 1.4.0 con proveedor de ejecución personalizado (acelerado por CPU)
Modelos:

Raspberry Pi 4 Object Detection with Optimized ONNX Runtime (Late 2020)
Raspberry Pi 4 Object Detection with Optimized ONNX Runtime (Late 2020)
  • 2020.12.15
  • www.youtube.com
Hardware : Raspberry Pi 4BOS : Raspberry Pi OS (32bit)Software : ONNX Runtime 1.4.0 with custom execution provider (CPU accelerated)ModelsMobileNetV1 SSD 0.7...
 

Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4


Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4

Tiny-YOLOv3 en ONNX Runtime trabajando en Raspberry Pi 4 sin aceleración de hardware.

Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.11
  • www.youtube.com
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

¡Detección autónoma de objetos de conducción en Raspberry Pi 4!



¡Detección autónoma de objetos de conducción en Raspberry Pi 4!

En este tutorial, el instructor demuestra los pasos necesarios para configurar Raspberry Pi 4 para la detección de objetos con una red neuronal entrenada para conducción autónoma. Esto incluye la clonación del repositorio, la configuración de un entorno virtual, la instalación de dependencias como GPIO, OpenCV y TensorFlow, y la configuración del módulo de la cámara Raspberry Pi. A continuación, el instructor demuestra la conexión de un LED y un botón a la Pi y la ejecución de un script de Python para capturar imágenes con detección de objetos. Finalmente, el usuario puede realizar ajustes en el archivo rc por lotes para ejecutar el script en el arranque y grabar secuencias con las imágenes guardadas en la ruta de salida.

  • 00:00:00 En esta sección, el video instructor recorre los pasos de configuración del software para realizar la detección de objetos con una red neuronal capacitada para conducción autónoma en Raspberry Pi 4. El instructor comienza asegurándose de que Raspberry Pi esté actualizado, clonando el repositorio proporcionado en la descripción del video, e instalando un entorno virtual para mantener las dependencias de este proyecto separadas de otros proyectos en el sistema. Luego, el instructor activa el entorno virtual antes de instalar dependencias como un paquete gpio python, OpenCV y TensorFlow, que son todos los elementos necesarios para el proyecto, mediante la ejecución de un script bash. Finalmente, el instructor muestra cómo configurar el módulo de la cámara Raspberry Pi ingresando los ajustes de configuración en la terminal y conectándolo a la Raspberry Pi 4.

  • 00:05:00 En esta sección, el presentador demuestra cómo configurar el módulo de la cámara, el LED y el botón pulsador en la Raspberry Pi para la detección de objetos de conducción autónoma. El módulo de la cámara simplemente se conecta al Pi y se asegura en su lugar. Se conecta un LED a la RasPi con una resistencia de 470 ohmios para brindar retroalimentación visual mientras se ejecuta el programa. Del mismo modo, se agrega un botón pulsador a la placa de prueba para permitir iniciar y detener el procesamiento de imágenes. Luego, el presentador muestra el lado del software de la configuración mediante la ejecución de un script de Python con argumentos para la red neuronal del monitor y la ruta de salida, que guarda las imágenes procesadas en una ubicación específica.

  • 00:10:00 En esta sección vemos la ruta de salida y donde se guardan las imágenes capturadas por la Raspberry Pi con detección de objetos. El usuario realiza ajustes en el archivo rc por lotes para que la secuencia de comandos de python se ejecute en el arranque, sin necesidad de un teclado o un mouse. El paso final es colocar la Raspberry Pi en el automóvil, enchufarla a una toma de CA y comenzar a grabar secuencias con las imágenes procesadas guardadas en la ruta de salida especificada. El usuario sugiere que las imágenes capturadas se pueden convertir en un gif o un video.
Razón de la queja: