Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
ONNX en MCU
ONNX en MCU
Rohit Sharma habla sobre los desafíos y oportunidades de ejecutar modelos ONNX en microcontroladores. Él enfatiza que si bien estos dispositivos carecen de los recursos de los servidores de alto rendimiento, ha habido un número creciente de aplicaciones de aprendizaje automático para dispositivos pequeños debido a la mejora en los recursos de hardware y los esfuerzos de la comunidad de IA para reducir el tamaño del modelo. Sharma analiza dos herramientas para implementar el aprendizaje automático en microcontroladores con facilidad: DeepSea, un compilador anticipado de código abierto que es compatible con Python y permite a los desarrolladores crear algoritmos de ML personalizados, y Canvas, una plataforma sin código/de código bajo que proporciona más de 70 pequeñas aplicaciones ML que se pueden personalizar para adaptarse al conjunto de datos del usuario. Brinda dos casos de uso para estas herramientas, incluido un guante portátil que traduce gestos de signos en palabras y detección débil de palabras para dispositivos asistidos por voz como Amazon Echo.
Aproveche el poder del aprendizaje automático con ONNX - Ron Dagdag
Aproveche el poder del aprendizaje automático con ONNX - Ron Dagdag
En este video, Ron Dagdag profundiza en la importancia de los marcos de aprendizaje automático, particularmente ONNX, que facilita la interoperabilidad entre los marcos de aprendizaje profundo y la implementación. Describe las formas de obtener modelos ONNX, incluida la conversión de modelos existentes, la capacitación de modelos con el aprendizaje automático automatizado de Azure y el uso del servicio de visión personalizado de Azure. Dagdag enfatiza la decisión de implementar modelos de aprendizaje automático en la nube o en el borde, y sugiere aprovechar ONNX para que el proceso sea más fluido. Además, explica el proceso de uso de ML.NET de Microsoft para crear un modelo de aprendizaje automático y demuestra cómo incorporar el modelo ONNX en una aplicación utilizando el tiempo de ejecución de ONNX para la inferencia. Dagdag también explora ONNX como un estándar abierto para el aprendizaje automático, sus diversas plataformas y lenguajes, y herramientas para reducir el tamaño de los modelos.
Aproveche el poder del aprendizaje automático con ONNX | Ron Lyle Dagdag | Conf42 Aprendizaje automático 2021
Aproveche el poder del aprendizaje automático con ONNX | Ron Lyle Dagdag | Conf42 Aprendizaje automático 2021
En este video, Ron Dagdag analiza los beneficios de usar ONNX (Open Neural Network Exchange) como un formato abierto para los modelos de aprendizaje automático, en particular cuando se implementan modelos en diferentes terminales, como teléfonos o infraestructura en la nube. Cubre los escenarios en los que la conversión de un modelo a ONNX puede ser útil, como el bajo rendimiento o la combinación de modelos entrenados en diferentes marcos, y describe cómo se pueden descargar modelos populares como RestNet en el formato ONNX. Además, analiza los beneficios de ejecutar modelos de aprendizaje automático en el borde, así como la importancia de administrar modelos registrándolos en la nube y versionándolos. Demuestra cómo convertir un modelo a ONNX y cómo usar el tiempo de ejecución de ONNX en Python para la inferencia, y concluye enfatizando el papel de ONNX para permitir que los científicos de datos y los ingenieros de software trabajen juntos de manera efectiva.
¡Inferencia en JavaScript con ONNX Runtime Web!
¡Inferencia en JavaScript con ONNX Runtime Web!
El video cubre el uso de ONNX Runtime Web en el navegador a través de una plantilla Next.js que ofrece una interfaz de usuario para ejecutar inferencias en imágenes preseleccionadas. Se demuestra el proceso de convertir datos de imagen a un tensor utilizando valores RGB y la creación de dimensiones. Se explora la función auxiliar del modelo, que pasa datos preprocesados a la sesión de inferencia de ONNX utilizando la ruta al modelo, el proveedor de ejecución y las opciones de sesión. Las fuentes para el modelo se crean usando el nombre de entrada y el objeto tensor y se pasan a la función session.run para obtener los cinco primeros resultados. El primer resultado completa la visualización de la imagen mientras se proporcionan la configuración del paquete web y las instrucciones para la inferencia del lado del servidor mediante ONNX Runtime Node.
Ron Dagdag - Creación de redes neuronales en el navegador con ONNX
Ron Dagdag - Creación de redes neuronales en el navegador con ONNX
En este video, Ron Dagdag explica cómo se puede usar el marco de aprendizaje automático de ONNX para ejecutar redes neuronales en un navegador. Habla sobre los conceptos básicos del aprendizaje automático, la creación y la implementación de modelos ONNX y el entorno de tiempo de ejecución de ONNX. Dagdag demuestra el uso de ONNX con varios ejemplos, incluida la predicción de salarios en función de la experiencia laboral y la detección de emociones en imágenes. También cubre la implementación de modelos ONNX en diferentes plataformas, como Android e iOS, y destaca los recursos y demostraciones disponibles para experimentar con ONNX. Dagdag fomenta la experimentación con ONNX y enfatiza la importancia de la inferencia eficiente en las plataformas de destino utilizando el tiempo de ejecución de ONNX.
Hacer que las redes neuronales se ejecuten en el navegador con ONNX - Ron Dagdag - NDC Melbourne 2022
Hacer que las redes neuronales se ejecuten en el navegador con ONNX - Ron Dagdag - NDC Melbourne 2022
Ron Dagdag comparte su experiencia en hacer que las redes neuronales se ejecuten en navegadores con ONNX. Habla sobre los conceptos básicos de la programación y cómo se diferencia del aprendizaje automático, la disponibilidad de JavaScript y los marcos de aprendizaje automático, y cómo los modelos de aprendizaje automático pueden ejecutarse en diferentes dispositivos, incluidos teléfonos, IoT y la nube. Presenta ONNX, que es un formato abierto para modelos de aprendizaje automático que puede integrar modelos creados en diferentes marcos con aplicaciones existentes en diferentes lenguajes de programación. Dagdag demuestra cómo crear, administrar e implementar modelos ONNX, incorporando el tiempo de ejecución ONNX, ensamblaje web y tecnologías web GL para ejecutar modelos ONNX en navegadores mientras optimiza el rendimiento, la seguridad y el costo. El video también cubre la puntuación de modelos preentrenados en dispositivos móviles, consideraciones de costos y los beneficios de ejecutar la detección de objetos más cerca del borde para el procesamiento local de grandes cantidades de datos.
Linux Foundation Artificial Intelligence & Data Day - Reunión de la comunidad ONNX - 21 de octubre de 2021
Emma Ning (Microsoft) ONNX Runtime Web para la inferencia del navegador
001 ONNX 20211021 Ning ONNX Runtime Web para la inferencia del navegador
Emma, gerente de producto del equipo de Microsoft AI Framework, presenta ONNX Runtime Web, una nueva función en ONNX Runtime que permite a los desarrolladores de JavaScript ejecutar e implementar modelos de aprendizaje automático en un navegador, con dos backends, incluido el ensamblaje web para CPU y WebGL para GPU. El backend de ensamblaje web puede ejecutar cualquier modelo ONNX, aprovechar los subprocesos múltiples y SIMD, y admitir la mayoría de las funciones nativas de ONNX Runtime, mientras que el backend WebGL es una implementación puramente basada en JavaScript con API WebGL. El orador también analiza la compatibilidad de los operadores ONNX con ambos backends, proporciona fragmentos de código para crear una sesión de inferencia y ejecutar un modelo, y muestra un sitio web de demostración que presenta varios escenarios de modelos de imágenes en el navegador impulsados por el modelo MobileNet. Sin embargo, el orador también reconoce que aún hay margen de mejora para mejorar el rendimiento y el consumo de memoria de la web de tiempo de ejecución de ONNX y expandir los operadores de ONNX admitidos.
Web y Machine Learning W3C Workshop Verano 2020
ONNX.js: una biblioteca de Javascript para ejecutar modelos ONNX en navegadores y Node.js
ONNX.js: una biblioteca de Javascript para ejecutar modelos ONNX en navegadores y Node.js
ONNX.js es una biblioteca de JavaScript que permite a los usuarios ejecutar modelos ONNX en navegadores y Node.js. Optimiza el modelo tanto en la CPU como en la GPU con varias técnicas y admite la creación de perfiles, el registro y la depuración para facilitar el análisis. La biblioteca es compatible con todos los principales navegadores y plataformas y permite la paralelización mediante trabajadores web para un mejor rendimiento en máquinas multinúcleo. El uso de WebGL para acceder a las capacidades de la GPU proporciona mejoras significativas en el rendimiento y reduce la transferencia de datos entre la CPU y la GPU. Aunque se necesita más optimización y soporte del operador, el orador alienta las contribuciones de la comunidad para mejorar ONNX.js.
Cómo ejecutar modelos de PyTorch en el navegador con ONNX.js
Cómo ejecutar modelos de PyTorch en el navegador con ONNX.js
El video explica las ventajas de ejecutar un modelo PyTorch en un navegador usando JavaScript y ONNX.js, incluido un mejor tiempo de respuesta, escalabilidad, disponibilidad sin conexión y privacidad de usuario mejorada. El video también recorre el proceso de convertir un modelo PyTorch en un modelo ONNX, cargarlo en una sesión ONNX.js y ejecutar la inferencia en el navegador. También se analizan la preparación, la depuración y los aumentos de datos, y el orador demuestra cómo hacer que el modelo sea más robusto utilizando técnicas de aumento de datos. El video proporciona un código de muestra y un sitio web de demostración para que los usuarios prueben el modelo por sí mismos.
Clasificación de dígitos en CPU con demostración de ONNX Runtime
Clasificación de dígitos en CPU con demostración de ONNX Runtime
Open Neural Network Exchange (ONNX) proporciona un formato de código abierto para modelos de aprendizaje profundo y aprendizaje automático. Podemos entrenar nuestros modelos en el marco que prefiramos y luego convertir el modelo al formato ONNX. Con ONNX Runtime de Microsoft, podemos ejecutar una sesión de inferencia con modelos onnx en cualquier entorno que nos brinde una implementación un poco más rápida. Aquí hay una demostración simple de lo mismo. El modelo está entrenado para reconocer dígitos utilizando el conjunto de datos MNIST con PyTorch. Estoy ejecutando una sesión de inferencia en la CPU de Linux.
https://github.com/NagarajSMurthy/Digit-recognizer