Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
AI Show Live - Episodio 62 - Inferencia multiplataforma con ONNX Runtime
AI Show Live - Episodio 62 - Inferencia multiplataforma con ONNX Runtime
En el episodio "Inferencia multiplataforma con ONNX Runtime" de AI Show Live, los anfitriones muestran cómo implementar un modelo de superresolución y un modelo de detección de objetos en múltiples plataformas utilizando el marco ONNX Runtime. Analizan los pasos de preprocesamiento y posprocesamiento para plataformas móviles y web, demuestran los beneficios de usar una única solución, explican el proceso de convertir un modelo PyTorch en un modelo ONNX y muestran cómo preprocesar datos para inferencia con ONNX. tiempo de ejecución. Además, demuestran la implementación del modelo de procesamiento de lenguaje natural BERT utilizando Onnx Runtime en C#. Los modelos de código y código abierto están disponibles para la personalización de las soluciones de los usuarios.
En la segunda parte de AI Show Live, los presentadores cubren una variedad de temas relacionados con la ejecución de inferencias con ONNX Runtime. Demuestran el proceso de clasificación de texto usando un ejemplo de los ejemplos de inferencia de ONNX y exploran la instalación de paquetes y herramientas necesarias para construir modelos de clasificación BERT en C#. También analizan el uso de IntelliCode con VS 2022 y recorren los pasos de preparación para la inferencia del modelo, incluida la creación de tensores, la configuración de la sesión de inferencia de ONNX Runtime y el posprocesamiento de la salida. Además, mencionan la importancia de consultar la documentación del modelo y seleccionar el tokenizador correcto para obtener resultados precisos.
Aprendizaje automático aplicado con ONNX Runtime
Aprendizaje automático aplicado con ONNX Runtime
Jennifer Looper, principal defensora de la nube de educación en Microsoft, analiza la convergencia de la creación de aplicaciones, el aprendizaje automático y la ciencia de datos en este video. Ella recomienda crear aplicaciones inteligentes para la web y explora varias API de JavaScript, incluidas ml5.js, Magenta.js, PoseNet y Brain.js, para incorporar tecnología de aprendizaje automático en las aplicaciones. Looper enfatiza la utilidad de scikit-learn para el aprendizaje automático clásico y lo recomienda como una herramienta poderosa sin la pesada solución de las redes neuronales. También analiza Onnx Runtime, que optimiza el entrenamiento y la inferencia mediante la definición de un conjunto común de operadores para crear modelos de aprendizaje automático y aprendizaje profundo, y obtiene datos de Kaggle para explicar el proceso de realizar una tarea de clasificación básica mediante el aprendizaje automático supervisado. Luego, el orador demuestra cómo crear un motor de recomendaciones utilizando modelos de aprendizaje automático y sugiere visitar los recursos en línea de Microsoft para obtener más información sobre el aprendizaje automático. Ella concluye que Onnx Runtime es adecuado para principiantes como parte de su plan de estudios o para cualquier persona que quiera aprender más sobre el aprendizaje automático.
Lleve el poder de ONNX a Spark como nunca antes
Lleve el poder de ONNX a Spark como nunca antes
En este video, Shivan Wang de Huawei explica cómo llevar el poder de ONNX a Spark para la inferencia. Habla sobre los desafíos en la implementación de modelos DL en Spark y cómo la comunidad de Spark ha iniciado una propuesta llamada Spip para simplificar el proceso. El orador también analiza el procesador de IA de Huawei, Ascent y el ecosistema de IA de Ascent, que incluye múltiples modelos de procesadores de Ascent y hardware Atlas. Sugiere agregar Con como un nuevo proveedor de ejecución en el próximo tiempo de ejecución para usar modelos ONNX en el hardware de Ascent directamente, sin necesidad de traducción de modelos. Finalmente, menciona que el código POC para llevar el poder de ONNX a Spark está casi completo y da la bienvenida a los usuarios interesados a dejar un mensaje para discutir y potencialmente proporcionar recursos para fines de prueba.
Builders Build n.º 3: de Colab a producción con ONNX
Builders Build n.º 3: de Colab a producción con ONNX
El video ilustra el proceso de implementación de un proyecto de Colab a producción mediante ONNX. El presentador cubre varios aspectos, como el preprocesamiento de señales, la modificación del código para la implementación, la creación de un controlador en AWS Lambda, la aceptación de entradas de audio en un sitio web, la carga de una función en S3 y la implementación de dependencias para ONNX. A pesar de encontrar algunas dificultades, el orador implementa con éxito su modelo con AWS y sugiere que puede usar un objeto de archivo base64 de carga del navegador o fragmentos de lectura de archivos de sonido para pasos futuros.
Además, el video muestra el uso del modelo SimCLR para el aprendizaje contrastivo en audio, la creación de un catálogo de canciones introduciéndolas en el modelo y entrenándolo con PyTorch para lograr cero pérdidas y recuperación en k=1. El presentador analiza los desafíos de usar PyTorch en producción y propone ONNX como solución. El video muestra cómo exportar y cargar el modelo PyTorch en formato ONNX y ejecutar la inferencia. También muestra cómo procesar archivos de audio con las bibliotecas Torch Audio y Numpy y soluciona problemas al configurar un modelo PyTorch para su implementación. El video ofrece información sobre cómo cambiar modelos de desarrollo en portátiles Colab a entornos de producción.
Combinando el poder de Optimum, OpenVINO™, ONNX Runtime y Azure
Combinando el poder de Optimum, OpenVINO™, ONNX Runtime y Azure
El video muestra la combinación de Optimum, OpenVINO, ONNX Runtime y Azure para simplificar el flujo de trabajo del desarrollador y mejorar la precisión y la velocidad de sus modelos. Los oradores demuestran el uso de funciones auxiliares, ONNX Runtime y OpenVINO Execution Provider para optimizar los modelos de aprendizaje profundo. También muestran cómo optimizar los modelos de caras abrazadas mediante la cuantificación en el marco de compresión de redes neuronales e ilustran el proceso de entrenamiento e inferencia mediante Azure ML, Optimum, ONNX Runtime y OpenVINO. La demostración destaca el poder de estas herramientas para mejorar el rendimiento de los modelos y minimizar la pérdida de precisión.
Inferencia más rápida de modelos ONNX | Serie Edge Innovation para desarrolladores | Software de Intel
Inferencia más rápida de modelos ONNX | Serie Edge Innovation para desarrolladores | Software de Intel
El proveedor de ejecución de OpenVINO para ONNX Runtime se analiza en este video. Se trata de un acelerador de modelos de aprendizaje automático multiplataforma que permite la implementación de modelos de aprendizaje profundo en una variedad de dispositivos informáticos de Intel. Mediante el uso del kit de herramientas OpenVINO, que está optimizado para el hardware de Intel, y la configuración del proveedor como proveedor de ejecución de OpenVINO en el código, los desarrolladores pueden acelerar la inferencia de modelos ONNX con técnicas de optimización avanzadas. El video enfatiza la simplicidad de la modificación requerida para utilizar las herramientas discutidas.
Inferencia de modelos más rápida y liviana con ONNX Runtime de la nube al cliente
Inferencia de modelos más rápida y liviana con ONNX Runtime de la nube al cliente
En este video, Emma del grupo Microsoft Cloud and AI explica Open Neural Network Exchange (ONNX) y ONNX Runtime, que es un motor de alto rendimiento para inferir modelos ONNX en diferentes hardware. Emma analiza la importante mejora del rendimiento y la reducción del tamaño del modelo que puede proporcionar la cuantificación de ONNX Runtime INT8, así como la importancia de la precisión. Demuestra el flujo de trabajo de extremo a extremo de la cuantificación INT8 de ONNX Runtime y presenta los resultados de un modelo de línea de base utilizando la cuantificación PyTorch. Además, Emma analiza la capacidad de ONNX Runtime para optimizar la inferencia de modelos de la nube al cliente y cómo puede alcanzar un tamaño de menos de 300 kilobytes en las plataformas Android e iOS de forma predeterminada.
Inferencia de CPU de modelo de transformador T5 rápido con conversión y cuantificación ONNX
Inferencia de CPU de modelo de transformador T5 rápido con conversión y cuantificación ONNX
Al convertir el modelo de transformador T5 a ONNX e implementar la cuantificación, es posible reducir el tamaño del modelo 3 veces y aumentar la velocidad de inferencia hasta 5 veces. Esto es particularmente útil para implementar un modelo de generación de preguntas como T5 en una CPU con una latencia inferior a un segundo. Además, la aplicación Gradio ofrece una interfaz visualmente atractiva para el modelo. Se utiliza el modelo de transformador T5 de Huggingface y la biblioteca FastT5 se utiliza para ONNX y cuantificación. La implementación de estas optimizaciones puede resultar en ahorros de costos significativos para las implementaciones de producción de estos sistemas.
Tiempo de ejecución de Azure AI y ONNX
Tiempo de ejecución de Azure AI y ONNX
El texto cubre varios aspectos del aprendizaje automático y su implementación. Analiza la evolución de la ciencia de datos, los desafíos de la compatibilidad del marco, el uso de Azure AI y ONNX Runtime para la implementación de modelos, la creación de entornos ML y las limitaciones de ONNX Runtime. El orador enfatiza la estandarización de ONNX y su soporte para múltiples marcos, lo que facilita la optimización para diferentes hardware. El video también menciona la ausencia de un punto de referencia para las preferencias de hardware y la necesidad de usar múltiples herramientas para superar las limitaciones de ONNX.
Implemente Machine Learning en cualquier lugar con ONNX. Modelo Python SKLearn ejecutándose en una función Azure ml.net
Implemente Machine Learning en cualquier lugar con ONNX. Modelo Python SKLearn ejecutándose en una función Azure ml.net
El video muestra cómo el tiempo de ejecución de ONNX simplifica y estandariza la implementación de modelos de aprendizaje automático creados en diferentes lenguajes y marcos. Demuestra el proceso de empaquetar un modelo Python scikit-learn en un modelo ONNX e implementarlo en una función Azure ML .NET. El video destaca que la función de Azure se puede activar fácilmente a través de una solicitud HTTP POST, lo que facilita la llamada desde cualquier aplicación o sitio web y, independientemente del lenguaje utilizado para construir el modelo de aprendizaje automático, se puede convertir a un modelo ONNX y implementado a través de ML.NET para ejecutarse de manera consistente.