Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Implemente modelos de aprendizaje automático (TensorFlow/Caffe2/ONNX) - Rápido y fácil
Implemente modelos de aprendizaje automático (TensorFlow/Caffe2/ONNX) - Rápido y fácil
El video demuestra cómo se puede usar el aprendizaje por transferencia para clasificar imágenes y cómo integrar el modelo de clasificación de imágenes en una aplicación de usuario final usando Python y TensorFlow. El presentador usa un ejemplo de aplicación de comercio de automóviles para ilustrar los desafíos que se enfrentan cuando las fotos no se cargan desde la perspectiva requerida y las etiquetas deben verificarse manualmente, lo que genera aburrimiento e ineficiencia. Explica cómo superar estos desafíos entrenando una red neuronal existente para que reconozca las perspectivas de las fotografías utilizando la técnica de aprendizaje por transferencia. Luego muestra cómo probar e implementar el modelo en la nube de Oracle utilizando el proyecto de código abierto GraphPipe. Finalmente, el presentador enfatiza la importancia de llevar los modelos de aprendizaje automático de la fase de laboratorio a la fase de producción.
Implemente modelos de aprendizaje automático con Azure Functions y ONNX Runtime
Implemente modelos de aprendizaje automático con Azure Functions y ONNX Runtime
El video demuestra cómo implementar un modelo de aprendizaje automático mediante ONNX Runtime y Azure Functions en VS Code. El proceso incluye la creación de un proyecto de función de Azure, la actualización del código con el script de puntuación, la carga del modelo desde la ruta del modelo, la creación de una sesión de inferencia con ONNX Runtime y la devolución del resultado. El video también muestra cómo implementar la función en Azure y probarla allí. Este método permite la implementación eficiente de modelos a través de Azure Functions y ONNX runtime, lo que permite un fácil acceso a los resultados.
Implementación en escritorio con ONNX
Implementación en escritorio con ONN X
En el video "Implementación en escritorio con ONNX", Alexander Zhang analiza los desafíos de la implementación en escritorio y las soluciones que ofrece ONNX. La compatibilidad con los escritorios tiene sus desafíos, ya que hay menos control sobre las restricciones del sistema en la GPU o el sistema operativo, así como una diversidad significativa en las GPU de escritorio. Para hacer frente a estos desafíos, Alexander se basa en diferentes bibliotecas de inferencia para cada uno de los proveedores de hardware compatibles con Topaz labs. ONNX se usa para especificar el mismo modelo para todas estas bibliotecas, lo que brinda resultados relativamente consistentes en diferentes hardware y ahorra trabajo manual en cada modelo. Sin embargo, las conversiones de ONNX pueden crear varios problemas, como ambigüedad, inconsistencia y discrepancias de calidad, lo que requiere que los desarrolladores realicen conversiones de prueba y usen explícitamente las últimas compensaciones de ONNX. Para maximizar el rendimiento a través del procesamiento por lotes y potencialmente ejecutar en múltiples dispositivos y bibliotecas en paralelo, dividen las imágenes en bloques y seleccionan un tamaño apropiado en función de la VRAM, y luego ejecutan los bloques a través de la inferencia.
Implementación de modelos ONNX en Flink - Isaac Mckillen-Godfried
Implementación de modelos ONNX en Flink - Isaac Mckillen-Godfried
Isaac McKillen-Godfried analiza los desafíos de incorporar modelos de aprendizaje automático de última generación de entornos de investigación a la producción para una utilización eficaz. El objetivo de la charla es facilitar el traslado de modelos de entornos de investigación a producción y permitir la incorporación de modelos de última generación en diferentes plataformas. Explica las ventajas del formato ONNX y las diferentes opciones para integrar modelos de aprendizaje profundo en Java. Además, habla sobre la implementación de modelos ONNX en Flink usando Jep, un intérprete de Python escrito en Java, y explica un proyecto de código abierto que permite consumir datos del conector Flink Twitter y luego filtrar tweets que no están en inglés. La charla también destaca la implementación actual solo de CPU de la implementación de modelos ONNX en Flink y el potencial para futuras implementaciones de GPU o híbridas.
Implementación del modelo Tiny YOLOv2 ONNX en Jetson Nano usando DeepStream
Implementación del modelo Tiny YOLOv2 ONNX en Jetson Nano usando DeepStream
Este video muestra la eficiencia de utilizar un modelo Tiny YOLOv2 preentrenado en el formato ONNX para procesar cuatro transmisiones de video simultáneamente.
Las transmisiones provienen de cuatro archivos distintos y se procesan en Jetson Nano utilizando DeepStream SDK. El sistema logró un FPS de aproximadamente 6,7 mientras procesaba los cuatro videos en paralelo.
https://github.com/thatbrguy/Deep-Stream-ONNX
El motor de inferencia ONNX Runtime es capaz de ejecutar modelos de aprendizaje automático en diferentes entornos
Tiempo de ejecución ONNX
ONNX Runtime es un motor de inferencia de código abierto optimizado para el rendimiento, la escalabilidad y la extensibilidad, capaz de ejecutar nuevos operadores antes de que se estandaricen. El formato ONNX permite una fácil representación y despliegue de modelos desarrollados en las herramientas preferidas de forma común. Microsoft se asoció con Xilinx para construir el proveedor de ejecución para la biblioteca de software Vitis AI, que permite la inferencia y aceleración de AI en las plataformas de hardware de Xilinx. El kit de herramientas Vitis AI consta de herramientas IP, bibliotecas, modelos y diseños de ejemplos para desarrolladores de FPGA, con números de referencia que muestran la aceleración máxima para soluciones de imágenes geoespaciales. El proveedor de ejecución de IA de Vitis puede crearse desde el origen o implementarse a través de una biblioteca de software preconstruida que pronto se lanzará en Azure Marketplace.
Implemente modelos de transformadores en el navegador con #ONNXRuntime
Implemente modelos de transformadores en el navegador con #ONNXRuntime
El video demuestra cómo ajustar e implementar un modelo BERT optimizado en un navegador mediante ONNXRuntime. El presentador muestra cómo convertir el modelo PyTorch al formato ONNX usando la API de Transformers, usar ONNXRuntime para cuantificar el modelo para la reducción de tamaño y crear una sesión de inferencia. El video también cubre los pasos necesarios para importar paquetes a JavaScript usando WebAssembly y cómo ejecutar entradas de texto a través del modelo transformado para la clasificación de emociones. A pesar de una reducción en la precisión de la predicción, el tamaño de modelo más pequeño es ideal para la implementación en un navegador. Se proporcionan enlaces al modelo, conjuntos de datos, código fuente y una publicación de blog.
Open Neural Network Exchange (ONNX) en la empresa: cómo Microsoft escala el aprendizaje automático
Open Neural Network Exchange (ONNX) en la empresa: cómo escala Microsoft ML - BRK3012
Open Neural Network Exchange (ONNX) se presenta como una solución a los desafíos en la implementación de modelos de aprendizaje automático en producción, incluida la gestión de múltiples marcos de capacitación y objetivos de implementación, con Microsoft ya adoptando ampliamente ONNX para productos como Bing, Bing ads y Office 365 ONNX permite la escalabilidad y el mantenimiento de los modelos de aprendizaje automático, así como importantes mejoras de rendimiento y ahorros de costos atribuidos al uso de aceleradores de hardware como GPU. Además, el ecosistema ONNX incluye socios como Intel para la optimización del tiempo de ejecución, con kits de desarrollo disponibles y técnicas de cuantificación disponibles para convertir modelos FP32 en tipos de datos de menor precisión, lo que resulta en una mayor eficiencia. Los oradores también destacan los beneficios de utilizar ONNX para la computación perimetral, ya que el tiempo de ejecución es flexible y puede implementar modelos en diferentes plataformas de hardware.
Proveedor de ejecución #OpenVINO para #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
Proveedor de ejecución #OpenVINO para #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
El proveedor de ejecución de OpenVINO para ONNX Runtime fue el tema principal de discusión en este seminario web semanal de OpenCV. El producto tiene como objetivo acelerar el rendimiento de los modelos ONNX en hardware Intel y requiere un esfuerzo mínimo por parte del usuario. El seminario web discutió los desafíos de implementar modelos de aprendizaje profundo en el mundo real, con OpenVINO presentado como la solución a estos desafíos. OpenVINO puede optimizar los modelos de IA para un rendimiento eficiente en varios dispositivos y hardware. El tiempo de ejecución de ONNX, un proyecto de código abierto diseñado para acelerar la inferencia de aprendizaje automático, se discutió extensamente. El seminario web también presentó una demostración de la mejora del rendimiento lograda con OpenVINO Execution Provider para ONNX Runtime, así como sus funciones, como la inferencia de subprocesos múltiples, la compatibilidad total con varios complementos y el almacenamiento en caché de modelos. También se discutió la integración entre OpenVINO y PyTorch a través del proveedor de ejecución de OpenVINO. Los presentadores respondieron preguntas de la audiencia sobre temas como la compatibilidad con dispositivos ARM y la posible pérdida de rendimiento o precisión al usar formatos de intercambio ONNX.
Importación de redes neuronales con ONNX
Importación de redes neuronales con ONNX
Este video explora la importancia del proyecto Open Neural Network Exchange (ONNX) en el aprendizaje automático y sus beneficios en la conversión de modelos a través de varias herramientas. El orador analiza los desafíos de cargar modelos manualmente o con herramientas automatizadas y cómo ONNX elimina este problema a través de su modelo computacional basado en gráficos. El ponente también destaca las ventajas de ONNX en la conversión manual de modelos complejos y su compatibilidad con diferentes frameworks. El video toca los modelos de red parametrizados, la estructura de ONNX y los posibles desafíos que pueden surgir al usar el proyecto. A pesar de estos desafíos, el orador cree que ONNX prosperará gracias al respaldo sustancial de varias empresas.