Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¡Día de la comunidad ONNX! Transmitido en vivo el 24 de junio de 2022
Este evento se realizará en persona en el nuevo campus de Microsoft Silicon Valley el viernes 24 de junio.
El evento cubrirá actualizaciones de la comunidad ONNX, historias de socios y usuarios, y muchas redes comunitarias.
¡Día de la comunidad ONNX!
Breve resumen:
El resumen detallado de la línea de tiempo:
ONNX: pasado, presente y futuro: Jim Spohrer, IBM y Prasanth Pulavarthi, Microsoft
ONNX: pasado, presente y futuro: Jim Spohrer, IBM y Prasanth Pulavarthi, Microsoft
El video "ONNX: pasado, presente y futuro" presenta a Jim Spohrer de IBM y Prasanth Pulavarthi de Microsoft discutiendo el crecimiento y el futuro del marco de trabajo de IA de código abierto ONNX. Destacan la importancia de estandarizar la implementación de modelos de IA a través del formato intercambiable proporcionado por ONNX, lo que permite una optimización perfecta en diferentes marcos de aprendizaje profundo. Además, analizan los desarrollos recientes en la capacidad del tiempo de ejecución de ONNX para trabajar con varios aceleradores de hardware y ofrecen consejos y recursos para comenzar con ONNX. Los oradores responden preguntas de la audiencia sobre las capacidades de ONNX, el despliegue comercial y los próximos planes de certificación, al tiempo que insta a los espectadores a involucrarse en la comunidad de ONNX.
Onnx-mlir: un compilador basado en MLIR para modelos ONNX: el estado más reciente
Onnx-mlir: un compilador basado en MLIR para modelos ONNX: el estado más reciente
Onnx-mlir es un compilador para modelos ONNX que utiliza MLIR y LLVM para la optimización y generación de código, compatible con CPU y aceleradores personalizados. Dong Lin de IBM Research enfatiza la importancia de las pruebas exhaustivas y destaca el uso del marco en servicios de calificación en línea y marcos de servicio de modelos. Onnx-mlir tiene múltiples dialectos para CPU y acelerador, con optimizaciones en varios niveles, y se ha demostrado que acelera un modelo de detección de fraude con tarjetas de crédito 11 veces usando un acelerador de IBM. El proyecto agradece las contribuciones de la comunidad para optimizar operadores importantes y admitir operadores de ML de nicho y otros aceleradores como GPU.
PFVM: un compilador de redes neuronales que usa ONNX como su representación intermedia
PFVM: un compilador de redes neuronales que usa ONNX como su representación intermedia
En este video, Zijian Xu de Preferred Networks presenta PFVM, un compilador de redes neuronales que usa ONNX como su representación intermedia para la optimización de módulos. Analiza cómo PFVM toma ONNX exportado como entrada, lo optimiza y ejecuta el modelo con backends específicos utilizando API de terceros. Genji describe la importancia de la optimización, incluida la extensión de ONNX con los operadores de los clientes, la inferencia de formas y la simplificación de gráficos. También aborda las limitaciones de los compiladores ONNX actuales, incluida la necesidad de más soporte en el caso dinámico, y sugiere implementar más funciones de inferencia. Zijian Xu enfatiza la importancia de reducir la sobrecarga del rango del kernel y el uso de la memoria para un cálculo más rápido y sugiere utilizar la información estática disponible en las máquinas para programar y dar forma a la inferencia.
Pila de compilador YVR18-332 TVM y compatibilidad con ONNX
Pila de compilador YVR18-332 TVM y compatibilidad con ONNX
El video YVR18-332 analiza la pila del compilador TVM, que es una pila de aprendizaje profundo liderada por la comunidad que admite una variedad de hardware y front-end, incluido ONNX. El orador analiza cómo TVM puede optimizar los modelos a nivel estéreo, lo que permite a los desarrolladores explorar el espacio de búsqueda y encontrar la mejor configuración. También analizan las optimizaciones automáticas que ofrece TVM, incluidas las transformaciones de bucle y la aceleración de GPU. El orador habla sobre la hoja de ruta de TVM, que incluye habilitar la compatibilidad con 8 bits y el ajuste automático en el nivel gráfico. Además, discuten la interfaz de ONNX TV y la necesidad de unificar la interfaz estándar para todos los ecosistemas. Finalmente, el video hace una pausa para el almuerzo.
diseñado para explorar el espacio de búsqueda y encontrar la mejor configuración.
Standup de la comunidad de .NET MAUI: tiempo de ejecución de ONNX con Mike Parker
Standup de la comunidad de .NET MAUI: tiempo de ejecución de ONNX con Mike Parker
En este video, el orador invitado Mike Parker presenta el tiempo de ejecución de ONNX, una herramienta de código abierto y multiplataforma que permite la optimización y aceleración del aprendizaje automático en múltiples plataformas de hardware. Parker explica la importancia de usar el tiempo de ejecución de ONNX y muestra cómo se puede usar en proyectos .NET MAUI para clasificar imágenes usando el modelo de clasificación de objetos de MobileNet. Los anfitriones y Parker analizan los beneficios de ejecutar modelos de aprendizaje automático en un dispositivo y la capacidad de evitar costos de infraestructura de back-end. Además, el equipo comparte recursos útiles, incluido el blog de Parker sobre este tema y su asociación con Al Blount para el soporte de .NET MAUI y Xamarin.
[Reunión virtual] IA interoperable: ONNX y ONNXRuntime en C++ (M. Arena, M. Verasani)
[Reunión virtual] IA interoperable: ONNX y ONNXRuntime en C++ (M. Arena, M. Verasani)
El video analiza los desafíos de usar diferentes marcos para entrenar algoritmos de aprendizaje automático, lo que lleva a una falta de interoperabilidad, y presenta ONNX y ONNXRuntime que tienen como objetivo crear un formato universal para modelos de aprendizaje profundo. ONNX convierte las redes neuronales en gráficos computacionales estáticos, lo que permite un rendimiento optimizado durante la inferencia. ONNXRuntime permite la conversión de cualquier marco al formato ONNX y proporciona bibliotecas de aceleración que se pueden usar para apuntar a cualquier plataforma de hardware. El video muestra ejemplos del uso de ONNX y ONNXRuntime, además de analizar su uso en C++ y brindar consejos para comprender mejor el proyecto y su documentación.
Marco Arena y Matteo Verasani también analizan los beneficios de usar ONNX y ONNXRuntime en C++ para modelos de aprendizaje automático, destacando la flexibilidad del marco y su capacidad para convertir fácilmente modelos de diferentes marcos sin sacrificar el rendimiento. Proporcionan ejemplos de conversión de modelos al formato ONNX y demuestran el uso de ONNXRuntime para el modo de inferencia, mostrando mejoras en el rendimiento con un modelo clásico de Python. Además, analizan su trabajo con sistemas integrados y los beneficios potenciales de evaluar comparativamente ONNXRuntime en GPU. Los oradores también mencionan futuras reuniones virtuales y expresan su esperanza de incorporar más oportunidades de networking para los asistentes.
[CppDay20] IA interoperable: ONNX y ONNXRuntime en C++ (M. Arena, M.Verasani)
[CppDay20] IA interoperable: ONNX y ONNXRuntime en C++ (M. Arena, M.Verasani)
El uso de algoritmos de aprendizaje automático y aprendizaje profundo está aumentando, y existe la necesidad de herramientas que puedan implementar estos algoritmos en diferentes plataformas. La herramienta ONNX brinda interoperabilidad entre diferentes marcos y plataformas, lo que permite a los desarrolladores convertir sus algoritmos de un marco a otro e implementarlos en diferentes dispositivos, incluso si no están familiarizados con el marco o la plataforma específicos. ONNX Runtime es un motor de inferencia que puede aprovechar aceleradores personalizados para acelerar modelos durante la etapa de inferencia y puede dirigirse a una variedad de plataformas de hardware. Los oradores demuestran el uso de ONNX y ONNX Runtime en programación C++, con ejemplos de regresión lineal y modelos de redes neuronales. También analizan los beneficios de usar ONNX y ONNX Runtime para ajustar la ejecución de una red, optimizar el tiempo de carga y ejecutar imágenes secuenciales.
Aceleración del aprendizaje automático con ONNX Runtime y Hugging Face
Aceleración del aprendizaje automático con ONNX Runtime y Hugging Face
El video "Acelerar el aprendizaje automático con ONNX Runtime y Hugging Face" analiza la creación de la biblioteca Optimum de Hugging Face, que se enfoca en acelerar los modelos de transformadores desde el entrenamiento hasta la inferencia aplicando fácilmente el tiempo de ejecución de ONNX. La biblioteca simplifica el puente entre la biblioteca de transformadores y la aceleración de hardware, creando un conjunto de herramientas fácil de usar para el rendimiento de producción. Al aplicar las optimizaciones proporcionadas por ONNX Runtime, los usuarios pueden beneficiarse de toda la aceleración del hardware, lo que da como resultado canalizaciones de inferencia más rápidas. Una colaboración dentro de la comunidad Hugging Face está habilitando la optimización del modelo de secuencia a secuencia utilizando estas clases de canalización de inferencia aceleradas, y un ejemplo de extremo a extremo mostró que el uso de Optimum Library puede generar un aumento del rendimiento del 44 % o una disminución de la latencia mientras se conserva 99,6% de la precisión del modelo original.
Acelerando la inferencia de ML a escala con ONNX, Triton y Seldon | PyData Global 2021
Acelerando la inferencia de ML a escala con ONNX, Triton y Seldon | PyData Global 2021
En el video "Acelerar la inferencia de ML a escala con ONNX, Triton y Seldon | PyData Global 2021", Alejandro Saucedo de Seldon Technologies analiza los desafíos de escalar la inferencia de aprendizaje automático y cómo usar ONNX y Triton para optimizar y producir modelos. Usando el modelo GPT-2 TensorFlow como caso de uso, la sesión cubre el preprocesamiento, la selección de tokens óptimos y la implementación del modelo usando Tempo y el servidor de inferencia Triton. Saucedo enfatiza la necesidad de abstraer las complejidades de la infraestructura y facilitar la implementación fácil al tiempo que garantiza la reproducibilidad y el cumplimiento. La charla concluye con colaboraciones con proyectos de código abierto para componentes de implementación y capacitación de extremo a extremo.