Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Cuantificación práctica posterior al entrenamiento de un modelo ONNX
Cuantificación práctica posterior al entrenamiento de un modelo ONNX
El video analiza cómo implementar la cuantificación para reducir el tamaño de un modelo TensorFlow a un modelo cuantificado ONNX. El modelo ONNX es significativamente más pequeño en tamaño y se puede ejecutar más rápido en una CPU. El autor proporciona fragmentos de código e instrucciones sobre cómo implementar la cuantificación dinámica y cómo verificar la velocidad de la CPU.
El video muestra el proceso de cuantificación de un modelo de aprendizaje automático para hacerlo más rápido y liviano, al tiempo que reconoce que puede conducir a una caída en la precisión. Los modelos ONNX y TensorFlow se comparan con un modelo cuantificado, y se descubrió que este último es más rápido y liviano. Sin embargo, el modelo cuantizado no se beneficia tanto del uso de GPU como los otros modelos. A continuación, se evalúa la precisión del modelo cuantificado y se encuentra que solo tiene una ligera caída. También se analiza el proceso de visualización de modelos ONNX, y se demuestra el uso de la aplicación Loot Rodas Neutron. El proceso general da como resultado una reducción en el tamaño del modelo de un gigabyte a 83 megabytes con una pérdida mínima de precisión.
QONNX: una propuesta para representar NN cuantificados con precisión arbitraria en ONNX
QONNX: una propuesta para representar NN cuantificados con precisión arbitraria en ONNX
El ponente analiza la cuantificación de baja precisión, con un ejemplo de su aplicación en la comunicación inalámbrica. Proponen QONNX, un dialecto para representar redes neuronales cuantificadas de precisión arbitraria en ONNX. QONNX simplifica la representación de cuantificación, la extiende a un conjunto más amplio de escenarios y ofrece opciones para diferentes tipos de redondeo y cuantificación binaria. Se está utilizando para la implementación en FPGA y está integrado en la biblioteca de cuantificación Brevitas Python, con NQCDQ configurado para integrarse en la próxima versión.
GRCon20 - Inferencia de aprendizaje profundo en GNU Radio con ONNX
GRCon20 - Inferencia de aprendizaje profundo en GNU Radio con ONNX
El video analiza el uso de ONNX como un formato abierto para integrar el aprendizaje profundo como una solución flexible de código abierto en el dominio de la radiofrecuencia. El orador presenta su nuevo módulo GR DNN DN4, que utiliza interfaces de Python tanto para GNU Radio como para ONNX, y demuestra sus capacidades con un ejemplo de clasificación de modulación automática utilizando un modelo de red neuronal convolucional profundo entrenado en datos simulados generados por GNU Radio. También discuten los requisitos y desafíos de usar el aprendizaje profundo para la clasificación de datos SDR con el modelo BGG16 y sugieren usar aceleración de hardware, como una GPU, para mejorar la inferencia y lograr resultados en tiempo real. El proyecto es de código abierto y se fomenta la colaboración.