Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Detección de objetos Yolov7, modelo ML.NET onnx
Detección de objetos Yolov7, modelo ML.NET onnx
https://github.com/ptiszai/Object-Detection-yolov7-ML.NET-onnx
Implementar Yolo3 en tiempo real usando C#
Implementar Yolo3 en tiempo real usando C#
https://github.com/duonghb53/YoloOnCSharpGPU
Detección de rostros con C# y OpenCVSharp: grupo práctico de usuarios de ML.NET 19/01/2022
Detección de rostros con C# y OpenCVSharp: grupo práctico de usuarios de ML.NET 19/01/2022
El tutorial en video sobre la detección de rostros con OpenCVSharp en C# comenzó con el orador presentando la biblioteca OpenCVSharp, una biblioteca de código abierto para tareas de visión por computadora, con un contenedor .NET. El video analiza el uso de diferentes clasificadores para la detección, incluso para los ojos, y la importancia de la experimentación en la selección de clasificadores. El tutorial ayudó al oyente a crear un programa para la detección de rostros y ojos mediante cámaras web, con la ayuda de fragmentos de código, Visual Studio y cuadernos interactivos .NET. También se trataron diferentes aspectos, incluido cómo superponer imágenes transparentes y manejar correctamente los objetos de tapete. El orador reconoció la facilidad de uso, la velocidad y la compatibilidad de OpenCVSharp con .NET, pero también señaló la falta de ejemplos y el apoyo incierto a largo plazo.
Predicción en un modelo ONNX de Custom Vision con ML.NET
Predicción en un modelo ONNX de Custom Vision con ML.NET
En este video de YouTube, el presentador analiza el uso de ML.NET para predecir en un modelo ONNX de visión personalizado. Esto implica exportar el modelo del servicio de visión personalizado e importarlo al proyecto ML.NET. La implementación incluye cambiar el tamaño de las imágenes, extraer píxeles de la imagen, crear un contexto de datos y una lista de datos vacía para cargar los datos de la imagen, usar el marco ML.NET para hacer predicciones en el modelo y generar los resultados. El video también muestra cómo obtener el nombre de salida de un modelo usando una herramienta llamada Neuron y cómo obtener información del cuadro delimitador del modelo para una imagen de prueba dada. El presentador también muestra cómo dibujar un rectángulo alrededor del cuadro delimitador y mostrar las etiquetas pronosticadas mediante la API de gráficos. Se enfatiza la implementación del modelo ONNX utilizando la API ML.NET y el cambio de tamaño de la imagen como la parte más importante de la implementación.
Hacer que las redes neuronales sean portátiles con ONNX
Hacer que las redes neuronales sean portátiles con ONNX
En este video de YouTube, Ron Dagdag explica cómo hacer que las redes neuronales sean portátiles con ONNX, centrándose en el lado de la inferencia del aprendizaje automático. ONNX es un marco de código abierto que permite la portabilidad de los modelos de aprendizaje automático en varias unidades y dispositivos de procesamiento. El orador analiza el proceso de convertir modelos a ONNX, implementar e integrar el modelo con aplicaciones y usarlo para la implementación en la nube y perimetral. También demuestran cómo cargar un modelo ONNX en Node.js e integrar modelos de clasificación de imágenes en aplicaciones web y móviles mediante ONNX Runtime. Los modelos ONNX son un estándar abierto que se puede crear a partir de varios marcos para implementarse de manera eficiente en la plataforma de destino.
En .NET Live: IA en todas partes: Azure ML y ONNX Runtime
En .NET Live: IA en todas partes: Azure ML y ONNX Runtime
El video "On .NET Live - AI Everywhere: Azure ML and ONNX Runtime" se centra en el uso de Azure ML y ONNX Runtime para el aprendizaje automático con C#. Los oradores discuten los beneficios de usar el formato ONNX para exportar modelos a través de lenguajes de programación, la optimización del tiempo de ejecución de ONNX para aceleración e inferencia de hardware, y su compatibilidad con versiones específicas del marco. También muestran cómo usar ONNX Runtime con Azure ML en Python y .NET, crear y entrenar un modelo de red neuronal y explicar la inferencia y su paso final en el aprendizaje automático. El video concluye con la introducción de un nuevo proveedor para el tiempo de ejecución de ONNX que permite el uso de OpenVINO para la CPU ARM, proporcionando capacidades de depuración.
En esta sección del video, los anfitriones analizan la flexibilidad y la capacidad de configuración del tiempo de ejecución de ONNX y su capacidad para ejecutarse en varias plataformas de hardware y software. El tiempo de ejecución de ONNX se considera un excelente contenedor para diferentes plataformas, ya que los clientes pueden usarlo en una nube, Android, iOS o la CPU Snapdragon, y permite una inferencia más rápida.
Berlin Buzzwords 2019: Lester Solbakken: escalar la evaluación del modelo ONNX y TensorFlow en la búsqueda
Berlin Buzzwords 2019: Lester Solbakken: escalar la evaluación del modelo ONNX y TensorFlow en la búsqueda
Lester Solbakken analiza los desafíos de escalar el aprendizaje automático para aplicaciones de búsqueda y propone una solución alternativa al uso de servidores de modelos externos. Sugiere evaluar modelos de aprendizaje automático en nodos de contenido, en lugar de enviar datos a servidores de modelos externos, para mejorar la escalabilidad y controlar la latencia y el rendimiento. Solbakken destaca el uso de Vespa de su propio lenguaje de clasificación y extensión de API de tensor para facilitar la creación de un paquete declarativo de estado para una aplicación, y el esfuerzo continuo para admitir modelos de aprendizaje automático en Vespa. Él enfatiza la importancia de comprender la correlación entre las diferentes fases de la clasificación para evitar problemas de recuperación a nivel del sistema y alienta a las personas a contribuir con el proyecto de código abierto.
Asimilar ONNX
Asimilar ONNX
En este video, el presentador presenta ONNX como un estándar abierto para la interoperabilidad del aprendizaje automático que puede funcionar en todas las plataformas diferentes. Pasan por el proceso de crear un proyecto ONNX desde cero, modificando un ejemplo del repositorio de Microsoft, solucionando problemas y explorando otros proyectos de Github relacionados con ONNX. Luego prueban un enlace ONNX usando GPT2 y CUDA, y expresan su interés en explorar los enlaces Rust en tiempo de ejecución de ONNX en el futuro. El presentador destaca la versatilidad y portabilidad de ONNX y lo ve como una buena herramienta para experimentar y construir proyectos más sustanciales en el futuro.
HITNET vs. Comparación de estimación de profundidad estéreo neuronal ACVNet (ONNX)
HITNET vs. Comparación de estimación de profundidad estéreo neuronal ACVNet (ONNX)
Comparación de los modelos de estimación de profundidad estéreo HITNET y ACVNet en el conjunto de datos Driving Stereo.
Detalles de la inferencia del modelo (NVIDIA 1660 SUPER):
HITNET (640X480): 220ms
ACVNet (640x384): 480ms
Referencias: [Inferencia HITNET] https://github.com/ibaiGorordo/ONNX-HITNET-Stereo-Depth-estimation
[Inferencia de ACVNet] https://github.com/ibaiGorordo/ONNX-ACVNet-Stereo-Depth-Estimation
[Conjunto de datos de Driving Stereo] https://drivingstereo-dataset.github.io/
Importe, entrene y optimice modelos ONNX con NVIDIA TAO Toolkit
Importe, entrene y optimice modelos ONNX con NVIDIA TAO Toolkit
El video muestra cómo usar NVIDIA TAO Toolkit para importar, entrenar y optimizar modelos ONNX. Comienza con la descarga de un modelo ResNet18 previamente entrenado, lo ajusta con TAO en el conjunto de datos de VOC de Pascal y proporciona pasos para importar el modelo y visualizar el gráfico ONNX. El progreso de la capacitación se puede monitorear mediante la visualización de TensorBoard y se pueden usar capas personalizadas en caso de errores de conversión ONNX. El video también explica cómo evaluar el rendimiento del modelo mediante la observación de la pérdida decreciente, la validación de la pérdida y el análisis de pesos y sesgos. Los usuarios pueden evaluar la precisión del modelo en el conjunto de datos de prueba y las imágenes de muestra y continuar con la poda y la optimización para mejorarlo aún más.