Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Hoja de ruta de visión artificial | Cómo convertirse en un ingeniero de visión por computadora
Hoja de ruta de visión artificial | Cómo convertirse en un ingeniero de visión por computadora
Este video proporciona una hoja de ruta para convertirse en ingeniero de visión por computadora, dividiendo el proceso de aprendizaje en cuatro módulos: Python y OpenCV, robótica y programación de bajo nivel, inteligencia artificial y temas avanzados. Se enfatiza la importancia de los proyectos prácticos que involucran dispositivos físicos como robótica y Arduinos, junto con la necesidad de tener una comprensión básica de las matemáticas. El orador también analiza competencias y proyectos que pueden ayudar a los aspirantes a ingenieros de visión por computadora a perfeccionar sus habilidades. Además, se destaca la importancia de las habilidades blandas como la documentación y el conocimiento de herramientas de software como Git y Docker. Finalmente, se recomienda obtener títulos en matemáticas, ciencia de datos, informática o ingeniería, aunque también es posible aprender de forma independiente a través de proyectos y cursos.
CLASIFICACIÓN DE IMÁGENES con el conjunto de datos personalizado Yolov8 | Tutorial de visión artificial
Código: https://github.com/computervisioneng/image-classification-yolov8
CLASIFICACIÓN DE IMÁGENES con el conjunto de datos personalizado Yolov8 | Tutorial de visión artificial
En esta sección, el presentador explica cómo elegir el mejor modelo para el proyecto y hace sugerencias entre elegir el último modelo producido del proceso de capacitación o seleccionar el modelo con la mayor precisión. La decisión depende de varios factores, incluidos los datos, el problema, el caso de uso y el proceso de capacitación. El orador también explica cómo hacer todas las inferencias y predecir nuevas muestras importando YOLO y especificando la ruta absoluta al modelo, usando una imagen de la computadora local y mostrando los resultados. Los resultados proporcionan mucha información, incluidas las probabilidades y los nombres de las categorías en las que se entrenó el clasificador de imágenes.
Entrene la detección de objetos Yolov8 en un conjunto de datos personalizado | Guía paso a paso | Tutorial de visión artificial
Código: https://github.com/computervisioneng/train-yolov8-custom-dataset-step-by-step-guide
Entrene la detección de objetos Yolov8 en un conjunto de datos personalizado | Guía paso a paso | Tutorial de visión artificial
Este video tutorial proporciona una guía paso a paso sobre cómo entrenar un detector de objetos usando YOLOv8 en un conjunto de datos personalizado para aplicaciones de visión por computadora. El tutorial cubre aspectos importantes como la recopilación de datos, la anotación, el formato y la capacitación, así como la importancia de analizar gráficos de función de pérdida y ejemplos de la vida real para evaluar el rendimiento del modelo. El tutorial enfatiza el uso de la herramienta CVAT para la anotación, el cumplimiento del formato de datos YOLOv8 requerido y la creación de un archivo YAML de configuración. El tutorial también demuestra el uso de Google Colab y PyCharm para entrenar y probar el detector de objetos.
El video demuestra el rendimiento de un modelo de detección de objetos YOLOv8 entrenado en un conjunto de datos de alpaca. El orador usa un script de Python para cargar videos y ejecutar predicciones, mostrando una detección casi perfecta en algunos casos y una detección estable en otros, con algunas detecciones perdidas en un video. El ponente recomienda analizar las funciones de pérdida de entrenamiento y validación y decidir si hay margen de mejora antes de volver a entrenar el modelo para obtener un modelo más potente y con mejor rendimiento.
Detección de objetos Yolov8 + seguimiento de objetos de clasificación profunda | Tutorial de visión artificial
Código: https://github.com/computervisioneng/object-tracking-yolov8-deep-sort
Detección de objetos Yolov8 + seguimiento de objetos de clasificación profunda | Tutorial de visión artificial
Este video tutorial muestra cómo implementar un sistema de detección y seguimiento de objetos usando YOLOv8 y clasificación profunda. El presentador recorre el proceso paso a paso, desde configurar el entorno, cargar y detectar objetos en un video usando YOLOv8, hasta rastrear los objetos detectados a lo largo del tiempo usando clasificación profunda. También explican la importancia de crear la estructura de archivos correcta e instalar las dependencias necesarias. Una vez que las detecciones se extraen de YOLOv8, se aplica el seguimiento de objetos de clasificación profunda para realizar un seguimiento de los objetos detectados a lo largo del tiempo. Finalmente, el presentador explica cómo guardar los cuadros de salida finales en un archivo de video y alienta a los espectadores a modificar el umbral de detección para una mayor precisión.
Segmentación de imágenes con el conjunto de datos personalizado Yolov8 | Tutorial de visión artificial
Código: https://github.com/computervisioneng/image-segmentation-yolov8
Datos: https://drive.google.com/drive/folders/1JvA2IvHBy2QOnAtPtoy4JbEEmtbz5dnK
Segmentación de imágenes con el conjunto de datos personalizado Yolov8 | Tutorial de visión artificial
Este tutorial cubre el proceso de anotar imágenes y crear una máscara binaria para la segmentación semántica, formatear y estructurar el conjunto de datos para entrenar con YoloV8, entrenar el modelo en Google Collab, analizar los resultados del entrenamiento y hacer predicciones usando una secuencia de comandos de Python. El presentador enfatiza la importancia de estructurar el sistema de archivos y analizar la función de pérdida y las métricas de validación para entrenar un buen modelo para el conjunto de datos personalizado de YoloV8. También discuten el impacto de los datos defectuosos en la calidad de la predicción y recomiendan usar las predicciones del modelo actual para entrenar uno nuevo y mejorado. En general, el tutorial proporciona una guía completa para la segmentación de imágenes con el conjunto de datos personalizado de YoloV8.
Detección de objetos Tensorflow en 5 horas con Python | Curso Completo con 3 Proyectos
Obtenga el código Código del curso de Python de detección de objetos de Tensorflow: https://github.com/nicknochnack/TFODCourse
Aplicación React de detección de objetos Tensorflow: https://github.com/nicknochnack/TFODApp
Detección de objetos Tensorflow para Raspberry Pi: https://github.com/nicknochnack/TFODRPi
Detección de objetos Tensorflow en 5 horas con Python | Curso Completo con 3 Proyectos
Parte 1
Parte 2
parte 3
parte 4
Parte 5
en diferentes direcciones usando ambas manos y viendo cómo se comporta el modelo. Luego pasa a congelar el gráfico, exportarlo y convertirlo a tensorflow.js. También explica cómo cargar el modelo en IBM Cloud Object Store y seguir los pasos que están disponibles en el repositorio de github. Luego, el instructor clona el repositorio, abre un nuevo símbolo del sistema y muestra cómo navegar a las carpetas adecuadas.
parte 6
Reconocimiento Automático de Matrículas usando Tensorflow y EasyOCR Curso Completo en 2 Horas | Pitón
Cuaderno final: https://github.com/nicknochnack/RealTimeAutomaticNumberPlateRecognition
Código de referencia: https://github.com/nicknochnack/TFODCourse
Reconocimiento Automático de Matrículas usando Tensorflow y EasyOCR Curso Completo en 2 Horas | Pitón
El video de YouTube titulado "Reconocimiento automático de matrículas usando Tensorflow y EasyOCR Curso completo en 2 horas | Python" proporciona una guía completa para construir un sistema de reconocimiento automático de matrículas (ANPR) preciso y eficiente usando Tensorflow y EasyOCR. El sistema ANPR utiliza un sistema de dos partes: TensorFlow se utiliza para detectar la región de interés de la matrícula, mientras que EasyOCR extrae el texto de la región detectada. El video cubre una variedad de temas, desde la configuración de entornos virtuales y la instalación de las dependencias necesarias, hasta la preparación de datos para el entrenamiento y la solución de errores que pueden ocurrir durante el entrenamiento. En general, los espectadores pueden obtener una comprensión detallada de cómo construir un sistema ANPR de nivel de producción con capacidades de detección de imágenes estándar o en tiempo real.
El tutorial de YouTube sobre el reconocimiento automático de matrículas (ANPR) con TensorFlow y EasyOCR explica cómo detectar matrículas con precisión mediante la detección de objetos y cómo extraer los números de matrícula mediante OCR. El instructor analiza cómo filtrar el texto según el tamaño y las coordenadas para extraer solo la información relevante de la placa. Demuestran cómo asignar recursos de GPU y limitar el consumo de memoria para TensorFlow, extraer puntajes de imágenes, clases y cuadros que pasan el umbral de detección y aplicar OCR usando EasyOCR. Además, el video explica cómo guardar los resultados de salida en un archivo CSV y en la ruta de la carpeta para los resultados de imagen y en tiempo real. El orador enfatiza que el código está disponible para los espectadores y los alienta a pedir ayuda y compartir sus comentarios.
Aprendizaje por refuerzo en 3 horas | Curso completo usando Python
Código: https://github.com/nicknochnack/ReinforcementLearningCourse
Aprendizaje por refuerzo en 3 horas | Curso completo usando Python
00:00:00 - 01:00:00 El curso en video "Aprendizaje por refuerzo en 3 horas" cubre una variedad de temas en el aprendizaje por refuerzo, incluida la implementación práctica y la reducción de la brecha entre la teoría y la práctica. El curso cubre todo, desde la configuración del entorno RL hasta la creación de entornos personalizados, con un enfoque en la capacitación de agentes de aprendizaje por refuerzo y su evaluación mediante diferentes algoritmos y arquitecturas. Se discuten las aplicaciones populares de RL, como la robótica y los juegos, así como las limitaciones de RL, como su suposición de que los entornos son markovianos y el potencial de un entrenamiento inestable. El curso utiliza Stable Baselines, una biblioteca RL de código abierto y OpenAI Gym para crear entornos simulados. El instructor explica los diferentes tipos de espacios utilizados para representar acciones y valores que los agentes pueden tomar en un entorno, así como diferentes algoritmos de RL como A2C y PPO. Se enfatiza la importancia de comprender el entorno antes de implementar los algoritmos, y se guía a los usuarios a través de la configuración de la plataforma informática para el aprendizaje por refuerzo, la elección de los algoritmos de RL apropiados y la capacitación y prueba del modelo.
01:00:00 - 02:00:00 Este video de YouTube ofrece un curso de tres horas sobre el aprendizaje por refuerzo con Python. El instructor explica los componentes básicos del aprendizaje por refuerzo, incluido el agente, el entorno, la acción y la recompensa. La sección analiza cómo definir un entorno, entrenar un modelo mediante el aprendizaje por refuerzo y ver los registros de entrenamiento mediante TensorBoard para monitorear el proceso de entrenamiento. El disertante también cubre otros temas, como guardar y recargar un modelo entrenado, probar y mejorar el rendimiento del modelo, definir una arquitectura de red para un actor personalizado y una función de valor en una red neuronal, y usar el aprendizaje por refuerzo para jugar el juego Breakout de Atari. Además, el curso incluye tres proyectos que los alumnos construirán utilizando técnicas de aprendizaje de refuerzo, incluido el juego Breakout en Atari, la construcción de un automóvil de carreras para conducción autónoma y la creación de entornos personalizados utilizando los espacios OpenAI Gym.
02:00:00 - 03:00:00 Este video de YouTube titulado "Aprendizaje por refuerzo en 3 horas | Curso completo usando Python" cubre varios temas relacionados con el aprendizaje por refuerzo. El instructor demuestra cómo entrenar a un agente de aprendizaje por refuerzo para los juegos de Atari y la conducción autónoma utilizando el entorno de un coche de carreras. También presentan varias dependencias de gimnasio OpenAI, ayudantes y líneas de base estables, así como diferentes tipos de espacios para el aprendizaje por refuerzo. Además, el video cubre cómo crear un entorno personalizado para el aprendizaje por refuerzo, definir el estado del entorno, sus espacios de observación y acción, probar y entrenar el modelo y guardar el modelo entrenado después del aprendizaje. El instructor también analiza la importancia de entrenar modelos durante períodos más largos para un mejor rendimiento y alienta a los espectadores a comunicarse si encuentran alguna dificultad.
Parte 2
parte 3
Clase 2 -- Álgebra Lineal Numérica -- Marvin Pförtner
Numéricos de ML 2 -- Álgebra Lineal Numérica -- Marvin Pförtner
El álgebra lineal numérica es fundamental para el aprendizaje automático, los procesos gaussianos y otros métodos de regresión no paramétricos. La conferencia cubre varios aspectos del álgebra lineal numérica, incluida la importancia de comprender la estructura de una matriz para una multiplicación más eficiente, la optimización de algoritmos de aprendizaje automático mediante la resolución de problemas de selección de hiperparámetros y el cálculo de matrices kernel, y la solución de un sistema lineal utilizando el descomposición LU, entre otros. La conferencia también enfatiza la importancia de implementar algoritmos correctamente, ya que el algoritmo utilizado para las operaciones matemáticas tiene un impacto significativo en el rendimiento, la estabilidad y el consumo de memoria.
En la segunda parte del video, Marvin Pförtner analiza la importancia del álgebra lineal numérica en los algoritmos de aprendizaje automático. Cubre varios temas, incluida la descomposición LU, la descomposición de Cholesky, el lema de inversión de matriz y el proceso de regresión gaussiana. Pförtner enfatiza la importancia de utilizar la estructura para hacer que los algoritmos sean más eficientes y destaca la importancia de la estabilidad numérica para resolver grandes sistemas de ecuaciones en el proceso de regresión gaussiana. También analiza técnicas como el aprendizaje activo y las aproximaciones de bajo rango para manejar grandes conjuntos de datos y las posibles limitaciones de memoria de las matrices del kernel. En general, el video muestra el papel crucial que juega el álgebra lineal numérica en muchos aspectos del aprendizaje automático.
Detección de lenguaje de señas usando RECONOCIMIENTO DE ACCIÓN con Python | Modelo de aprendizaje profundo LSTM
Código: https://github.com/nicknochnack/ActionDetectionforSignLanguage
Detección de lenguaje de señas usando RECONOCIMIENTO DE ACCIÓN con Python | Modelo de aprendizaje profundo LSTM
En este video de YouTube titulado "Detección de lenguaje de señas usando RECONOCIMIENTO DE ACCIÓN con Python | Modelo de aprendizaje profundo de LSTM", el presentador explica cómo crear un flujo de detección de lenguaje de señas en tiempo real usando detección de acción y modelos clave. El presentador usa OpenCV y MediaPipe Holistic para extraer puntos clave de las manos, la cara y el cuerpo, y luego TensorFlow y Keras para construir un modelo LSTM que predice la acción que se muestra en una secuencia de fotogramas. El presentador pasa por el proceso de acceder y extraer puntos clave de la cámara web, configura un bucle para acceder a la cámara web y facilita la detección del lenguaje de señas al aplicar los puntos de referencia al último cuadro capturado de la cámara web. También demuestran cómo modificar el código para manejar los puntos clave que faltan y agregar el manejo de errores al modelo de pose y la detección de puntos de referencia faciales. Finalmente, el presentador explica la función de extracción de puntos clave para la detección de lenguaje de señas mediante el reconocimiento de acciones con Python.
El video brinda una explicación detallada de cómo crear un modelo de detección de lenguaje de señas mediante el reconocimiento de acciones con Python. Para recopilar los datos, el presentador crea carpetas para cada acción y secuencia y modifica el bucle MediaPipe para recopilar 30 valores de puntos clave por video para cada acción. Los datos se procesan previamente mediante la creación de etiquetas y funciones para el modelo de aprendizaje profundo de LSTM, y el modelo se entrena con TensorFlow y Keras. El modelo entrenado se evalúa utilizando una matriz de confusión de etiquetas múltiples y una función de puntaje de precisión. Finalmente, la detección en tiempo real se establece mediante la creación de nuevas variables para la detección, la concatenación de fotogramas y la aplicación de lógica de predicción, con una variable de umbral implementada para generar resultados por encima de una determinada métrica de confianza.
El tutorial en video muestra cómo usar Python y un modelo de aprendizaje profundo de LSTM para la detección del lenguaje de señas mediante el reconocimiento de acciones. El orador recorrió la lógica de predicción y explicó el código, haciéndolo fácil de entender. También mostraron a los espectadores cómo ajustar el código usando el método de agregar, aumentando el umbral de detección y agregando visualización de probabilidad para que la detección sea visualmente atractiva. El orador también abordó cómo verificar si el resultado está por encima del umbral, cómo manipular las probabilidades y cómo ampliar y modificar el proyecto agregando acciones o visualizaciones adicionales. Finalmente, el ponente presentó la lógica adicional del modelo, que minimiza las detecciones falsas y mejora la precisión del modelo, junto con una invitación a apoyar el video y el canal.