Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Demo del tracciamento dei veicoli e della stima della velocità al 2° AI City Challenge Workshop nel CVPR 2018
Demo del tracciamento dei veicoli e della stima della velocità al 2° AI City Challenge Workshop nel CVPR 2018
Il nostro team dell'Università di Washington è il vincitore del Track 1 (Traffic Flow Analysis) al 2nd AI City Challenge Workshop in CVPR 2018.
I set di dati per la seconda AI City Challenge (2018) non sono più disponibili al pubblico. Tuttavia, puoi ancora accedere ai set di dati della 3a AI City Challenge (2019) o partecipare all'ultima 4a AI City Challenge in CVPR 2020.
Hanno fornito un nuovo set di dati su scala urbana per il tracciamento di veicoli con più telecamere e per la reidentificazione basata su immagini. Avevano anche un nuovo set di dati per il rilevamento delle anomalie del traffico. La portata dei set di dati e il numero di veicoli utilizzati per la valutazione sono entrambi senza precedenti. Il sito web di AI City Challenges è https://www.aicitychallenge.org/.
Codice: https://github.com/zhengthomastang/2018AICity_TeamUW
Roadmap per la visione artificiale | Come diventare un ingegnere di visione artificiale
Roadmap per la visione artificiale | Come diventare un ingegnere di visione artificiale
Questo video fornisce una tabella di marcia per diventare un ingegnere di visione artificiale, suddividendo il processo di apprendimento in quattro moduli: Python e OpenCV, robotica e programmazione di basso livello, intelligenza artificiale e argomenti avanzati. Viene sottolineata l'importanza di progetti pratici che coinvolgono dispositivi fisici come robotica e Arduino, insieme alla necessità di avere una conoscenza di base della matematica. Il relatore discute anche di concorsi e progetti che possono aiutare gli aspiranti ingegneri della visione artificiale ad affinare le proprie capacità. Inoltre, viene evidenziata l'importanza delle competenze trasversali come la documentazione e la conoscenza di strumenti software come Git e Docker. Infine, si consiglia di conseguire lauree in matematica, scienze dei dati, informatica o ingegneria, sebbene sia possibile anche l'apprendimento autonomo attraverso progetti e corsi.
CLASSIFICAZIONE IMMAGINE con set di dati personalizzato Yolov8 | Esercitazione sulla visione artificiale
Codice: https://github.com/computervisioneng/image-classification-yolov8
CLASSIFICAZIONE IMMAGINE con set di dati personalizzato Yolov8 | Esercitazione sulla visione artificiale
In questa sezione, il presentatore spiega come scegliere il modello migliore per il progetto e fornisce suggerimenti tra la scelta dell'ultimo modello prodotto dal processo di formazione o la selezione del modello con la massima precisione. La decisione dipende da vari fattori, tra cui dati, problema, caso d'uso e processo di formazione. Il relatore spiega anche come fare tutte le inferenze e prevedere nuovi campioni importando YOLO e specificando il percorso assoluto del modello, utilizzando un'immagine dal computer locale e mostrando i risultati. I risultati forniscono molte informazioni, comprese le probabilità e i nomi delle categorie su cui è stato addestrato il classificatore di immagini.
Addestra il rilevamento di oggetti Yolov8 su un set di dati personalizzato | Guida passo passo | Esercitazione sulla visione artificiale
Codice: https://github.com/computervisioneng/train-yolov8-custom-dataset-step-by-step-guide
Addestra il rilevamento di oggetti Yolov8 su un set di dati personalizzato | Guida passo passo | Esercitazione sulla visione artificiale
Questo tutorial video fornisce una guida dettagliata su come addestrare un rilevatore di oggetti utilizzando YOLOv8 su un set di dati personalizzato per applicazioni di visione artificiale. Il tutorial copre aspetti importanti come la raccolta dei dati, l'annotazione, la formattazione e l'addestramento, nonché l'importanza dell'analisi dei grafici delle funzioni di perdita e degli esempi di vita reale per valutare le prestazioni del modello. Il tutorial enfatizza l'uso dello strumento CVAT per l'annotazione, l'adesione al formato dati YOLOv8 richiesto e la creazione di un file YAML di configurazione. Il tutorial dimostra anche l'utilizzo di Google Colab e PyCharm per addestrare e testare il rilevatore di oggetti.
Il video mostra le prestazioni di un modello di rilevamento di oggetti YOLOv8 addestrato su un set di dati di alpaca. L'oratore utilizza uno script Python per caricare video ed eseguire previsioni, mostrando un rilevamento quasi perfetto in alcuni casi e un rilevamento stabile in altri, con alcuni rilevamenti mancati in un video. Il relatore consiglia di analizzare le funzioni di perdita di addestramento e convalida e di decidere se c'è margine di miglioramento prima di addestrare nuovamente il modello per ottenere un modello più potente e con prestazioni migliori.
Rilevamento oggetti Yolov8 + tracciamento oggetti deep sort | Esercitazione sulla visione artificiale
Codice: https://github.com/computervisioneng/object-tracking-yolov8-deep-sort
Rilevamento oggetti Yolov8 + tracciamento oggetti deep sort | Esercitazione sulla visione artificiale
Questo tutorial video mostra come implementare un sistema di rilevamento e tracciamento degli oggetti utilizzando YOLOv8 e deep sort. Il relatore passa attraverso il processo passo dopo passo, dall'impostazione dell'ambiente, al caricamento e al rilevamento di oggetti in un video utilizzando YOLOv8, al monitoraggio degli oggetti rilevati nel tempo utilizzando il deep sort. Spiegano anche l'importanza di creare la corretta struttura dei file e installare le dipendenze necessarie. Una volta estratti i rilevamenti da YOLOv8, viene applicato il monitoraggio degli oggetti Deep Sort per tenere traccia degli oggetti rilevati nel tempo. Infine, il presentatore spiega come salvare i frame di output finali in un file video e incoraggia gli spettatori a modificare la soglia di rilevamento per una maggiore precisione.
Segmentazione delle immagini con set di dati personalizzato Yolov8 | Esercitazione sulla visione artificiale
Codice: https://github.com/computervisioneng/image-segmentation-yolov8
Dati: https://drive.google.com/drive/folders/1JvA2IvHBy2QOnAtPtoy4JbEEmtbz5dnK
Segmentazione delle immagini con set di dati personalizzato Yolov8 | Esercitazione sulla visione artificiale
Questo tutorial illustra il processo di annotazione delle immagini e la creazione di una maschera binaria per la segmentazione semantica, la formattazione e la strutturazione del set di dati per l'addestramento con YoloV8, l'addestramento del modello in Google Collab, l'analisi dei risultati dell'addestramento e l'esecuzione di previsioni utilizzando uno script Python. Il relatore sottolinea l'importanza di strutturare il file system e analizzare la funzione di perdita e le metriche di convalida per addestrare un buon modello per il set di dati personalizzato YoloV8. Discutono anche dell'impatto dei dati errati sulla qualità delle previsioni e raccomandano di utilizzare le previsioni del modello corrente per addestrarne uno nuovo e migliorato. Nel complesso, il tutorial fornisce una guida completa alla segmentazione delle immagini con il set di dati personalizzato YoloV8.
Rilevamento di oggetti Tensorflow in 5 ore con Python | Corso completo con 3 progetti
Ottieni il codice Tensorflow Object Detection Python Course Code: https://github.com/nicknochnack/TFODCourse
App React per il rilevamento di oggetti Tensorflow: https://github.com/nicknochnack/TFODApp
Rilevamento di oggetti Tensorflow per Raspberry Pi: https://github.com/nicknochnack/TFODRPi
Rilevamento di oggetti Tensorflow in 5 ore con Python | Corso completo con 3 progetti
Parte 1
Parte 2
Parte 3
Parte 4
Parte 5
in diverse direzioni usando entrambe le mani e osservando come si comporta il modello. Quindi passa a bloccare il grafico, esportarlo e convertirlo in tensorflow.js. Spiega inoltre come caricare il modello su IBM Cloud Object Store e illustrare i passaggi disponibili nel repository github. L'istruttore procede quindi alla clonazione del repository, apre un nuovo prompt dei comandi e mostra come navigare nelle cartelle appropriate.
Parte 6
Riconoscimento automatico della targa utilizzando Tensorflow e EasyOCR Corso completo in 2 ore | Pitone
Taccuino finale: https://github.com/nicknochnack/RealTimeAutomaticNumberPlateRecognition
Codice di base: https://github.com/nicknochnack/TFODCourse
Riconoscimento automatico della targa utilizzando Tensorflow e EasyOCR Corso completo in 2 ore | Pitone
Il video di YouTube intitolato "Automatic Number Plate Recognition using Tensorflow and EasyOCR Full Course in 2 Hours | Python" fornisce una guida completa alla creazione di un sistema ANPR (Automatic Number Plate Recognition) accurato ed efficiente utilizzando Tensorflow e EasyOCR. Il sistema ANPR utilizza un sistema in due parti, con TensorFlow utilizzato per rilevare la regione di interesse della targa, mentre EasyOCR estrae il testo dalla regione rilevata. Il video copre una vasta gamma di argomenti, dalla configurazione di ambienti virtuali e l'installazione delle dipendenze necessarie, alla preparazione dei dati per l'addestramento e la risoluzione degli errori che possono verificarsi durante l'addestramento. Nel complesso, gli spettatori possono acquisire una comprensione dettagliata di come costruire un sistema ANPR di livello produttivo con funzionalità di rilevamento delle immagini in tempo reale o standard.
Il tutorial di YouTube sul riconoscimento automatico delle targhe (ANPR) con TensorFlow e EasyOCR illustra come rilevare accuratamente le targhe utilizzando il rilevamento degli oggetti e come estrarre i numeri di targa utilizzando l'OCR. L'istruttore spiega come filtrare il testo in base alle dimensioni e alle coordinate per estrarre solo le informazioni rilevanti dalla lastra. Dimostrano come allocare le risorse della GPU e limitare il consumo di memoria per TensorFlow, estrarre punteggi di immagini, classi e caselle che superano la soglia di rilevamento e applicare l'OCR utilizzando EasyOCR. Inoltre, il video illustra come salvare i risultati dell'output in un file CSV e nel percorso della cartella sia per i risultati in tempo reale che per le immagini. L'oratore sottolinea che il codice è disponibile per gli spettatori e li incoraggia a chiedere aiuto e condividere il proprio feedback.
Apprendimento per rinforzo in 3 ore | Corso completo usando Python
Codice: https://github.com/nicknochnack/ReinforcementLearningCourse
Apprendimento per rinforzo in 3 ore | Corso completo usando Python
00:00:00 - 01:00:00 Il video corso "Reinforcement Learning in 3 Hours" copre una vasta gamma di argomenti nell'apprendimento per rinforzo, inclusa l'implementazione pratica e il superamento del divario tra teoria e pratica. Il corso copre tutto, dalla configurazione dell'ambiente RL alla creazione di ambienti personalizzati, con particolare attenzione alla formazione di agenti di apprendimento per rinforzo e alla loro valutazione utilizzando diversi algoritmi e architetture. Vengono discusse applicazioni RL popolari come la robotica e i giochi, nonché i limiti di RL come il presupposto che gli ambienti siano markoviani e il potenziale per un addestramento instabile. Il corso utilizza Stable Baselines, una libreria RL open source e OpenAI Gym per creare ambienti simulati. L'istruttore spiega i diversi tipi di spazi utilizzati per rappresentare azioni e valori che gli agenti possono assumere in un ambiente, nonché diversi algoritmi RL come A2C e PPO. Viene sottolineata l'importanza di comprendere l'ambiente prima di implementare gli algoritmi e gli utenti vengono guidati attraverso l'impostazione della piattaforma di calcolo per l'apprendimento per rinforzo, la scelta degli algoritmi RL appropriati e l'addestramento e il test del modello.
01:00:00 - 02:00:00 Questo video di YouTube fornisce un corso di tre ore sull'apprendimento per rinforzo utilizzando Python. L'istruttore spiega i componenti principali dell'apprendimento per rinforzo, inclusi l'agente, l'ambiente, l'azione e la ricompensa. La sezione illustra come definire un ambiente, addestrare un modello utilizzando l'apprendimento per rinforzo e visualizzare i registri di addestramento utilizzando TensorBoard per monitorare il processo di addestramento. Il docente copre anche altri argomenti, come il salvataggio e il ricaricamento di un modello addestrato, il test e il miglioramento delle prestazioni del modello, la definizione di un'architettura di rete per un attore personalizzato e una funzione di valore in una rete neurale e l'utilizzo dell'apprendimento per rinforzo per giocare al gioco Atari Breakout. Inoltre, il corso include tre progetti che gli studenti costruiranno utilizzando tecniche di apprendimento per rinforzo, tra cui il gioco Breakout in Atari, la costruzione di un'auto da corsa per la guida autonoma e la creazione di ambienti personalizzati utilizzando gli spazi della palestra OpenAI.
02:00:00 - 03:00:00 Questo video di YouTube intitolato "Reinforcement Learning in 3 Hours | Full Course using Python" copre vari argomenti relativi all'apprendimento per rinforzo. L'istruttore dimostra come addestrare un agente di apprendimento per rinforzo per i giochi Atari e la guida autonoma utilizzando l'ambiente delle auto da corsa. Introducono anche varie dipendenze della palestra OpenAI, aiutanti e linee di base stabili, nonché diversi tipi di spazi per l'apprendimento per rinforzo. Inoltre, il video spiega come creare un ambiente personalizzato per l'apprendimento per rinforzo, definire lo stato dell'ambiente, i suoi spazi di osservazione e azione, testare e addestrare il modello e salvare il modello addestrato dopo l'apprendimento. L'istruttore discute anche l'importanza di modelli di allenamento per periodi più lunghi per prestazioni migliori e incoraggia gli spettatori a contattare se incontrano difficoltà.
Parte 2
Parte 3
Rilevamento della lingua dei segni tramite RICONOSCIMENTO AZIONE con Python | Modello di apprendimento profondo LSTM
Codice: https://github.com/nicknochnack/ActionDetectionforSignLanguage
Rilevamento della lingua dei segni tramite RICONOSCIMENTO AZIONE con Python | Modello di apprendimento profondo LSTM
In questo video di YouTube intitolato "Sign Language Detection using ACTION RECOGNITION with Python | LSTM Deep Learning Model", il relatore spiega come creare un flusso di rilevamento della lingua dei segni in tempo reale utilizzando il rilevamento delle azioni e modelli chiave. Il presentatore utilizza OpenCV e MediaPipe Holistic per estrarre i punti chiave da mani, viso e corpo, quindi TensorFlow e Keras per costruire un modello LSTM che prevede l'azione dimostrata in una sequenza di fotogrammi. Il presentatore esegue il processo di accesso ed estrazione dei punti chiave dalla webcam, imposta un loop per accedere alla webcam e semplifica il rilevamento del linguaggio dei segni applicando i punti di riferimento all'ultimo fotogramma acquisito dalla webcam. Dimostrano anche come modificare il codice per gestire i punti chiave mancanti e aggiungere la gestione degli errori al modello di posa e al rilevamento dei punti di riferimento del volto. Infine, il presentatore spiega la funzione di estrazione dei punti chiave per il rilevamento della lingua dei segni utilizzando il riconoscimento delle azioni con Python.
Il video fornisce una spiegazione dettagliata di come creare un modello di rilevamento della lingua dei segni utilizzando il riconoscimento delle azioni con Python. Per raccogliere i dati, il presentatore crea cartelle per ogni azione e sequenza e modifica il ciclo MediaPipe per raccogliere 30 valori di punti chiave per video per ogni azione. I dati vengono pre-elaborati creando etichette e funzionalità per il modello di deep learning LSTM e il modello viene addestrato utilizzando TensorFlow e Keras. Il modello addestrato viene valutato utilizzando una matrice di confusione multi-etichetta e una funzione di punteggio di accuratezza. Infine, il rilevamento in tempo reale viene stabilito creando nuove variabili per il rilevamento, concatenando i frame e applicando la logica di previsione, con una variabile di soglia implementata per rendere i risultati al di sopra di una certa metrica di confidenza.
Il video tutorial mostra come utilizzare Python e un modello di deep learning LSTM per il rilevamento della lingua dei segni utilizzando il riconoscimento delle azioni. L'oratore ha esaminato la logica di previsione e ha spiegato il codice, rendendolo facile da capire. Hanno anche mostrato agli spettatori come regolare il codice utilizzando il metodo append, aumentando la soglia di rilevamento e aggiungendo la visualizzazione della probabilità per rendere il rilevamento visivamente convincente. Il relatore ha anche spiegato come verificare se il risultato è al di sopra della soglia, come manipolare le probabilità e come estendere e modificare il progetto aggiungendo ulteriori azioni o visualizzazioni. Infine, il relatore ha presentato la logica aggiuntiva del modello, che riduce al minimo i falsi rilevamenti e migliora l'accuratezza del modello, insieme a un invito a supportare il video e il canale.