Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Détection d'objets Tensorflow en 5 heures avec Python | Cours complet avec 3 projets
Obtenez le code du cours Python de détection d'objets Tensorflow : https://github.com/nicknochnack/TFODCourse
Application Tensorflow Object Detection React : https://github.com/nicknochnack/TFODApp
Détection d'objets Tensorflow pour Raspberry Pi : https://github.com/nicknochnack/TFODRPi
Détection d'objets Tensorflow en 5 heures avec Python | Cours complet avec 3 projets
Partie 1
Partie 2
Partie 3
Partie 4
Partie 5
dans différentes directions en utilisant les deux mains et en voyant comment le modèle fonctionne. Il continue ensuite à geler le graphique, à l'exporter et à le convertir en tensorflow.js. Il explique également comment télécharger le modèle sur IBM Cloud Object Store et parcourir les étapes disponibles dans le référentiel github. L'instructeur continue ensuite à cloner le référentiel, ouvre une nouvelle invite de commande et montre comment naviguer vers les dossiers appropriés.
Partie 6
Reconnaissance automatique des plaques d'immatriculation avec Tensorflow et EasyOCR Cours complet en 2 heures | Python
Cahier final : https://github.com/nicknochnack/RealTimeAutomaticNumberPlateRecognition
Code de base : https://github.com/nicknochnack/TFODCourse
Reconnaissance automatique des plaques d'immatriculation avec Tensorflow et EasyOCR Cours complet en 2 heures | Python
La vidéo YouTube intitulée « Automatic Number Plate Recognition using Tensorflow and EasyOCR Full Course in 2 Hours | Python » fournit un guide complet pour créer un système précis et efficace de reconnaissance automatique des plaques d'immatriculation (ANPR) à l'aide de Tensorflow et EasyOCR. Le système ANPR utilise un système en deux parties, TensorFlow étant utilisé pour détecter la région d'intérêt de la plaque d'immatriculation, tandis qu'EasyOCR extrait le texte de la région détectée. La vidéo couvre une gamme de sujets, de la configuration des environnements virtuels et l'installation des dépendances nécessaires, à la préparation des données pour la formation et le dépannage des erreurs qui peuvent survenir pendant la formation. Dans l'ensemble, les téléspectateurs peuvent acquérir une compréhension détaillée de la façon de créer un système ANPR de qualité production avec des capacités de détection d'images en temps réel ou standard.
Le didacticiel YouTube sur la reconnaissance automatique des plaques d'immatriculation (ANPR) avec TensorFlow et EasyOCR explique comment détecter avec précision les plaques d'immatriculation à l'aide de la détection d'objets et comment extraire les numéros de plaque à l'aide de l'OCR. L'instructeur explique comment filtrer le texte en fonction de la taille et des coordonnées pour extraire uniquement les informations pertinentes de la plaque. Ils montrent comment allouer des ressources GPU et limiter la consommation de mémoire pour TensorFlow, extraire les scores d'image, les classes et les boîtes qui dépassent le seuil de détection, et appliquer l'OCR à l'aide d'EasyOCR. De plus, la vidéo explique comment enregistrer les résultats de sortie dans un fichier CSV et un chemin de dossier pour les résultats en temps réel et les images. L'orateur souligne que le code est disponible pour les téléspectateurs et les encourage à demander de l'aide et à partager leurs commentaires.
Apprentissage par renforcement en 3 heures | Cours complet utilisant Python
Code : https://github.com/nicknochnack/ReinforcementLearningCourse
Apprentissage par renforcement en 3 heures | Cours complet utilisant Python
00:00:00 - 01:00:00 Le cours vidéo "Apprentissage par renforcement en 3 heures" couvre une gamme de sujets dans l'apprentissage par renforcement, y compris la mise en œuvre pratique et la réduction du fossé théorie-pratique. Le cours couvre tout, de la configuration de l'environnement RL à la création d'environnements personnalisés, en mettant l'accent sur la formation des agents d'apprentissage par renforcement et leur évaluation à l'aide de différents algorithmes et architectures. Les applications RL populaires telles que la robotique et les jeux sont discutées, ainsi que les limites de RL telles que son hypothèse que les environnements sont markoviens et le potentiel d'entraînement instable. Le cours utilise Stable Baselines, une bibliothèque RL open source et OpenAI Gym pour créer des environnements simulés. L'instructeur explique les différents types d'espaces utilisés pour représenter les actions et les valeurs que les agents peuvent prendre dans un environnement, ainsi que les différents algorithmes RL tels que A2C et PPO. L'importance de comprendre l'environnement avant de mettre en œuvre des algorithmes est soulignée, et les utilisateurs sont guidés dans la configuration de la plate-forme de calcul pour l'apprentissage par renforcement, le choix des algorithmes RL appropriés, ainsi que la formation et le test du modèle.
01:00:00 - 02:00:00 Cette vidéo YouTube propose un cours de trois heures sur l'apprentissage par renforcement à l'aide de Python. L'instructeur explique les composants de base de l'apprentissage par renforcement, y compris l'agent, l'environnement, l'action et la récompense. La section explique comment définir un environnement, former un modèle à l'aide de l'apprentissage par renforcement et afficher les journaux de formation à l'aide de TensorBoard pour surveiller le processus de formation. Le conférencier couvre également d'autres sujets, tels que la sauvegarde et le rechargement d'un modèle entraîné, le test et l'amélioration des performances du modèle, la définition d'une architecture de réseau pour un acteur personnalisé et une fonction de valeur dans un réseau de neurones, et l'utilisation de l'apprentissage par renforcement pour jouer au jeu Atari Breakout. De plus, le cours comprend trois projets que les apprenants construiront à l'aide de techniques d'apprentissage par renforcement, notamment le jeu Breakout dans Atari, la construction d'une voiture de course pour la conduite autonome et la création d'environnements personnalisés à l'aide des espaces OpenAI Gym.
02:00:00 - 03:00:00 Cette vidéo YouTube intitulée "Apprentissage par renforcement en 3 heures | Cours complet utilisant Python" couvre divers sujets liés à l'apprentissage par renforcement. L'instructeur montre comment former un agent d'apprentissage par renforcement pour les jeux Atari et la conduite autonome en utilisant l'environnement des voitures de course. Ils introduisent également diverses dépendances de gym OpenAI, des aides et des lignes de base stables, ainsi que différents types d'espaces pour l'apprentissage par renforcement. De plus, la vidéo explique comment créer un environnement personnalisé pour l'apprentissage par renforcement, définir l'état de l'environnement, ses espaces d'observation et d'action, tester et former le modèle, et enregistrer le modèle formé après l'apprentissage. L'instructeur discute également de l'importance de former des modèles sur de plus longues périodes pour de meilleures performances et encourage les téléspectateurs à tendre la main s'ils rencontrent des difficultés.
Partie 2
Partie 3
Détection de la langue des signes à l'aide de ACTION RECOGNITION avec Python | Modèle d'apprentissage en profondeur LSTM
Code : https://github.com/nicknochnack/ActionDetectionforSignLanguage
Détection de la langue des signes à l'aide de ACTION RECOGNITION avec Python | Modèle d'apprentissage en profondeur LSTM
Dans cette vidéo YouTube intitulée "Sign Language Detection using ACTION RECOGNITION with Python | LSTM Deep Learning Model", le présentateur explique comment créer un flux de détection de la langue des signes en temps réel à l'aide de la détection d'action et de modèles clés. Le présentateur utilise OpenCV et MediaPipe Holistic pour extraire les points clés des mains, du visage et du corps, puis TensorFlow et Keras pour créer un modèle LSTM qui prédit l'action démontrée dans une séquence d'images. Le présentateur passe par le processus d'accès et d'extraction des points clés de la webcam, configure une boucle pour accéder à la webcam et facilite la détection de la langue des signes en appliquant les points de repère à la dernière image capturée à partir de la webcam. Ils montrent également comment modifier le code pour gérer les points clés manquants et ajouter la gestion des erreurs au modèle de pose et à la détection des points de repère du visage. Enfin, le présentateur explique la fonction d'extraction de points clés pour la détection de la langue des signes à l'aide de la reconnaissance d'action avec Python.
La vidéo explique en détail comment créer un modèle de détection de la langue des signes à l'aide de la reconnaissance d'action avec Python. Pour collecter les données, le présentateur crée des dossiers pour chaque action et séquence et modifie la boucle MediaPipe pour collecter 30 valeurs de points clés par vidéo pour chaque action. Les données sont prétraitées en créant des étiquettes et des fonctionnalités pour le modèle d'apprentissage en profondeur LSTM, et le modèle est formé à l'aide de TensorFlow et Keras. Le modèle formé est évalué à l'aide d'une matrice de confusion multi-étiquettes et d'une fonction de score de précision. Enfin, la détection en temps réel est établie en créant de nouvelles variables pour la détection, en concaténant les trames et en appliquant une logique de prédiction, avec une variable de seuil implémentée pour rendre les résultats supérieurs à une certaine métrique de confiance.
Le didacticiel vidéo montre comment utiliser Python et un modèle LSTM Deep Learning pour la détection de la langue des signes à l'aide de la reconnaissance d'action. L'orateur a parcouru la logique de prédiction et a expliqué le code, le rendant facile à comprendre. Ils ont également montré aux téléspectateurs comment ajuster le code en utilisant la méthode d'ajout, en augmentant le seuil de détection et en ajoutant une visualisation de probabilité pour rendre la détection visuellement convaincante. L'orateur a également expliqué comment vérifier si le résultat est au-dessus du seuil, comment manipuler les probabilités et comment étendre et modifier le projet en ajoutant des actions ou des visualisations supplémentaires. Enfin, le conférencier a présenté la logique supplémentaire du modèle, qui minimise les fausses détections et améliore la précision du modèle, ainsi qu'une invitation à soutenir la vidéo et la chaîne.
Numerics of Machine Learning à l'Université de Tübingen au semestre d'hiver 2022/23. Conférence 1 - Introduction -- Philipp Hennig
Numériques de ML 1 -- Introduction -- Philipp Hennig
Dans cette vidéo, Philipp Hennig discute de l'importance de comprendre les algorithmes numériques dans l'apprentissage automatique et présente le contenu du cours pour le semestre. Le premier algorithme numérique couvert est l'algèbre linéaire, avec une application dans la régression de processus gaussien. Hennig discute également du rôle de la simulation, des équations différentielles, de l'intégration et de l'optimisation dans l'apprentissage automatique. Il introduit de nouveaux développements dans les algorithmes numériques, tels que les épines algorithmiques, les observables et les algorithmes numériques probabilistes. Tout au long de la vidéo, Hennig insiste sur l'importance de mettre à jour les algorithmes classiques utilisés dans l'apprentissage automatique pour résoudre des problèmes complexes et met en évidence le rôle de l'écriture de code dans ce cours d'informatique.
Philipp Hennig présente son cours sur Numerics of Machine Learning, qui vise à explorer comment les algorithmes d'apprentissage automatique fonctionnent à l'intérieur de la boîte et comment ils peuvent être adaptés ou modifiés pour améliorer les machines d'apprentissage. Les connaissances hautement techniques en algorithmes numériques et algorithmes d'apprentissage automatique sont très recherchées par les chercheurs et les professionnels de l'industrie. Le cours comprendra des travaux théoriques et de codage, avec des devoirs notés sur un système binaire. Hennig souligne l'importance des algorithmes numériques dans l'apprentissage automatique et invite les étudiants à se joindre à cette expérience d'enseignement unique avec neuf instructeurs différents.
Cours 2 -- Algèbre linéaire numérique -- Marvin Pförtner
Numériques de ML 2 -- Algèbre linéaire numérique -- Marvin Pförtner
L'algèbre linéaire numérique est fondamentale pour l'apprentissage automatique, les processus gaussiens et d'autres méthodes de régression non paramétriques. La conférence couvre divers aspects de l'algèbre linéaire numérique, y compris l'importance de comprendre la structure d'une matrice pour une multiplication plus efficace, l'optimisation des algorithmes d'apprentissage automatique en résolvant des problèmes de sélection d'hyperparamètres et en calculant des matrices de noyau, et la solution d'un système linéaire en utilisant le Décomposition LU, entre autres. La conférence souligne également l'importance d'implémenter correctement les algorithmes, car l'algorithme utilisé pour les opérations mathématiques a un impact significatif sur les performances, la stabilité et la consommation de mémoire.
Dans la deuxième partie de la vidéo, Marvin Pförtner discute de l'importance de l'algèbre linéaire numérique dans les algorithmes d'apprentissage automatique. Il couvre divers sujets, notamment la décomposition LU, la décomposition de Cholesky, le lemme d'inversion de matrice et la régression de processus gaussien. Pförtner souligne l'importance d'utiliser la structure pour rendre les algorithmes plus efficaces et souligne l'importance de la stabilité numérique dans la résolution de grands systèmes d'équations dans la régression de processus gaussien. Il aborde également des techniques telles que l'apprentissage actif et les approximations de rang inférieur pour gérer de grands ensembles de données et les limitations potentielles de la mémoire des matrices du noyau. Dans l'ensemble, la vidéo présente le rôle crucial que joue l'algèbre linéaire numérique dans de nombreux aspects de l'apprentissage automatique.
Cours 3 -- Mise à l'échelle des processus gaussiens -- Jonathan Wenger
Numerics of ML 3 -- Scaling Gaussian Processes -- Jonathan Wenger
Jonathan Wenger discute des techniques de mise à l'échelle des processus gaussiens pour les grands ensembles de données dans la vidéo "Numerics of ML 3". Il explore des méthodes itératives pour résoudre des systèmes linéaires et apprendre l'inverse de la matrice, dans le but principal d'atteindre la généralisation, la simplicité/l'interprétabilité, les estimations d'incertitude et la vitesse. Wenger introduit des approximations de rang inférieur à la matrice du noyau telles que la décomposition itérative de Cholesky, Cholesky partiel et les méthodes de gradient conjugué. Il discute également du préconditionnement pour accélérer la convergence et améliorer la stabilité lorsqu'il s'agit de grands ensembles de données. Enfin, il propose d'utiliser une matrice orthogonale Z pour réécrire la trace d'une matrice, ce qui pourrait potentiellement conduire à un temps quadratique pour la mise à l'échelle des processus gaussiens.
Dans la deuxième partie de la conférence, Jonathan Wenger discute de la mise à l'échelle des processus gaussiens (GP) pour les grands ensembles de données dans cette vidéo. Il présente diverses stratégies pour améliorer le taux de convergence des estimations de Monte Carlo pour la régression GP, y compris l'utilisation de préconditionneurs existants pour la résolution du système linéaire pour estimer la matrice du noyau et son inverse. Il introduit également l'idée de temps linéaire GP par approximation variationnelle et aborde la quantification de l'incertitude à l'aide de la méthode du point inducteur. En utilisant ces stratégies, la mise à l'échelle vers des ensembles de données contenant jusqu'à un million de points de données est possible avec le GPU, ce qui facilite l'optimisation rapide des hyperparamètres.
Cours 4 -- Processus gaussiens sensibles au calcul -- Jonathan Wenger
Numerics of ML 4 -- Processus gaussiens sensibles au calcul -- Jonathan Wenger
Dans cette vidéo sur Numerics of ML, Jonathan Wenger discute des processus gaussiens sensibles au calcul et de leur capacité à quantifier l'erreur d'approximation et l'incertitude dans les prédictions. Il explore l'importance de choisir les bonnes actions et comment les gradients conjugués peuvent réduire considérablement l'incertitude et accélérer l'apprentissage. Wenger parle également de l'utilisation d'approximations GP en temps linéaire basées sur des points inducteurs, mais met en évidence les problèmes qui découlent de ces approximations. Enfin, il discute de la mise à jour des croyances sur les poids représentatifs et de l'utilisation d'algorithmes d'apprentissage probabiliste pour résoudre l'erreur dans les poids représentatifs. Dans l'ensemble, la vidéo démontre l'efficacité des processus gaussiens sensibles au calcul pour améliorer la précision des prédictions en tenant compte des incertitudes de calcul.
Jonathan Wenger discute également du processus gaussien sensible au calcul et de sa complexité dans cette vidéo. Il explique qu'il suffit de calculer et de stocker le quadrant supérieur de la matrice du noyau, et que le coût de calcul de l'algorithme est proportionnel à la taille de ce quadrant. Le processus gaussien peut être utilisé sur des ensembles de données de taille arbitraire, tant que les calculs ne ciblent que certains points de données, brouillant la frontière entre les données et le calcul. Wenger soutient que le GP peut être modélisé pour tenir compte de cette situation en conditionnant sur les données projetées. Il introduit un nouveau théorème qui permet une quantification exacte de l'incertitude avec un modèle approximatif. Enfin, il donne un aperçu de la conférence de la semaine prochaine sur l'extension du modèle GP aux cas où une loi physique régit partiellement la fonction apprise.
Cours 5 -- Modèles d'espace d'état -- Jonathan Schmidt
Numériques de ML 5 -- Modèles d'espace d'état -- Jonathan Schmidt
Dans cette section, Jonathan Schmidt présente les modèles d'espace d'état et leur application à l'apprentissage automatique. Il explique que les modèles d'espace d'états sont utilisés pour modéliser des systèmes dynamiques complexes, qui ne sont que partiellement observables et impliquent des interactions hautement non linéaires. Le cours couvre la représentation graphique des modèles d'espace d'états et les propriétés importantes de la propriété de Markov et des mesures conditionnellement indépendantes. Schmidt présente différents algorithmes pour calculer diverses distributions telles que les distributions de prédiction, de filtrage et de lissage, qui sont utilisées pour estimer l'état d'un système, en utilisant des mesures obtenues à différents moments. Le cours couvre également l'implémentation d'algorithmes de filtre de Kalman dans Julia et le calcul d'estimations de lissage dans des modèles d'espace d'états gaussiens linéaires. Enfin, Schmidt discute du filtre de Kalman étendu, qui permet l'estimation de la dynamique non linéaire et des mesures dans les modèles d'espace d'états.
Jonathan Schmidt discute également des modèles d'espace d'états et de leur implémentation à l'aide de code, en se concentrant spécifiquement sur la dynamique non linéaire et le filtre de Kalman étendu. Il démontre également des algorithmes de lissage et des méthodes alternatives de filtrage bayésien, en soulignant leurs avantages et leurs inconvénients. La conférence se termine par une recommandation pour un apprentissage plus approfondi et une anticipation pour la prochaine conférence, où Nathaniel présentera les numériques probabilistes pour simuler des systèmes dynamiques.
Cours 6 -- Résolution d'équations différentielles ordinaires -- Nathanael Bosch
Numériques de ML 6 -- Résolution d'équations différentielles ordinaires -- Nathanael Bosch
Nathanael Bosch couvre le concept d'ODE dans l'apprentissage automatique, qui décrit la dérivée d'une fonction compte tenu de ses systèmes d'entrée et de modèle qui évoluent dans le temps. Il discute des défis de la résolution d'ODE et introduit des méthodes numériques, telles que l'Euler avant et l'Euler arrière, et leurs propriétés de stabilité. Bosch explore différentes méthodes numériques et leurs compromis en termes de précision et de complexité, telles que les méthodes explicites du point médian et les méthodes classiques du quatrième ordre. Il souligne l'importance de l'erreur locale, de l'ordre et de la stabilité de la compréhension pour éviter les problèmes d'utilisation des bibliothèques pour résoudre les ODE.
Cette deuxième partie de la vidéo aborde le problème de l'estimation du champ vectoriel et de la valeur initiale d'une équation différentielle ordinaire (ODE) à l'aide de techniques d'apprentissage automatique. L'orateur explique l'importance d'écrire le modèle génératif et le modèle d'observation des états de l'ODE pour résoudre le problème d'inférence. La fonction de vraisemblance est maximisée en minimisant la vraisemblance logarithmique négative, ce qui donne une estimation de paramètre. Le conférencier démontre cette approche à l'aide d'un modèle SIR-D et discute de l'utilisation de réseaux de neurones pour améliorer l'estimation du taux de contact. L'importance des ODE dans la recherche sur l'apprentissage automatique et leur rôle dans la résolution de problèmes du monde réel sont également mis en évidence.