Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Vers la singularité - Neuroscience Inspiring AI
Vers la singularité - Neuroscience Inspiring AICette vidéo traite du potentiel de l'intelligence artificielle pour atteindre un point d'intelligence générale, et des différents défis qui devront être surmontés en cours de route.
Il aborde également le potentiel des robots à être considérés comme une espèce, ainsi que les avantages et les inconvénients de cette approche.
vous êtes limité quant à la quantité d'informations que vous pouvez transférer entre les deux. Et c'est un facteur très limitant de la puissance globale de l'ordinateur standard. En revanche, le cerveau fonctionne massivement de manière massivement parallèle, chaque neurone fait de son mieux tout le temps. Même la meilleure IA actuelle que nous ayons est encore très, très différente du cerveau. C'est… vous pourriez dire que c'est inspiré par le cerveau, mais ce n'est pas copier le cerveau. Dans le cerveau se trouvent des quantités massives de connexions de rétroaction. Donc, évidemment, lorsque nous traitons les entrées sensorielles, et cela arrive dans les régions supérieures du cerveau, et est ensuite traité et abstrait de l'entrée originale que nous voyons. Mais il y a aussi une énorme quantité de rétroaction provenant de ces régions supérieures vers les zones perceptuelles. Et cette rétroaction oriente où nous regardons et
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 1 - Présentation de la classe et logistique, Andrew Ng
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 1 - Présentation de la classe et logistique, Andrew Ng
Andrew Ng, l'instructeur du cours CS230 Deep Learning de Stanford, présente le cours et explique le format de classe inversée. Il souligne la popularité soudaine de l'apprentissage en profondeur en raison de l'augmentation des enregistrements numériques, permettant des systèmes d'apprentissage en profondeur plus efficaces. Les principaux objectifs du cours sont de permettre aux étudiants de devenir des experts en algorithmes d'apprentissage en profondeur et de comprendre comment les appliquer pour résoudre des problèmes du monde réel. Ng souligne l'importance des connaissances pratiques dans la construction de systèmes d'apprentissage automatique efficients et efficaces et espère enseigner et dériver systématiquement des algorithmes d'apprentissage automatique tout en les mettant en œuvre efficacement avec les bons processus. Le cours couvrira les réseaux de neurones à convolution et les modèles de séquence à travers des vidéos sur Coursera et des devoirs de programmation sur des cahiers Jupyter.
La première conférence du cours CS230 Deep Learning de Stanford présente la variété d'applications du monde réel qui seront développées grâce à des devoirs de programmation et des projets d'étudiants, qui peuvent être personnalisés et conçus pour correspondre aux intérêts d'un étudiant. Des exemples de projets d'étudiants antérieurs vont de la prévision du prix des vélos à la détection de signaux de tremblement de terre. Le projet final est souligné comme l'aspect le plus important du cours, et un mentorat personnalisé est disponible via l'équipe d'assistants techniques et les instructeurs. La logistique du cours est également abordée, notamment la formation d'équipes pour des projets de groupe, la réalisation de quiz sur Coursera et la combinaison du cours avec d'autres cours.
Cours 2 - Intuition d'apprentissage en profondeur
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 2 - Intuition d'apprentissage en profondeur
La première partie de la conférence se concentre sur diverses applications de l'apprentissage en profondeur, notamment la classification d'images, la reconnaissance faciale et le transfert de style d'image. L'instructeur explique l'importance de divers facteurs tels que la taille de l'ensemble de données, la résolution de l'image et la fonction de perte dans le développement d'un modèle d'apprentissage en profondeur. Le concept d'encodage d'images à l'aide de réseaux profonds pour créer des représentations utiles est également discuté, en mettant l'accent sur la fonction de perte de triplet utilisée dans la reconnaissance faciale. De plus, le conférencier explique le regroupement à l'aide de l'algorithme K-Means pour la classification des images et l'extraction du style et du contenu des images. Dans l'ensemble, la section présente aux étudiants les différentes techniques et considérations impliquées dans le développement de modèles d'apprentissage en profondeur réussis.
La deuxième partie de la vidéo couvre une variété de sujets d'apprentissage en profondeur, tels que la génération d'images, la reconnaissance vocale et la détection d'objets. L'orateur souligne l'importance de consulter des experts en cas de problème et les éléments critiques d'un projet d'apprentissage en profondeur réussi : un pipeline d'acquisition de données stratégiques, une recherche d'architecture et un réglage d'hyperparamètres. La vidéo aborde également différentes fonctions de perte utilisées dans l'apprentissage en profondeur, y compris la fonction de perte de détection d'objet, qui comprend une racine carrée pour pénaliser plus lourdement les erreurs sur les petites boîtes que sur les grandes boîtes. La vidéo se termine par un récapitulatif des modules et des missions à venir, y compris les sessions de mentorat obligatoires du projet TA et les sections TA du vendredi axées sur le transfert de style neuronal et le remplissage d'un formulaire AWS pour des crédits GPU potentiels.
Cours 3 - Projets d'apprentissage en profondeur à cycle complet
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 3 - Projets d'apprentissage en profondeur à cycle completDans cette conférence sur les projets d'apprentissage en profondeur à cycle complet, l'instructeur souligne l'importance de prendre en compte tous les aspects de la création d'une application d'apprentissage automatique réussie, y compris la sélection des problèmes, la collecte de données, la conception de modèles, les tests, le déploiement et la maintenance. À travers l'exemple de la construction d'un appareil à commande vocale, l'instructeur discute des éléments clés impliqués dans les projets d'apprentissage en profondeur et encourage les étudiants à se concentrer sur des projets réalisables ayant un impact positif potentiel et des contributions uniques à leurs domaines respectifs. L'instructeur souligne également l'importance de collecter rapidement des données, de prendre de bonnes notes tout au long du processus et d'itérer pendant le développement, tout en discutant d'approches spécifiques à l'activation de la parole et à la détection de l'activité vocale.
La deuxième partie de la conférence se concentre sur l'importance de la surveillance et de la maintenance dans les projets d'apprentissage automatique, en particulier la nécessité de surveiller et de mettre à jour en permanence les modèles pour s'assurer qu'ils fonctionnent bien dans le monde réel. Le conférencier aborde le problème de la modification des données, qui peut entraîner une perte de précision des modèles d'apprentissage automatique, et souligne la nécessité d'une surveillance constante, de la collecte de données et de la refonte des modèles pour garantir que les modèles continuent de fonctionner efficacement. La conférence discute également de l'impact de l'utilisation d'un système non-ML par rapport à un réseau de neurones formé dans un système de détection d'activité vocale et suggère que les règles codées à la main sont généralement plus robustes aux données changeantes. Le conférencier conclut sur la nécessité de porter une attention particulière à la confidentialité des données et d'obtenir le consentement de l'utilisateur lors de la collecte de données pour les modèles de recyclage.
Pour relever ce défi, un algorithme plus simple est utilisé pour détecter si quelqu'un parle même avant de transmettre le clip audio au réseau neuronal plus large pour classification. Cet algorithme plus simple est connu sous le nom de détection d'activité vocale (VAD) et est un composant standard dans de nombreux systèmes de reconnaissance vocale, y compris ceux utilisés dans les téléphones portables.
Cours 4 - Attaques contradictoires / GAN
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 4 - Attaques contradictoires / GAN
Cette conférence introduit le concept d'exemples contradictoires, qui sont des entrées qui ont été légèrement modifiées pour tromper un réseau neuronal pré-formé. La conférence explique la base théorique du fonctionnement de ces attaques et discute des applications malveillantes de l'utilisation d'exemples contradictoires dans l'apprentissage en profondeur. La conférence présente également les réseaux antagonistes génératifs (GAN) comme moyen de former un modèle capable de générer des images qui semblent réelles, et la conférence traite de la fonction de coût du générateur dans un modèle GAN. La conférence se termine en expliquant le graphique logarithmique de la sortie de D lorsqu'on lui donne un exemple généré.
La conférence couvre divers sujets liés aux réseaux antagonistes génératifs (GAN), y compris des trucs et astuces pour la formation des GAN et leurs applications dans la traduction image à image et les réseaux antagonistes génératifs non appariés utilisant l'architecture CycleGAN. L'évaluation des GAN est également discutée, avec des méthodes telles que l'annotation humaine, les réseaux de classification, et le score de début et la distance de début de Frechet étant des méthodes populaires pour vérifier le réalisme des images générées.
Cours 5 - IA + Santé
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 5 - IA + Santé
La conférence donne un aperçu des applications de l'IA dans les soins de santé dans cette conférence. Il décompose les types de questions auxquelles l'IA peut répondre, telles que les questions descriptives, diagnostiques, prédictives et prescriptives. L'auteur présente ensuite trois études de cas de son laboratoire qui démontrent l'application de l'IA à différents problèmes de santé. Un exemple est la détection d'arythmies cardiaques graves, que les experts pourraient avoir mal diagnostiquées mais qui pourraient être détectées par une machine. Un autre exemple consiste à utiliser des réseaux neuronaux convolutifs pour identifier les anomalies des examens IRM du genou, en identifiant spécifiquement la probabilité d'une déchirure du LCA et d'une déchirure méniscale. Enfin, le conférencier aborde les questions liées à la distribution et à l'augmentation des données dans l'IA des soins de santé.
La deuxième partie couvre divers sujets liés à la mise en œuvre de l'apprentissage profond dans les applications de santé. L'importance de l'augmentation des données est discutée, comme le démontre la solution d'une entreprise aux problèmes de reconnaissance vocale dans les voitures autonomes causés par les personnes qui parlent à l'assistant virtuel tout en regardant en arrière. Les hyperparamètres impliqués dans l'apprentissage par transfert pour les applications de soins de santé, tels que le choix du nombre de couches à ajouter et celles à geler, sont également abordés. La conférence passe ensuite à l'analyse d'images, où l'importance d'ajouter des limites aux ensembles de données étiquetés est mise en évidence. Les avantages et les différences entre la détection d'objets et la segmentation dans l'analyse d'images médicales sont discutés, et le sujet de la classification binaire pour les images médicales étiquetées avec zéro ou un est introduit. La conférence se termine par une discussion sur l'importance des données dans l'apprentissage en profondeur et les évaluations à venir pour le cours.
Cours 6 - Stratégie de projet d'apprentissage en profondeur
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 6 - Stratégie de projet d'apprentissage en profondeur
Dans cette vidéo, le conférencier discute de l'importance de choisir une bonne métrique pour mesurer le succès d'un projet d'apprentissage automatique. La métrique choisie doit refléter le problème à résoudre et le résultat souhaité. L'orateur fournit des exemples d'exactitude, de précision, de rappel et de score F1 et explique quand chacun doit être utilisé. Ils discutent également de la différence entre l'ensemble de validation et l'ensemble de test et expliquent pourquoi il est important d'utiliser les deux. De plus, l'orateur souligne la nécessité d'un modèle de base comme point de comparaison pour mesurer l'efficacité de l'algorithme d'apprentissage. Enfin, l'orateur répond à quelques questions de l'auditoire sur le choix du seuil pour la classification binaire et sur la manière de gérer le déséquilibre des classes.
Cours 7 - Interprétabilité du réseau de neurones
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 7 - Interprétabilité du réseau de neuronesDans cette conférence, le conférencier présente plusieurs méthodes d'interprétation et de visualisation des réseaux de neurones, telles que les cartes de saillance, la sensibilité à l'occlusion et les cartes d'activation de classe. Les cartes d'activation de classe sont utilisées pour interpréter les couches intermédiaires d'un réseau de neurones en cartographiant la sortie à l'espace d'entrée pour visualiser quelles parties de l'entrée étaient les plus discriminantes dans le processus de prise de décision. Le professeur discute également de la mise en commun des moyennes globales comme moyen de conserver les informations spatiales dans un réseau neuronal convolutif et de la déconvolution comme moyen de suréchantillonner la hauteur et la largeur des images pour des tâches telles que la segmentation d'images. De plus, la conférence explore l'hypothèse d'orthogonalité dans les filtres convolutionnels et comment la convolution sous-pixel peut être utilisée pour la reconstruction dans les applications de visualisation.
La conférence couvre diverses méthodes d'interprétation et de visualisation des réseaux de neurones, y compris la convolution sous-pixel, la déconvolution 2D, le suréchantillonnage, le dégroupage et l'utilisation d'outils tels que la boîte à outils DeepViz et l'algorithme Deep Dream. L'orateur explique comment la visualisation des filtres dans la première couche d'un réseau peut faciliter l'interprétation, mais à mesure que nous approfondissons, le réseau devient plus difficile à comprendre. En examinant les activations dans différentes couches, le conférencier montre comment certains neurones répondent à des caractéristiques spécifiques. Bien qu'il existe des limites à l'interprétation des réseaux de neurones, les techniques de visualisation peuvent fournir des informations et des applications potentielles telles que la segmentation, la reconstruction et la génération de réseaux contradictoires.
Cours 8 - Conseils de carrière / Lecture d'articles de recherche
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 8 - Conseils de carrière / Lecture d'articles de rechercheDans cette conférence, le professeur Andrew Ng donne des conseils sur la façon de lire efficacement les articles de recherche et de suivre l'évolution rapide du domaine de l'apprentissage en profondeur. Il souligne l'importance de résumer le travail dans les sections d'introduction et de conclusion, ainsi que de prêter attention aux figures et aux tableaux. Ng partage également des conseils de carrière, recommandant aux candidats d'avoir des connaissances à la fois larges et approfondies dans plusieurs domaines de l'IA et de l'apprentissage automatique, et de se concentrer sur le travail avec des individus plutôt qu'avec de grandes marques afin de maximiser les opportunités de croissance. Il suggère la cohérence dans la lecture des articles et le développement de compétences horizontales et verticales à travers des cours et des projets pour une base solide en apprentissage automatique.
Cours 9 - Apprentissage par renforcement en profondeur
Stanford CS230 : Apprentissage en profondeur | Automne 2018 | Cours 9 - Apprentissage par renforcement en profondeur
La conférence présente l'apprentissage par renforcement profond, qui combine l'apprentissage en profondeur et l'apprentissage par renforcement. L'apprentissage par renforcement est utilisé pour prendre de bonnes séquences de décisions dans des situations avec des étiquettes retardées, et il est appliqué dans différents domaines tels que la robotique, les jeux et la publicité. L'apprentissage par renforcement profond remplace la table Q par une fonction Q qui est un réseau de neurones. Le conférencier discute des défis de l'application de l'apprentissage par renforcement profond mais décrit une technique pour créer une valeur cible pour les scores Q basée sur l'équation de Bellman pour former le réseau. La conférence aborde également l'importance de la relecture d'expérience dans la formation à l'apprentissage par renforcement profond et le compromis entre l'exploitation et l'exploration dans les algorithmes RL. L'application pratique de l'apprentissage par renforcement profond au jeu Breakout est également abordée.
La conférence aborde divers sujets liés à l'apprentissage par renforcement profond (DRL). Le compromis exploration-exploitation dans DRL est discuté, et une solution utilisant un hyper-paramètre est proposée qui décide de la probabilité d'exploration. L'importance de la connaissance humaine dans le DRL et comment elle peut augmenter les processus décisionnels algorithmiques est explorée. La conférence couvre également les gradients politiques, les différentes méthodes pour leur mise en œuvre et la prévention du surajustement. De plus, les défis dans les environnements de récompense clairsemés sont mis en évidence, et une solution d'un article récent intitulé "Unifying the Count-based Metas for Exploration" est brièvement discutée. Enfin, la conférence mentionne brièvement les articles YOLO et YOLO v2 de Redmon et al. concernant la détection d'objets.