Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
David Smith - Copilote pour R
David Smith - Copilote pour R
David Smith discute de l'utilisation de copilot for R, un service fourni par GitHub qui utilise l'IA générative pour suggérer les prochaines étapes de codage en examinant le contexte du code en cours de développement. Il fournit une démonstration de copilote et explique en détail son fonctionnement, discute de ses limites tout en montrant les avantages de l'utilisation de modèles d'IA prédictifs pour générer du code complexe et même des images à partir d'invites de texte. Il couvre également d'autres sujets, tels que la façon dont ces modèles sont formés, comment ils génèrent du texte, des images et du code, et comment ils ne sont pas intelligents mais peuvent être utilisés pour extraire des informations et créer de nouveaux contenus. De plus, il discute des considérations de licence et de l'utilisation de Co-Pilot pour le travail commercial.
Il aborde également les limites de Copilot pour R, notamment son manque d'évaluation active de R et d'informations sur l'environnement R. Il explique comment il modifie le contexte et invite s'il reçoit des suggestions incorrectes et répond aux problèmes de confidentialité liés à l'utilisation de Copilot pour le code propriétaire. Smith fournit également des instructions sur la façon de configurer le code VS pour utiliser Copilot et discute des fonctionnalités à venir, y compris les laboratoires GitHub et une version pour les invites du shell. La conférence aborde l'histoire de R et les innovations apportées par ses utilisateurs. Les réponses de Copilot ne sont pas créatives et sont une fusion de ce sur quoi il est formé en fonction de l'invite donnée, donc une attention particulière est nécessaire pour s'assurer qu'un code utile est généré.
CS480/680 Introduction à l'apprentissage automatique - Printemps 2019 - Université de Waterloo
CS480/680 Cours 1 : Introduction au cours
Cette conférence introduit le concept d'apprentissage automatique, qui est un nouveau paradigme en informatique où les ordinateurs peuvent apprendre à effectuer des tâches complexes sans avoir à écrire des instructions. Cette vidéo fournit un bref historique de l'apprentissage automatique et présente les trois composants clés d'un algorithme d'apprentissage automatique : les données, les tâches et les performances.
eh bien, il le fait, mais n'a pas de réponse définie pour ce qu'est la bonne réponse.
CS480/680 Introduction à l'apprentissage automatique - Printemps 2019 - Université de Waterloo
CS480/680 Cours 1 : Introduction au cours
Cette conférence introduit le concept d'apprentissage automatique, qui est un nouveau paradigme en informatique où les ordinateurs peuvent apprendre à effectuer des tâches complexes sans avoir à écrire des instructions. Cette vidéo fournit un bref historique de l'apprentissage automatique et présente les trois composants clés d'un algorithme d'apprentissage automatique : les données, les tâches et les performances.
eh bien, il le fait, mais n'a pas de réponse définie pour ce qu'est la bonne réponse.
CS480/680 Cours 2 : K-plus proches voisins
CS480/680 Cours 2 : K-plus proches voisins
Cette vidéo couvre les bases de l'apprentissage supervisé, y compris les différences entre la classification et la régression. Il fournit également une brève introduction à l'apprentissage automatique et explique le fonctionnement de l'algorithme du plus proche voisin. Enfin, il explique comment évaluer un algorithme à l'aide de la validation croisée et comment le sous-ajustement peut affecter l'apprentissage automatique. Cette conférence explique comment utiliser l'algorithme des k plus proches voisins pour la régression et la classification, ainsi que comment pondérer les voisins en fonction de leur distance. La validation croisée est utilisée pour optimiser l'hyperparamètre, et l'ensemble de données complet est utilisé pour former le modèle.
problème de prédiction, où l'entrée est constituée de données de capteurs et d'images satellites et la sortie est une prédiction indiquant s'il va pleuvoir ou non. Le quatrième exemple est un problème où l'entrée est une question sur les habitudes de sommeil d'une personne et la sortie est une prédiction indiquant si oui ou non la personne aura un bon sommeil.
CS480/680 Cours 3 : Régression linéaire
CS480/680 Cours 3 : Régression linéaire
Le cours sur la régression linéaire commence par une introduction au problème de la recherche de la meilleure droite qui se rapproche le plus possible d'un ensemble de points donné. Le conférencier explique que les fonctions linéaires peuvent être représentées par une combinaison d'entrées pondérées. La régression linéaire peut être résolue par optimisation, dans le but de minimiser la perte euclidienne en faisant varier le vecteur de poids, ce qui peut être fait efficacement à l'aide de problèmes d'optimisation convexe. Le processus de résolution d'une équation de régression linéaire consiste à trouver la variable W, ou les poids, qui donneront le minimum global pour la fonction objectif, ce qui peut être fait en utilisant des techniques telles que l'inversion de matrice ou des méthodes itératives. L'importance de la régularisation dans la prévention du surajustement est également discutée, avec un terme de pénalité ajouté à la fonction objectif pour contraindre l'ampleur des poids et les forcer à être aussi petits que possible. La conférence se termine en discutant de l'importance d'aborder la question du surajustement dans la régression linéaire.
CS480/680 Cours 4 : Apprentissage statistique
CS480/680 Cours 4 : Apprentissage statistique
Dans cette conférence sur l'apprentissage statistique, le professeur explique divers concepts tels que la règle de marginalisation, la probabilité conditionnelle, la probabilité conjointe, la règle de Bayes et l'apprentissage bayésien. Ces concepts impliquent l'utilisation de distributions de probabilité et leur mise à jour pour réduire l'incertitude lors de l'apprentissage. Le cours insiste sur l'importance de comprendre ces concepts pour justifier et expliquer divers algorithmes. L'exposé met également en évidence les limites de ces concepts, en particulier lorsqu'il s'agit de traiter de grands espaces d'hypothèses. Malgré cette limitation, l'apprentissage bayésien est considéré comme optimal tant que le prior est correct, fournissant des informations significatives aux utilisateurs.
Dans cette conférence, l'instructeur explique le concept d'apprentissage bayésien approximatif comme solution au problème de traçabilité avec l'apprentissage bayésien. Le maximum de vraisemblance et le maximum a posteriori sont des approximations couramment utilisées dans l'apprentissage statistique, mais elles présentent leurs propres faiblesses, telles que le surajustement et des prédictions moins précises que l'apprentissage bayésien. La conférence couvre également le problème d'optimisation résultant de la maximisation de la vraisemblance, la quantité de données nécessaires pour différents problèmes et l'importance des prochaines diapositives pour le devoir du cours. L'instructeur conclut en soulignant que l'algorithme convergera vers la meilleure hypothèse dans l'espace donné, même si certains ratios ne sont pas réalisables.
CS480/680 Cours 5 : Régression linéaire statistique
CS480/680 Cours 5 : Régression linéaire statistique
Dans cette conférence sur la régression linéaire statistique, le professeur aborde de nombreux sujets, à commencer par le concept de maximum de vraisemblance et les distributions de vraisemblance gaussienne pour les données bruitées et corrompues. Ils expliquent l'utilisation des techniques du maximum de vraisemblance pour trouver les poids qui donnent la probabilité maximale pour tous les points de données dans l'ensemble de données. La conférence se penche ensuite sur l'idée du maximum a posteriori (MAP), de la gaussienne sphérique et de la matrice de covariance. L'oratrice aborde également l'utilisation de l'information a priori et la régularisation. L'erreur attendue dans la régression linéaire est ensuite décomposée en deux termes : l'un tenant compte du bruit et l'autre dépendant du vecteur de poids, W, qui peut ensuite être décomposé en biais et variance. Le cours se termine par une discussion sur l'utilisation de l'apprentissage bayésien pour le calcul de la distribution a posteriori. Dans l'ensemble, la conférence couvre un large éventail de sujets liés à la régression linéaire statistique et fournit des informations précieuses sur l'optimisation des modèles afin de réduire les erreurs de prédiction.
La conférence se concentre sur la régression bayésienne, qui estime une distribution a posteriori qui converge vers le véritable ensemble de poids à mesure que davantage de points de données sont observés. La distribution a priori se révèle être une distribution sur des paires de W zéro et W1 et est une distribution de lignes. Après avoir observé un point de données, la distribution postérieure est calculée à l'aide des distributions a priori et de vraisemblance, ce qui donne une croyance mise à jour sur la position de la ligne. Pour faire des prédictions, une combinaison pondérée des prédictions des hypothèses est prise sur la base de la distribution postérieure, conduisant à une prédiction gaussienne avec une moyenne et une variance données par des formules spécifiques. L'astuce pour obtenir une prédiction ponctuelle réelle est de prendre la moyenne de la prédiction gaussienne.
CS480/680 Cours 6 : Outils pour les enquêtes (Paulo Pacheco)
CS480/680 Cours 6 : Outils pour les enquêtes (Paulo Pacheco)
Dans cette vidéo, Paulo Pacheco présente deux outils académiques pour les enquêtes : Google Scholar et RefWorks. Il explique comment rechercher des articles universitaires et les trier par citations à l'aide de Google Scholar, et suggère de filtrer les articles plus anciens pour les plus récents. Pacheco souligne l'importance de l'exportation et de la gestion des citations et présente RefWorks comme outil pour cette tâche. Il fournit également des conseils pour accéder aux publications universitaires, y compris l'utilisation de recherches créatives par mots-clés et nécessitant potentiellement un accès au réseau universitaire ou un VPN.
CS480/680 Cours 6 : Ensembles de données Kaggle et compétitions
CS480/680 Cours 6 : Ensembles de données Kaggle et compétitions
La conférence traite de Kaggle, une communauté permettant aux praticiens de la science des données de participer à des compétitions sponsorisées en utilisant des ensembles de données fournis pour un prix en espèces, offrant des noyaux pour la formation de modèles d'apprentissage automatique et l'extraction de caractéristiques de données, et une vaste sélection de près de 17 000 ensembles de données à utiliser dans la conception d'algorithmes. Le conférencier note également que les référentiels GitHub de l'entreprise peuvent fournir des ensembles de données, des codes et des articles publiés précieux pour les concours.
CS480/680 Cours 6 : Normaliser les flux (Priyank Jaini)
CS480/680 Cours 6 : Normaliser les flux (Priyank Jaini)
La vidéo fournit une introduction à la normalisation des flux dans les modèles génératifs profonds, une technique qui apprend une fonction pour transformer une distribution en une autre, dans le but de transformer une distribution connue en une distribution d'intérêt inconnue. La vidéo aborde également les projets de recherche possibles liés à la normalisation des flux, y compris la réalisation d'une enquête sur différents articles et progrès liés à la normalisation des flux et l'analyse de la transformation d'une seule gaussienne en un mélange de gaussiennes. Le conférencier encourage l'exploration des nombreuses applications différentes des flux de normalisation.