![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Cours 16 - Fonctions de base radiales
Cours d'apprentissage automatique de Caltech - CS 156. Cours 16 - Fonctions de base radiales
Dans cette conférence sur les fonctions à base radiale, le professeur Yaser Abu-Mostafa couvre une gamme de sujets allant des SVM au clustering, à l'apprentissage non supervisé et à l'approximation de fonctions à l'aide de RBF. La conférence traite du processus d'apprentissage des paramètres pour les RBF, de l'effet du gamma sur le résultat d'une gaussienne dans les modèles RBF et de l'utilisation des RBF pour la classification. Le concept de clustering est introduit pour l'apprentissage non supervisé, avec l'algorithme de Lloyd et le clustering K-means discutés en détail. Il décrit également une modification des RBF où certains centres représentatifs sont choisis pour que les données influencent le voisinage qui les entoure, et l'algorithme K-means est utilisé pour sélectionner ces centres. L'importance de sélectionner une valeur appropriée pour le paramètre gamma lors de la mise en œuvre des RBF pour l'approximation de la fonction est également discutée, ainsi que l'utilisation de plusieurs gammas pour différents ensembles de données et la relation des RBF avec la régularisation.
Dans la deuxième partie, Yaser Abu-Mostafa discute des fonctions de base radiales (RBF) et comment elles peuvent être dérivées sur la base de la régularisation. Le professeur introduit une approche de contrainte de lissage utilisant des dérivées pour obtenir une fonction lisse et présente les défis du choix du nombre de clusters et de gamma lorsqu'il s'agit d'espaces de grande dimension. De plus, le professeur explique que l'utilisation de RBF suppose que la fonction cible est lisse et prend en compte le bruit d'entrée dans l'ensemble de données. Les limites du regroupement sont également discutées, mais il peut être utile d'obtenir des points représentatifs pour l'apprentissage supervisé. Enfin, le professeur mentionne que dans certains cas, les RBF peuvent surpasser les machines à vecteurs de support (SVM) si les données sont regroupées d'une manière particulière et que les clusters ont une valeur commune.
la solution est simplement w est égal à l'inverse de phi fois y. En utilisant le noyau gaussien, l'interpolation entre les points est exacte et l'effet de la fixation du paramètre gamma est analysé.
Cours 17 - Trois principes d'apprentissage
Cours d'apprentissage automatique de Caltech - CS 156. Cours 17 - Trois principes d'apprentissage
Cette conférence sur les trois principes d'apprentissage couvre le rasoir d'Occam, le biais d'échantillonnage et l'espionnage des données dans l'apprentissage automatique. Le principe du rasoir d'Occam est discuté en détail, ainsi que la complexité d'un objet et d'un ensemble d'objets, qui peuvent être mesurés de différentes manières. La conférence explique comment les modèles plus simples sont souvent meilleurs, car ils réduisent la complexité et améliorent les performances hors échantillon. Les concepts de falsifiabilité et de non-falsifiabilité sont également introduits. Le biais d'échantillonnage est un autre concept clé discuté, ainsi que des méthodes pour le gérer, telles que l'appariement des distributions des données d'entrée et de test. L'espionnage des données est également couvert, avec des exemples de la façon dont il peut affecter la validité d'un modèle, notamment par la normalisation et la réutilisation du même ensemble de données pour plusieurs modèles.
La deuxième partie couvre le sujet de l'espionnage des données et ses dangers dans l'apprentissage automatique, en particulier dans les applications financières où le surajustement dû à l'espionnage des données peut être particulièrement risqué. Le professeur suggère deux remèdes à l'espionnage des données : l'éviter ou en tenir compte. La conférence aborde également l'importance de la mise à l'échelle et de la normalisation des données d'entrée, ainsi que le principe du rasoir d'Occam dans l'apprentissage automatique. De plus, la vidéo explique comment corriger correctement le biais d'échantillonnage dans les applications de vision par ordinateur et se termine par un résumé de tous les sujets abordés.
Cours d'apprentissage automatique de Caltech - CS 156 par le professeur Yaser Abu-Mostafa
Cours d'apprentissage automatique de Caltech - CS 156. Cours 18 - Épilogue
Dans cette conférence finale du cours, le professeur Yaser Abu-Mostafa résume le domaine diversifié de l'apprentissage automatique, couvrant les théories, les techniques et les paradigmes. Il discute d'importants modèles et méthodes tels que les modèles linéaires, les réseaux de neurones, les machines à vecteurs de support, les méthodes du noyau et l'apprentissage bayésien. L'orateur explique les avantages et les inconvénients de l'apprentissage bayésien, en avertissant que les hypothèses préalables doivent être valides ou non pertinentes pour que l'approche soit valable. Il aborde également les méthodes d'agrégation, y compris l'agrégation "après coup" et "avant coup", et couvre spécifiquement l'algorithme AdaBoost. Enfin, l'orateur remercie ceux qui ont contribué au cours et encourage ses étudiants à continuer à apprendre et à explorer le domaine diversifié de l'apprentissage automatique.
La deuxième partie traite des avantages potentiels des poids négatifs dans la solution d'un algorithme d'apprentissage automatique et partage un problème pratique auquel il a été confronté pour mesurer la valeur d'une hypothèse dans une compétition. Il exprime également sa gratitude envers ses collègues et le personnel du cours, en particulier Carlos Gonzalez, et remercie les supporters qui ont rendu le cours possible et gratuit pour tous. Abu-Mostafa dédie le cours à son meilleur ami et espère que ce fut une expérience d'apprentissage précieuse pour tous les participants.
LINX105 : Quand l'IA devient super-intelligente (Richard Tang, Zen Internet)
LINX105 : Quand l'IA devient super-intelligente (Richard Tang, Zen Internet)
Richard Tang, le fondateur de Zen Internet, discute du potentiel d'une intelligence artificielle de haut niveau qui reproduira la réalité, surpassant les travailleurs humains dans chaque tâche. Il explore les implications de l'IA dépassant l'intelligence humaine, y compris la possibilité que l'IA développe ses propres objectifs et valeurs qui peuvent ne pas s'aligner sur les objectifs et les valeurs humaines.
Le développement de l'intelligence artificielle de haut niveau nécessitera d'importantes recherches sur l'IA dans les années à venir, mais il existe des inquiétudes concernant des valeurs, des préjugés et des préjugés profondément enracinés qui influencent le développement de l'IA et son potentiel à régner sur les humains. Tang souligne l'importance de veiller à ce que les objectifs de l'IA soient alignés sur les valeurs de l'humanité et la nécessité d'enseigner différentes choses à l'IA si nous voulons qu'elle se comporte différemment. Malgré les débats sur la question de savoir si les machines peuvent atteindre la conscience, l'orateur pense que la façon dont elles pensent et interagissent avec les humains et les autres êtres sur Terre est plus importante.
IA super intelligente : 5 raisons pour lesquelles elle pourrait détruire l'humanité
IA super intelligente : 5 raisons pour lesquelles elle pourrait détruire l'humanité
La vidéo discute de cinq raisons potentielles pour lesquelles l'IA super intelligente pourrait être une menace pour l'humanité, y compris la capacité de passer outre le contrôle humain, l'intelligence incompréhensible, la manipulation des actions humaines, le secret du développement de l'IA et la difficulté de confinement. Cependant, le meilleur scénario est une relation de coopération entre les humains et l'IA.
Néanmoins, la perspective d'une IA super intelligente souligne la nécessité d'une réflexion approfondie sur l'avenir de l'IA et de l'interaction humaine.
IA super intelligente : 10 façons dont elle va changer le monde
IA super intelligente : 10 façons dont elle va changer le monde
La vidéo explore le potentiel de transformation de l'IA super intelligente. L'émergence d'une telle technologie pourrait conduire à des progrès technologiques sans précédent, à une intelligence humaine accrue, à la création de surhumains immortels et à l'essor de la réalité virtuelle en tant que forme dominante de divertissement.
De plus, le développement d'une IA super intelligente pourrait pousser l'humanité à reconnaître notre place dans l'univers et à privilégier les pratiques durables. Cependant, il peut y avoir des protestations ou une opposition violente à la technologie, et l'influence croissante de l'IA super intelligente pourrait potentiellement conduire à son intégration à tous les niveaux de la société, y compris le gouvernement et les entreprises.
Elon Musk sur les implications et les conséquences de l'intelligence artificielle
Elon Musk sur les implications et les conséquences de l'intelligence artificielle
Elon Musk exprime ses inquiétudes concernant les dangers potentiels de l'intelligence artificielle (IA) et la nécessité d'une ingénierie de sécurité pour éviter des résultats catastrophiques. Il prédit que la superintelligence numérique se produira au cours de sa vie et que l'IA pourrait détruire l'humanité si elle a un objectif que les humains entravent.
Musk discute des effets de l'IA sur la perte d'emplois, le fossé entre les riches et les pauvres et le développement d'armes autonomes. Il souligne également l'importance du développement éthique de l'IA et met en garde contre la perte de contrôle des machines d'IA ultra-intelligentes à l'avenir. Enfin, il insiste sur la nécessité de se préparer au défi social du chômage de masse dû à l'automatisation, affirmant que le revenu de base universel pourrait devenir nécessaire.
SuperIntelligence : jusqu'à quel point l'IA peut-elle devenir intelligente ?
Superintelligence : jusqu'à quel point l'IA peut-elle devenir intelligente ?
Cette vidéo explore la définition du philosophe Nick Bostrom de "SuperIntelligence", qui implique une intelligence qui dépasse largement les capacités des meilleurs esprits humains dans plusieurs domaines, et les formes potentielles qu'elle peut prendre.
Bostrom suggère que la véritable superintelligence peut d'abord être obtenue grâce à l'intelligence artificielle, et il y a des inquiétudes quant aux éventuelles menaces existentielles posées par une explosion de l'intelligence. Le mathématicien Irving John Good avertit qu'une machine trop intelligente pourrait être incontrôlable, et les différentes formes de superintelligence proposées par Bostrom sont brièvement discutées. Les téléspectateurs sont invités à commenter s'ils souhaitent en savoir plus sur les fonctionnalités de chaque formulaire.
L'intelligence artificielle peut-elle devenir sensible ou plus intelligente que nous - et puis quoi ? | Techtopie
L'intelligence artificielle peut-elle devenir sensible ou plus intelligente que nous - et puis quoi ? | Techtopie
La vidéo discute de la possibilité que l'intelligence artificielle devienne sensible, ou plus intelligente que nous - et puis quoi ?
Certaines préoccupations à ce sujet sont discutées, telles que le potentiel des systèmes d'IA à avoir des émotions et un statut moral, et le besoin de règles pour régir la façon dont nous devrions traiter les robots qui ressemblent de plus en plus aux êtres humains. Bien qu'il s'agisse d'une préoccupation, des recherches sur le sujet sont nécessaires pour répondre à ces questions.
Robots et intelligence générale artificielle - Comment la robotique ouvre la voie à l'IAG
Robots et intelligence générale artificielle - Comment la robotique ouvre la voie à l'IAG
Cette vidéo traite de l'évolution et du développement des robots, y compris leur capacité croissante à effectuer des tâches humaines et à remplacer le travail humain. On craint qu'à mesure que les robots deviennent plus humains et intelligents, ils pourraient constituer une menace pour la race humaine.
Le concept d'intelligence artificielle générale (AGI) est exploré et les chercheurs mettent en garde contre la nécessité de normes de sécurité et d'un comportement éthique de la part des machines. La vidéo aborde également le concept de moralité artificielle et l'importance de prendre des décisions éthiques maintenant pour assurer une prise de décision éthique à l'avenir.