Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Cómo se entrena ChatGPT
Cómo se entrena ChatGPT
ChatGPT es un sistema de aprendizaje automático que está diseñado para imitar la conversación humana. Primero se entrena utilizando un enfoque de preentrenamiento generativo que se basa en cantidades masivas de datos de texto no estructurados, y luego se ajusta utilizando el aprendizaje por refuerzo para adaptarse mejor a las preferencias del usuario.
El potencial REAL de la IA generativa
El potencial REAL de la IA generativa
La IA generativa tiene el potencial de revolucionar la forma en que se crean los productos, al ayudar a los desarrolladores con la creación de prototipos, la evaluación y la personalización. Sin embargo, la tecnología aún se encuentra en sus primeras etapas y se necesita más investigación para garantizar que se use de manera ética y segura.
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introducción al aprendizaje automático (MLVU2019)
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introducción al aprendizaje automático (MLVU2019)
Este video proporciona una introducción al aprendizaje automático y cubre varios temas relacionados. El instructor explica cómo prepararse para el curso y aborda las preocupaciones comunes acerca de que el aprendizaje automático es intimidante. Introduce los diferentes tipos de aprendizaje automático y los distingue de la programación tradicional basada en reglas. El video también cubre los conceptos básicos del aprendizaje supervisado y proporciona ejemplos de cómo se puede usar el aprendizaje automático para problemas de clasificación y regresión. También se explican los conceptos de espacio de características, función de pérdida y residuos.
La segunda parte del video brinda una introducción al aprendizaje automático y explica su objetivo principal de encontrar patrones y crear modelos precisos para predecir los resultados de un conjunto de datos. El ponente analiza la importancia de utilizar algoritmos específicos y división de datos para evitar el sobreajuste y lograr la generalización. También introduce el concepto de estimación de densidad y sus dificultades con datos complejos. El ponente aclara la diferencia entre el aprendizaje automático y otros campos y alude a una estrategia para desglosar grandes conjuntos de datos con el fin de hacer predicciones precisas. El video también menciona el aumento de personas que trabajan en el aprendizaje automático con el desarrollo del aprendizaje profundo y brinda consejos para que los principiantes se inicien en el campo.
2 Modelos Lineales 1: Hiperplanos, Búsqueda Aleatoria, Descenso de Gradiente (MLVU2019)
2 Modelos Lineales 1: Hiperplanos, Búsqueda Aleatoria, Descenso de Gradiente (MLVU2019)
Este video cubre los conceptos básicos de modelos lineales, métodos de búsqueda y algoritmos de optimización. Los modelos lineales se explican tanto en 2 dimensiones como en múltiples dimensiones, y se analiza el proceso de búsqueda de un buen modelo a través de métodos como la búsqueda aleatoria y el descenso de gradiente. Se explica la importancia de la convexidad en el aprendizaje automático y se abordan los inconvenientes de la búsqueda aleatoria en paisajes no convexos. El video también presenta métodos evolutivos y búsqueda ramificada como métodos de búsqueda. Finalmente, se explica el uso del cálculo y el descenso de gradientes para optimizar la función de pérdida, incluido el proceso de encontrar la dirección de descenso más empinado para un hiperplano.
La segunda parte analiza el descenso de gradiente y su aplicación a modelos lineales, donde el algoritmo actualiza los parámetros dando pasos en la dirección del gradiente negativo de la función de pérdida. La tasa de aprendizaje es crucial para determinar la rapidez con la que el algoritmo converge al mínimo, y las funciones lineales permiten calcular el modelo óptimo sin tener que buscar. Sin embargo, los modelos más complejos requieren el uso de descenso de gradiente. El video también presenta los límites de clasificación y decisión, donde el objetivo es separar los puntos azules de los puntos rojos al encontrar una línea que lo haga de manera óptima. Las limitaciones de los modelos lineales incluyen su incapacidad para clasificar conjuntos de datos separables no linealmente, pero son computacionalmente baratos y funcionan bien en espacios de características de alta dimensión. El instructor también presenta una vista previa de los temas futuros que se discutirán, como la metodología de aprendizaje automático.
3 Metodología 1: Área bajo la curva, sesgo y varianza, sin almuerzo gratis (MLVU2019)
3 Metodología 1: Área bajo la curva, sesgo y varianza, sin almuerzo gratis (MLVU2019)
El video cubre el uso de la métrica del área bajo la curva (AUC) en la evaluación de modelos de aprendizaje automático, además de presentar los conceptos de sesgo y varianza, y el teorema de "ningún almuerzo gratis". La métrica AUC mide el rendimiento del modelo de clasificación mediante el cálculo del área bajo la curva ROC. Además, se analizan el sesgo y la varianza, ya que juegan un papel crucial en la forma en que el modelo se ajusta a los datos de entrenamiento y se generaliza a nuevos datos. Además, el teorema de "no hay almuerzo gratis" destaca la necesidad de seleccionar el algoritmo apropiado para cada problema específico, ya que no existe un algoritmo universalmente aplicable para todos los problemas de aprendizaje automático.
Este video cubre tres conceptos importantes de aprendizaje automático: AUC (área bajo la curva), sesgo y varianza, y el teorema de "ningún almuerzo gratis". AUC es una métrica utilizada para evaluar modelos de clasificación binaria, mientras que el sesgo y la varianza se refieren a las diferencias entre los valores predichos de un modelo y los valores reales en un conjunto de datos. El teorema de "no hay almuerzo gratis" destaca la importancia de seleccionar el algoritmo apropiado para un problema dado, ya que no existe un único algoritmo que pueda funcionar de manera óptima en todos los problemas y conjuntos de datos posibles.
4 Metodología 2: limpieza de datos, análisis de componentes principales, caras propias (MLVU2019)
4 Metodología 2: limpieza de datos, análisis de componentes principales, caras propias (MLVU2019)
Esta primera parte del video cubre varios aspectos importantes del procesamiento previo y la limpieza de datos antes de aplicar algoritmos de aprendizaje automático, comenzando con la importancia crucial de comprender los sesgos y sesgos de los datos. Luego, el orador analiza los métodos para tratar los datos faltantes, los valores atípicos, el desequilibrio de clases, la selección de características y la normalización. El video continúa discutiendo el concepto de base y la distribución MVN, explica cómo usar el blanqueamiento para transformar los datos en una distribución normal para la normalización y concluye con el uso del análisis de componentes principales (PCA) para la reducción de la dimensionalidad. Desde la manipulación del conjunto de entrenamiento hasta el uso de métodos de imputación, PCA proyecta datos a un espacio dimensional más bajo mientras retiene información de los datos originales.
Esta segunda parte del video analiza el uso del análisis de componentes principales (PCA) en la limpieza de datos y la reducción de la dimensionalidad para el aprendizaje automático. El método consiste en centrar los datos en la media, calcular la covarianza de la muestra y descomponerla mediante la descomposición propia para obtener los vectores propios alineados con el eje que captura la mayor varianza. El uso de los primeros componentes principales de K proporciona una buena reconstrucción de datos, lo que permite un mejor rendimiento del aprendizaje automático. También se introduce el concepto de Eigenfaces, y se demuestra que PCA es efectivo para comprimir los datos a 30 dimensiones mientras mantiene la mayor parte de la información requerida para el aprendizaje automático. Se discuten varias aplicaciones de PCA, incluido su uso en antropología y en el estudio de conjuntos de datos complejos como el ADN y las caras.
Clase 5 Probabilidad 1: Entropía, (Naive) Bayes, Pérdida de entropía cruzada (MLVU2019)
5 Probabilidad 1: Entropía, (Naive) Bayes, Pérdida de entropía cruzada (MLVU2019)
El video cubre varios aspectos de la teoría de la probabilidad y su aplicación en el aprendizaje automático. El orador presenta la entropía, que mide la cantidad de incertidumbre en un sistema, y explica cómo se relaciona con el bayesiano ingenuo y la pérdida de entropía cruzada. También se analizan los conceptos de espacio muestral, espacio de eventos, variables aleatorias y probabilidad condicional. Se explica el teorema de Bayes y se considera un concepto fundamental en el aprendizaje automático. El video también cubre el principio de estimación de máxima verosimilitud y la probabilidad bayesiana, así como el uso de código sin prefijos para simular distribuciones de probabilidad. Por último, el orador analiza clasificadores discriminativos versus generativos para la clasificación binaria, incluido el clasificador Naive Bayes.
La segunda parte explica el concepto de cálculo de probabilidades para un nuevo punto perteneciente a una clase particular utilizando un modelo de distribución normal multivariado. Analiza la independencia condicional de las características para ajustar de manera eficiente las distribuciones de probabilidad para un clasificador y la necesidad de suavizar o ajustar las pseudoobservaciones para manejar instancias cero. El orador también presenta la pérdida de entropía como una función de pérdida más eficaz para los clasificadores lineales que la precisión, y analiza la capacidad de la función de pérdida de entropía cruzada para medir la diferencia entre los datos previstos y los reales, con la función sigmoidea colapsando las simetrías de la función para simplificarla. Finalmente, el video sugiere que la próxima lección cubrirá la pérdida de SVM como la función de pérdida final.
Clase 6 Modelos Lineales 2: Redes Neuronales, Retropropagación, SVMs y Métodos Kernel (MLVU2019)
6 Modelos lineales 2: redes neuronales, retropropagación, SVM y métodos Kernel (MLVU2019)
Esta primera parte del video sobre modelos lineales se centra en la introducción de la no linealidad a los modelos lineales y explora dos modelos que se basan en la expansión del espacio de características: redes neuronales y máquinas de vectores de soporte (SVM). Para las redes neuronales, el ponente explica cómo configurar una red para problemas de regresión y clasificación utilizando funciones de activación como sigmoid o softmax. Luego, la conferencia profundiza en la retropropagación, un método utilizado para calcular los gradientes utilizados en las redes neuronales. Para SVM, el orador presenta el concepto de maximizar el margen a los puntos más cercanos de cada clase y demuestra cómo se puede expresar como un problema de optimización con restricciones. El video proporciona una introducción clara a los principios de las redes neuronales y las SVM, y recomienda a los estudiantes que se concentren en la primera mitad de la lección como punto de partida para el resto del curso.
La segunda parte del video cubre los temas de las máquinas de vectores de soporte (SVM), las SVM de margen suave, los trucos del kernel y las diferencias entre las SVM y las redes neuronales. Las SVM de margen suave se introducen como una forma de manejar datos separables no lineales, lo que permite agregar un valor de penalización a los puntos que no cumplen con las restricciones de clasificación. El truco del núcleo permite el cálculo del producto escalar en un espacio de mayor dimensión, expandiendo el espacio de características para aumentar significativamente la potencia del modelo. Se explican las diferencias entre las SVM y las redes neuronales, y se analiza el cambio hacia las redes neuronales debido a su capacidad para realizar tipos de clasificación más avanzados, incluso si no se comprenden por completo.
Aprendizaje profundo 1: retropropagación para tensores, redes neuronales convolucionales (MLVU2019)
7 Aprendizaje profundo 1: Retropropagación para tensores, redes neuronales convolucionales (MLVU2019)
Esta primera parte del video sobre aprendizaje profundo y retropropagación cubre varios temas, incluidos los conceptos básicos de un marco de trabajo de aprendizaje profundo, tensores, el algoritmo de retropropagación y el problema del gradiente de fuga. El ponente explica cómo se pueden implementar redes neuronales utilizando una secuencia de operaciones de álgebra lineal y cómo se puede utilizar el algoritmo de retropropagación para definir un modelo como una composición de funciones. El video también cubre cómo calcular derivadas usando operaciones matriciales y explora soluciones al problema del gradiente que se desvanece, como la inicialización del peso y el uso de ReLU como una función de activación. Finalmente, el video aborda el descenso de gradiente de mini lotes y varios optimizadores que se pueden utilizar en una red neuronal compleja.
Esta segunda parte cubre una variedad de temas relacionados con el aprendizaje profundo, incluidos los algoritmos de optimización y las técnicas de regularización. La optimización de Adam se explica como un algoritmo popular para el aprendizaje profundo, mientras que la regularización de L1 y L2 se exploran como métodos para evitar el sobreajuste. También se analiza el potencial de las redes neuronales en el procesamiento de imágenes, destacando las redes neuronales convolucionales como una poderosa herramienta para las tareas de reconocimiento de imágenes. El video también profundiza en el funcionamiento de estas redes y cómo construyen funciones para reconocer imágenes complejas, así como el concepto de aprendizaje de extremo a extremo como una forma de superar las limitaciones de encadenar varios módulos.
8 Probabilidad 2: máxima verosimilitud, modelos de mezcla gaussiana y maximización de expectativas (MLVU2019)
8 Probabilidad 2: máxima verosimilitud, modelos de mezcla gaussiana y maximización de expectativas (MLVU2019)
Esta sección del video se centró en los modelos de probabilidad para la estimación de la densidad utilizando la estimación de máxima verosimilitud, las distribuciones normales, los modelos de mezcla gaussiana y el algoritmo de maximización de expectativas. El ponente explicó el principio de Máxima Verosimilitud y mostró su aplicación en la selección del mejor modelo de probabilidad. Exploraron las distribuciones normales, explicaron la diferencia entre la probabilidad y las funciones de densidad de probabilidad e introdujeron los modelos de mezcla gaussiana. El orador también discutió el método de muestreo de una distribución normal univariante y multivariante, y cómo el modelo de mezcla gaussiana ayuda a identificar diferentes grupos dentro de una población. Además, se introdujo el algoritmo de maximización de expectativas para ajustar los modelos de mezcla gaussiana a los conjuntos de datos. El ponente también explicó cómo formalizar el enfoque de Maximización de Expectativas usando la aproximación de la función Q y demostró que converge a un óptimo local.
Este video cubre los temas de máxima verosimilitud, modelos de mezcla gaussiana y maximización de expectativas (EM). El orador explica el algoritmo EM, su prueba y por qué converge. También discuten el paso M, donde maximizan L eligiendo theta mientras mantienen Q fijo. Ajustar un modelo de mezcla gaussiana a los datos requiere el uso del algoritmo EM, y el orador explica sus aplicaciones, como el agrupamiento y el análisis exploratorio, y cómo se puede usar para la clasificación ajustando un modelo de mezcla gaussiana a cada clase. El video también menciona la próxima conferencia sobre el ajuste de modelos de probabilidad a redes neuronales complicadas.