Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Clase 11 --Optimización para el aprendizaje profundo -- Frank Schneider
Numéricos de ML 11 --Optimización para aprendizaje profundo -- Frank Schneider
Frank Schneider analiza los desafíos de la optimización para el aprendizaje profundo, enfatizando la complejidad de entrenar redes neuronales y la importancia de seleccionar los métodos y algoritmos de optimización correctos. Señala la abrumadora cantidad de métodos disponibles y la dificultad de comparar y comparar diferentes algoritmos. Schneider proporciona ejemplos del mundo real de entrenamiento exitoso de modelos de idiomas grandes y la necesidad de programaciones de tasas de aprendizaje no predeterminadas y cambios a mitad de camino para lograr que el modelo se entrene con éxito. Schneider destaca la importancia de brindar a los usuarios más información sobre cómo usar estos métodos y cómo los hiperparámetros afectan el proceso de capacitación, así como la creación de ejercicios de evaluación comparativa para ayudar a los profesionales a seleccionar el mejor método para su caso de uso específico. También analiza métodos más nuevos como Alpha y cómo se puede aprovechar para dirigir el proceso de capacitación de una red neuronal.
En la segunda parte del video sobre los valores numéricos de la optimización para el aprendizaje profundo, Frank Schneider presenta la herramienta "Deep Debugger" Cockpit, que proporciona instrumentos adicionales para detectar y corregir problemas en el proceso de capacitación, como errores de datos y bloques de modelos. Explica la importancia de normalizar los datos para obtener hiperparámetros óptimos, la relación entre las tasas de aprendizaje y la precisión de las pruebas, y los desafíos de entrenar redes neuronales con estocasticidad. Schneider anima a los estudiantes a trabajar para mejorar el entrenamiento de las redes neuronales considerando el gradiente como una distribución y desarrollando mejores métodos autónomos a largo plazo.
Clase 12 -- Optimización de segundo orden para el aprendizaje profundo -- Lukas Tatzel
Numéricos de ML 12 -- Optimización de segundo orden para aprendizaje profundo -- Lukas Tatzel
En este video, Lukas Tatzel explica los métodos de optimización de segundo orden para el aprendizaje profundo y sus beneficios potenciales. Compara las trayectorias y las tasas de convergencia de tres métodos de optimización: SGD, Adam y LBFGS, utilizando el ejemplo de la función de Rosenberg en 2D. Tatzel señala que el comportamiento nervioso de SGD hace que la convergencia sea más lenta en comparación con los pasos bien informados de LBFGS. Introduce el paso de Newton como un método más rápido para la optimización y analiza sus limitaciones, como la dependencia del número de condición. Tatzel también explica el concepto de matriz generalizada de Gauss-Newton (GGN) como una aproximación a la hessiana para tratar problemas mal condicionados. Además, analiza el problema de la región de confianza, cómo lidiar con funciones objetivas no convexas y el enfoque libre de Hessian que usa CG para minimizar funciones cuadráticas.
Esta segunda parte del video explora las técnicas de optimización de segundo orden para el aprendizaje profundo, incluidos BFGS y LBFGS, la optimización sin Hessian y KFC. El orador explica que el enfoque libre de Hessian linealiza el modelo utilizando el producto vectorial jacobiano, mientras que KFC es una curvatura aproximada basada en métricas de información oficial. Sin embargo, pueden ocurrir estocasticidad y sesgos con estos métodos, y se recomienda la amortiguación para abordar estos problemas. El ponente propone el uso de algoritmos especializados que pueden usar cantidades más ricas como distribuciones para realizar actualizaciones y señala que el problema fundamental de la estocasticidad sigue sin resolverse. En general, los métodos de optimización de segundo orden ofrecen una solución parcial a los desafíos del aprendizaje profundo.
Clase 13 -- Incertidumbre en el Aprendizaje Profundo -- Agustinus Kristiadi
Numerics of ML 13 -- Incertidumbre en Deep Learning -- Agustinus Kristiadi
El video analiza la incertidumbre en el aprendizaje profundo, particularmente en los pesos de las redes neuronales, y la importancia de incorporar la incertidumbre debido al problema del exceso de confianza asintótica, donde las redes neuronales brindan predicciones de alta confianza para ejemplos fuera de distribución que no deben clasificarse con certeza. El video brinda información sobre cómo usar cantidades de segundo orden, específicamente estimaciones de curvatura, para obtener incertidumbre en redes neuronales profundas, utilizando una distribución gaussiana para aproximar los pesos de la última capa y la matriz hessiana para estimar la curvatura de la red neuronal. El video también analiza el formalismo bayesiano y las aproximaciones de LaPlace para seleccionar modelos y parámetros de redes neuronales.
En la segunda parte de la conferencia, Agustinus Kristiadi analiza varias formas de introducir la incertidumbre en los modelos de aprendizaje profundo en este video. Una técnica implica el uso de aproximaciones de Laplace linealizadas para convertir una red neuronal en un modelo gaussiano. Otro enfoque es el entrenamiento fuera de distribución, donde se agrega incertidumbre en regiones que no están cubiertas por el conjunto de entrenamiento original. Kristiadi enfatiza la importancia de agregar incertidumbre para evitar un exceso de confianza en el modelo y sugiere usar medidas probabilísticas para evitar el costo de encontrar el posterior ideal. Estas técnicas se explorarán más a fondo en un próximo curso sobre aprendizaje automático probabilístico.
Clase 14 -- Conclusión -- Philipp Hennig
Numéricos de ML 14 -- Conclusión -- Philipp Hennig
Philipp Hennig ofrece un resumen del curso "Números del aprendizaje automático", enfatizando la importancia de resolver problemas matemáticos en el aprendizaje automático relacionados con el análisis numérico, como integración, optimización, ecuaciones diferenciales y álgebra lineal. Habla de la complejidad de realizar álgebra lineal en un conjunto de datos y cómo se relaciona con la unidad de procesamiento y el disco. Hennig también cubre temas como el manejo de conjuntos de datos de tamaños no triviales, algoritmos para resolver sistemas lineales, resolver ecuaciones diferenciales parciales y estimar integrales. Concluye reconociendo la dificultad de entrenar redes neuronales profundas y la necesidad de soluciones para superar el problema de la estocasticidad.
En la conclusión de su serie de conferencias, Philipp Hennig enfatiza la importancia de ir más allá del entrenamiento de modelos de aprendizaje automático y saber cuánto sabe el modelo y qué no. Habla sobre la estimación de la curvatura de la función de pérdida para construir estimaciones de incertidumbre para redes neuronales profundas y la importancia de ser probabilístico pero no necesariamente aplicar el teorema de Bayes en todos los casos debido a la complejidad computacional. Hennig también enfatiza la importancia de la computación numérica en el aprendizaje automático y la necesidad de desarrollar nuevas formas de computación centradas en los datos. Finalmente, invita a recibir comentarios sobre el curso y analiza el próximo examen.
Support Vector Machine (SVM) en 7 minutos - Fun Machine Learning
Support Vector Machine (SVM) en 7 minutos - Fun Machine Learning
El video explica Support Vector Machines (SVM), un algoritmo de clasificación utilizado para conjuntos de datos con dos clases que dibuja un límite de decisión, o hiperplano, en función de los extremos del conjunto de datos. También analiza cómo se puede utilizar SVM para conjuntos de datos separables de forma no lineal transformándolos en espacios de características de mayor dimensión mediante un truco del kernel. El video identifica las ventajas de SVM, como la efectividad en espacios de alta dimensión, la eficiencia de la memoria y la capacidad de usar diferentes kernels para funciones personalizadas. Sin embargo, el video también identifica las desventajas del algoritmo, como el rendimiento deficiente cuando la cantidad de características es mayor que la cantidad de muestras y la falta de estimaciones de probabilidad directa, que requieren una costosa validación cruzada.
'La revolución del aprendizaje profundo' - Geoffrey Hinton - Conferencia del presidente de RSE 2019
'La revolución del aprendizaje profundo' - Geoffrey Hinton - Conferencia del presidente de RSE 2019
Geoffrey Hinton, conocido como el "padrino del aprendizaje profundo", analiza la historia y la evolución del aprendizaje profundo y las redes neuronales, los desafíos y las emocionantes posibilidades de usar el aprendizaje profundo para crear máquinas que puedan aprender de la misma manera que los cerebros humanos y las trucos y técnicas que han hecho que la retropropagación sea más efectiva. También describe el éxito de las redes neuronales en el reconocimiento de voz y la visión por computadora, la evolución de las redes neuronales para la visión por computadora y el entrenamiento previo sin supervisión, y su eficacia en el modelado del lenguaje y la traducción automática. Termina destacando el valor del razonamiento por analogía y analiza su teoría de las "cápsulas" y el cableado del conocimiento en un modelo que predice partes del todo.
Geoffrey Hinton, un pionero en el aprendizaje profundo, ofrece una conferencia que aboga por la integración de memorias asociativas, memorias rápidas y múltiples escalas de tiempo en redes neuronales para permitir el conocimiento a largo plazo y el almacenamiento temporal, que es necesario para el razonamiento real. Además, discute el acto de equilibrio entre creencias previas y datos, el potencial del aprendizaje no supervisado, la eficiencia de las redes convolucionales en el reconocimiento de objetos con la incorporación del conocimiento del punto de vista y la equivarianza traslacional, y la necesidad de combinar el razonamiento simbólico con las redes conexionistas, como transformador. redes También aborda el tema de los sesgos inconscientes en el aprendizaje automático y cree que se pueden corregir más fácilmente que los sesgos humanos al identificar y corregir los sesgos. Por último, destaca la necesidad de más financiación y apoyo para los jóvenes investigadores en el campo de la IA.
Cómo funciona realmente ChatGPT
Cómo funciona realmente ChatGPT
ChatGPT es un modelo de aprendizaje automático que puede identificar correctamente el contenido dañino en las conversaciones de chat. Su arquitectura se basa en el aporte humano y se describen sus deficiencias. También se proporcionan lecturas recomendadas.
Aprendizaje automático desde cero Curso completo
Aprendizaje automático desde cero Curso completo
Implementar modelos de aprendizaje automático usted mismo es una de las mejores formas de dominarlos. A pesar de parecer una tarea desafiante, a menudo es más fácil de lo que imaginas para la mayoría de los algoritmos. Durante los próximos 10 días, usaremos Python y ocasionalmente Numpy para cálculos específicos para implementar un algoritmo de aprendizaje automático cada día.
Puede encontrar el código en nuestro repositorio de GitHub: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch
Cómo implementar KNN desde cero con Python
Código: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/01%20KNN
Cómo implementar KNN desde cero con Python
En el video titulado "Cómo implementar KNN desde cero con Python", el ponente explica cómo crear un clasificador KNN desde cero usando Python. Cubren los pasos involucrados en la implementación del algoritmo, como calcular la distancia entre el nuevo punto de datos y otros puntos en el conjunto de datos, seleccionar los k puntos más cercanos y determinar la etiqueta para la clasificación o el promedio para la regresión. El orador implementa el algoritmo utilizando una clase en Python y demuestra su implementación exitosa en el conjunto de datos del iris con una tasa de precisión del 96 %. También invitan a los espectadores a revisar el código en su repositorio de Github y hacer preguntas en la sección de comentarios.
Cómo implementar la regresión lineal desde cero con Python
Código: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/02%20Linear%20Regression
Cómo implementar la regresión lineal desde cero con Python
Este video cubre el proceso de implementación de la regresión lineal desde cero usando Python. El orador explica cómo encontrar la mejor línea de ajuste utilizando el error cuadrático medio y cómo calcular los pesos y sesgos con descenso de gradiente. El orador también analiza cómo la tasa de aprendizaje afecta la convergencia y demuestra cómo probar el modelo utilizando la función de conjunto de datos de scikit-learn. También corrigen un error tipográfico en el código y ajustan la tasa de aprendizaje para mejorar el ajuste de la línea de predicción. El código se comparte en GitHub y se invita a los espectadores a hacer preguntas.
el resultado, y se calcula el error de la ecuación, lo que facilita el uso de la multiplicación de matrices con todos los puntos de datos para calcular los gradientes. Durante las pruebas, un modelo entrenado predice los resultados usando la ecuación.