Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Come viene addestrato ChatGPT
Come viene addestrato ChatGPT
ChatGPT è un sistema di apprendimento automatico progettato per imitare la conversazione umana. Viene prima addestrato utilizzando un approccio di pre-addestramento generativo che si basa su enormi quantità di dati di testo non strutturati, quindi perfezionato utilizzando l'apprendimento per rinforzo per adattarsi meglio alle preferenze dell'utente.
Il VERO potenziale dell'IA generativa
Il VERO potenziale dell'IA generativa
L'IA generativa ha il potenziale per rivoluzionare il modo in cui vengono creati i prodotti, aiutando gli sviluppatori con la prototipazione, la valutazione e la personalizzazione. Tuttavia, la tecnologia è ancora nelle sue fasi iniziali e sono necessarie ulteriori ricerche per garantire che venga utilizzata in modo etico e sicuro.
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introduzione all'apprendimento automatico (MLVU2019)
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introduzione all'apprendimento automatico (MLVU2019)
Questo video fornisce un'introduzione all'apprendimento automatico e copre vari argomenti ad esso correlati. L'istruttore spiega come prepararsi per il corso e affronta le preoccupazioni comuni sul fatto che l'apprendimento automatico sia intimidatorio. Introduce i diversi tipi di apprendimento automatico e lo distingue dalla tradizionale programmazione basata su regole. Il video copre anche le basi dell'apprendimento supervisionato e fornisce esempi di come l'apprendimento automatico può essere utilizzato per problemi di classificazione e regressione. Vengono inoltre spiegati i concetti di spazio delle caratteristiche, funzione di perdita e residui.
La seconda parte del video fornisce un'introduzione all'apprendimento automatico e spiega il suo obiettivo principale di trovare modelli e creare modelli accurati per prevedere i risultati da un set di dati. Il relatore discute l'importanza di utilizzare algoritmi specifici e la suddivisione dei dati per evitare l'overfitting e ottenere la generalizzazione. Introduce anche il concetto di stima della densità e le sue difficoltà con dati complessi. Il relatore chiarisce la differenza tra l'apprendimento automatico e altri campi e allude a una strategia per abbattere i set di big data al fine di fare previsioni accurate. Il video menziona anche l'aumento delle persone che lavorano nel machine learning con lo sviluppo del deep learning e fornisce suggerimenti per i principianti per iniziare sul campo.
2 modelli lineari 1: iperpiani, ricerca casuale, discesa gradiente (MLVU2019)
2 modelli lineari 1: iperpiani, ricerca casuale, discesa gradiente (MLVU2019)
Questo video tratta le basi dei modelli lineari, dei metodi di ricerca e degli algoritmi di ottimizzazione. I modelli lineari sono spiegati sia in 2 dimensioni che in più dimensioni e viene discusso il processo di ricerca di un buon modello attraverso metodi come la ricerca casuale e la discesa del gradiente. Viene spiegata l'importanza della convessità nell'apprendimento automatico e vengono affrontati gli svantaggi della ricerca casuale in paesaggi non convessi. Il video introduce anche metodi evolutivi e ricerche ramificate come metodi di ricerca. Infine, viene spiegato l'uso del calcolo e della discesa del gradiente per ottimizzare la funzione di perdita, compreso il processo per trovare la direzione della discesa più ripida per un iperpiano.
La seconda parte discute la discesa del gradiente e la sua applicazione ai modelli lineari, dove l'algoritmo aggiorna i parametri muovendosi nella direzione del gradiente negativo della funzione di perdita. Il tasso di apprendimento è cruciale nel determinare la velocità con cui l'algoritmo converge al minimo e le funzioni lineari consentono di elaborare il modello ottimale senza dover cercare. Tuttavia, i modelli più complessi richiedono l'utilizzo della discesa del gradiente. Il video introduce anche la classificazione e i limiti decisionali, in cui l'obiettivo è separare i punti blu dai punti rossi trovando una linea che lo faccia in modo ottimale. I limiti dei modelli lineari includono la loro incapacità di classificare set di dati non linearmente separabili, ma sono computazionalmente economici e funzionano bene in spazi di caratteristiche ad alta dimensione. L'istruttore prevede anche argomenti futuri che verranno discussi, come la metodologia di apprendimento automatico.
3 Metodologia 1: area sotto la curva, bias e varianza, niente pasti gratuiti (MLVU2019)
3 Metodologia 1: area sotto la curva, bias e varianza, niente pasti gratuiti (MLVU2019)
Il video copre l'uso della metrica dell'area sotto la curva (AUC) nella valutazione dei modelli di apprendimento automatico, oltre a introdurre i concetti di distorsione e varianza e il teorema del "pasto gratis". La metrica AUC misura le prestazioni del modello di classificazione calcolando l'area sotto la curva ROC. Inoltre, vengono discussi bias e varianza in quanto svolgono un ruolo cruciale nel modo in cui il modello si adatta ai dati di addestramento e si generalizza ai nuovi dati. Inoltre, il teorema "no free lunch" evidenzia la necessità di selezionare l'algoritmo appropriato per ogni problema specifico poiché non esiste un algoritmo universalmente applicabile per tutti i problemi di apprendimento automatico.
Questo video copre tre importanti concetti di machine learning: AUC (area sotto la curva), bias e varianza e il teorema del "niente pasti gratis". L'AUC è una metrica utilizzata per valutare i modelli di classificazione binaria, mentre bias e varianza si riferiscono alle differenze tra i valori previsti di un modello e i valori reali in un set di dati. Il teorema "no free lunch" evidenzia l'importanza di selezionare l'algoritmo appropriato per un dato problema, poiché non esiste un singolo algoritmo in grado di funzionare in modo ottimale su tutti i possibili problemi e set di dati.
4 Metodologia 2: pulizia dei dati, analisi dei componenti principali, Eigenfaces (MLVU2019)
4 Metodologia 2: pulizia dei dati, analisi dei componenti principali, Eigenfaces (MLVU2019)
Questa prima parte del video copre vari aspetti importanti della pre-elaborazione e della pulizia dei dati prima dell'applicazione degli algoritmi di apprendimento automatico, a partire dall'importanza cruciale di comprendere i bias e l'inclinazione dei dati. Il relatore discute quindi i metodi per gestire i dati mancanti, i valori anomali, lo squilibrio di classe, la selezione delle caratteristiche e la normalizzazione. Il video prosegue discutendo il concetto di base e la distribuzione MVN, spiegando come utilizzare lo sbiancamento per trasformare i dati in una distribuzione normale per la normalizzazione e si conclude con l'uso dell'analisi delle componenti principali (PCA) per la riduzione della dimensionalità. Dalla manipolazione del set di addestramento all'utilizzo di metodi di imputazione, PCA proietta i dati in uno spazio dimensionale inferiore conservando le informazioni dai dati originali.
Questa seconda parte del video illustra l'uso dell'analisi dei componenti principali (PCA) nella pulizia dei dati e nella riduzione della dimensionalità per l'apprendimento automatico. Il metodo prevede il centramento della media dei dati, il calcolo della covarianza del campione e la sua scomposizione utilizzando la decomposizione dell'auto per ottenere gli autovettori allineati con l'asse che catturano la maggior parte della varianza. L'utilizzo dei primi K componenti principali fornisce una buona ricostruzione dei dati, consentendo migliori prestazioni di machine learning. Viene inoltre introdotto il concetto di Eigenfaces e il PCA si dimostra efficace nel comprimere i dati a 30 dimensioni mantenendo la maggior parte delle informazioni richieste per l'apprendimento automatico. Vengono discusse varie applicazioni del PCA, incluso il suo uso in antropologia e nello studio di set di dati complessi come DNA e volti.
Lezione 5 Probabilità 1: Entropia, (Naive) Bayes, Perdita di entropia incrociata (MLVU2019)
5 Probabilità 1: entropia, Bayes (ingenuo), perdita di entropia incrociata (MLVU2019)
Il video copre vari aspetti della teoria della probabilità e la sua applicazione nell'apprendimento automatico. L'oratore introduce l'entropia, che misura la quantità di incertezza in un sistema, e spiega come è correlata all'ingenuo Bayes e alla perdita di entropia incrociata. Vengono inoltre discussi i concetti di spazio campionario, spazio degli eventi, variabili casuali e probabilità condizionata. Il teorema di Bayes è spiegato e considerato un concetto fondamentale nell'apprendimento automatico. Il video copre anche il principio di stima della massima verosimiglianza e la probabilità bayesiana, nonché l'uso di codice senza prefisso per simulare le distribuzioni di probabilità. Infine, il relatore discute i classificatori discriminativi rispetto a quelli generativi per la classificazione binaria, incluso il classificatore Naive Bayes.
La seconda parte spiega il concetto di calcolo delle probabilità per un nuovo punto appartenente a una particolare classe utilizzando un modello di distribuzione normale multivariata. Discute l'indipendenza condizionale delle caratteristiche per adattare in modo efficiente le distribuzioni di probabilità per un classificatore e la necessità di livellare o ottimizzare le pseudo-osservazioni per gestire zero istanze. Il relatore introduce anche la perdita di entropia come una funzione di perdita più efficace per i classificatori lineari rispetto all'accuratezza e discute la capacità della funzione di perdita di entropia incrociata di misurare la differenza tra dati previsti e dati effettivi, con la funzione sigmoidea che collassa le simmetrie della funzione per semplificarla. Infine, il video suggerisce che la prossima lezione coprirà la perdita SVM come funzione di perdita finale.
Lezione 6 Modelli lineari 2: reti neurali, backpropagation, SVM e metodi kernel (MLVU2019)
6 Modelli lineari 2: reti neurali, backpropagation, SVM e metodi kernel (MLVU2019)
Questa prima parte del video sui modelli lineari si concentra sull'introduzione della non linearità nei modelli lineari ed esplora due modelli che si basano sull'espansione dello spazio delle funzionalità: le reti neurali e le macchine vettoriali di supporto (SVM). Per le reti neurali, il relatore spiega come impostare una rete per problemi di regressione e classificazione utilizzando funzioni di attivazione come sigmoid o softmax. La lezione approfondisce quindi la retropropagazione, un metodo utilizzato per calcolare i gradienti utilizzati nelle reti neurali. Per le SVM, il relatore introduce il concetto di massimizzare il margine ai punti più vicini di ogni classe e dimostra come può essere espresso come un problema di ottimizzazione vincolata. Il video fornisce una chiara introduzione ai principi delle reti neurali e delle SVM, raccomandando agli studenti di concentrarsi sulla prima metà della lezione come punto di partenza per il resto del corso.
La seconda parte del video copre gli argomenti delle macchine a vettori di supporto (SVM), SVM a margine morbido, trucchi del kernel e differenze tra SVM e reti neurali. Gli SVM con margine morbido vengono introdotti come un modo per gestire i dati non linearmente separabili, consentendo di aggiungere un valore di penalità ai punti che non rispettano i vincoli di classificazione. Il trucco del kernel consente il calcolo del prodotto scalare in uno spazio dimensionale superiore, espandendo lo spazio delle caratteristiche per aumentare significativamente la potenza del modello. Vengono spiegate le differenze tra SVM e reti neurali e viene discusso il passaggio alle reti neurali dovuto alla loro capacità di eseguire tipi di classificazione più avanzati, anche se non completamente compresi.
Deep learning 1: Backpropagation per tensori, reti neurali convoluzionali (MLVU2019)
7 Deep learning 1: Backpropagation per tensori, reti neurali convoluzionali (MLVU2019)
Questa prima parte del video su deep learning e backpropagation copre diversi argomenti, tra cui le basi di un framework di deep learning, i tensori, l'algoritmo di backpropagation e il problema del gradiente evanescente. Il relatore spiega come le reti neurali possono essere implementate utilizzando una sequenza di operazioni di algebra lineare e come l'algoritmo di backpropagation può essere utilizzato per definire un modello come composizione di funzioni. Il video spiega anche come calcolare le derivate utilizzando operazioni con matrici ed esplora le soluzioni al problema del gradiente di fuga, come l'inizializzazione del peso e l'uso di ReLU come funzione di attivazione. Infine, il video tocca la discesa del gradiente in mini-batch e vari ottimizzatori che possono essere utilizzati in una rete neurale complessa.
Questa seconda parte copre una serie di argomenti relativi al deep learning, inclusi algoritmi di ottimizzazione e tecniche di regolarizzazione. L'ottimizzazione di Adam viene spiegata come un popolare algoritmo per il deep learning, mentre la regolarizzazione L1 e L2 viene esplorata come metodi per prevenire l'overfitting. Viene anche discusso il potenziale delle reti neurali nell'elaborazione delle immagini, con le reti neurali convoluzionali evidenziate come un potente strumento per le attività di riconoscimento delle immagini. Il video approfondisce anche il funzionamento di queste reti e il modo in cui creano funzionalità per riconoscere immagini complesse, nonché il concetto di apprendimento end-to-end come un modo per superare i limiti del concatenamento di più moduli.
8 Probabilità 2: massima verosimiglianza, modelli di miscela gaussiana e massimizzazione delle aspettative (MLVU2019)
8 Probabilità 2: massima verosimiglianza, modelli di miscela gaussiana e massimizzazione delle aspettative (MLVU2019)
Questa sezione del video è incentrata sui modelli di probabilità per la stima della densità utilizzando la stima della massima verosimiglianza, le distribuzioni normali, i modelli di miscela gaussiana e l'algoritmo di massimizzazione delle aspettative. Il relatore ha spiegato il principio di massima verosimiglianza e ha mostrato la sua applicazione nella selezione del miglior modello di probabilità. Hanno esplorato le distribuzioni normali, spiegato la differenza tra probabilità e funzioni di densità di probabilità e introdotto modelli Gaussian Mixture. Il relatore ha anche discusso del metodo di campionamento da una distribuzione normale univariata e multivariata e di come il Gaussian Mixture Model aiuti a identificare diversi cluster all'interno di una popolazione. Inoltre, è stato introdotto l'algoritmo di massimizzazione delle aspettative per adattare i modelli di miscela gaussiana ai set di dati. Il relatore ha anche spiegato come formalizzare l'approccio di massimizzazione delle aspettative utilizzando l'approssimazione della funzione Q e ha dimostrato che converge a un ottimo locale.
Questo video copre gli argomenti di massima verosimiglianza, modelli di miscela gaussiana e massimizzazione delle aspettative (EM). L'oratore spiega l'algoritmo EM, la sua dimostrazione e perché converge. Discutono anche del passo M, dove massimizzano L scegliendo theta mantenendo Q fisso. L'adattamento di un modello di miscela gaussiana ai dati richiede l'uso dell'algoritmo EM e il relatore spiega le sue applicazioni come il clustering e l'analisi esplorativa e come può essere utilizzato per la classificazione adattando un modello di miscela gaussiana a ciascuna classe. Il video menziona anche l'imminente lezione sull'adattamento dei modelli di probabilità a complicate reti neurali.