Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Tensorflow per la ricerca sul deep learning - Lezione 1
Tensorflow per la ricerca sul deep learning - Lezione 1
Il video "Tensorflow for Deep Learning Research - Lecture 1" introduce il tutorial su TensorFlow coprendo la necessità di un tutorial di livello approfondito, spiegando le basi della libreria e le applicazioni pratiche. La lezione spiega come costruire e strutturare modelli utilizzando TensorFlow da una prospettiva di deep learning. Il tutorial copre anche gli strumenti utilizzati in TensorBoard per visualizzare un modello grafico computazionale, incluso come operare con nodi, bordi e sessioni, che forniscono opzioni di calcolo efficienti eseguendo sottografi. Il docente consiglia di imparare TensorFlow da zero per creare modelli personalizzati e gestire in modo efficiente le risorse, con la possibilità di funzionare su CPU, GPU, Android o iOS, fornendo allo stesso tempo la possibilità di distribuire i modelli.
Tensorflow per la ricerca sul deep learning - Lezione 2
Tensorflow per la ricerca sul deep learning - Lezione 2
La conferenza su TensorFlow per la ricerca sull'apprendimento approfondito copre un'ampia gamma di argomenti, tra cui operazioni di base, tipi di tensori, segnaposto e caricamento lento. Viene sottolineata l'importanza di utilizzare TensorBoard per visualizzare il grafico in esecuzione e vengono discusse varie funzioni dell'API TensorFlow, tra cui random shuffle, random crop, TF.dot multinomial e la funzione random gamma. Il video copre anche i concetti di definizione di 0-ness per diversi tipi di dati, inizializzazione delle variabili, assegnazione di valori e i vantaggi dell'utilizzo di una sessione interattiva TensorFlow. Infine, l'uso dei segnaposto in TensorFlow è trattato in dettaglio e vengono discussi i potenziali problemi quando si utilizzano segnaposto con forme non definite.
Il relatore discute anche dell'uso dei segnaposto in TensorFlow, incluso come alimentare più punti dati e utilizzare dict gratuiti. La lezione passa quindi al caricamento pigro, in cui il calcolo viene posticipato fino al runtime per evitare di gonfiare il grafico causato da più nodi della stessa operazione in loop. Separare la definizione degli oggetti operativi dal calcolo e strutturare il codice per le definizioni delle variabili e le funzioni di calcolo aiuta a evitare problemi con le funzioni di chiamata in TensorFlow. Il relatore spiega anche come l'ottimizzatore riduca al minimo l'entropia incrociata e aggiorni pesi e distorsioni mentre utilizza le proprietà per strutturare il codice TensorFlow in modo efficiente.
Tensorflow per la ricerca sul deep learning - Lezione 3
Tensorflow per la ricerca sul deep learning - Lezione 3
La terza lezione su TensorFlow per la ricerca sul deep learning copre la regressione lineare e la regressione logistica utilizzando il set di dati MNIST. Il docente mostra come addestrare un modello di regressione lineare in TensorFlow creando segnaposto per i dati di input, inizializzando variabili addestrabili per pesi e bias, elaborando previsioni, calcolando la perdita e definendo l'ottimizzatore come discesa del gradiente con un tasso di apprendimento specifico. La lezione spiega anche la discesa del gradiente stocastico mini-batch e l'importanza di ricordare la forma delle variabili. L'accuratezza del modello viene calcolata confrontando l'indice del valore massimo ottenuto dalla funzione TF argmax con la variabile target y, calcolando il numero di previsioni corrette utilizzando TF reduce sum e TF float e dividendolo per il numero totale di test esempi. Infine, il docente osserva che questo modello non è considerato potente e che esistono modelli più robusti come gli strati convoluzionali che producono una maggiore precisione.
Tensorflow per la ricerca sul deep learning - Lezione 4
Tensorflow per la ricerca sul deep learning - Lezione 4
Nella lezione 4 della serie TensorFlow for Deep Learning Research, il relatore approfondisce i word embedding nell'elaborazione del linguaggio naturale basata sul deep learning. La conferenza spiega il concetto di apprendimento di word embedding per problemi di PNL e descrive il processo di rappresentazione delle parole come vettori numerici nelle reti neurali. La conferenza discute diversi metodi per generare vettori di parole utilizzando CBOW basato su AI e salta i grammi e affronta il problema della complessità computazionale in softmax usando campionamento negativo e NCE. Inoltre, il docente evidenzia il processo di incorporamento delle variabili in TensorFlow e l'utilizzo di t-SNE per visualizzare vettori di parole ad alta dimensione in dimensioni ridotte. Infine, la lezione si conclude con un riassunto dei concetti trattati e un brief sulla lezione successiva, che si concentrerà sulla costruzione di modelli di parole.
Tensorflow per la ricerca sul deep learning - Lezione 5_1
Tensorflow per la ricerca sul deep learning - Lezione 5_1
La quinta conferenza della serie TensorFlow for Deep Learning Research copre diversi argomenti, tra cui come gestire efficacemente gli esperimenti di deep learning, l'importanza della differenziazione automatica in TensorFlow e il processo di addestramento dei modelli e salvataggio delle variabili. Il relatore spiega che la differenziazione automatica è fornita in framework di deep learning come TensorFlow, rendendo più facile per gli utenti codificare i propri modelli senza occuparsi dei gradienti. Sebbene non sia essenziale calcolare i gradienti manualmente, è comunque utile elaborarli per funzioni e reti semplici. Viene trattata anche la creazione di un modello di riconoscimento di entità denominate con sottoclassi e i necessari segnaposto e tecniche di feed, nonché il salvataggio e il ripristino delle variabili in TensorFlow e il processo di salvataggio dei modelli su diverse sessioni e macchine.
Tensorflow per la ricerca sul deep learning - Lezione 5_2
Tensorflow per la ricerca sul deep learning - Lezione 5_2
Il video tutorial illustra l'implementazione delle operazioni di riepilogo TF, che consentono la visualizzazione dei dati in TensorBoard. L'esercitazione copre tre tipi di operazioni di riepilogo: TF.summary.scalar, TF.summary.histogram e TF.summary.image e spiega come unirle in una sola e scriverle in un file di eventi utilizzando la classe FileWriter. Il docente dimostra come utilizzare gli ambiti dei nomi per visualizzare il grafico in TensorBoard e definisce uno scrittore di test e uno scrittore esperto per scrivere riepiloghi in file separati. Sottolineano lo sfruttamento delle capacità di visualizzazione di TensorBoard per comprendere meglio le prestazioni del proprio modello. Nel complesso, TensorBoard è uno strumento cruciale per tenere traccia dei progressi della formazione e l'API per aggiungere operazioni e unirle è semplice.
Intuizione dietro la retropropagazione come grafico computazionale
Intuizione dietro la retropropagazione come grafico computazionale
L'intuizione alla base della backpropagation come grafico computazionale è spiegata in questo video. Il relatore discute di come viene utilizzata una funzione surrogata per stimare la funzione empirica che associa gli input agli output e che l'obiettivo è trovare i parametri che minimizzano la funzione di perdita. La retropropagazione consente di calcolare il gradiente della funzione di perdita rispetto a ciascun parametro attraverso un passaggio all'indietro del grafico. Vengono calcolati i gradienti locali per ciascuna porta nel grafico e possono essere utilizzati per calcolare il gradiente dell'output finale rispetto a ciascun input. Il relatore spiega anche come gestire i gradienti per le operazioni di ramificazione e vettorizzazione e come garantire che la dimensionalità funzioni durante il calcolo delle derivate.
Produrre il deep learning per la visione artificiale
Produrre il deep learning per la visione artificiale
Il CTO e Chief Scientist di Jumio, Lavash Patel, discute di come la loro azienda utilizzi un mix di esperti di intelligenza artificiale e ID per stabilire la fiducia online e verificare l'autenticità dei documenti di identità. Il processo di verifica dell'identità è impegnativo a causa della varietà di ID e sottotipi, nonché della necessità di rettifica e rifiuto di immagini non leggibili. Per mantenere la precisione, viene adottato un approccio human-in-the-loop, in cui i modelli di intelligenza artificiale rilevano i problemi e un essere umano esegue un controllo di integrità sui risultati. Patel discute anche di come Jumio produca l'apprendimento profondo utilizzando un algoritmo di apprendimento attivo ibrido, che si adatta a nuovi sottotipi e migliora riqualificandosi. Inoltre, sottolinea l'importanza di dati puliti nel riconoscimento facciale e nel mantenimento della conformità PCI quando si trattano dati sensibili per scopi di machine learning.
Gail Weiss: Pensare come Transformers
Gail Weiss: Pensare come Transformers
Gail Weiss discute il concetto di encoder a trasformatore in questo video, spiegando la loro capacità di elaborare sequenze e codificarle in vettori. Weiss evidenzia diversi studi che esplorano i punti di forza e i limiti dei codificatori a trasformatore e introduce un linguaggio di programmazione chiamato RASP (Restricted Access Sequence Processing Language) per rappresentare le capacità dei codificatori a trasformatore. Discute anche dell'attenzione a più teste, dei modelli di selezione e delle sfide del softmax in determinate condizioni, prima di approfondire l'uso degli operatori di sequenza e delle funzioni di libreria per calcolare l'inverso e il flip selector. Weiss fornisce informazioni sulla creazione di un programma ottimale per un trasformatore e le intuizioni dei trasformatori universali e sandwich, discutendo infine il predicato selezionato e le relazioni binarie vs. ordine tre.
Parla anche dei potenziali vantaggi e svantaggi dell'utilizzo dell'attenzione di ordine superiore nei modelli di trasformatore, nonché dell'importanza delle connessioni residue nel mantenere le informazioni attraverso i livelli. Discute anche potenziali problemi con trasformatori molto profondi che deviano dal modello RASP e suggerisce l'uso di incorporamenti più lunghi per superare la confusione nelle informazioni.
Visualizzazione e comprensione delle reti neurali profonde di Matt Zeiler
Visualizzazione e comprensione delle reti neurali profonde di Matt Zeiler
Matt Zeiler discute la visualizzazione e la comprensione delle reti neurali convoluzionali (CNN) per il riconoscimento di oggetti in immagini e video. Descrive le prestazioni delle reti neurali profonde rispetto agli esseri umani e ai primati nel riconoscere gli oggetti e mostra come le CNN imparano a identificare gli oggetti attraversando gli strati. Zeiler spiega il processo di miglioramento dell'architettura CNN e discute i limiti durante l'allenamento con dati limitati. Infine, risponde a domande sull'utilizzo di livelli inferiori in livelli superiori e sull'applicazione delle convoluzioni nelle reti neurali.