Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Mega-R3. Giochi, Minimax, Alpha-Beta
Mega-R3. Giochi, Minimax, Alpha-Beta
Questo video copre vari argomenti relativi alla teoria dei giochi e all'algoritmo minimax, tra cui minimax regolare, aggiunte alfa-beta, potatura alfa-beta, valutazione statica, approfondimento progressivo e riordino dei nodi. L'istruttore fornisce spiegazioni e dimostrazioni di questi concetti utilizzando esempi e chiede al pubblico di partecipare alla determinazione dei valori in diversi nodi in un albero di gioco. Il video si conclude con una discussione sui potenziali difetti nelle funzioni euristiche e consigli per il prossimo quiz.
Mega-R4. Reti neurali
Mega-R4. Reti neurali
Il video copre vari aspetti delle reti neurali, comprese le loro rappresentazioni, confusione su input e output, funzioni sigmoidee e prestazionali, pesi e distorsioni, retropropagazione, modifica delle funzioni sigmoidee e prestazionali, pesi soglia, visualizzazione e potenziale delle reti neurali. L'istruttore spiega varie formule necessarie per il quiz e come calcolare e regolare i delta in modo ricorsivo. Discute anche i tipi di reti neurali necessarie per risolvere problemi semplici e menziona una recente applicazione nel mondo reale delle reti neurali in una competizione di gioco presso l'Università del Maryland. Infine, afferma che mentre le reti neurali sono cadute in disgrazia a causa dei loro limiti e complessità nella ricerca, sono ancora utili per i quiz.
Mega-R5. Supporta le macchine vettoriali
Mega-R5. Supporta le macchine vettoriali
Il video spiega le Support Vector Machines (SVM), che determinano la linea di demarcazione o i limiti decisionali nei dati trovando i vettori di supporto che non sono gli stessi di qualsiasi altro punto dati. Include anche l'uso di funzioni del kernel che consentono al kernel di calcolare il prodotto scalare senza manipolare direttamente i vettori. Il professore chiarisce l'obiettivo di trovare gli Alpha che forniscono il miglior W per la strada più ampia e come W sia il confine decisionale per SVM. Gli studenti si informano sull'intuizione alla base di SVM e l'ottimizzazione basata su Alpha crea la strada più ampia per una migliore classificazione dei dati. SVM Kernel aiuta anche a ottimizzare il processo, rendendolo più efficiente.
Mega-R6. Potenziamento
Mega-R6. Potenziamento
Nel video "Mega-R6. Boosting", il relatore spiega il concetto di potenziamento nell'apprendimento automatico e dimostra il processo di selezione dei classificatori corretti per ridurre al minimo gli errori. Forniscono un esempio di identificazione dei vampiri in base a determinate qualità e discutono su come scegliere i classificatori più efficaci. I classificatori selezionati vengono utilizzati per creare un classificatore finale che viene applicato ai punti dati per determinare quanti sono classificati correttamente. Il relatore sottolinea inoltre che la scelta di quando interrompere il processo è importante e riconosce che il raggiungimento della completa accuratezza potrebbe non essere sempre fattibile.
Mega-R7. Quasi incidenti, Arch Learning
Mega-R7. Quasi incidenti, Arch Learning
Nel video viene introdotto il concetto di near miss learning, che prevede l'apprendimento di diversi tipi di sorgenti luminose e delle loro caratteristiche. L'approccio Arch Learning utilizza sei euristiche per perfezionare un modello, tra cui require link, forbid link, climb-tree, extend set, closed interval e drop link. Il video illustra varie tecniche utilizzate nell'apprendimento automatico, come l'estensione del set, l'arrampicata sull'albero, l'intervallo chiuso e il collegamento di rilascio. I relatori parlano anche di questioni relative alla fragilità e alla vulnerabilità del modello Arch Learning all'ordinamento, che porta a reazioni incoerenti a informazioni contraddittorie. Il video discute anche il concetto di generalizzazione per il Mega-R7 e come differisce dai modelli precedenti. Inoltre, vengono discussi i compromessi tra l'apprendimento irlandese e l'apprendimento reticolare in termini di capacità di esprimere sottoinsiemi di informazioni, nonché l'insegnamento del sistema utilizzando più modelli con diversi dettagli di implementazione.
AlphaGo - Il film | Documentario pluripremiato completo
AlphaGo - Il film | Documentario pluripremiato completo
Un documentario sullo sviluppo del programma per computer AlphaGo, progettato per battere i giocatori umani al gioco del Go. Il film segue la vittoria del programma su un giocatore umano campione del mondo in una partita di cinque partite. Alcuni spettatori ritengono che la vittoria di AlphaGo possa annunciare la fine della razza umana così come la conosciamo, poiché le macchine diventano sempre più brave nell'esecuzione di compiti cognitivi.
Deepmind AlphaZero - Padroneggiare i giochi senza conoscenza umana
Deepmind AlphaZero - Padroneggiare i giochi senza conoscenza umana
Il video esplora lo sviluppo dell'architettura di apprendimento per rinforzo profondo di DeepMind, AlphaZero, che utilizza una politica unificata e una rete di valore per avere successo in giochi con enormi spazi di stato senza alcun dato umano precedente. L'algoritmo di AlphaZero prevede l'addestramento di una rete neurale per prevedere l'azione scelta da un'intera ricerca sull'albero di Monte Carlo, distillando in modo iterativo la conoscenza per generare giocatori più forti nel tempo. L'algoritmo ha mostrato curve di apprendimento impressionanti, superando le versioni precedenti in poche ore di addestramento e mostrando una notevole scalabilità nonostante la valutazione di meno posizioni rispetto ai precedenti motori di ricerca. Il video discute anche della capacità di AlphaZero di combinare il meglio degli approcci umani e delle macchine, mostrando il potenziale per l'apprendimento per rinforzo generico.
AlphaGo - Come l'IA ha dominato il gioco da tavolo più difficile della storia
AlphaGo - Come l'IA ha dominato il gioco da tavolo più difficile della storia
Il video esplora i dettagli tecnici di AlphaGo Zero, un sistema di intelligenza artificiale che è stato addestrato interamente attraverso l'auto-gioco e senza l'utilizzo di set di dati umani. Il sistema utilizzava un'architettura di rete residua e un approccio a due ricerche per prevedere il valore e le mosse forti. Il video evidenzia i miglioramenti apportati, inclusa la capacità di prevedere i risultati del gioco e la scoperta e l'allontanamento del sistema dalle mosse note in Go. Tuttavia, l'applicazione nel mondo reale del sistema è limitata dalla necessità di un simulatore perfetto, rendendo difficile l'applicazione dell'approccio ad altri campi.
AlphaZero from Scratch – Tutorial sull'apprendimento automatico
AlphaZero from Scratch – Tutorial sull'apprendimento automatico
00:00:00 - 01:00:00 Il video "AlphaZero from Scratch – Machine Learning Tutorial" insegna agli utenti come costruire e addestrare l'algoritmo AlphaZero utilizzando Python e PyTorch per giocare a complessi giochi da tavolo a livelli sovrumani, con esempi forniti per Tic -tac-toe e Connect 4. Uno dei componenti chiave dell'algoritmo è la ricerca dell'albero Monte Carlo, che prevede la selezione dell'azione più promettente, l'espansione dell'albero e la simulazione del gioco, con i risultati retropropagati per l'allenamento. Il tutorial dimostra l'espansione dei nodi durante l'algoritmo di ricerca Monte Carlo, il processo di self-play e come addestrare il modello utilizzando funzioni di perdita che riducono al minimo la differenza tra la politica e la distribuzione MCTS, il valore e la ricompensa finale. Il video termina creando un gioco Tic-tac-toe e testandolo attraverso un ciclo while.
01:00:00 - 02:00:00 In questa sezione del tutorial sulla creazione di AlphaZero da zero, l'istruttore dimostra l'implementazione dell'algoritmo Monte Carlo Tree Search (MCTS) per il gioco Tic-tac-toe. L'algoritmo è implementato attraverso una nuova classe per MCTS che include un metodo di ricerca che definisce un ciclo di iterazioni ripetute per le fasi di selezione, espansione, simulazione e backpropagation. Il video copre anche l'implementazione dell'architettura della rete neurale AlphaZero, che include due teste, una per la politica e una per il valore, e utilizza una rete residua con connessioni skip. Il policy head utilizza una funzione softmax per indicare l'azione più promettente, mentre il value head fornisce una stima di quanto sia buono lo stato attuale. Il relatore discute anche l'implementazione del blocco iniziale e della spina dorsale per la classe ResNet e spiega come utilizzare il modello AlphaZero per ottenere una politica e un valore per un dato stato in Tic-Tac-Toe.
02:00:00 - 03:00:00 Il tutorial "AlphaZero from Scratch" dimostra la costruzione dell'algoritmo AlphaZero attraverso l'apprendimento automatico. Il presentatore copre un'ampia gamma di argomenti, dall'aggiornamento dell'algoritmo MCTS, all'auto-gioco e ai metodi di addestramento, a miglioramenti come l'aggiunta di temperatura alla distribuzione di probabilità, il decadimento del peso e il supporto della GPU nel modello e l'aggiunta di rumore al nodo principale. Il tutorial accompagna lo spettatore passo dopo passo attraverso l'implementazione di queste funzionalità, mostrando come codificare lo stato del nodo, ottenere policy e output di valore e modificare la policy utilizzando softmax, mosse valide e rumore casuale Dirichlet per aggiungere esplorazione garantendo al contempo le azioni promettenti non sono mancate.
03:00:00 - 04:05:00 In questo tutorial di YouTube sulla creazione di AlphaZero da zero utilizzando l'apprendimento automatico, l'istruttore copre vari argomenti come l'aggiunta dell'esplorazione alla politica con un fattore di rumore, incorporando il supporto di CPU e GPU per l'addestramento di modelli su giochi più complessi, aggiornamento del codice sorgente per creare un gioco Connect Four, aumento dell'efficienza dell'implementazione AlphaZero attraverso la parallelizzazione, creazione di due nuove classi in Python per giochi self-play, codifica degli stati per aumentare l'efficienza, implementazione dell'algoritmo Monte Carlo Tree Search per AlphaZero e addestrare un modello per Connect Four utilizzando fs0 parallelizzato. Il tutorial fornisce indicazioni dettagliate su ciascun argomento con particolare attenzione alla creazione di un'implementazione efficiente ed efficace di AlphaZero. Il presentatore dimostra come creare un ambiente Connect Four utilizzando il pacchetto di ambienti Kegel, quindi esegue e visualizza il gioco con due agenti che utilizzano l'algoritmo di ricerca MCTS basato su un modello AlphaZero addestrato. Il presentatore apporta anche piccole correzioni al codice e definisce il giocatore uno come l'agente che utilizza l'algoritmo MCTS per le previsioni basate sul modello addestrato. Il tutorial si conclude con il presentatore che fornisce un repository GitHub con notebook jupyter per ogni checkpoint e una cartella pesi con l'ultimo modello per Tic-tac-toe e Connect Four, esprimendo interesse a realizzare un video di follow-up su Mu Zero se ce n'è uno interesse in esso.
Parte 1
Parte 2
Parte 3
Parte 4
Panico di Google su ChatGPT [Le guerre AI sono iniziate]
Panico di Google su ChatGPT [Le guerre AI sono iniziate]
Il video illustra come Google si sta preparando per il potenziale dei chatbot che diventano più potenti e come ciò potrebbe influire sul loro modello di business. Si dice che Microsoft stia lavorando a un chatbot che consentirebbe agli utenti di comunicare con Bing in un modo più umano e questa funzione sarà utile per le ricerche in cui le immagini non esistono attualmente. Microsoft ha affermato di lavorare a stretto contatto con l'IA aperta, quindi questa funzione non genera immagini esplicite o inappropriate. Quindi, sembra che Bing stia subendo un'importante revisione con le funzionalità di chat GPT e Dali 2 integrate.