Apprendimento automatico e Reti Neurali - pagina 19

 

Lezione 15. Apprendimento: quasi incidenti, condizioni di felicità



15. Apprendimento: quasi incidenti, condizioni di felicità

In questo video, il professor Patrick Winston discute il concetto di apprendimento dai quasi incidenti e dalle condizioni di felicità. Usa diversi esempi, tra cui la costruzione di un arco e l'identificazione dei vincoli specifici necessari affinché possa essere considerato un arco. Spiega anche come un programma per computer potrebbe identificare le caratteristiche chiave di un treno utilizzando l'apprendimento euristico. L'oratore sottolinea l'importanza dell'auto-spiegazione e della narrazione, in particolare come incorporare entrambi nelle presentazioni può far risaltare un'idea e diventare famosa. In definitiva, crede che le idee di confezionamento non riguardino solo l'intelligenza artificiale, ma anche fare buona scienza, rendersi più intelligenti e diventare più famosi.

  • 00:00:00 In questa sezione, il professor Patrick Winston spiega un nuovo modo per imparare da un singolo esempio in un colpo solo. L'esempio in aula di un arco viene utilizzato per dimostrare come sia possibile imparare qualcosa di definito da ogni esempio utilizzando un modello e ciò che lui chiama un "quasi incidente". Questo processo comporta l'astrazione da tutti i dettagli che non contano, come l'altezza e il materiale, per sopprimere le informazioni sulle imperfezioni sulla superficie e per rendere esplicita la struttura. Questo approccio alla fine porta a un apprendimento più efficiente e ha implicazioni per l'apprendimento umano e per diventare più intelligenti.

  • 00:05:00 In questa sezione viene discusso il concetto di apprendimento dai quasi incidenti e dalle condizioni di felicità. L'oratore usa l'esempio della costruzione di un arco per illustrare il punto. Man mano che esaminano diversi esempi di archi e quasi incidenti, iniziano a identificare i vincoli specifici necessari affinché qualcosa possa essere veramente considerato un arco. Dalla presenza di relazioni di supporto al divieto di relazioni tattili, il relatore delinea gli elementi chiave della costruzione dell'arco. Inoltre, il colore della parte superiore dell'arco è identificato come un imperativo. Attraverso questo processo di identificazione di ciò che è necessario e ciò che non lo è, il relatore sottolinea come i vincoli possano essere appresi in una questione di passaggi, piuttosto che attraverso innumerevoli prove.

  • 00:10:00 In questa sezione, il relatore spiega come realizzare un nuovo modello considerando la natura del mondo in cui si sta lavorando. Ad esempio, in un mondo a bandiera in cui sono disponibili solo tre colori, se tutti i colori sono stati visto, il modello in evoluzione viene adeguato di conseguenza. Il relatore presenta esempi di blocchi del bambino e spiega come la gerarchia delle parti può essere rappresentata per fare una generalizzazione conservativa. Il relatore quindi contrappone questo tipo di apprendimento con le reti neurali e presenta un compito esemplificativo da eseguire per gli esseri umani, che prevede di fornire una descrizione dei treni superiori che li distingua e li separi dai treni inferiori.

  • 00:15:00 In questa sezione, il relatore spiega come un programma per computer potrebbe identificare le caratteristiche chiave di un treno con un tetto chiuso attraverso un processo di apprendimento euristico. Al programma vengono fornite serie di esempi positivi e negativi e viene scelto un esempio "seme" per iniziare a costruire una descrizione che copra il maggior numero possibile di esempi positivi escludendo quelli negativi. Le euristiche, o regole, applicate al seme possono essere combinate in modi diversi per formare un grande albero di possibili soluzioni, che devono essere tenute sotto controllo utilizzando tecniche come la ricerca del raggio. L'oratore introduce anche un vocabolario per l'euristica sviluppato dal suo amico, inclusa l'euristica "require link" che aiuta a identificare le caratteristiche essenziali di un modello.

  • 00:20:00 In questa sezione, il professor Patrick Winston spiega come le diverse euristiche, come "forbid link", "extend set", "drop link" e "climb tree", possono essere utilizzate per specializzarsi o generalizzare nell'apprendimento . Tocca anche l'idea di quasi incidenti ed esempi e come sono collegati alla generalizzazione e alla specializzazione. L'uso di queste euristiche può aiutare ad abbinare meno o più cose e, a seconda del problema, può essere più adatto per gli umani o per i computer con memorie più grandi. Il modo per determinare quale metodo è migliore dipenderebbe dal problema specifico che si sta cercando di risolvere.

  • 00:25:00 importanza dei near miss e delle condizioni di felicità nel processo di apprendimento. In questa sezione, il professor Patrick Winston spiega come l'insegnante e lo studente devono stabilire delle alleanze che valgono tra di loro al fine di trasformare lo stato iniziale di conoscenza dello studente in un nuovo stato di conoscenza. Con l'uso di un modello di rete che rappresenta lo stato di conoscenza dello studente, l'insegnante può identificare i tipi di errori commessi dallo studente e fornire un feedback di conseguenza. In tal modo, l'insegnante può effettivamente spingere fuori il fronte d'onda della conoscenza dello studente e migliorare la capacità dello studente di apprendere e applicare nuove informazioni.

  • 00:30:00 In questa sezione, il relatore discute di quanto sia importante comprendere la capacità di calcolo dello studente durante l'insegnamento. Ciò include la presa in considerazione della capacità limitata di un bambino di terza elementare di memorizzare informazioni rispetto a un computer. Parlano anche di come le alleanze, come la fiducia e la comprensione dello stile dell'insegnante, siano necessarie affinché uno studente impari in modo efficace. Il relatore spiega inoltre come parlare con se stessi, o costruire descrizioni, sia cruciale per l'apprendimento. Un esperimento condotto da Michelene Chi ha mostrato i vantaggi di parlare con se stessi quando si tratta di apprendere la fisica elementare.

  • 00:35:00 In questa sezione, l'attenzione si concentra su come l'auto-spiegazione può influenzare la capacità di risoluzione dei problemi. Gli individui più intelligenti, che hanno ottenuto punteggi doppi rispetto a quelli meno intelligenti, hanno parlato con se stessi tre volte di più rispetto ai partecipanti del gruppo con punteggi inferiori. L'auto-spiegazione può essere suddivisa in due categorie, quelle relative alla fisica e altre relative al monitoraggio anziché alla fisica. Più qualcuno parla a se stesso, meglio sembra ottenere un punteggio con la risoluzione dei problemi. Sebbene non vi sia alcuna chiara indicazione che parlare a se stessi per incoraggiare punteggi migliori funzioni, prove aneddotiche suggeriscono che parlare di più a se stessi potrebbe aiutare. Infine, la discussione si sposta sulle idee di packaging, particolarmente utili se vuoi che la tua idea sia ben nota, e su cinque qualità che aiutano il processo, a partire dalla necessità di un simbolo o di un punto di riferimento visivo associato al tuo lavoro.

  • 00:40:00 In questa sezione, il professor Patrick Winston discute l'importanza di una sorpresa e un punto saliente nel far conoscere un'idea. Spiega che una buona idea deve avere qualcosa che risalti per diventare famosa, ed è essenziale incorporare una storia nelle presentazioni che possano attrarre il pubblico. Inoltre, chiarisce il termine "saliente" affermando che, sebbene indichi importanza, significa esplicitamente "sporgere". Suggerisce che l'educazione riguardi essenzialmente la narrazione e sollecita le persone a considerare di incorporare queste qualità nelle loro presentazioni per renderle più efficaci. In definitiva, crede che essere famoso non sia immorale, a patto che le idee siano ben confezionate per avere le migliori possibilità di successo.

  • 00:45:00 In questa sezione, l'oratore racconta una storia in cui si siede accanto a Julia Child e le chiede di essere famosa. Il bambino ha risposto che ci si abitua, il che ha fatto riflettere l'oratore sull'esperienza opposta dell'essere ignorati. Sottolinea l'importanza delle idee di confezionamento e di come non si tratti solo di intelligenza artificiale, ma anche di fare buona scienza, rendersi più intelligenti e più famosi.
15. Learning: Near Misses, Felicity Conditions
15. Learning: Near Misses, Felicity Conditions
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonTo determine whether three blocks...
 

Lezione 16. Apprendimento: Support Vector Machines



16. Apprendimento: supporta le macchine vettoriali

Nel video, Patrick Winston illustra come funzionano le Support Vector Machine (SVM) e come possono essere utilizzate per ottimizzare una regola decisionale. Spiega che l'algoritmo SVM utilizza una trasformazione, Phi, per spostare un vettore di input, x, in un nuovo spazio dove è più facile separare due vettori simili. La funzione kernel, k, fornisce il prodotto scalare di x sub i e x sub j. Tutto ciò che serve è la funzione, k, che è una funzione del kernel. Vapnik, un immigrato sovietico che ha lavorato a SVM nei primi anni '90, è accreditato di aver rilanciato l'idea del kernel e di averla resa una parte essenziale dell'approccio SVM.

  • 00:00:00 Le macchine vettoriali di supporto sono un modo sofisticato di dividere uno spazio per determinare i limiti decisionali. Sono stati sviluppati da Vladimir Vapnik e sono un grosso problema perché consentono un processo decisionale più accurato.

  • 00:05:00 Il video illustra come funzionano le macchine vettoriali di supporto e fornisce una regola decisionale per quando un campione è positivo o negativo.

  • 00:10:00 In questo video, Patrick Winston introduce il concetto di Support Vector Machine (SVM), ovvero un algoritmo di apprendimento automatico che aiuta a trovare una soluzione ottimale a un problema. La prima equazione in un SVM è una funzione di costo, che è una funzione che accetta un vettore di variabili e restituisce un numero. La funzione di costo viene moltiplicata per un vettore di peso, che è un vettore che corrisponde all'importanza di ciascuna variabile nella funzione di costo. La seconda equazione in un SVM è il problema di ottimizzazione, che è una funzione che prende in considerazione la funzione di costo e un vettore di peso e cerca di trovare la soluzione migliore. Il problema di ottimizzazione è risolto minimizzando la funzione di costo. L'equazione finale in un SVM è il vettore di output, che è l'output di SVM.

  • 00:15:00 Il video illustra l'uso delle macchine a vettori di supporto (SVM) per risolvere i problemi e mostra come calcolare la larghezza di una strada utilizzando questa tecnica.

  • 00:20:00 In questo video, Patrick Winston spiega come funzionano i moltiplicatori di Lagrange per ottimizzare una funzione con vincoli. Il video spiega anche come vengono utilizzati i moltiplicatori di Lagrange per trovare l'estremo di una funzione con vincoli.

  • 00:25:00 In questo video si scopre che una somma lineare di campioni è uguale a una somma lineare delle componenti dei campioni. Inoltre, si differenziano le derivate della Lagrangiana rispetto a diverse variabili, e si mostra che la somma dell'alpha i per y sub i è uguale a 0, il che implica che il vettore w è uguale alla somma di alcuni alpha i, alcuni scalari, per questa variabile meno 1 o più 1 per x sub i su i.

  • 00:30:00 In questo video, spiega come risolvere un problema di ottimizzazione quadratica utilizzando macchine vettoriali di supporto. Si spiega che il vettore di decisione è una somma lineare dei campioni e che l'algebra è facile. Lo studente spiega che per ogni termine del problema, l'algebra è semplificata prendendo la somma di alfa i per y sotto i per x sotto i.

  • 00:35:00 In questo video, un matematico spiega come l'ottimizzazione di una regola decisionale dipenda solo dal prodotto scalare di coppie di campioni. Ciò dimostra che l'analisi matematica è fattibile e che l'algoritmo di ottimizzazione troverà una linea retta che separa le due soluzioni ottimali.

  • 00:40:00 Nelle macchine vettoriali di supporto, una trasformazione, Phi, viene utilizzata per spostare un vettore di input, x, in un nuovo spazio dove è più facile separare due vettori simili. La funzione kernel, k, fornisce il prodotto scalare di x sub i e x sub j. Tutto ciò che serve è la funzione, k, che è una funzione del kernel.

  • 00:45:00 Il video illustra come funzionano le macchine a vettori di supporto (SVM) e come utilizzare un kernel per migliorare le prestazioni di SVM. Vapnik, un immigrato sovietico che ha lavorato a SVM nei primi anni '90, è accreditato di aver rilanciato l'idea del kernel e di averla resa una parte essenziale dell'approccio SVM.
16. Learning: Support Vector Machines
16. Learning: Support Vector Machines
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we explore suppo...
 

Lezione 17. Apprendimento: potenziamento



17. Apprendimento: potenziamento

Il video discute l'idea del potenziamento, che combina diversi classificatori deboli per creare un classificatore forte. L'idea è che i classificatori deboli votino e il classificatore forte sia quello con il maggior numero di voti. Il video spiega come utilizzare un algoritmo di potenziamento per migliorare le prestazioni dei singoli classificatori.

  • 00:00:00 Il video discute l'idea del potenziamento, che consiste nel combinare diversi classificatori deboli per creare un classificatore forte. L'idea è che i classificatori deboli votino e il classificatore forte sia quello con il maggior numero di voti.

  • 00:05:00 Il video di YouTube spiega come utilizzare un algoritmo di potenziamento per migliorare le prestazioni dei singoli classificatori. L'algoritmo prevede l'addestramento di ciascun classificatore su un set di dati diverso e quindi la combinazione dei risultati. Il video spiega anche come evitare l'overfitting quando si utilizza questo algoritmo.

  • 00:10:00 Nel video, il relatore parla di come migliorare la precisione di un algoritmo di apprendimento automatico "potenziandolo". Il potenziamento implica l'osservazione di un insieme distorto di campioni, in cui quelli sbagliati dall'algoritmo hanno un effetto esagerato sul risultato. Ciò consente all'algoritmo di imparare dai propri errori e migliorare la propria accuratezza.

  • 00:15:00 Nel video di YouTube, il relatore spiega come utilizzare il potenziamento per creare una serie di test. Spiega anche come viene calcolato il tasso di errore e come i pesi possono essere utilizzati per esagerare l'effetto di alcuni errori.

  • 00:20:00 Il relatore spiega come costruire un classificatore combinando più classificatori, ciascuno con il proprio peso. Spiega che questo è lo stato dell'arte per i classificatori e che è più efficace della semplice aggiunta di classificatori insieme.

  • 00:25:00 Il video illustra i vari passaggi coinvolti nell'algoritmo di potenziamento dell'apprendimento. Questi passaggi includono la scelta di un classificatore che riduca al minimo il tasso di errore, il calcolo del valore alfa e l'utilizzo del classificatore per produrre pesi rivisti. L'obiettivo generale dell'algoritmo è produrre un classificatore che produca un insieme perfetto di conclusioni su tutti i dati del campione.

  • 00:30:00 Il video illustra come insegnare a una macchina a migliorare le sue prestazioni riducendo al minimo i tassi di errore. Lo dimostra attraverso una serie di esempi, mostrando come il tasso di errore può essere ridotto in modo esponenziale.

  • 00:35:00 In questo video, il relatore spiega come utilizzare il valore alfa per calcolare nuovi pesi. Parla di come funziona il programma e di come sia necessario sapere come fare i conti per trovare modi migliori per fare questo genere di cose. Spiega anche come la radice quadrata del tasso di errore diviso per 1 meno il tasso di errore sia il moltiplicatore per il peso se la risposta è corretta, e la radice quadrata di 1 meno il tasso di errore diviso per il tasso di errore sia il moltiplicatore per il peso se la risposta non è corretta.

  • 00:40:00 La somma dei pesi per i campioni classificati correttamente è 1/2 e la somma dei pesi per i campioni classificati in modo errato è 1/2.

  • 00:45:00 Il boosting è un metodo utilizzato per migliorare le prestazioni dei modelli di machine learning. Funziona combinando più modelli deboli per creare un modello più forte. Il potenziamento è efficace nel ridurre l'overfitting e viene spesso utilizzato in campi come il riconoscimento della grafia e la comprensione del parlato.

  • 00:50:00 Questo video discute il concetto di "potenziamento", che è un metodo per migliorare le prestazioni degli algoritmi di apprendimento automatico. Il potenziamento implica l'addestramento di una serie di classificatori deboli e quindi la combinazione delle loro previsioni. Ciò si traduce in genere in un significativo miglioramento delle prestazioni rispetto all'utilizzo di un singolo classificatore forte.
17. Learning: Boosting
17. Learning: Boosting
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonCan multiple weak classifiers be ...
 

Lezione 18. Rappresentazioni: Classi, Traiettorie, Transizioni



18. Rappresentazioni: Classi, Traiettorie, Transizioni

In questo video, il professor Patrick Winston discute il concetto di intelligenza umana, la capacità di formare rappresentazioni simboliche e la sua relazione con il linguaggio, e l'uso di reti semantiche per rappresentare il linguaggio e i pensieri interiori. Winston sottolinea l'importanza di comprendere i modelli fondamentali e sviluppare un vocabolario di cambiamento per aiutare a comprendere diversi oggetti e il loro comportamento. Inoltre, discute l'uso di frame di traiettoria per descrivere azioni che coinvolgono il movimento da una sorgente a una destinazione e l'importanza di rappresentazioni multiple per una migliore comprensione di una frase. Infine, Winston offre suggerimenti su come migliorare la scrittura tecnica, in particolare per i non madrelingua inglese, evitando un linguaggio ambiguo, pronomi confusi e cambiando parole.

  • 00:00:00 In questa sezione, Patrick Winston inizia riflettendo sulla natura dell'intelligenza umana rispetto all'intelligenza delle macchine. Spiega che mentre le macchine possono eseguire compiti intelligenti attraverso metodi come macchine vettoriali di supporto e potenziamento, mancano di una comprensione di ciò che stanno facendo e non offrono informazioni sull'intelligenza umana. Winston discute quindi la prospettiva evolutiva dell'intelligenza umana, evidenziando l'aumento delle dimensioni del cervello nel nostro albero genealogico. Tuttavia, osserva che le dimensioni del cervello non sono sufficienti per spiegare l'intelligenza umana poiché i Neanderthal, che avevano cervelli più grandi degli umani moderni, non avevano molta influenza. Invece, è stato un gruppo di Homo Sapiens nell'Africa meridionale che ha sviluppato qualcosa che nessun altro aveva e ha rapidamente preso il sopravvento, come evidenziato da strumenti e opere d'arte.

  • 00:05:00 In questa sezione, il relatore discute l'idea che la capacità di formare rappresentazioni simboliche consentisse agli esseri umani di raccontare e comprendere storie. Questa capacità, che era legata allo sviluppo del linguaggio, ha permesso alla nostra specie di diventare speciale, poiché potevamo prendere due concetti e metterli insieme per formarne un terzo, senza limiti. Discute anche il concetto di "linguaggio interiore" - la lingua con cui pensiamo, che potrebbe non essere la stessa lingua con cui comunichiamo. Il relatore propone l'uso di reti semantiche, che sono reti di nodi e collegamenti che trasmettono significato, per rappresentare il linguaggio e i pensieri interiori. Fornisce esempi di reti semantiche, come quella che rileva le relazioni di supporto e un'altra che tiene traccia degli eventi in Macbeth.

  • 00:10:00 In questa sezione, il relatore discute il concetto di reti semantiche, i loro elementi e la loro applicazione nell'intelligenza artificiale. Le reti semantiche sono un modo per rappresentare le informazioni utilizzando nodi e collegamenti, con collegamenti che collegano i nodi. Consentono di trattare le connessioni tra collegamenti come oggetti che possono essere oggetto o oggetto di altri collegamenti. Un altro concetto è "reificazione", che è il processo di trattare i collegamenti come oggetti. Il relatore sottolinea l'importanza di aggiungere uno strato di localizzazione al concetto di reti combinatorie. L'uso della classificazione è uno degli elementi più utili nel linguaggio interno delle reti semantiche, applicato a cose come pianoforti, strumenti e mappe. C'è anche il rischio di una semantica parassitaria, in cui proiettiamo la nostra comprensione sulla macchina, che non è radicata in alcun contatto con il mondo fisico.

  • 00:15:00 In questa sezione, il professor Patrick Winston discute il concetto di livelli nella nostra comprensione degli oggetti. Sottolinea che sappiamo cose diverse su livelli diversi e alcuni oggetti sono più facili da visualizzare rispetto ad altri in base alla specificità della loro categorizzazione. Ad esempio, è difficile formare un'immagine di uno strumento, ma un martello a penna sferica è più specifico e, quindi, più facile da visualizzare. Winston nota anche che usiamo elementi in una gerarchia per sospendere la conoscenza sugli oggetti, e il livello di base in una gerarchia è dove appendiamo la maggior parte della nostra conoscenza, come la parola "pianoforte". Inoltre, Winston discute di come parliamo di oggetti su diversi livelli in una gerarchia, usando l'esempio di un'auto che si schianta contro un muro, che implica pensare a varie cose come la velocità dell'auto, la distanza dal muro e la condizione del auto.

  • 00:20:00 In questa sezione, il relatore discute su come utilizzare un vocabolario di cambiamento per comprendere oggetti in diversi periodi di tempo, come prima, durante e dopo un evento come un incidente automobilistico. Il vocabolario include elementi come diminuire, aumentare, cambiare, apparire e scomparire, tutti fortemente connessi con la visione. Le analogie vengono utilizzate anche per aiutare a comprendere concetti diversi come il funzionamento di una fotocamera. L'oratore introduce anche la traiettoria come terzo elemento di rappresentazione, che coinvolge oggetti che si muovono lungo traiettorie. Nel complesso, il relatore sottolinea l'importanza di comprendere i modelli fondamentali e sviluppare un linguaggio che possa aiutarci a comprendere diversi oggetti e il loro comportamento.

  • 00:25:00 In questa sezione, il relatore discute l'uso dei frame di traiettoria per descrivere azioni che coinvolgono il movimento da una sorgente a una destinazione. Questi frame sono costituiti da vari elementi tra cui l'oggetto, l'agente e lo strumento, tra gli altri. L'oratore nota che le preposizioni sono spesso usate per decorare questi elementi in lingue come l'inglese. Inoltre, il relatore discute i frame di ruolo, che mancano di una traiettoria ma contengono ancora elementi come strumenti e beneficiari. Il relatore spiega che questi frame si trovano comunemente nel Wall Street Journal Corpus e possono essere utilizzati per analizzare la densità delle transizioni e delle traiettorie in un dato testo. Infine, l'oratore introduce il concetto di sequenze di storie e fornisce un esempio di un nome neutro rispetto al genere scelto per evitare problemi.

  • 00:30:00 In questa sezione, il video discute l'importanza di rappresentazioni multiple e come possono portare a una migliore comprensione di una frase. L'esempio fornito è di Pat che conforta Chris, che può essere suddiviso in una cornice di ruolo e una cornice di transizione che coinvolge un oggetto (Chris) il cui stato d'animo è presumibilmente migliorato. Il video esplora anche come cambiare l'azione in qualcosa di negativo (come terrorizzare) influenzerebbe i fotogrammi. Inoltre, il video introduce l'idea di un frame di traiettoria come un tipo di immagine mentale che può essere formata da una frase come "Pat ha baciato Chris".

  • 00:35:00 In questa sezione, il professor Jordan Peterson discute di come gli esseri umani usano sequenze di eventi per creare una rappresentazione di una storia. Spiega come questa rappresentazione può variare da un semplice atto come baciare o accoltellare a storie complesse, e come varia a seconda del contesto in cui si verifica un evento. Parla anche dell'importanza della sequenza nella narrazione e di come la nostra memoria sia radicata nell'idea delle sequenze. Infine, discute di come le librerie di storie possono aiutare gli umani a capire di più sulle storie che incontrano in base alla super classe a cui appartengono, come frame di eventi, frame di disastri e frame di feste.

  • 00:40:00 In questa sezione, il relatore spiega come gli eventi possono essere raggruppati in tipi di frame, come feste e disastri. Ogni fotogramma ha slot specifici da riempire con tipi di informazioni, come vittime o nomi degli sposi. Tuttavia, la comprensione delle storie può essere difficile a causa delle sfide sintattiche negli antecedenti dei pronomi. Il relatore sottolinea l'importanza di non aggiungere inutili difficoltà sintattiche alla narrazione, in quanto può ostacolare la comprensione. I giornalisti dei giornali scriverebbero storie in modo chiaro e conciso per garantire che i lettori possano facilmente comprendere le informazioni.

  • 00:45:00 In questa sezione, Patrick Winston offre suggerimenti su come migliorare la scrittura tecnica, in particolare per gli scrittori russi e tedeschi che cercano di scrivere chiaramente in inglese. Suggerisce di evitare i pronomi per ridurre l'ambiguità e la confusione per i lettori, utilizzando invece nomi chiari. Sottolinea inoltre l'importanza di evitare parole come "precedente" e "seconda" che richiedono ai lettori di fare riferimento per identificare cosa significano ed evitare di scambiare parole come "pala" e "vanga". Secondo Winston, seguendo queste semplici regole, gli scrittori tecnici possono rendere la loro scrittura più chiara e più facile da capire per i lettori.
18. Representations: Classes, Trajectories, Transitions
18. Representations: Classes, Trajectories, Transitions
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider the ...
 

Lezione 19. Architetture: GPS, SOAR, Sussunzione, Society of Mind



19. Architetture: GPS, SOAR, Sussunzione, Society of Mind

Questo video discute varie architetture per la creazione di sistemi intelligenti, tra cui il risolutore di problemi generali e l'architettura SOAR, che incorpora pesantemente esperimenti di psicologia cognitiva ed è focalizzata sulla risoluzione dei problemi. L'oratore discute anche di "Emotion Machine" di Marvin Minsky, che considera il pensiero su molti livelli, comprese le emozioni, e l'ipotesi del buon senso che sostiene la necessità di dotare i computer di buon senso come gli umani. Viene discussa anche l'architettura di sussunzione, ispirata alla struttura del cervello umano, con Roomba che ne è un esempio riuscito. La capacità di immaginare e percepire le cose è connessa alla capacità di descrivere eventi e comprendere la cultura, e il linguaggio gioca un ruolo cruciale nella costruzione di descrizioni e combinatori. Viene evidenziata l'importanza di impegnarsi in attività come guardare, ascoltare, disegnare e parlare per esercitare le aree di elaborazione del linguaggio del cervello e l'oratore mette in guardia contro chi parla velocemente che può bloccare l'elaboratore del linguaggio e portare a decisioni impulsive.

  • 00:00:00 In questa sezione, il professore discute varie architetture alternative per creare un sistema intelligente. Inizia parlando dell'attacco informatico estone del 2007 e di come nessun computer possa capire la storia che c'è dietro, tranne uno che dimostrerà in seguito. Passa poi a parlare del risolutore di problemi generali sviluppato da Newell e Simon alla Carnegie Mellon, in cui un sistema intelligente opera misurando la differenza simbolica tra lo stato attuale e lo stato obiettivo e selezionando gli operatori per passare dallo stato intermedio a uno stato migliore, ripetendo il processo fino al raggiungimento dell'obiettivo. La sezione si conclude con la spiegazione dell'idea che verrà trattata nella prossima lezione, che si concentrerà su come evitare di fallire quando si avvia un'azienda nel settore dell'IA.

  • 00:05:00 In questa sezione, apprendiamo il concetto di analisi mezzi-fini, che comporta l'identificazione della differenza tra lo stato attuale e uno stato finale desiderato e la selezione dell'operatore appropriato per ridurre al minimo la differenza. Viene presentato l'esempio dell'utilizzo dell'analisi mezzi-fini per risolvere il problema di tornare a casa dal MIT, illustrando il processo ricorsivo di identificazione delle differenze e selezione degli operatori fino al raggiungimento dello stato finale desiderato. Sebbene all'epoca il concetto generale di risoluzione dei problemi fosse un'idea entusiasmante, non si è rivelato come previsto a causa della difficoltà di costruire la tabella che mette in relazione le differenze con gli operatori. Ciò ha portato allo sviluppo della nuova architettura SOAR, che sta per "State Operator And Result", sebbene i sostenitori dell'architettura affermino che si tratta semplicemente di un'etichetta e non di un acronimo.

  • 00:10:00 In questa sezione, l'attenzione è rivolta all'architettura SOAR e ai suoi diversi componenti. SOAR è costituito da memoria a lungo e breve termine, un sistema di visione, un sistema di azione e un sistema di preferenze. L'architettura incorpora pesantemente esperimenti di psicologia cognitiva e il suo obiettivo principale è la risoluzione dei problemi. Inoltre, SOAR ha un elaborato sottosistema per rompere i legami nei sistemi basati su regole ed è incentrato sull'idea che le persone siano manipolatrici di simboli. Il sistema è progettato per risolvere i problemi in modo sistematico e ha un elaborato sistema di preferenze per rompere i legami nei sistemi basati su regole.

  • 00:15:00 In questa sezione, il relatore discute varie architetture fortemente orientate alla risoluzione dei problemi, tra cui SOAR e l'architettura di Newell. Tuttavia, l'architettura più importante, secondo l'oratore, è "The Emotion Machine" di Marvin Minsky, che evidenzia come la risoluzione dei problemi possa avvenire a strati. L'oratore fornisce un esempio dell'architettura di Marvin attraverso una breve vignetta, in cui una donna attraversa una strada. L'architettura di Marvin evidenzia i vari livelli di pensiero che la donna sperimenta, a partire da una reazione istintiva all'ascolto di un suono fino al pensiero riflessivo in un contesto sociale.

  • 00:20:00 In questa sezione, l'architettura SOAR si concentra sulla risoluzione dei problemi mentre "Emotion Machine" di Minsky considera il pensiero su molti livelli, comprese le emozioni. Tuttavia, lo sviluppo del buon senso rappresenta un ostacolo al raggiungimento di tale pensiero, poiché i computer non ne hanno mai avuto molto. Pertanto, l'ipotesi del buon senso sostiene che, affinché i computer abbiano processi di pensiero così intelligenti, devono essere dotati di buon senso come gli umani. Ciò ha generato il progetto della mente aperta e la raccolta del buon senso dal world wide web come mezzo per raggiungere il pensiero stratificato. Al contrario, Rod Brooks e la sua architettura di sussunzione credono che i robot non possano fare molto perché le persone pensano di costruire robot nel modo sbagliato, con un sistema di visione incapsulato, un sistema di ragionamento e un sistema di azione. Invece, Brooks suggerisce di avere strati di astrazione focalizzati sull'affrontare il mondo, come evitare oggetti, vagare, esplorare e cercare.

  • 00:25:00 In questa sezione, il relatore discute l'architettura proposta da Rodney Brooks che è stata ispirata da come è costruito il cervello umano, con le parti vecchie in profondità e la neocorteccia sovrapposta. Brooks ha ipotizzato che si possa far agire una macchina in modo intelligente come un insetto senza necessariamente aver bisogno di rappresentazione nel modo in cui ci siamo concentrati sulla rappresentazione nel corso. La sua idea era quella di usare il mondo invece di un modello, quindi tutto ciò che si fa è reattivo piuttosto che avere una mappa della stanza nella propria testa. I meccanismi nella loro forma più pura sono solo macchine a stati finiti. Brooks ha chiamato questa idea architettura di sussunzione, che è stata utilizzata nel robot Roomba che ha avuto molto successo. Roomba utilizza sensori di prossimità a infrarossi per la navigazione, che aiutano a evitare controller centralizzati e la necessità di un modello mondiale.

  • 00:30:00 In questa sezione del video, il relatore discute l'architettura di sussunzione, che è esemplificata in un robot in grado di trovare una lattina e raccoglierla. Il robot utilizza un traccialinee laser per individuare la lattina e dispone di sensori nel braccio per afferrare la lattina in un modo specifico. Il robot utilizza anche una bussola magnetica per tornare al punto di partenza. Il relatore cita anche altre architetture come SOAR e GPS e introduce l'architettura genesis, che ruota attorno al linguaggio e guida i sistemi percettivi.

  • 00:35:00 In questa sezione, il relatore discute di come la capacità di immaginare e percepire le cose sia collegata alla capacità di descrivere eventi, raccontare e comprendere storie e, in ultima analisi, comprendere la cultura. Fornisce esempi di come le persone sappiano cose che non vengono insegnate loro esplicitamente, come il pericolo di indossare guanti mentre si utilizza una sega circolare. Propone l '"ipotesi della storia forte" come possibile spiegazione per la fioritura della nostra specie 50.000 anni fa, che crede ci abbia fornito la capacità di raccontare storie e comprenderle.

  • 00:40:00 In questa sezione veniamo a conoscenza di un esperimento che è considerato la serie di esperimenti più importante mai condotta nella psicologia cognitiva e dello sviluppo. L'esperimento prevede di mettere il cibo in cestini ai due angoli opposti di una stanza rettangolare e far girare un topo, un bambino piccolo e un adulto per vedere dove vanno. Tendono tutti ad andare ai due angoli con il cibo, tranne quando una parete è dipinta di blu. Il topo e il bambino vanno ancora ai due angoli diagonali con uguale probabilità, mentre l'adulto va solo all'angolo con il cibo. Il bambino diventa adulto quando inizia a usare le parole sinistra e destra per descrivere il mondo.

  • 00:45:00 In questa sezione, il relatore conduce un esperimento con un volontario che dimostra come il linguaggio svolga un ruolo cruciale nella costruzione di descrizioni e combinatori. L'esperimento prevede la lettura di un passaggio da un libro mentre il volontario lo ripete simultaneamente, bloccando il proprio processore linguistico, il che si traduce nella loro incapacità di collegare determinate forme e colori. L'oratore consiglia che impegnarsi in attività come guardare, ascoltare, disegnare e parlare può esercitare le stesse aree del cervello responsabili dell'elaborazione del linguaggio e renderti più intelligente. Inoltre, l'oratore mette in guardia contro i parlatori veloci e su come possono bloccare il tuo elaboratore linguistico, portandoti a prendere decisioni impulsivamente.
19. Architectures: GPS, SOAR, Subsumption, Society of Mind
19. Architectures: GPS, SOAR, Subsumption, Society of Mind
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider cogn...
 

Lezione 21. Inferenza probabilistica I



21. Inferenza probabilistica I

In questo video sull'inferenza probabilistica, il professor Patrick Winston spiega come la probabilità può essere utilizzata nell'intelligenza artificiale per fare inferenze e calcolare le probabilità sulla base di vari scenari. Usa esempi come l'apparizione di una statua, un cane che abbaia a un procione o un ladro, e la fondazione del MIT nel 1861 a.C. per dimostrare l'uso di una tabella di probabilità congiunta, come calcolare le probabilità usando assiomi e la regola della catena, e i concetti di indipendenza e indipendenza condizionata. Il relatore sottolinea la necessità di dichiarare correttamente l'indipendenza delle variabili e propone l'uso di reti di credenze come un modo per rappresentare la causalità tra variabili semplificando i calcoli di probabilità.

  • 00:00:00 In questa sezione del video, il professor Patrick Winston discute l'uso della probabilità nell'intelligenza artificiale, in particolare per quanto riguarda l'osservazione di eventi casuali. Usa l'esempio dell'osservazione dell'aspetto di una statua nel campus e costruisce una tabella per tenere traccia delle possibili combinazioni di eventi che potrebbero portare all'apparizione della statua. Osserva che il numero di righe nella tabella è 2 rispetto al numero di variabili e che lunghi periodi di osservazione potrebbero essere utilizzati per determinare la probabilità che ciascuno di questi eventi si verifichi. In definitiva, la probabilità di un dato evento è semplicemente la frequenza del suo verificarsi divisa per il numero totale di osservazioni.

  • 00:05:00 In questa sezione, il relatore dimostra come utilizzare una tabella di probabilità congiunta per calcolare varie probabilità. L'esempio utilizzato riguarda la conoscenza della probabilità che appaia una statua, date determinate condizioni, come la presenza di una mostra d'arte e di un hack. Il presentatore esegue anche calcoli simili per la probabilità che un procione si presenti in base a un cane che abbaia e la probabilità che il cane abbai data la presenza di un procione. La dimostrazione mostra come utilizzare una tabella di probabilità congiunta per fare inferenze e calcolare le probabilità in base a diversi scenari.

  • 00:10:00 In questa sezione, il relatore discute l'uso di una tabella di probabilità congiunta per calcolare inferenze probabilistiche. Nonostante l'utilità di questo strumento, l'elevato numero di righe richieste per situazioni più complesse può essere difficile da gestire, rendendo necessario considerare altri metodi oltre all'inferenza probabilistica. Il relatore presenta anche uno scenario ipotetico in cui il MIT è stato fondato nel 1861 aC e discute i metodi sperimentali che potrebbero essere stati usati per determinare quali oggetti galleggiano.

  • 00:15:00 In questa sezione, il relatore discute le basi della probabilità e gli assiomi che la sostengono. Spiegano che le probabilità devono essere maggiori di 0 e minori di 1 e che in un mondo binario la probabilità di vero è 1 e falso è 0. L'oratore introduce anche il terzo assioma, che afferma che la probabilità di A più la probabilità di B meno la probabilità di A e B è uguale alla probabilità di A o B. Notano che questa comprensione di base della probabilità serve come base per calcoli più complessi utilizzati nell'inferenza probabilistica.

  • 00:20:00 In questa sezione, il relatore spiega l'approccio formale alla gestione della probabilità utilizzando assiomi e come può essere rispecchiato da intuizioni che implicano discussioni sugli spazi. La probabilità di a è associata alla dimensione del cerchio relativa all'area totale nel rettangolo e gli assiomi da uno a tre hanno senso in termini di quell'immagine. L'oratore spiega quindi la probabilità condizionata e come viene definita come la probabilità di un dato b, che è uguale alla probabilità di a e b divisa per la probabilità di B. Questa definizione ha senso in quanto restringe l'universo di considerazione solo a quello parte dell'universo originario.

  • 00:25:00 In questa sezione, l'oratore introduce l'idea di suddividere lo spazio di probabilità in tre parti e spiega come si può determinare la probabilità di a, b e c. Espandendo la formula, la probabilità che tutte le cose siano così viene scomposta in un prodotto di tre probabilità condizionali. L'oratore poi generalizza questa idea nella regola della catena, che afferma che la probabilità di un gruppo di cose può essere scritta come un prodotto di probabilità condizionate. Anche se l'oratore è solo a metà del diagramma, mostra che stanno facendo buoni progressi. Il prossimo concetto che discutono è l'idea di probabilità condizionata.

  • 00:30:00 In questa sezione, il professore spiega la definizione di indipendenza e indipendenza condizionata. L'indipendenza è quando la probabilità di a non dipende da cosa sta succedendo con b. Ad esempio, se a e b sono indipendenti, allora un dato b è uguale ad a. Indipendenza condizionale significa che se il mondo è limitato a essere in z, allora la probabilità di a non dipende dal valore di b. Il professore illustra questi concetti utilizzando diagrammi intuizionisti, utilizzando le aree dei diagrammi per denotare le probabilità.

  • 00:35:00 In questa sezione, il docente discute l'indipendenza condizionale nell'inferenza probabilistica e come porta a dedurre le probabilità congiunte delle variabili. Spiega il concetto usando l'esempio di un cane che abbaia a un procione oa un ladro, e come l'aggiunta di altre due variabili porta alla necessità di una grande tabella di probabilità congiunta. Quindi introduce l'idea delle reti di credenze come un modo per rappresentare la causalità tra variabili e sottolinea la necessità di affermare correttamente che ogni nodo è indipendente dalle sue variabili non discendenti.

  • 00:40:00 In questa sezione, il relatore discute il concetto di indipendenza dati i genitori di non discendenti e l'importanza di comprendere questo linguaggio nell'inferenza probabilistica. L'oratore crea quindi un modello per determinare le probabilità di vari eventi come la comparsa di un ladro o l'abbaiare del cane in base alla presenza di altri fattori come un procione. Il relatore osserva che sono necessari solo 10 numeri per specificare il modello, il che consente di risparmiare uno sforzo considerevole rispetto al tentativo di costruire immediatamente una tabella di probabilità congiunta.

  • 00:45:00 In questa sezione, l'oratore discute l'uso della regola della catena nel calcolo della tabella di probabilità congiunta completa. Spiegano come, utilizzando la conoscenza dell'indipendenza condizionale, siano in grado di grattare determinate probabilità dalla formula poiché non dipendono da un discendente. Disponendo la formula in un modo specifico, l'oratore è in grado di calcolare l'intera tabella di probabilità congiunta senza inventare numeri o effettuare molte misurazioni. Il relatore osserva che in questo caso particolare, hanno dovuto escogitare solo 10 numeri su 32 e si chiede quanto risparmio si otterrebbe se ci fossero più proprietà.
21. Probabilistic Inference I
21. Probabilistic Inference I
  • 2014.01.10
  • www.youtube.com
* Please note: Lecture 20, which focuses on the AI business, is not available.MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://oc...
 

Lezione 22. Inferenza probabilistica II



22. Inferenza probabilistica II

In questo video, il professor Patrick Winston spiega come utilizzare le reti di inferenza, note anche come "reti di Bayes", per fare inferenze probabilistiche. Discute come ordinare le variabili in una rete bayesiana utilizzando la regola della catena per calcolare la probabilità congiunta di tutte le variabili. Il relatore dimostra come accumulare probabilità eseguendo simulazioni e come generare probabilità utilizzando un modello. Discute anche della regola di Bayes e di come può essere utilizzata per risolvere problemi di classificazione, selezionare modelli e scoprire strutture. Il video sottolinea l'utilità dell'inferenza probabilistica in vari campi come la diagnosi medica, il rilevamento di bugie e la risoluzione dei problemi delle apparecchiature.

  • 00:00:00 In questa sezione, il professor Patrick Winston discute l'uso delle reti di inferenza, note anche come "reti di Bayes", utilizzate per effettuare un'inferenza probabilistica. Inizia esaminando la tabella delle probabilità congiunte, che può essere utilizzata per decidere una probabilità facendo clic sulle caselle appropriate, ma il problema è che diventa difficile e richiede tempo calcolare o raccogliere i numeri quando sono coinvolte molte variabili. Passa a utilizzare le reti di inferenza per eseguire calcoli per ottenere la probabilità che gli eventi accadano insieme. La regola della catena viene utilizzata qui e questa sezione termina fornendo una spiegazione di questa regola.

  • 00:05:00 In questa sezione, il relatore parla del processo di ordinamento delle variabili in una rete bayesiana e di come può essere utilizzato con la regola della catena per calcolare la probabilità congiunta di tutte le variabili. Disponendo le variabili in modo tale che nessuno dei suoi discendenti appaia alla sua sinistra in un ordine lineare e usando la regola della catena, è in grado di calcolare la probabilità di una particolare combinazione di quelle variabili. Afferma che tutte le probabilità condizionali in questo scenario sono non discendenti e l'eliminazione delle variabili basate sulle dipendenze può aiutare a calcolare qualsiasi voce nella tabella.

  • 00:10:00 In questa sezione, il relatore spiega come utilizzare una piccola rete per fare tutto ciò che può essere fatto con un tavolo e le probabilità necessarie per raggiungere questo obiettivo. Discute di come estende le tabelle per tenere traccia dei conteggi richiesti per calcolare la probabilità che il cane abbai o che si verifichi B, e utilizza i risultati sperimentali per dare segni di spunta o conteggi nelle sezioni pertinenti della tabella, portando infine a una dimostrazione di il processo.

  • 00:15:00 In questa sezione del video, il professore inizia dimostrando come accumulare le probabilità di una rete eseguendo simulazioni. Spiega come interpretare la tabella e tenere traccia di ciò che gli elementi di dati ti dicono sulla frequenza con cui appare una particolare combinazione. Esegue più simulazioni per ottenere probabilità più accurate. Quindi dimostra come simulare il sistema generando una combinazione di valori per tutte le variabili andando avanti e indietro dalle tabelle di probabilità in alto e lanciando una moneta.

  • 00:20:00 In questa sezione, il relatore discute il processo di generazione delle probabilità per uno scenario selezionando la riga appropriata in una tabella di probabilità. L'oratore prosegue poi spiegando come queste probabilità possono essere generate utilizzando un modello a sinistra, che può essere utilizzato per produrre dati per calcolare le probabilità a destra. Tuttavia, l'oratore riconosce che possono esserci più modelli corretti per un dato scenario, rendendo difficile determinare quale sia corretto. Per affrontare questo problema, il relatore introduce il concetto di inferenza bayesiana ingenua, che implica la riscrittura delle probabilità condizionali in un modo che consenta il loro calcolo utilizzando il teorema di Bayes.

  • 00:25:00 In questa sezione, il video spiega come utilizzare la regola di Bayes per risolvere un problema di classificazione. Ad esempio, nella diagnosi di una malattia, la probabilità della malattia data l'evidenza può essere calcolata dividendo la probabilità dell'evidenza data la malattia per la probabilità complessiva dell'evidenza, e quindi moltiplicandola per la probabilità a priori della malattia data. Se sono presenti più elementi di evidenza indipendenti, è possibile calcolare la probabilità congiunta di evidenza per una determinata malattia divisa per la probabilità complessiva di evidenza e quindi confrontare le probabilità di tutte le classi rilevanti.

  • 00:30:00 In questa sezione, il docente racconta una storia sulla selezione di due monete, una distorta con una probabilità di 0,8 di testa e una giusta con una probabilità di 0,5 di testa. Dopo aver lanciato la moneta, il docente utilizza la probabilità bayesiana per capire quale moneta è stata selezionata in base alle probabilità precedenti e alle prove dei lanci. La conferenza dimostra come l'evidenza può essere utilizzata per determinare la probabilità di diverse ipotesi nell'inferenza probabilistica.

  • 00:35:00 In questa sezione, il professore dimostra come le probabilità di diverse monete variano con una serie di lanci e come la preponderanza delle prove può cambiare la probabilità di ottenere testa. La legge dei grandi numeri entra in vigore e la probabilità che la moneta scelta sia in gioco diventa sempre più vicina a 1. Il professore utilizza quindi questo concetto per creare un classificatore del partito dei genitori osservando il partito politico di un bambino e facendo inferenze sulla partito a cui appartiene il genitore. Nel complesso, il concetto di inferenza probabilistica può essere applicato in vari scenari per fare previsioni e trarre conclusioni.

  • 00:40:00 In questa sezione del video, l'oratore discute l'utilizzo dell'hack bayesiano per confrontare due modelli e selezionare quello migliore in base ai dati. Il processo prevede la simulazione di estrazioni da un modello e il calcolo della probabilità di ciascun modello dati i dati. L'oratore passa quindi alla scoperta della struttura, dove iniziano senza variabili collegate e utilizzano una ricerca casuale per modificare e confrontare i modelli finché non trovano quello che è preferito. Questo processo richiede l'utilizzo della somma dei logaritmi delle probabilità invece del prodotto per evitare di perdere informazioni su una macchina a 32 bit. Tuttavia, la ricerca della struttura ottimale può essere impegnativa a causa dell'ampio spazio e dei massimi locali.

  • 00:45:00 In questa sezione, il relatore discute l'utilità dell'inferenza probabilistica e della scoperta della struttura in vari campi come la diagnosi medica, il rilevamento della bugia e la risoluzione dei problemi delle apparecchiature. Spiega come i calcoli probabilistici siano l'approccio giusto da utilizzare quando le informazioni sono limitate e come questo metodo possa essere utilizzato per determinare la causa più probabile di un problema sulla base dei sintomi osservati. Il relatore accenna anche a future discussioni su come questo metodo può essere utilizzato per scoprire modelli e storie.
22. Probabilistic Inference II
22. Probabilistic Inference II
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWe begin with a review of inferen...
 

Lezione 23. Fusione di modelli, accoppiamento cross-modale, riepilogo del corso



23. Fusione di modelli, accoppiamento cross-modale, riepilogo del corso

In questo video, il professor Patrick Winston parla di fusione di modelli, accoppiamento intermodale e riflette sul materiale del corso. Discute l'importanza di scoprire la regolarità senza essere eccessivamente fissati sulla probabilità bayesiana e sui potenziali benefici dell'accoppiamento intermodale per comprendere il mondo che ci circonda. Offre anche suggerimenti per corsi futuri e sottolinea l'importanza di concentrarsi sulla creazione di nuove entrate e capacità con persone e computer che lavorano insieme, piuttosto che mirare esclusivamente a sostituire le persone. Inoltre, sottolinea l'importanza di identificare prima il problema e selezionare la metodologia appropriata per affrontarlo. Infine, il professore riflette sui limiti della riduzione dell'intelligenza a un modello replicabile e artificiale e sottolinea l'eccezionale lavoro del suo team.

  • 00:00:00 In questa sezione, Patrick Winston parla dell'unione di modelli e dell'accoppiamento intermodale. Dimostra l'idea della fusione della storia bayesiana mostrando come scoprire la struttura in situazioni in cui altrimenti non potresti trovarla, come scoprire eventi in due storie e assemblarli in due grafici della storia. Parla anche della capacità di scoprire concetti attraverso diversi livelli che utilizzano l'apprendimento automatico e il cloud computing per l'efficienza. Infine, mette in mostra il programma di Michael Coen che utilizza molteplici modalità e corrispondenze tra di loro per risolvere entrambe le modalità che contribuiscono nelle canzoni dei fringuelli zebra.

  • 00:05:00 In questa sezione, il concetto di accoppiamento intermodale viene spiegato attraverso l'esempio dell'associazione di gesti che producono suoni vocalici con i suoni stessi. La trasformata di Fourier di una vocale produce formanti e un'ellisse attorno alla bocca forma la seconda modalità. Con i dati di accoppiamento intermodale, è possibile raggruppare i suoni e associare le forme delle labbra ai suoni senza alcun dato contrassegnato. Una dimostrazione del lavoro di Coen mostra come i cluster possono essere formati utilizzando proiezioni e vettori come componenti di una metrica.

  • 00:10:00 In questa sezione, il relatore discute il concetto di accoppiamento intermodale e come può aiutare a comprendere il mondo che ci viene presentato. Suggerisce che è possibile scoprire la regolarità senza preoccuparsi ossessivamente della probabilità bayesiana e che questo tipo di idea di accoppiamento è probabilmente legata alla nostra comprensione del mondo che ci circonda. Il relatore riassume anche il materiale del corso, sottolineando l'importanza delle prospettive ingegneristiche e scientifiche nella creazione di applicazioni sofisticate per l'intelligenza artificiale. Sottolinea inoltre la necessità di concentrarsi sulla creazione di nuove entrate e capacità con persone e computer che lavorano in tandem, piuttosto che mirare esclusivamente a sostituire le persone.

  • 00:15:00 In questa sezione, il relatore discute i vantaggi unici che la programmazione offre per la creazione di modelli e la conduzione di esperimenti. In particolare, la programmazione fornisce metafore e la capacità di creare modelli che consentono la sperimentazione per testare le implicazioni di questi modelli. Il relatore sottolinea inoltre l'importanza di identificare prima il problema e poi selezionare la metodologia o il macchinario appropriato da utilizzare, piuttosto che cadere nell'invidia del meccanismo e concentrarsi su metodi specifici. Infine, il relatore rivede brevemente il formato dell'esame e offre alcuni promemoria per gli studenti, come portare un orologio e una calcolatrice e la flessibilità di indossare costumi durante l'esame.

  • 00:20:00 In questa sezione, il professore dà alcuni suggerimenti su cosa fare il prossimo semestre, tra cui l'argomento di Marvin Minsky, Society of Mind, o gli argomenti di Bob Berwick su Language Understanding and Evolution, o l'argomento Large Scale Symbolic System di Gerry Sussman. Promuove anche il suo corso primaverile, la Human Intelligence Enterprise. Il professore descrive il suo corso come un corso umanistico e non ha lezioni, ma piuttosto è una conversazione con lui. Discute alcuni degli argomenti trattati nel corso, come il packaging e gli elementi comuni che si trovano in vari sistemi di intelligence.

  • 00:25:00 In questa sezione, il relatore discute l'importanza del packaging e come può fare la differenza nel proprio successo, indipendentemente dal proprio percorso professionale. L'oratore menziona un evento, chiamato conferenza "How to Speak", che è una lezione non lineare di un'ora che può avere un impatto significativo sulla capacità di qualcuno di tenere presentazioni, conferenze e colloqui di lavoro offrendo suggerimenti come quando raccontare una barzelletta o come per aprire una presentazione. Inoltre, l'oratore parla del sistema Genesis del loro gruppo, che sta per spostarsi in aree in grado di rilevare l'insorgenza di una possibile malattia.

  • 00:30:00 In questa sezione, una dimostrazione dal vivo mostra come un sistema può leggere e comprendere una storia da più prospettive, il che consente l'individuazione di potenziali problemi e l'intervento per prevenire i disastri. Due personaggi con diversi background educativi identificano ciò che è esplicitamente nella storia e deducono altri concetti in grigio. A causa del loro background unico, hanno prospettive diverse sulla storia e possono persino negoziare tra loro, insegnare ad altri domini ed evitare disastri prima che si verifichino. Il sistema rileva anche potenziali operazioni di vendetta e vittorie di Pirro, illustrando la sua capacità di anticipare potenziali problemi e intervenire.

  • 00:35:00 In questa sezione impareremo a utilizzare i vettori di concetti invece dei conteggi delle parole chiave per il recupero delle informazioni attraverso la comprensione delle storie su più livelli. L'architettura di propagazione viene utilizzata per impedire alle persone di esagerare con il proprio lavoro e viene elogiato il coinvolgimento degli studenti nel gruppo del MIT. Per quanto riguarda ulteriori programmi di scuola di specializzazione, si dovrebbe pensare a chi vogliono apprendisti e trovare un programma con un focus diverso, come l'intelligenza artificiale, per ampliare i propri orizzonti sul campo.

  • 00:40:00 In questa sezione, il professor Winston dà consigli agli studenti che si iscrivono alla scuola di specializzazione in fisica teorica e intelligenza artificiale, sottolineando l'importanza delle visite in loco per la prima e di concentrarsi su un'area specifica per la seconda. Condivide anche un aneddoto su un caso estremo della teoria dei difetti della selezione della carriera dell'IA, in cui un ricercatore di visione artificiale non è in grado di riconoscere sua moglie a causa della sua specializzazione nel riconoscimento di oggetti. Infine, il professor Winston riflette sull'utilità e la semplicità di idee potenti nell'informatica e affronta l'argomento secondo cui la comprensione del linguaggio potrebbe non richiedere necessariamente una vera intelligenza.

  • 00:45:00 In questa sezione, l'oratore parla dei limiti nel ridurre l'intelligenza a qualcosa che può essere replicato artificialmente. Usa il suo procione domestico come esempio di un animale molto intelligente che non si aspettava di poter costruire una macchina altrettanto intelligente. L'idea che l'intelligenza artificiale sia impossibile si basa spesso su argomenti riduzionisti che non tengono conto della conoscenza e della magia che provengono da un programma in esecuzione che si esegue nel tempo. Il relatore si prende anche un momento per riconoscere l'eccezionale lavoro della sua squadra e augura ogni bene agli studenti per il loro esame finale.
23. Model Merging, Cross-Modal Coupling, Course Summary
23. Model Merging, Cross-Modal Coupling, Course Summary
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonThis lecture begins with a brief ...
 

Mega-R1. Sistemi basati su regole



Mega-R1. Sistemi basati su regole

Questo video si concentra sulla Mega-Recitazione, che è una lezione in stile tutorial per aiutare gli studenti a lavorare con il materiale trattato nelle lezioni e nelle recitazioni. Il video copre diversi argomenti relativi ai sistemi basati su regole, tra cui il concatenamento all'indietro, il concatenamento in avanti, l'ordine di tiebreak per le regole e il processo di corrispondenza. Il processo di concatenamento all'indietro comporta l'osservazione del conseguente di una regola e l'aggiunta degli antecedenti secondo necessità per raggiungere l'obiettivo principale, mentre il pareggio e la disambiguazione sono cruciali per l'albero degli obiettivi. Il video illustra anche il concatenamento in avanti e le regole di abbinamento alle asserzioni utilizzando una serie di asserzioni. L'oratore sottolinea l'importanza di verificare le affermazioni prima di utilizzare una regola ed evitare regole impotenti che non fanno nulla. Il processo di corrispondenza prevede l'utilizzo del concatenamento all'indietro per determinare quali regole corrispondono alle asserzioni fornite e il sistema darà la priorità alle regole con numero inferiore, indipendentemente dal fatto che siano nuove o meno.

  • 00:00:00 In questa sezione, Mark Seifter introduce il concetto di Mega-Recitazione, che è una lezione in stile tutorial progettata per aiutare gli studenti a lavorare con il materiale trattato nelle lezioni e nelle recitazioni. L'obiettivo è aiutare gli studenti a comprendere e lavorare con gli algoritmi fondamentali per la classe e dimostrare la loro comprensione con i quiz. L'attenzione si concentra su un problema del quiz dell'anno scorso che ha fatto inciampare molti studenti, e Marx ripercorre i trucchi che li hanno colti di sorpresa nella speranza di impedire che quegli errori vengano ripetuti. Infine, spiega la differenza tra due notazioni, in-fix e prefix, per scrivere le regole, e perché gli studenti devono esserne consapevoli.

  • 00:05:00 In questa sezione, apprendiamo le sei regole etichettate con P, ciascuna con una corrispondente istruzione if-then. La prima regola afferma che se X è ambizioso e X è uno squib, allora X ha un brutto termine. Il punto interrogativo nella X o nella Y indica una variabile in attesa di essere associata. Il concatenamento all'indietro e in avanti verrà utilizzato per determinare l'associazione di queste variabili. Ci vengono anche fornite quattro affermazioni con cui lavorare, tra cui Millicent che vive nella prigione di Serpeverde e Seamus che si trova nella Torre di Grifondoro e tagga Millicent. Viene sottolineata l'importanza di verificare le asserzioni prima di utilizzare una regola poiché è stato un errore che ha fatto inciampare alcune persone l'anno scorso.

  • 00:10:00 In questa sezione, il relatore spiega il concetto di concatenamento all'indietro e ne evidenzia le differenze con il concatenamento in avanti. Lavorando sull'ipotesi, il concatenatore all'indietro cerca di trovare un'asserzione corrispondente nell'elenco delle asserzioni e, se non c'è alcuna corrispondenza, proverà a trovare una regola con un conseguente corrispondente. Il presentatore prosegue fornendo esempi di problemi facili e poi affronta un problema della vita reale, in cui Millicent diventa l'amica di Hermione. In tutto l'esempio, il relatore sottolinea l'importanza del pareggio e della disambiguazione nell'albero degli obiettivi.

  • 00:15:00 In questa sezione, il video discute il processo di concatenamento all'indietro nei sistemi basati su regole. Il concatenamento all'indietro comporta l'osservazione del conseguente di una regola e l'aggiunta degli antecedenti necessari per raggiungere l'obiettivo principale. Il video sottolinea l'importanza di cercare qualcosa che abbia l'obiettivo attuale nel suo conseguente e cercarlo nelle asserzioni prima di controllare altre regole. Il processo prevede una ricerca approfondita, partendo dal nodo sinistro e spostandosi verso il basso se sono presenti figli, e cercando una regola che corrisponda all'obiettivo corrente. Il video spiega anche come aggiungere correttamente i nodi all'albero degli obiettivi, ad esempio un nodo finale con un nodo o in fondo.

  • 00:20:00 In questa sezione, l'oratore discute una ricerca in profondità mentre utilizza un diagramma ad albero per identificare se Millicent è un protagonista o un cattivo, cercando infine di dimostrare che è un cattivo. Seguono prima il ramo sinistro e cercano di trovare una regola sul fatto che Millicent sia un protagonista. Poiché non esiste alcuna regola che corrisponda al loro criterio, tornano al nodo "o" e tornano indietro al fatto che Millicent sia un cattivo. Anche se non è nelle asserzioni, seguono il ramo per vedere se c'è una regola con quello come conseguenza. Alla fine, trovano una regola che afferma che Millicent è un cattivo ma deve andare avanti per trovare la risposta definitiva.

  • 00:25:00 In questa sezione, l'oratore spiega l'obiettivo risoluto del catenatore all'indietro e la sua mancanza di interesse per le altre affermazioni o antecedenti. Il catenatore all'indietro mira solo a dimostrare la possibilità che Millicent possa essere un cattivo, e non si preoccupa delle altre conseguenze, come Millicent che è ambizioso. Si noti che ciò può comportare calcoli non necessari, ma è un modo semplice ed efficiente per codificare il sistema. Viene discusso il potenziale utilizzo di una tabella hash, ma si conclude che potrebbe non valere lo sforzo aggiuntivo.

  • 00:30:00 In questa sezione, la classe discute l'implementazione di una tabella hash per aumentare la velocità di esecuzione del sistema basato su regole. Tuttavia, ci sono alcuni potenziali problemi con questo approccio, poiché perde l'ordine in cui le asserzioni nella tabella vengono attivate e alcune regole dipendono dall'ordine di queste asserzioni. La conferenza affronta anche una domanda della folla sulla risoluzione delle regole quando c'è un'affermazione che afferma l'opposto di quanto affermato in precedenza e su come risolvere questo problema. La classe conclude che questo è il motivo per cui non hanno dichiarazioni di eliminazione sui quiz e che non aggiungono asserzioni ma controllano invece tutte le cose nell'albero degli obiettivi fino a prova o confutazione.

  • 00:35:00 In questa sezione, l'oratore esamina rapidamente le restanti parti dell'esempio di Millicent, la protagonista, e come utilizzare i sistemi basati su regole per determinare se diventa o meno amica di Hermione. Ciò include rispondere ad alcune domande, come determinare il numero minimo di asserzioni aggiuntive necessarie affinché Millicent diventi amica di Hermione senza aggiungere un'asserzione che corrisponda a un conseguente di una regola. La sezione copre anche una situazione insolita che si verifica a causa dell'aggiunta di un'asserzione e della necessità di correggerla rimuovendo un'asserzione contraddittoria. Infine, viene brevemente menzionato il concatenamento all'indietro e l'oratore chiede al pubblico di risolvere un problema relativo all'associazione variabile, in cui l'obiettivo è determinare se Millicent ha un termine errato.

  • 00:40:00 In questa sezione, il narratore discute il concatenamento in avanti, che implica l'aggiunta di nuove asserzioni man mano che arrivano, e l'ordine di tiebreak per le regole. L'ordine di spareggio per le regole va da 0 a 5 e se la stessa regola può attivarsi con più asserzioni diverse, le regole vengono utilizzate in ordine numerico. Il narratore dimostra come abbinare le regole alle asserzioni utilizzando una serie di asserzioni e come si farebbe scattare una regola. Il narratore ci dice anche che le regole impotenti, o regole che non fanno nulla, non dovrebbero essere licenziate, ma invece si dovrebbe passare alla regola successiva nell'ordine. Infine, il narratore spiega come hanno abbinato regole e asserzioni e come hanno aggiunto nuove asserzioni.

  • 00:45:00 In questa sezione del video, il relatore discute il processo di corrispondenza per i sistemi basati su regole. L'esempio fornito è quello di una domanda a quiz, con regole e asserzioni numerate. Il sistema utilizza il concatenamento all'indietro per determinare quali regole corrispondono alle asserzioni fornite e, in questo caso, corrispondono solo le regole 1, 2, 3 e 5. Il relatore risponde anche a una domanda sull'opportunità di elaborare prima le nuove asserzioni con un numero di regola inferiore, spiegando che il sistema darà la priorità alle regole con un numero inferiore indipendentemente dal fatto che siano nuove o meno.
Mega-R1. Rule-Based Systems
Mega-R1. Rule-Based Systems
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterIn this mega-recitation, we cover Pr...
 

Mega-R2. Ricerca di base, ricerca ottimale



Mega-R2. Ricerca di base, ricerca ottimale

Questo video di YouTube copre vari algoritmi e tecniche di ricerca, tra cui la ricerca approfondita, la ricerca in ampiezza, la ricerca ottimale e l'algoritmo A*. Il video utilizza un divertente esempio di un malvagio Overlord Mark Vader alla ricerca di una nuova roccaforte per illustrare questi concetti. Il relatore sottolinea l'importanza dell'ammissibilità e della coerenza nella ricerca di grafici e spiega l'uso di elenchi estesi per impedire la rivalutazione dei nodi. Il video affronta errori e domande comuni del pubblico e incoraggia gli spettatori a chiedere di più. Nel complesso, il video fornisce un'introduzione completa a questi algoritmi e tecniche di ricerca.

  • 00:00:00 In questa sezione, il video introduce il problema di Evil Overlord Mark Vader alla ricerca di una nuova roccaforte, utilizzando le tecniche di ricerca iniziale apprese in classe. Vader parte dalla sua attuale roccaforte, la stella di ricerca Depth-first, e vuole raggiungere la fortezza 6:03, che non ha punti deboli e ha tutte le caratteristiche desiderabili come servitori ridotti in schiavitù, squali con raggi laser e una grande via di fuga. Il video presenta un grafico delle scelte di esplorazione, in cui i bordi si uniscono a roccaforti che differiscono solo per una caratteristica, e agli spettatori vengono offerti diversi metodi per eseguire la ricerca, tra cui l'approccio affidabile ma più lento e l'approccio rapido ma più soggetto a errori.

  • 00:05:00 In questa sezione, il presentatore video discute diversi approcci per risolvere la ricerca in profondità. Sebbene esista un approccio molto rapido, è più soggetto a errori e non viene generalmente utilizzato. Invece, il relatore consiglia di utilizzare l'albero degli obiettivi e di iniziare dal nodo iniziale e terminare al nodo obiettivo, che è un po' più veloce che disegnare l'intera agenda. Il presentatore spiega anche il concetto di lessicografia e come viene utilizzato per rompere i legami in ordine alfabetico durante una ricerca. Inoltre, il video mette in guardia dal mordersi la coda, che è un errore comune quando si implementano regole in un sistema. Infine, il relatore sottolinea l'importanza di non far apparire lo stesso nodo due volte all'interno dello stesso percorso, in quanto ciò può portare a errori.

  • 00:10:00 In questa sezione, il relatore spiega come risolvere un problema con la ricerca in profondità utilizzando un albero degli obiettivi anziché una coda. Iniziano dal nodo se chiedono aiuto al pubblico per capire le scelte a quel nodo. Il relatore sottolinea l'importanza di controllare la connettività e leggere le istruzioni. Usano il tiebreak lessicografico per decidere a quale nodo passare e tornare indietro quando raggiungono un vicolo cieco. Inoltre mettono in guardia contro l'errore di contare due volte i passi indietro e ricordano al pubblico di prestare attenzione a quante volte tornano indietro.

  • 00:15:00 In questa sezione, il relatore spiega l'importanza dell'algoritmo quando si conduce una ricerca, in quanto può influenzare il numero di passaggi necessari per trovare la soluzione. Discutono anche della tecnica del backtracking e consigliano su come tenerne traccia durante la ricerca. Il relatore passa quindi a dimostrare come eseguire una ricerca in profondità e suggerisce un modo rapido per risolvere la domanda di ricerca in ampiezza. Evidenziano che il percorso trovato durante una ricerca in ampiezza è garantito per avere il minor numero di salti e indicano di espandere il grafico livello per livello da sinistra a destra. Infine, l'oratore chiarisce l'uso dell'ordine di classificazione per tipo in una ricerca in ampiezza.

  • 00:20:00 In questa sezione, il relatore sottolinea l'importanza di non ordinare i percorsi in coda per l'algoritmo di ricerca utilizzato nel video. Spiegano che la ricerca best-first interromperà i pareggi solo quando raggiunge un nodo e che aggiungono sempre tutto alla fine della coda, il che significa che non devono tornare indietro. Dicono anche che mentre l'ordine grafico gioca un ruolo nella ricerca, lo fa solo in modo sottile e subdolo. Infine, discutono della possibilità di una ricerca in ampiezza con un elenco esteso, che può essere utilizzato per impedire al programma di rivalutare i nodi che ha già visitato.

  • 00:25:00 In questa sezione del video, l'oratore discute la ricerca ottimale utilizzando un esempio di Mark che cerca di trovare il percorso più breve dal suo universo attuale al suo universo obiettivo con costi energetici variabili tra gli universi. Il grafico include distanze e valori euristici dati a ciascun nodo e il relatore spiega che l'algoritmo utilizzerà i valori euristici per guidare la ricerca verso il nodo obiettivo, considerando anche il costo effettivo per raggiungere ciascun nodo. L'algoritmo utilizzato è l'algoritmo A-star che espande i nodi con il costo effettivo ed euristico combinato più basso. Il relatore spiega anche l'importanza di utilizzare un elenco esteso per evitare la ripetizione della ricerca e pone una domanda sull'ordine in cui i nodi vengono aggiunti alla ricerca.

  • 00:30:00 In questa sezione, Mark introduce il concetto di programmare il minor numero di salti nell'universo che lo porteranno all'obiettivo senza usare troppa energia. Spiega la sua semplice ricerca branch-and-bound che è proprio come una pizza al formaggio, mentre una ricerca A-star è come la pizza di un amante della carne con condimenti extra. Tuttavia, possono influenzarsi a vicenda, quindi è fondamentale scegliere il percorso attualmente più breve. Nell'esempio, il computer aggiunge il nodo C all'elenco esteso, contrassegnandolo come l'unico percorso con una lunghezza di 0. La lunghezza di SB è 3 e ha un costo di percorso di 103, mentre f è 4 con un costo di 14. Nonostante si ignorino i pareggi in ordine lessicografico, viene scelto il percorso più breve e, una volta speso B, va a D con una lunghezza di 4, e quindi la lunghezza del percorso aggiornata a G è 7.

  • 00:35:00 In questa sezione, l'oratore continua con l'algoritmo di ricerca ottimale, espandendo i percorsi S, B, F e D. Il percorso E viene quindi esteso a H e A, e il percorso più breve risulta essere SFHIG . L'oratore menziona anche l'utilizzo di A-star come algoritmo di ricerca più efficiente e risponde alle domande del pubblico sull'espansione dei nodi che sono già nell'elenco esteso. Alla fine si ottiene la risposta corretta, nonostante una certa confusione iniziale sul fatto che il percorso si connetta a C e D.

  • 00:40:00 In questa sezione, il relatore discute alcuni errori commessi nella sezione precedente che hanno causato l'esclusione di alcuni nodi dall'albero finale creato. Chiarisce che anche il nodo dovrebbe andare a "e" e che avrebbe fatto la differenza se avessero chiesto quante volte un nodo è stato eseguito perché non è stato inserito nell'elenco esteso. Passano quindi a discutere l'algoritmo A-star e il calcolo dei valori euristici. Si sottolinea che è importante non aggiungere valori euristici per ogni nodo nell'elenco, ma aggiungere invece il percorso fino a quel momento al valore euristico finale. Chiariscono inoltre che la decisione di estendere il nodo "G" è una questione di gusto e un dettaglio di implementazione che non perderà punti sul set di problemi. Infine, risolvono la ricerca della stella A e il vincitore finale è determinato dal nodo "D" con un valore di 57.

  • 00:45:00 In questa sezione, il video riassume un algoritmo di ricerca chiamato A* e mostra come utilizzarlo in modo ottimale per trovare il percorso più breve in un grafico. Il video discute l'importanza di avere euristiche ammissibili in ogni punto del grafico. Ammissibile significa che la stima di quanto lavoro è rimasto è sempre una sottostima o una previsione accurata. Un'euristica che è una sovrastima farà sì che l'algoritmo pensi di aver bisogno di fare più lavoro del necessario e potrebbe non esplorare nodi importanti. Il video parla anche di coerenza, il che significa che la distanza tra nodi adiacenti in un grafico è inferiore alla differenza nell'euristica tra quei nodi. Il video sottolinea l'importanza di comprendere questi concetti in quanto saranno probabilmente presenti nel quiz.

  • 00:50:00 In questa sezione, il relatore spiega i concetti di ammissibilità e coerenza nella ricerca su grafo. L'ammissibilità è come la coerenza, ma richiede coerenza tra ogni nodo e il nodo obiettivo. Qualsiasi grafico coerente è sempre ammissibile, ma non tutti i grafici ammissibili sono coerenti. Un elenco esteso funzionerà su grafici ammissibili perché controlla le stime per ogni nodo al nodo obiettivo. Tuttavia, se le stime all'interno dei nodi non sono corrette, esaminarle in modo non corretto viola l'ipotesi formulata al momento di decidere di utilizzare l'elenco esteso. Il grafico presentato nel video è sapientemente realizzato per essere un nodo obiettivo del collo di bottiglia e contiene incongruenze tra i nodi, inclusi I e H, che risultano essere le uniche incongruenze che contano. Infine, il relatore incoraggia gli spettatori a porre eventuali domande su questo argomento.
Mega-R2. Basic Search, Optimal Search
Mega-R2. Basic Search, Optimal Search
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterThis mega-recitation covers Problem ...