Aprendizado de máquina e redes neurais - página 14

 

Aula 22: Orientação Externa, Recuperando a Posição e Orientação, Ajuste do Pacote, Forma do Objeto



Aula 22: Orientação Externa, Recuperando a Posição e Orientação, Ajuste do Pacote, Forma do Objeto

A palestra explora o conceito de orientação externa em fotogrametria, onde a posição e a orientação das câmeras são determinadas em um ambiente 3D. O palestrante discute vários métodos para resolver problemas relacionados à orientação externa, como recuperação de posição e orientação de um objeto usando a regra do triângulo de sinais e a regra do cosseno. O vídeo também explora o uso de malhas e cilindros generalizados para representar objetos 3D e alinhá-los em visão computacional. O palestrante também apresenta a imagem gaussiana estendida, um método de mapeamento de objetos convexos de forma arbitrária para uma esfera unitária, e explica suas limitações no manuseio de objetos não convexos. Além disso, o vídeo aborda a otimização não linear e sua aplicação na criação de modelos 3D precisos para fotogrametria.

A palestra discute a parametrização de curvas e cálculo de curvatura em cenários 2D e 3D. Em 2D, uma curva convexa fechada pode ser representada em um círculo unitário pelo ângulo eta e uma densidade proporcional à curvatura, que é o inverso do raio da curva. A palestra demonstra como integrar eta e usar equações xy para obter o objeto convexo para a imagem circular e estende a representação para outras formas, como elipses. Em 3D, o conceito de mapeamento Gauss é introduzido para conectar pontos em uma superfície a pontos em uma esfera unitária, e a curvatura das superfícies é discutida com a curvatura gaussiana sendo uma quantidade escalar única conveniente que mede a curvatura. A palestra termina com uma discussão sobre a proporção de duas áreas, k e g, e como ela se relaciona com a curvatura de uma esfera.

  • 00:00:00 Nesta seção, o conceito de orientação externa é discutido em fotogrametria. É demonstrado através de um drone equipado com câmera voando sobre um terreno com um modelo detalhado. A orientação externa envolve determinar onde está a câmera do drone e em que ângulo ela vê os objetos no ambiente 3D. Isso requer seis graus de liberdade, incluindo três para movimento rotacional e três para translação. O modelo requer três ou mais pontos nos dados da imagem para fornecer restrições suficientes para resolver o problema.

  • 00:05:00 Nesta seção, o palestrante explica como encontrar o comprimento das pernas do tripé para determinar R1, R2 e R3. Ao construir raios e calcular ângulos, os únicos fatores desconhecidos são os comprimentos dos três bastões. Uma vez que esses comprimentos são encontrados, P0 pode ser descoberto pela intersecção das três esferas. Existe potencial para ambiguidade na solução, mas isso pode ser resolvido usando uma imagem espelhada ou a ordem cíclica das imagens. O palestrante explica que antigamente os livros eram cheios de fórmulas para resolver esse problema, mas agora esse processo pode ser feito por meio do ajuste do bundle.

  • 00:10:00 Nesta secção, o docente aborda a utilização de diferentes regras e equações para resolver problemas relacionados com a orientação exterior, nomeadamente recuperando a posição e orientação de um objeto. O uso dessas regras foi importante na navegação e na topografia, mas não é muito usado atualmente. A regra do triângulo de sinais e a regra do cosseno são as duas únicas regras necessárias, mas outras regras podem ser úteis por conveniência. O problema discutido envolve ter um ângulo e uma distância em um triângulo e resolver para r1 e r2 usando três equações não lineares. Uma vez encontrada a posição do plano, os vetores podem ser construídos para determinar a orientação do objeto em relação ao sistema de coordenadas do solo. Os mínimos quadrados e os métodos RANSAC também podem ser usados para encontrar soluções e lidar com outliers.

  • 00:15:00 Nesta seção, o palestrante discute a orientação externa das câmeras e como relacionar os três vetores no sistema de coordenadas da câmera aos do sistema de coordenadas mundial por meio de uma matriz de rotação. O palestrante explica que podemos representar esse sistema de equações como uma equação matricial 3x3 para resolver a matriz de rotação, que podemos representar como uma matriz ortonormal. Se tivermos mais correspondências, podemos usar mínimos quadrados para minimizar o erro no plano da imagem para obter uma solução mais precisa. O palestrante também menciona como esse método pode ser usado para ajuste de bundle, que envolve várias câmeras capturando o mesmo objeto ou cena de diferentes posições, e como ele fornece uma solução para o problema relacionado que envolve centenas de câmeras.

  • 00:20:00 Nesta seção, o palestrante discute o problema de otimização não linear em fotogrametria e suas soluções através de métodos como Levenberg Markart. Nesta otimização, existem parâmetros desconhecidos do ambiente, como pontos no ambiente, localização das câmeras, propriedades da câmera e distorção radial. Usando muitas restrições e imagens, os pesquisadores conseguiram criar modelos 3D precisos de vários objetos, às vezes até usando uma única câmera drone voando sobre um vulcão. O palestrante também menciona pontos interessantes nas imagens, descreve um recurso online da Lowe para identificá-los e aborda brevemente o ajuste de bundle, que é toda uma indústria dentro da fotogrametria.

  • 00:25:00 Nesta seção, o palestrante discute várias representações de objetos 3D, incluindo poliedros e malhas. Os poliedros são relativamente fáceis de descrever, mas para superfícies curvas, as malhas são uma opção melhor. No entanto, alinhar malhas não é muito significativo porque os vértices não possuem nenhum rótulo ou significado específico. O palestrante sugere o uso de imagens gaussianas estendidas, um recurso online que pode ajudar a recuperar a posição e a orientação de objetos 3D.

  • 00:30:00 Nesta seção da videoaula, o palestrante explora o conceito de encontrar uma boa representação para objetos em visão computacional que satisfaça certas condições de invariância, como translação e rotação. O orador discute as limitações de certas tentativas de encontrar tal representação e passa a examinar uma representação em particular, o cilindro generalizado. Essa representação envolve pegar uma forma de gerador e movê-la ao longo de uma linha para gerar formas mais complicadas com a propriedade de que a seção transversal seja a mesma em qualquer lugar ao longo do comprimento. O palestrante discute como essa representação satisfaz certas condições de invariância e pode ajudar no reconhecimento e alinhamento de objetos.

  • 00:35:00 Nesta seção, o palestrante discute o uso de cilindros generalizados para representar objetos e como eles podem ser combinados para criar um modelo 3D. No entanto, esse método tem suas limitações, pois é difícil obter uma representação única quando existem infinitas maneiras de descrever o mesmo objeto. Portanto, a palestra retorna aos poliedros como ponto de partida para a representação 3D, usando uma lista de vértices com coordenadas 3D e uma estrutura gráfica para descrever as conexões entre vértices e faces.

  • 00:40:00 Nesta seção, o palestrante discute como representar um objeto desenhando vetores unitários perpendiculares às faces do objeto e, em seguida, multiplicando-os pelas áreas. Essa representação pode ser única para objetos convexos ou poliedros complexos, desde que a soma desses vetores seja zero. O palestrante observa que essa representação é útil para reconhecimento e alinhamento de objetos, ao invés de reconstrução. Apesar de ser uma prova não construtiva, a representação não é impeditiva, como explica o orador.

  • 00:45:00 Nesta seção da palestra, o palestrante discute como aproximar um objeto não poliédrico, como uma forma cilíndrica e cônica com uma parte plana, cortando-o em fatias e construindo um vetor unitário considerando área. O orador então constrói uma esfera unitária e coloca massas em pontos correspondentes na esfera, que representam a superfície do objeto. A superfície cilíndrica corresponde a um grande círculo na esfera, e a superfície cônica corresponde a um pequeno círculo na esfera, e a placa no final corresponde a uma grande massa em um único ponto. O palestrante explica que essa representação pode ser usada de várias maneiras para a tarefa em questão.

  • 00:50:00 Nesta seção, o palestrante discute o uso da representação para alinhar e reconhecer objetos. A representação envolve calcular uma densidade de orientação para cada objeto, onde cada ponto no objeto tem um ponto correspondente em uma esfera unitária. O palestrante explica que a representação é invariante à translação e à rotação, facilitando sua implementação. A densidade pode ser usada para determinar a curvatura, onde alta densidade corresponde a baixa curvatura e baixa densidade corresponde a alta curvatura. O palestrante então apresenta a imagem gaussiana estendida, que usa normais de superfície para determinar o ponto correspondente na esfera para um determinado ponto no objeto. O palestrante sugere começar com uma versão 2D para entender o conceito antes de passar para 3D.

  • 00:55:00 Nesta seção, é explicado um método de mapeamento para objetos convexos de forma arbitrária para uma esfera unitária. Gauss propôs este método, que mapeia um ponto do objeto para o ponto na esfera com a mesma direção da normal. Este método é usado porque é fácil determinar o pólo celeste norte ou observar onde está o sol e em que época do ano é para medir o ângulo. Este mapeamento é invertível, então a correspondência entre o ponto com a mesma orientação de uma esfera para um objeto é possível. No entanto, a limitação desse método é que ele apresenta alguns problemas com objetos não convexos.

  • 01:00:00 Nesta seção, o palestrante discute a parametrização de um círculo unitário no plano pelo ângulo eta e a densidade de uma massa proporcional à curvatura. A curvatura é a taxa de viragem de uma curva fechada convexa, que é a taxa de mudança de direção ou o inverso do raio da curva. A densidade é o inverso da curvatura, e essa representação em um círculo unitário é exclusiva de uma curva convexa fechada em 2D. O palestrante explica como dividir uma curva em pequenas facetas que contribuem para a densidade da curva, levando ao caso contínuo da representação da curva em um círculo unitário. Embora não haja inversão em 3D, o palestrante ilustra a inversão e a integração para explicar melhor as ideias.

  • 01:05:00 Nesta seção, o palestrante discute a integração de eta e o uso das equações x e y para obter o objeto convexo para a imagem circular em casos 2D. No entanto, o mesmo processo não pode ser usado em cenários 3D. O palestrante então introduz o conceito de centróide da distribuição de massa e observa que ele deve estar na origem de uma curva fechada e convexa. Ele também explica a limitação de que apenas certos tipos de distribuições em massa são legítimos. Para ilustrar a teoria, o professor usa um exemplo de um círculo de raio r para determinar a curvatura.

  • 01:10:00 Nesta seção da palestra, o professor explica como calcular o raio de curvatura de um círculo e qualquer outra forma curva, mesmo que não seja circular. A curvatura é simplesmente o inverso do raio de curvatura, sendo o raio o raio do círculo de melhor ajuste em uma posição específica. O professor demonstra como usar a matemática para representar uma elipse como um círculo achatado para simplificar e explica que existem muitas maneiras diferentes de representar curvas matematicamente. No entanto, o professor observa que esse método não funcionará para determinar a orientação porque a simetria é muito ambígua.

  • 01:15:00 Nesta seção da palestra, o palestrante explica como representar círculos parametricamente usando a equação (x/a)^2 + (y/b)^2 = 1. Eles demonstram como gerar um círculo usando isso equação, que é uma maneira mais conveniente do que tentar todos os valores x e y possíveis. O palestrante então explica como essa representação paramétrica se relaciona com a Terra, que pode ser vista como uma esfera achatada na direção vertical. Eles também abordam como mapear o círculo para a superfície da esfera calculando a normal à curva usando diferenciação, invertendo x e y e alterando o sinal. A etapa final envolve combinar a direção normal com a direção tangente.

  • 01:20:00 Nesta seção, a curvatura, ou um sobre k, de uma elipse é analisada em relação a eta, o ângulo no círculo unitário. Os extremos, ou valores máximos e mínimos, ocorrem em eta igual a zero e pi sobre dois, que correspondem às extremidades dos semi-eixos. A curvatura varia continuamente e depende dos semi-eixos a e b. Depois que a distribuição contínua de extremos é calculada para uma elipse que não está alinhada com um sistema de coordenadas, ela pode ser girada para corresponder a outra elipse para reconhecimento de objetos. Se houver uma boa correspondência, o objeto é uma elipse; caso contrário, não é.

  • 01:25:00 Nesta seção, o palestrante discute a aplicação de orientação externa 2D e interessantes operações de filtragem que podem ser feitas usando convolução em círculos. No entanto, o foco principal está na orientação externa 3D, e o conceito de mapeamento de Gauss é introduzido para conectar pontos na superfície a pontos na esfera unitária com base na orientação normal da superfície. Este conceito é estendido a formas, e a curvatura das superfícies é discutida, com a curvatura gaussiana sendo uma quantidade escalar única conveniente que mede a curvatura. Para superfícies convexas, uma curvatura positiva é considerada, enquanto para superfícies não convexas, a curvatura é negativa.

  • 01:30:00 Nesta seção, o palestrante discute a proporção de duas áreas, k e g, que são 1 sobre r ao quadrado e r ao quadrado, respectivamente. A proporção é consistente com a curvatura de uma esfera, onde uma pequena esfera tem alta curvatura e vice-versa para uma grande esfera. A discussão então aborda a curvatura gaussiana e como ela está intimamente ligada aos cálculos que estão sendo feitos. A curvatura integral também é mencionada, que se aplica a superfícies que não são lisas e será discutida na próxima aula sobre como ela é usada em reconhecimento e alinhamento.
 

MIT 6.801 Machine Vision, outono de 2020. Aula 23: imagem gaussiana, sólidos de revolução, histogramas de direção, poliedros regulares



Aula 23: Imagem Gaussiana, Sólidos de Revolução, Histogramas de Direção, Poliedros Regulares

O palestrante neste vídeo discute a imagem gaussiana estendida (EGI) como uma representação para objetos 3D que não podem ser apresentados como poliedros. O palestrante explica como a curvatura integral se relaciona com uma mancha na superfície de uma forma, discute o conceito de EGI em implementações abstratas e discretas e explora a imagem gaussiana de várias formas, incluindo elipsoides, sólidos de revolução, como cilindros e cones, e não convexos objetos como tori. O EGI pode auxiliar na determinação da atitude de um objeto no espaço e pode ser usado para alinhamento com dados de visão de máquina. Métodos para encontrar a curvatura e a curvatura gaussiana de sólidos de revolução também são discutidos, juntamente com os desafios na computação do EGI de objetos não convexos.

Na Aula 23 do curso de Ciência da Computação, o palestrante explica como utilizar a Imagem Gaussiana para reconhecimento e alinhamento de objetos, bem como criar um histograma de direção para representar a verdadeira forma de um objeto em uma biblioteca. Eles também discutem os desafios de agrupar histogramas, dividir uma esfera e alinhar um sólido de revolução, bem como padrões regulares e sólidos. A palestra fornece informações sobre a representação de objetos usando distribuição de massa em uma esfera, evitando elementos de superfície ocultos e compreendendo o efeito da curvatura na distribuição de massa. Ele também discute as vantagens e desvantagens de usar diferentes formas para categorizar histogramas e a importância de padrões e formas regulares para uma boa qualidade.

  • 00:00:00 Nesta seção, a imagem gaussiana estendida é discutida como uma representação para objetos 3D que não podem ser apresentados como poliedros. A imagem gaussiana é uma correspondência entre a superfície do objeto e os pontos na esfera unitária com base na igualdade das normais de superfície. Ao traçar o inverso da curvatura gaussiana em função da posição na esfera, pode ser usado para definir quanto da superfície tem uma normal que aponta nessa direção. A integração da curvatura Gaussiana sobre um trecho do objeto resulta na área do trecho correspondente na esfera, que é chamada de curvatura integral. Em contraste, integrar a curvatura gaussiana sobre k na esfera resulta na área do objeto que corresponde a isso, que é uma quantidade mais importante.

  • 00:05:00 Nesta seção, o palestrante discute o conceito de curvatura integral e como ela se relaciona com uma mancha na superfície de uma forma. Eles explicam que, tomando a integral da curvatura sobre alguma área, a mudança total na orientação naquele trecho pode ser capturada, e é isso que a integral está calculando. O orador então aplica este conceito a um cubo e explica que a curvatura integral do canto de um cubo é pi sobre dois. Eles também discutem a distribuição na esfera (referida como "g") que depende da orientação e como ela pode ter algumas restrições, semelhantes às vistas nos poliedros.

  • 00:10:00 Nesta seção da palestra, o palestrante discute a área aparente de um objeto convexo quando visto de uma direção específica, com base no cosseno do ângulo. O palestrante explica que apenas as facetas com produto escalar positivo são visíveis desse ângulo e observa que a soma de todas as facetas é zero. Isso leva à conclusão de que o centróide está na origem e que os egis são distribuições na esfera unitária com centro de massa no centro.

  • 00:15:00 Nesta seção, o conceito de EGI (Extended Gaussian Image) é discutido em implementações abstratas e discretas. O centróide de EGI corresponde ao fechamento da superfície do objeto e à origem da esfera. O EGI também pode ser calculado exatamente para objetos definidos geometricamente, como o exemplo de uma esfera onde o EGI é simplesmente R ao quadrado devido à natureza simétrica. Objetos mais complexos, como um elipsóide, podem ser representados por meio da equação implícita da superfície, o que não é prático para gerar visualizações ou integrar sobre a superfície, mas podem ser utilizadas formas alternativas de descrever a mesma superfície.

  • 00:20:00 Nesta seção, o palestrante discute um método para obter uma descrição paramétrica de uma superfície usando theta e phi como parâmetros. Ao diferenciar a equação em relação a esses parâmetros, ele obtém tangentes, que pode usar para calcular a normal da superfície. Ele também mostra como definir a curvatura. O palestrante passa então a explicar uma forma de parametrizar a esfera unitária usando coordenadas de latitude e longitude. Isso envolve encontrar a magnitude do vetor que é normal à esfera unitária, bem como definir outro vetor. A palestra fornece uma explicação detalhada do processo de derivação.

  • 00:25:00 Nesta seção, o conceito da imagem gaussiana estendida de um elipsóide é explorado. A curvatura em termos da normal envolve encontrar os pontos de interseção dos semi-eixos na superfície do objeto. Embora a resposta não seja a que as coordenadas theta-phi se referem, ela é usada para reconhecimento e orientação. Existem máximos e mínimos dentro do modelo, e eles são distribuídos na esfera. Existem três direções ortogonais que são simétricas ao outro lado. Com dados experimentais, a imagem gaussiana pode auxiliar na determinação da atitude de um objeto no espaço.

  • 00:30:00 Nesta seção da palestra, o foco está nos sólidos de revolução, que são objetos mais fáceis de calcular do que formas mais complicadas como elipsoides. Sólidos de revolução, como cilindros, cones, esferas, hiperbolóides de uma ou duas folhas, têm um gerador que é girado em torno de um eixo para produzir o objeto, que pode então ser mapeado em uma esfera para calcular o egi. A normal da superfície do objeto e o ângulo com o equador são considerados, e a banda do objeto é usada para obter a banda correspondente na esfera, o que reduz a forma 3D do objeto para 2D. A área da banda do objeto é 2 pi multiplicado pelo raio do objeto multiplicado pela largura da banda, enquanto o raio da esfera depende da latitude onde quanto maior a latitude, menor o raio.

  • 00:35:00 Nesta seção, o palestrante discute como encontrar a curvatura de um sólido de revolução usando a fórmula k=cos(eta)/r*kg, onde kg é a curvatura do gerador. O palestrante explica que a curvatura é a taxa de variação da direção da superfície normal conforme ela se move ao longo do arco, que é a curvatura 2D do gerador. O palestrante também mostra que a fórmula tem versões diferentes dependendo se a curva é dada de forma implícita ou em função de s ou da altura z. Finalmente, a palestra fornece uma fórmula conveniente para encontrar a curvatura de um sólido de revolução quando dado r como uma função de s.

  • 00:40:00 Nesta seção, o palestrante descreve duas maneiras de obter a curvatura gaussiana de um sólido de revolução. O primeiro método envolve definir o gerador de curva como r em função do comprimento do arco, com uma das 12 formas mais comuns de especificar uma curva. O segundo método examina a outra variável especificada, z, e usa termos trigonométricos para obter a curvatura. O palestrante mostra o processo passo a passo de diferenciação em relação a z e como isso se relaciona com os termos tangente e secante. A fórmula final para a curvatura gaussiana é fornecida, o que acaba sendo um pouco mais confuso que o primeiro método, mas ainda é útil para casos em que a curva geradora é dada como r em função de z.

  • 00:45:00 Nesta seção, o palestrante discute como gerar imagens gaussianas estendidas de sólidos de revolução e trabalha com um exemplo usando um toro ou uma forma de donut. Eles explicam que no caso de objetos não convexos como o toro, pode haver mais de um ponto no objeto com a mesma orientação de superfície, tornando o mapeamento não invertível. O toro tem dois desses pontos, um convexo e o outro um ponto de sela, que apresenta seu próprio conjunto de desafios.

  • 00:50:00 Nesta seção, o palestrante discute a computação da imagem gaussiana estendida de um objeto não convexo usando fórmulas para o raio e a segunda derivada. Eles observam que a curvatura da superfície muda de positiva para negativa em determinados pontos, dividindo o objeto em duas partes com curvaturas diferentes. O palestrante propõe duas opções para lidar com isso: calcular a curvatura gaussiana em todos os pontos com a mesma orientação de superfície e adicioná-los ou usar uma fórmula para a soma das curvaturas gaussianas que cancela alguns termos.

  • 00:55:00 Nesta seção, o palestrante discute a Imagem Gaussiana Estendida (EGI) e como ela pode ser usada para alinhamento. O palestrante explica que o EGI para um toro varia suavemente e tem uma singularidade no polo, que pode ser visualizada incorporando a esfera unitária em um cilindro unitário. Essa variação pode ser utilizada para alinhar o modelo do objeto com dados de visão de máquina, reunindo as duas esferas com uma distribuição que varia suavemente, mas tem crescimento rápido em direção aos polos. No entanto, isso não dá a atitude completa, pois o objeto ainda pode ser girado em torno do eixo sem alterar nada, o que é apropriado para um sólido de revolução. O palestrante também menciona como as pessoas tentaram reconstruir iterativamente o EGI para o caso poliédrico discreto.

  • 01:00:00 Nesta seção, o palestrante explica que reconstruir um objeto a partir de sua imagem gaussiana é um problema complicado que exigiria um grande processo de busca ou otimização, tendo como parâmetros as distâncias de todos os planos desde a origem. No entanto, esta abordagem não é necessária para reconhecimento e alinhamento usando imagens gaussianas, uma vez que o método envolve comparar distribuições na esfera e girar uma esfera em relação à outra até que uma boa combinação seja obtida. O palestrante também apresenta uma nova forma de entender as bandas da esfera, que permite o cálculo da curvatura e a descrição do efeito de esmagamento próximo aos pólos.

  • 01:05:00 Nesta seção, o palestrante discute a área de um toro e como ela se relaciona com a imagem gaussiana. Ele explica que dois donuts de formas diferentes, mas com a mesma área, têm o mesmo EGI, o que é uma desvantagem em permitir objetos não convexos. Essa perda de exclusividade pode ou não importar em um aplicativo, mas mostra que, quando estendemos isso para objetos não convexos, as coisas não são tão boas. Além disso, há problemas com elementos de superfície ocultos em objetos não convexos e pequenos erros podem ser introduzidos ao construir o EGI usando dados numéricos.

  • 01:10:00 Nesta seção, o palestrante discute como lidar numericamente com objetos reais imperfeitos e colocá-los em uma biblioteca com base em sua forma real. Eles explicam como calcular a superfície normal e a área de uma mancha triangular na superfície de um objeto usando dados estéreo fotométricos ou modelos de malha. Eles então descrevem como criar uma distribuição de massa em uma esfera com base na superfície normal, que representa um histograma de direção. Este método fornece uma maneira de entender o efeito da curvatura na distribuição de massa e por que adicionar contribuições de massa em vez de subtraí-las é benéfico. No geral, esta técnica permite a criação de histogramas de direção e a representação de objetos em uma biblioteca com base em sua forma real.

  • 01:15:00 Nesta seção, o palestrante discute o conceito de histogramas de direção, que envolvem dividir a esfera em caixas e contar as ocorrências dentro de cada célula. O método é usado para indicar uma forte concentração em uma direção específica em coisas como fibras musculares paralelas e direções de fluxo de água no cérebro. Também é aplicado em áreas como tumores de imagem, onde uma distribuição uniforme em histogramas de orientação indica um tecido irregular. As desvantagens de usar quadrados para dividir o plano são explicadas com formas mais arredondadas como um hexágono sendo mais vantajosas do que triângulos.

  • 01:20:00 Nesta seção, o palestrante discute os desafios na escolha de células para histogramas de categorização e como levar em consideração o ruído aleatório ao comparar histogramas. O conceito de ter um segundo histograma deslocado é introduzido, mas essa solução se torna mais cara à medida que a dimensionalidade aumenta. Outra solução é convoluir a distribuição com uma função de dispersão, e isso pode ser mais barato do que a solução anterior. A palestra então aborda o problema de dividir uma esfera e as propriedades desejadas de um mosaico, como ter área igual, formas iguais, formas arredondadas, um padrão regular e facilidade de classificação. Nota-se que essas propriedades desejadas são fáceis de obter em casos planares, mas se tornam mais complicadas em uma superfície curva como uma esfera.

  • 01:25:00 Nesta seção, o palestrante discute o problema de alinhar um sólido de revolução consigo mesmo após a rotação e a vantagem do alinhamento na rotação. Ele explica como uma esfera pode ser dividida em doze seções projetando um dodecaedro em sua superfície, e cada uma dessas seções pode ser representada por um número. Se a esfera for girada, os números que representam as seções serão simplesmente permutados e não haverá perda de qualidade. No entanto, se as seções se sobrepuserem após a rotação, seria necessário redistribuir o peso em cada seção, levando a uma perda de qualidade. O palestrante menciona brevemente padrões regulares e sólidos regulares como pontos de partida para histogramas de orientação, mas observa que isso será discutido com mais detalhes na próxima aula.
 

MIT 6.0002 Introdução ao pensamento computacional e ciência de dados, outono de 2016. Aula 1. Introdução, problemas de otimização



1. Introdução, Problemas de Otimização (MIT 6.0002 Introdução ao Pensamento Computacional e Ciência de Dados)

Este vídeo apresenta o curso "1. Introdução, Problemas de Otimização (MIT 6.0002 Introdução ao Pensamento Computacional e Ciência de Dados)" e discute os pré-requisitos e os objetivos do curso. O foco principal do curso é o uso de modelos computacionais para entender o mundo e prever eventos futuros. O vídeo discute modelos de otimização, que são uma maneira simples de resolver problemas envolvendo objetivos e restrições. O vídeo também discute um problema de otimização específico chamado problema da mochila, que é um problema no qual uma pessoa precisa escolher quais objetos pegar de uma quantidade finita de objetos. O vídeo discute como otimizar um menu, usando um algoritmo guloso. O vídeo também discute um algoritmo eficiente para alocação de recursos, chamado "greedy by value".

  • 00:00:00 Este vídeo apresenta o curso "1. Introdução, Problemas de Otimização (MIT 6.0002 Introdução ao Pensamento Computacional e Ciência de Dados)" e discute os pré-requisitos e os objetivos do curso. O foco principal do curso é o uso de modelos computacionais para entender o mundo e prever eventos futuros.

  • 00:05:00 O vídeo discute modelos de otimização, que são uma forma simples de resolver problemas envolvendo objetivos e restrições. O vídeo também discute um problema de otimização específico chamado problema da mochila, que é um problema no qual uma pessoa precisa escolher quais objetos pegar de uma quantidade finita de objetos.

  • 00:10:00 Neste vídeo, o chamado problema da mochila fracionária contínua é explicado e um algoritmo guloso é descrito. O problema de pegar a melhor coisa primeiro é mais complicado, e uma formalização do problema é mostrada.

  • 00:15:00 O algoritmo ganancioso resolve um problema de otimização colocando o melhor item disponível na mochila quando ela fica cheia. Este algoritmo é eficiente, mas não é garantido encontrar uma solução que seja a melhor possível.

  • 00:20:00 O vídeo discute como otimizar um menu, usando um algoritmo guloso. O algoritmo é implementado em uma classe chamada Food, que possui funções de obtenção de valor, obtenção de densidade de custo e representação de string. O menu de construção de função recebe uma lista de nomes e uma lista de valores de comprimento igual e usa a função de chave para determinar o que significa "melhor".

  • 00:25:00 Este vídeo discute um algoritmo eficiente para alocação de recursos, chamado "greedy by value". O algoritmo leva em consideração o peso e as demandas de um recurso e é capaz de alocar recursos de maneira eficiente para grandes números.

  • 00:30:00 O vídeo discute o uso de expressões lambda para criar uma função anônima. Ele explica que as expressões lambda podem ser usadas para criar uma função que avalia uma expressão em uma sequência de parâmetros. Ele também mostra como chamar a função de uma expressão lambda.

  • 00:35:00 O vídeo discute como algoritmos gananciosos podem levar a resultados diferentes, dependendo da ordem de classificação, e como isso pode ser um problema na escalada. Também mostra como modificar um algoritmo guloso para obter sempre o melhor resultado.

  • 00:40:00 O vídeo discute como o algoritmo ganancioso às vezes pode levar a soluções melhores do que o algoritmo mais ideal, mas mais demorado.
 

Aula 2. Problemas de Otimização



2. Problemas de Otimização

Este vídeo discute como resolver problemas de otimização usando uma técnica chamada programação dinâmica. O exemplo utilizado é o problema da mochila, no qual escolhas diferentes em cada nó resultam na solução do mesmo problema. A implementação memo da função maxVal é discutida e mostra-se que o número de chamadas cresce lentamente para a solução de programação dinâmica.

  • 00:00:00 O vídeo discute os prós e contras dos algoritmos gananciosos e fornece um exemplo de como uma árvore de busca pode ser usada para resolver um problema.

  • 00:05:00 O vídeo discute a travessia de uma árvore, explicando que o nó mais à esquerda tem o maior número possível de itens e o nó mais à direita tem o menor número possível de itens. O algoritmo é direto e assintótico em complexidade.

  • 00:10:00 Este vídeo explica como funciona o algoritmo recursivo para resolver problemas de otimização. O algoritmo começa examinando o ramo esquerdo da árvore se o item atual não puder ser obtido e, em seguida, move-se para o ramo direito, se puder. Se nenhuma ramificação puder ser tomada, o algoritmo retornará o valor máximo da lista toConsider.

  • 00:15:00 Neste vídeo, o autor mostra como melhorar o desempenho de um algoritmo de busca usando um algoritmo verdadeiramente ideal.

  • 00:20:00 Neste vídeo, aprendemos sobre problemas de otimização e como eles podem ser resolvidos usando uma técnica chamada programação dinâmica. A programação dinâmica é uma forma de resolver problemas de otimização que se baseia na compreensão de um matemático de como os dados se acumulam ao longo do tempo.

  • 00:25:00 A programação dinâmica é um método para evitar repetir os mesmos cálculos várias vezes. É usado no problema de Fibonacci, no qual a resposta para um número de Fibonacci é calculada tomando os dois números de Fibonacci anteriores e somando-os.

  • 00:30:00 Neste vídeo, o autor discute os benefícios do uso da memoização - uma técnica que armazena os resultados em uma tabela em vez de computá-los recursivamente. Eles mostram como isso pode ser usado para melhorar o desempenho em uma função de Fibonacci resolvendo primeiro subproblemas menores e depois combinando os resultados.

  • 00:35:00 O vídeo discute problemas de otimização e como, em alguns casos, soluções podem ser encontradas resolvendo o mesmo problema várias vezes. Ele também discute o problema da mochila, que mostra ter uma subestrutura ótima - isto é, dois nós que estão resolvendo o mesmo problema. No entanto, o vídeo também aponta que, em alguns casos, soluções para problemas podem ser encontradas resolvendo problemas diferentes – no caso, dois nós que estão resolvendo o mesmo problema pegando cervejas diferentes de um cardápio.

  • 00:40:00 O vídeo discute como os problemas de otimização podem ser resolvidos usando uma solução de programação dinâmica. A árvore no exemplo mostra como escolhas diferentes em cada nó (o que pegar e o que não pegar) resultam na solução do mesmo problema, mesmo que as soluções individuais possam parecer diferentes. A implementação memo da função maxVal é discutida e mostra-se que o número de chamadas cresce lentamente para a solução de programação dinâmica.

  • 00:45:00 Este vídeo discute como os problemas de otimização podem ser difíceis de resolver, mas a programação dinâmica geralmente pode fornecer uma solução adequada, embora não ideal.
 

Aula 3. Modelos Grafos-teóricos



3. Modelos teóricos de grafos

Este vídeo explica como a teoria dos grafos pode ser usada para entender e resolver problemas relacionados a redes. O vídeo apresenta o conceito de grafo e explica como usar a teoria dos grafos para encontrar o caminho mais curto entre dois pontos. O vídeo também demonstra como usar a teoria dos grafos para otimizar uma rede e explica como o modelo pode ser aplicado a problemas do mundo real.

  • 00:00:00 Este vídeo fala sobre teoria dos grafos, que é um ramo da matemática que estuda as estruturas e a dinâmica das redes. A teoria dos grafos permite que modelos de otimização sejam projetados e estudados com mais facilidade, bem como para entender como os dados fluem pelas redes. A teoria dos grafos é dividida em duas categorias: grafos e grafos com arestas. Os gráficos normalmente têm dois elementos, nós e arestas. Os nós representam pontos de dados e as arestas representam as conexões entre eles. Gráficos com arestas são mais comuns e são usados para modelar um relacionamento entre duas entidades. Veremos duas maneiras de criar grafos com arestas: não direcionados e direcionados. Também exploraremos como adicionar informações às arestas, como pesos. Por fim, seremos apresentados a um método de navegação por grafos, conhecido como minimização de custo ou caminho mais curto.

  • 00:05:00 Os gráficos são compostos de arestas ou arcos e podem ser usados para modelar relacionamentos entre entidades. Eles podem ser usados em redes de transporte, redes financeiras, redes sociais, entre outras coisas.

  • 00:10:00 Este vídeo apresenta a teoria dos grafos, que é um campo matemático usado para entender redes de relacionamentos. Os gráficos podem ser usados para representar situações do mundo real e podem ser usados para inferir informações como o caminho mais curto e a sequência de interações entre elementos em uma rede. Este vídeo mostra como usar a teoria dos grafos para resolver problemas como deslocamento e navegação.

  • 00:15:00 A teoria dos grafos é um campo da matemática que lida com as estruturas e interações das redes. Este vídeo segue uma explicação simples de como a teoria dos grafos é usada para resolver problemas de caminho mais curto.

  • 00:20:00 O autor apresenta um modelo teórico de grafos, que é um grafo direcionado com nós e arestas, e uma forma de armazenar nós e arestas em um dicionário. O modelo permite uma representação fácil de um gráfico, mas não é a maneira mais eficiente de fazê-lo. O autor apresenta uma lista de adjacências, que é uma forma mais eficiente de representar um grafo, e a utiliza para mostrar como adicionar uma aresta e obter todos os filhos de um nó.

  • 00:25:00 Este vídeo explica como criar, pesquisar e imprimir gráficos usando a linguagem de programação Python. Os grafos podem ser criados como subclasse da classe digraph, que permite grafos direcionados e não direcionados. O vídeo mostra um exemplo de como adicionar uma aresta entre dois nós em um grafo.

  • 00:30:00 O vídeo apresenta três modelos teóricos de grafos: problemas de caminho mais curto, navegação de rota e redes de comunicação. O primeiro modelo, problemas de caminho mais curto, é um problema de navegação onde o objetivo é encontrar uma rota entre duas cidades. O segundo modelo, navegação por rota, é um problema onde o objetivo é encontrar um caminho entre dois pontos em um grafo. O terceiro modelo, redes de comunicação, é um problema em que o objetivo é encontrar o caminho mais curto entre dois nós de uma rede. O vídeo apresenta dois algoritmos para resolver problemas de caminho mais curto: busca em profundidade e divisão e conquista.

  • 00:35:00 Na primeira busca em profundidade, o algoritmo começa com o nó de origem e segue a primeira aresta, verificando se está no local correto. Caso contrário, o algoritmo segue a primeira borda fora do nó e continua seguindo as bordas nessa ordem até encontrar o nó objetivo ou ficar sem opções. No exemplo dado, o algoritmo começa no nó de origem e segue o primeiro caminho na árvore de busca, imprimindo informações ao longo do caminho. Se o nó não estiver no caminho, o algoritmo segue o primeiro caminho fora do nó e explora recursivamente os filhos do nó até encontrar um caminho para o nó objetivo.

  • 00:40:00 Este vídeo apresenta o modelo teórico de grafos, que é uma forma de entender como encontrar soluções para problemas. O modelo é baseado na ideia de que um caminho é uma lista de nós e que a primeira pesquisa em profundidade pode ser usada para encontrar uma solução. O modelo é ilustrado com dois exemplos. O primeiro exemplo mostra como encontrar um caminho de Boston para Chicago, e o segundo exemplo mostra como encontrar um caminho de Phoenix para Nova York. Depois de apresentar o modelo, o vídeo demonstra como usar a pesquisa em profundidade para encontrar uma solução para um problema.

  • 00:45:00 Este vídeo demonstra como modelos teóricos de grafos podem ser usados para resolver problemas de otimização. O vídeo primeiro mostra como um algoritmo de pesquisa em profundidade pode ser modificado para minimizar a soma dos pesos nas arestas e, em seguida, demonstra como a pesquisa em largura pode ser usada para encontrar um caminho ponderado mais curto.

  • 00:50:00 Este vídeo apresenta modelos teóricos de gráficos, que são usados para estudar relações entre variáveis.
 

Aula 4. Pensamento Estocástico



4. Pensamento Estocástico

Prof. Guttag apresenta processos estocásticos e teoria básica de probabilidade.

Neste vídeo, o palestrante discute a diferença nos cálculos de probabilidade entre o problema de duas pessoas fazendo aniversário no mesmo dia e o problema de três pessoas fazendo aniversário no mesmo dia. Ele explica que o problema complementar para duas pessoas é simples, pois envolve apenas a questão de saber se todos os aniversários são diferentes. No entanto, para três pessoas, o problema complementar envolve uma disjunção complicada com muitas possibilidades, tornando a matemática muito mais complexa. O palestrante mostra como as simulações podem ser usadas para responder facilmente a essas questões probabilísticas, em vez de depender de cálculos feitos com lápis e papel. Ele também discute a suposição de que todos os aniversários são igualmente prováveis e como a distribuição de aniversários nos Estados Unidos não é uniforme, com certas datas sendo mais comuns ou incomuns do que outras. Por fim, o palestrante mostra ao público um mapa de calor dos aniversários dos alunos do MIT e conclui que ajustar o modelo de simulação é mais fácil do que ajustar o modelo analítico para levar em conta uma distribuição não uniforme de datas de nascimento.

 

Aula 5. Passeios Aleatórios



5. Passeios aleatórios

Este vídeo sobre passeios aleatórios aborda a importância de estudá-los e entender como a simulação pode ajudar com conceitos de programação em disciplinas científicas e sociais. O palestrante começa ilustrando como o número de passos que um bêbado dá afeta sua distância da origem. O vídeo então apresenta o passeio aleatório tendencioso e o bêbado masoquista, mostrando como o processo de simulação e iteração funciona usando comandos simples de plotagem. O palestrante enfatiza a importância de construir simulações de forma incremental e realizar verificações de sanidade para garantir sua precisão e conclui discutindo a arte de criar diferentes tipos de plotagens para representar dados. O vídeo também apresenta o WormField como uma forma de fornecer mais variação e complexidade na simulação.

  • 00:00:00 Nesta seção, Guttag explica por que as caminhadas aleatórias são importantes e apresenta o conceito de caminhada de um bêbado como exemplo. Ele questiona se existe uma relação interessante entre o número de passos que um bêbado dá e a que distância eles estão da origem. Para ilustrar isso, ele fornece um pequeno exemplo e pede ao público que faça uma pesquisa para saber se quanto mais passos o bêbado dá, mais longe ele provavelmente estará ou se não importa quantos passos ele dá. Guttag também menciona que estudar passeios aleatórios é útil para modelar processos em várias disciplinas científicas e sociais e para demonstrar como a simulação pode ajudar a entender o mundo ao nosso redor enquanto ensina tópicos importantes relacionados à programação.

  • 00:05:00 Nesta seção do vídeo sobre caminhadas aleatórias, o palestrante começa analisando a distância média que uma pessoa bêbada estaria de seu ponto de partida após dar um ou dois passos. Usando o teorema de Pitágoras, eles determinam que, em média, a pessoa bêbada estaria mais longe de seu ponto de partida depois de dar dois passos. Eles então analisam o que acontece após 100.000 passos e recorrem a uma simulação para calcular a distância média desde a origem de n caminhadas. Para se preparar para a simulação, o falante define algumas abstrações úteis, como localização, campo e a pessoa bêbada. A classe Drunk serve como uma classe base que é usada para definir duas subclasses, incluindo a subclasse comum de bêbado.

  • 00:10:00 Nesta seção, aprendemos sobre o passeio aleatório tendencioso, em que um bêbado pode dar um passo aumentando y, diminuindo y, aumentando x ou diminuindo x e retornando apenas um aleatoriamente. O bêbado masoquista é uma subclasse do bêbado comum e prefere se mover para o norte, mas dá 1,1 passos em comparação com um passo à frente e apenas 9/10 de passo ao se mover para o sul. Embora isso sugira uma caminhada aleatória tendenciosa, a imutabilidade existe, pois os bêbados e os locais permanecem inalterados. No entanto, os campos são mutáveis porque mapeiam bêbados para sua localização no campo por meio de um dicionário. Para verificar se o bêbado está lá ou para obter a localização do campo, usamos mensagens de erro de valor. Ao chamar moveDrunk, as distâncias em x e y são obtidas da função takeStep e self.drunk é atribuído a essa nova distância.

  • 00:15:00 Nesta seção, o apresentador explica como simular passeios aleatórios e como usá-los para responder a perguntas sobre como diferentes tipos de bêbados se movimentam. A simulação envolve criar um campo e adicionar bêbados a ele, onde os bêbados dão diferentes números de passos aleatórios no campo. O apresentador mostra como simular uma única caminhada e, em seguida, mostra como simular várias caminhadas para responder a perguntas sobre o comportamento dos bêbados. Fazendo a média das distâncias, observando a média, o mínimo ou o máximo, podemos ver a que distância os diferentes tipos de bêbados terminam da origem. O apresentador então discute os resultados da simulação e pergunta se eles parecem plausíveis.

  • 00:20:00 Nesta seção, o professor John Guttag enfatiza a importância de uma verificação de sanidade sempre que construir uma simulação. Ele executa uma verificação de sanidade de caso simples usando o exemplo de um homem bêbado dando passos, o que revela um erro de programação no código de simulação que não era imediatamente aparente. Depois de corrigir o erro, Guttag executa a simulação novamente para verificar novamente os resultados e garante aos espectadores que passar em uma verificação de sanidade não garante que a simulação esteja correta, mas é uma boa indicação de que ela está em boa forma.

  • 00:25:00 Nesta seção, o palestrante descreve um experimento comparando o bêbado comum a um bêbado masoquista, onde o primeiro dá passos aleatórios, e a versão masoquista dá passos na direção oposta da direção anterior com mais frequência. O experimento mostra que o bêbado masoquista progride consideravelmente mais do que o bêbado normal, o que significa que seu movimento é enviesado em uma direção. Para entender por que, o palestrante usa o Pylab para traçar a linha de tendência para cada tipo de bêbado para visualizar a distância ao longo do tempo, com o PyLab combinando as bibliotecas NumPy, SciPy e MatPlotLib para fornecer recursos de plotagem semelhantes ao MATLAB. O palestrante também explica a sintaxe básica da função plot e seus argumentos para Python.

  • 00:30:00 Nesta seção, o palestrante demonstra como produzir gráficos usando o PyLab, com a ajuda de diferentes argumentos que podem ser usados com as funções plot e legend. Ele também expressa sua opinião de que dominar a arte de fazer enredos é uma habilidade valiosa. Além disso, o palestrante investiga e mostra tramas das tendências de distância entre um bêbado comum e um bêbado masoquista. O falante descobre que o bêbado comum se move mais ou menos na raiz quadrada do número de passos, enquanto a tendência do bêbado masoquista em distância se move a uma taxa de numSteps vezes 0,05. O palestrante conclui demonstrando um novo tipo de gráfico, onde os pontos de dados são desconectados por linhas.

  • 00:35:00 Nesta seção, o palestrante discute como a visualização pode fornecer informações sobre os dados. Ao traçar os locais no final dos passeios aleatórios, ele demonstra como diferentes tipos de bêbados se comportam e as diferenças entre eles. Ele enfatiza a importância de usar gráficos para entender os dados, em vez de apenas apresentar planilhas de pontos finais. O palestrante também apresenta OddField, uma subclasse de Field com buracos de minhoca que teletransportam a localização de um bêbado para um local diferente. Ele cria um dicionário de buracos de minhoca com locais aleatórios para onde o bêbado pode ser teletransportado, permitindo mais variabilidade na simulação.

  • 00:40:00 Nesta seção do vídeo, o instrutor explica como os passeios aleatórios são usados para simular o movimento de um bêbado e como os buracos de minhoca produzem efeitos profundos sobre onde os bêbados vão parar. Ele também enfatiza a importância de construir a simulação de forma incremental, começando com a definição das classes, construindo funções correspondentes a uma e várias tentativas e relatando os resultados. Ele demonstra ainda como usa comandos de plotagem simples para produzir vários tipos de plotagens que ajudam a obter informações sobre a simulação.

  • 00:45:00 Nesta seção, o palestrante fala sobre um paradigma comum onde ele configura um iterador de estilo de uma vez por todas, definindo n estilos, então quando ele quiser traçar um novo tipo de bêbado, ele simplesmente chama o iterador de estilo para obter o próximo estilo. Os estilos incluem marcador, linha, cor e tamanho, entre outras coisas, que ele gosta de alterar de suas configurações padrão para facilitar a leitura do gráfico. O palestrante enfatiza a flexibilidade dessa abordagem, incentivando a experimentação para alcançar diferentes estilos de enredo. Na próxima palestra, ele se aprofundará na simulação de outros fenômenos e discutirá a credibilidade de uma simulação.
 

Aula 6. Simulação de Monte Carlo



6. Simulação de Monte Carlo

O vídeo explica como a simulação de Monte Carlo funciona e como ela pode ser usada para estimar valores de uma quantidade desconhecida. O vídeo discute como o método funciona e como ele é afetado por diferentes tamanhos de amostra.

  • 00:00:00 Nesta palestra, John Guttag explica como a simulação de Monte Carlo funciona e como ela é útil para estimar valores de uma quantidade desconhecida. Ele também observa que a chave para o sucesso do método é que a amostra extraída da população tenderá a refletir as propriedades da população da qual foi extraída.

  • 00:05:00 O vídeo discute a simulação de Monte Carlo, na qual uma amostra é retirada de uma população e analisada para determinar qual é o comportamento médio. No exemplo, uma moeda é lançada 100 vezes e determina-se cara ou coroa. Se cara for determinado, a probabilidade do próximo lançamento é calculada. Se coroa for determinada, a probabilidade do próximo lançamento é calculada com base nas evidências disponíveis. Se cara for determinado novamente, a probabilidade do próximo lançamento é calculada com base nas evidências disponíveis e na suposição de que a moeda é honesta. Se cara for determinada uma terceira vez, a probabilidade do próximo lançamento é baseada na suposição de que a moeda é honesta e nas evidências disponíveis. Como não há razão para acreditar que a moeda seja honesta, a probabilidade do próximo lançamento é baixa.

  • 00:10:00 Nas simulações de Monte Carlo, os resultados imprevisíveis de eventos aleatórios são capturados pela variação dos resultados. À medida que a variância aumenta, a confiança na precisão da simulação diminui. A roleta é um jogo com alta variância, o que significa que as previsões do resultado são difíceis.

  • 00:15:00 Neste vídeo, uma simulação de Monte Carlo é realizada para mostrar que o retorno esperado para um giro de uma roleta é 0 se a probabilidade do resultado for a mesma a cada vez. A lei dos grandes números afirma que, à medida que o número de tentativas vai para o infinito, a chance de o retorno ser diferente de 0 converge para 0.

  • 00:20:00 A "falácia do jogador" é a crença de que se as expectativas de alguém não forem atendidas em uma determinada situação, isso será remediado no futuro. A regressão à média é um termo cunhado por Francis Galton em 1885 que descreve como, após um evento extremo (como pais serem excepcionalmente altos), o próximo evento aleatório provavelmente será menos extremo. Este conceito é aplicável à roleta, onde se alguém girar uma roleta honesta 10 vezes e conseguir 10 vermelhos, este é um evento extremo. A falácia do jogador diria que as próximas 10 rodadas deveriam resultar em mais negros sendo sorteados, ao contrário da probabilidade de 1,1024 que seria esperada se as rodadas fossem independentes. O professor Grimson não é o único que pode fazer piadas de mau gosto.

  • 00:25:00 Neste vídeo, John Guttag explica como funciona a regressão à média e por que é importante no jogo. Ele então mostra como a roleta européia é uma subclasse da roleta justa na qual ele adiciona uma casa extra, 0, ao jogo. Esse bolso extra afeta as chances de obter um número e o aproxima de 0 do que a roleta americana, que é uma subclasse da roleta européia na qual as chances são sempre as mesmas.

  • 00:30:00 O método de simulação de Monte Carlo é usado para estimar probabilidades e razões de probabilidades. O vídeo demonstra como diferentes tamanhos de amostra podem afetar a precisão das probabilidades estimadas. A matemática por trás da variância e do desvio padrão também é explicada.

  • 00:35:00 A simulação de Monte Carlo é um método para estimar valores que não são conhecidos. A simulação de Monte Carlo pode ser usada para estimar o retorno esperado de apostar em uma roleta, a nota esperada em um exame e a contagem de votos esperada de um candidato político. A regra empírica afirma que 68% dos dados estarão dentro de um desvio padrão à frente ou atrás da média.

  • 00:40:00 A regra empírica diz que devemos ter um alto grau de confiança na média calculada em uma simulação se a distribuição dos erros for normal.

  • 00:45:00 Este vídeo explica a função de densidade de probabilidade (PDF) e como ela é usada para calcular a probabilidade de uma variável aleatória assumir valores específicos. A função de densidade de probabilidade é simétrica em torno da média e tem um pico na média, razão pela qual é frequentemente usada para descrever a probabilidade de uma variável aleatória assumir um valor específico. A fração da área sob a curva entre menos 1 e 1 é de aproximadamente 68%.
 

Aula 7. Intervalos de confiança



7. Intervalos de confiança

Este vídeo aborda vários tópicos relacionados a estatísticas, incluindo distribuições normais, teorema do limite central e estimativa do valor de pi usando simulações. O palestrante usa Python para demonstrar como plotar histogramas e funções de densidade de probabilidade para distribuições normais, bem como usar a técnica de quadratura para aproximar integrais. Além disso, o palestrante enfatiza a importância de entender as suposições subjacentes aos métodos estatísticos e a necessidade de verificações de precisão para garantir a validade das simulações. Embora os intervalos de confiança possam fornecer declarações estatisticamente válidas, eles podem não refletir necessariamente a realidade, e é essencial ter motivos para acreditar que os resultados de uma simulação estão próximos do valor real.

  • 00:00:00 Nesta seção, o palestrante fala sobre as suposições subjacentes à regra empírica e como as distribuições normais são geradas em Python usando a biblioteca aleatória. Eles demonstram como produzir uma aproximação discreta de uma distribuição normal e como plotar um histograma com compartimentos ponderados. O objetivo de ponderar as caixas é dar a cada item um peso diferente para que o eixo y possa ser ajustado de acordo.

  • 00:05:00 Nesta seção, o instrutor explica como usar o Python para plotar histogramas e funções de densidade de probabilidade (PDFs) para distribuições normais. Ele mostra o código para criar um histograma usando a biblioteca pylab, onde o eixo y exibe a fração de valores que se enquadram em um determinado intervalo. Ele então define PDFs e mostra como plotá-los usando Python. A curva PDF representa a probabilidade de uma variável aleatória cair entre dois valores, onde a área sob a curva dá a probabilidade de isso ocorrer. O instrutor usa um exemplo de distribuição normal padrão com média zero e desvio padrão igual a um.

  • 00:10:00 Nesta seção, o palestrante explica como plotar uma função de densidade de probabilidade (PDF) e interpreta os valores de Y no gráfico. Os valores de Y são, na verdade, densidades ou derivadas da função de distribuição cumulativa e não são probabilidades reais, pois podem exceder 1 ou ser negativos. O palestrante enfatiza que a forma da curva é mais importante do que os próprios valores de Y, pois a integração da área sob a curva nos permite determinar as probabilidades de os valores caírem dentro de um determinado intervalo. O palestrante então apresenta brevemente o algoritmo "integrate quad" na biblioteca "scipy" para integração.

  • 00:15:00 Nesta seção do vídeo, o palestrante discute como usar uma técnica numérica chamada quadratura para aproximar integrais. Ele mostra um exemplo dessa técnica com a função Gaussian, que recebe três argumentos, e demonstra como passá-los para a função de quadratura junto com uma tupla fornecendo todos os valores para os argumentos. O palestrante então testa a regra empírica para a função gaussiana usando valores aleatórios para mu e sigma e mostra que os resultados estão dentro do intervalo esperado, demonstrando a validade da regra. Finalmente, ele explica a importância das distribuições normais e sua prevalência em muitas áreas.

  • 00:20:00 Nesta seção, o palestrante discute a distribuição normal e como ela se aplica a vários cenários, como a altura de homens e mulheres ou mudanças nos preços do petróleo. No entanto, nem tudo segue uma distribuição normal, como os giros de uma roleta. Ao lidar com um conjunto de spins, o palestrante mostra como se aplica o teorema do limite central, que afirma que se uma amostra suficientemente grande for retirada de uma população, as médias das amostras serão normalmente distribuídas e terão uma média próxima da média população.

  • 00:25:00 Nesta seção, o palestrante explica como a variância das médias amostrais está relacionada à variância da população dividida pelo tamanho da amostra. O orador usa uma simulação de rolar um dado várias vezes com diferentes números de dados e mostra o desvio padrão diminuindo à medida que o número de dados aumenta. Além disso, o palestrante mostra como a distribuição das médias forma uma distribuição normal. Isso demonstra a utilidade do teorema do limite central. O palestrante também aplica esse conceito ao jogo da roleta e mostra como a distribuição dos ganhos médios das rodadas da roleta assume uma forma semelhante a uma distribuição normal.

  • 00:30:00 Nesta seção, o palestrante discute como, independentemente da forma da distribuição dos valores originais, o Teorema do Limite Central (CLT) pode ser usado para estimar a média usando amostras suficientemente grandes. O palestrante explica que mesmo que a regra empírica não seja perfeitamente precisa, ela é próxima o suficiente para ser útil na maioria dos casos. Além disso, a aleatoriedade e as simulações de Monte Carlo podem ser úteis na computação de algo que não é inerentemente aleatório, como o valor de pi. Isso é demonstrado por meio de uma explicação histórica de como as pessoas estimaram o valor de pi ao longo da história.

  • 00:35:00 Nesta seção, o palestrante discute diferentes métodos usados para estimar o valor de pi ao longo da história. Os métodos incluem a construção de um polígono de 96 lados e uma simulação de Monte Carlo, que envolve a queda de agulhas aleatoriamente para estimar o valor de pi. A simulação usou uma fórmula matemática para estimar pi encontrando a proporção de agulhas em um círculo para agulhas em um quadrado. O palestrante também menciona a tentativa de simular o método de Monte Carlo usando um arqueiro e o uso de Python para construir uma simulação de Monte Carlo.

  • 00:40:00 Nesta seção, o palestrante explica como estimar pi usando uma simulação e como determinar sua precisão usando intervalos de confiança. A simulação envolve jogar agulhas no chão e contar quantas cruzam uma linha, com mais agulhas levando a melhores estimativas de pi. Para determinar a precisão, o desvio padrão é calculado tomando a média das estimativas e dividindo pelo comprimento das estimativas. Um loop é então usado para continuar aumentando o número de agulhas até que a estimativa de pi esteja dentro de um certo intervalo de precisão, permitindo maior confiança na estimativa. Embora as estimativas de pi não sejam monotonicamente melhores à medida que o número de agulhas aumenta, os desvios padrão diminuem monotonicamente, proporcionando maior confiança na estimativa. O palestrante enfatiza que não basta produzir uma boa resposta, mas sim ter motivos para acreditar que a resposta está próxima do valor real.

  • 00:45:00 Nesta seção, o palestrante discute a diferença entre afirmações estatisticamente válidas e afirmações verdadeiras. Embora uma simulação possa nos fornecer intervalos de confiança estatisticamente válidos, ela pode não refletir com precisão a realidade. O orador introduz um bug em sua simulação ao substituir 4 por 2 e, embora os intervalos de confiança sejam válidos, a estimativa de pi está completamente errada. Para garantir a precisão da simulação, uma verificação de sanidade deve ser realizada. A técnica geralmente útil de amostragem de pontos aleatórios é introduzida para estimar a área de qualquer região e usada como um exemplo de como a aleatoriedade pode ser usada para calcular algo que não é inerentemente aleatório, como a integração.
 

Aula 8. Amostragem e Erro Padrão



8. Amostragem e Erro Padrão

Este vídeo sobre "Amostragem e erro padrão" abrange vários conceitos em estatística inferencial, com foco em técnicas de amostragem para estimar parâmetros populacionais. O vídeo explora a amostragem probabilística e a amostragem aleatória simples, bem como a amostragem estratificada, e discute o teorema do limite central, relacionado à consistência de médias e desvios padrão em amostras aleatórias de uma população. O vídeo também aborda tópicos como barras de erro, intervalos de confiança, desvio padrão e erro padrão, escolhendo tamanho de amostra apropriado e tipos de distribuição. O palestrante enfatiza a importância de entender o erro padrão, pois ajuda a estimar o desvio padrão da população sem examinar toda a população e como é um conceito amplamente discutido em diferentes departamentos.

  • 00:00:00 Nesta seção, o instrutor discute o tópico de amostragem em relação à estatística inferencial. A ideia-chave é examinar uma ou mais amostras aleatórias retiradas de uma população para fazer referências sobre essa população. O instrutor discute a amostragem probabilística, na qual cada membro da população tem uma probabilidade diferente de zero de ser incluído em uma amostra. A amostragem aleatória simples é explorada em profundidade, o que exige que cada membro da população tenha uma probabilidade igual de ser escolhido na amostra. No entanto, o instrutor observa que a amostragem estratificada pode ser necessária em determinadas situações, como quando uma população não é distribuída uniformemente e os subgrupos precisam ser particionados e representados proporcionalmente na amostra.

  • 00:05:00 Nesta seção, o conceito de amostragem estratificada é introduzido como um método para amostrar pequenos subgrupos que precisam ser representados proporcionalmente ao seu tamanho na população. O exemplo de uso de amostragem estratificada para garantir que os estudantes de arquitetura sejam representados é dado. No entanto, a amostragem estratificada pode ser difícil de fazer corretamente, portanto, este curso se limitará a amostras aleatórias simples. O curso fornece um exemplo de conjunto de dados de temperaturas máximas e mínimas diárias para 21 cidades dos EUA de 1961 a 2015. Os dados são visualizados usando histogramas, que mostram que os dados não são normalmente distribuídos. A temperatura máxima diária média é de 16,3 graus Celsius, com um desvio padrão de aproximadamente 9,4 graus.

  • 00:10:00 Nesta seção, o vídeo discute a ideia de amostragem e sua relação com a população como um todo. Ao coletar amostras aleatórias de tamanho 100 de uma população e comparar as médias e os desvios padrão, o vídeo mostra que, embora as amostras individuais possam diferir da população, no geral, as médias e os desvios padrão serão consistentes com a população devido ao teorema do limite central . Ao executar uma simulação de mil amostras, o vídeo demonstra como a média das médias amostrais é 16,3 e o desvio padrão é 0,94, fornecendo um intervalo de confiança de 95% de 14,5 a 18,1. Embora o intervalo de confiança seja amplo, ele inclui a média da população.

  • 00:15:00 Nesta seção, o vídeo discute maneiras de obter um limite mais rígido na estimativa da média populacional real. A coleta de mais amostras e a coleta de amostras maiores são consideradas. A execução de um experimento com o tamanho da amostra aumentado de 100 para 200 resultou em uma queda bastante dramática no desvio padrão de 0,94 para 0,66, indicando que tamanhos de amostra maiores podem ajudar a obter uma estimativa mais precisa. O uso de barras de erro para visualizar a variabilidade dos dados também é introduzido. Intervalos de confiança podem ser usados para determinar se as médias são estatisticamente significativamente diferentes ou não. Se os intervalos de confiança não se sobrepõem, é possível concluir que as médias são significativamente diferentes. Quando eles se sobrepõem, é necessária uma investigação mais aprofundada.

  • 00:20:00 Nesta seção, o palestrante discute como plotar barras de erro usando o pacote PyLab em Python. Usando o desvio padrão multiplicado por 1,96, pode-se criar barras de erro que mostram a média e o nível de confiança da estimativa. À medida que o tamanho da amostra aumenta, as barras de erro ficam menores, proporcionando maior confiança, mas não necessariamente melhor precisão. No entanto, usando o teorema do limite central, o uso de uma única amostra ainda pode fornecer informações valiosas, embora a observação de várias amostras com grandes tamanhos de amostra possa ser redundante.

  • 00:25:00 Nesta seção, o vídeo discute a terceira parte do Teorema do Limite Central, que afirma que a variância das médias amostrais será próxima à variância da população dividida pelo tamanho da amostra. Isso leva ao cálculo do erro padrão da média, que é igual ao desvio padrão da população dividido pela raiz quadrada do tamanho da amostra. O vídeo usa um código para testar se o erro padrão da média funciona e mostra que o desvio padrão rastreia muito bem o erro padrão, tornando útil estimar o desvio padrão calculando o erro padrão. A diferença entre o desvio padrão e o erro padrão é que, para calcular o primeiro, é preciso examinar muitas amostras e, para o segundo, apenas uma amostra é necessária.

  • 00:30:00 Nesta seção, o palestrante discute o conceito de erro padrão, que é uma forma de aproximar o desvio padrão de uma população sem coletar várias amostras. A fórmula para o erro padrão inclui o desvio padrão da população, mas isso normalmente não é conhecido, pois exigiria o exame de toda a população. Em vez disso, o desvio padrão da amostra é frequentemente usado como uma estimativa. O palestrante demonstra que, para tamanhos de amostra maiores, o desvio padrão da amostra é uma aproximação relativamente precisa do desvio padrão da população. No entanto, observa-se que isso nem sempre pode ser verdade para diferentes tipos de distribuições e populações maiores.

  • 00:35:00 Nesta seção, o vídeo discute diferentes distribuições, incluindo uniforme, normal ou gaussiana e exponencial, e mostra as aproximações discretas dessas distribuições. A diferença entre o desvio padrão e o desvio padrão amostral não é a mesma para todas essas distribuições, sendo a exponencial o pior caso. Skew, uma medida da assimetria de uma distribuição de probabilidade, é um fator importante ao decidir quantas amostras são necessárias para estimar a população. Além disso, o vídeo revela uma descoberta contraintuitiva de que o tamanho da população não importa ao determinar o número de amostras necessárias.

  • 00:40:00 Nesta seção, o palestrante discute a importância de escolher um tamanho de amostra apropriado para estimar a média de uma população dada uma única amostra. Ele enfatiza que escolher o tamanho certo da amostra é essencial para obter uma resposta precisa e evitar o uso de uma amostra muito pequena. Uma vez escolhido o tamanho da amostra, uma amostra aleatória é retirada da população para calcular a média e o desvio padrão da amostra. Usando o erro padrão estimado gerado a partir da amostra, são gerados intervalos de confiança em torno da média da amostra. O palestrante adverte que esse método funciona apenas se amostras aleatórias independentes forem escolhidas e mostra como a escolha de amostras dependentes pode levar a resultados errados. Por fim, ele demonstra um exemplo de experimento para calcular a fração fora dos intervalos de confiança de 95% e enfatiza que cinco por cento é o resultado ideal.

  • 00:45:00 Nesta seção, o palestrante discute a importância de entender o conceito de erro padrão na análise estatística. Ele enfatiza que se a resposta for muito boa ou muito ruim, o cálculo da probabilidade está incorreto. Para demonstrar como funciona o erro padrão, ele faz uma simulação e mostra que a fração fora do intervalo de confiança de 95% está muito próxima do valor esperado de 5%. O palestrante conclui enfatizando a importância do erro padrão e como é um conceito amplamente discutido entre diferentes departamentos.