머신 러닝 및 신경망 - 페이지 2

 

MIT 6.S191: 심층 생성 모델링



강의 4. MIT 6.S191: 심층 생성 모델링

이 비디오는 심층 생성 모델링을 사용하여 입력 데이터의 보다 매끄럽고 완전한 표현을 학습한 다음 새 이미지를 생성하는 데 사용할 수 있는 방법에 대해 설명합니다. DGM의 핵심은 네트워크가 해당 잠재 분포에서 샘플링하여 새 데이터를 생성할 수 있도록 각 잠재 변수에 대한 확률 분포를 도입하는 것입니다.

  • 00:00:00 이 강의에서 Ava는 심층 생성 모델을 사용하여 데이터 세트의 기본 확률 분포를 학습하는 방법을 설명합니다. 그는 밀도 추정과 샘플 생성이라는 두 가지 방법이 실제로 어떻게 작동하는지 보여줍니다.

  • 00:05:00 이 비디오에서 발표자는 생성 모델을 사용하여 데이터 세트의 기본 기능을 학습하는 방법을 설명합니다. 이는 얼굴 감지 또는 이상치 감지와 같은 애플리케이션에서 유용할 수 있습니다.

  • 00:10:00 오토인코더는 고차원 입력 데이터를 저차원 잠재 공간으로 압축할 수 있는 강력한 기계 학습 알고리즘입니다. 이 잠재 공간은 이후 재구성을 위해 데이터를 인코딩하는 데 사용할 수 있습니다. Variational Autoencoder를 사용하면 잠재 공간이 확률적이므로 입력 데이터를 보다 현실적이고 정확하게 재구성할 수 있습니다.

  • 00:15:00 이 비디오는 심층 생성 모델링(DGM)을 사용하여 입력 데이터의 보다 매끄럽고 완전한 표현을 학습한 다음 새 이미지를 생성하는 데 사용할 수 있는 방법에 대해 설명합니다. DGM의 핵심은 네트워크가 해당 잠재 분포에서 샘플링하여 새 데이터를 생성할 수 있도록 각 잠재 변수에 대한 확률 분포를 도입하는 것입니다. 네트워크의 손실은 이제 재구성 항과 잠재 변수의 확률 분포에 구조를 부과하는 정규화 항으로 구성됩니다. 신경망은 신경망의 가중치와 관련하여 손실을 최적화하도록 훈련되며 가중치는 훈련 중에 반복적으로 업데이트됩니다.

  • 00:20:00 비디오는 정규화 용어 d가 추론된 잠재 분포와 사전 사이의 거리를 최소화하는 데 어떻게 도움이 되는지 설명합니다. 또한 일반 사전이 이를 달성하는 데 어떻게 도움이 되는지 보여줍니다.

  • 00:25:00 이 비디오는 심층 생성 모델링을 사용하여 데이터 포인트 집합에서 입력을 재구성하는 방법에 대해 설명합니다. 이 방법은 잠재 공간에 정상 기반 정규화를 적용하여 매끄럽고 완성하는 데 도움이 됩니다. 이는 다시 샘플링 계층을 통해 그래디언트의 역전파를 허용하여 네트워크를 통해 그래디언트의 직접 전파를 방지하는 확률론적 문제를 해결합니다.

  • 00:30:00 이 동영상은 잠재 변수 모델(예: Variational Autoencoders 또는 Beta Vaes)을 사용하여 데이터 세트에서 중요한 기능을 인코딩하는 방법을 설명합니다. 이렇게 하면 중요한 기능이 자동으로 인코딩되므로 편향되지 않은 기계 학습 모델이 가능합니다.

  • 00:35:00 GAN은 생성기 네트워크를 사용하여 실제 데이터와 유사한 샘플을 생성하는 반면, 적대적 네트워크는 가짜 샘플과 실제 샘플을 구별하려고 합니다. 학습 후 생성자와 판별자는 거의 완벽에 가까운 정확도로 실제 데이터에서 가짜 데이터를 분리할 수 있습니다.

  • 00:40:00 비디오는 이전 강의에서 소개된 개념으로 요약되는 Deep Generative Models의 손실 함수에 대해 설명합니다. Discriminator 네트워크의 목표는 가짜 데이터를 식별하는 것이고 Generator 네트워크의 목표는 실제 데이터 분포에 최대한 가까운 데이터를 생성하는 것입니다. 열차 생성기 네트워크는 완전히 임의적인 가우시안 노이즈 분포를 기반으로 하는 새로운 데이터 인스턴스를 합성합니다. 이 잡음 분포의 한 지점, 실제 데이터 분포의 한 지점, 목표 데이터 분포의 한 지점을 고려하면 생성기가 이러한 지점 사이 어딘가에 있는 데이터를 생성하는 방법을 학습하고 있음을 알 수 있습니다. 복잡한 데이터 매니폴드에서 도메인 변환 및 순회에 대한 이 아이디어는 더 자세히 논의되며 gan이 현실적인 데이터 예제를 생성하기 위한 강력한 아키텍처인 방법을 보여줍니다.

  • 00:45:00 이 비디오에서는 아키텍처 및 스타일 전송 개선을 포함하여 심층 생성 모델링의 최근 발전에 대해 설명합니다. 계속해서 완전히 짝을 이루지 않은 데이터가 있는 도메인 간의 변환을 허용하는 cyclegan 모델을 설명합니다.

  • 00:50:00 이 부분에서 Ava 는 딥 러닝에 사용되는 두 가지 주요 생성 모델인 변형 자동 인코더와 자동 인코더에 대해 설명하고 작동 방식을 설명합니다. 그는 또한 이러한 모델과 함께 사용할 수 있는 강력한 배전 변압기인 사이클 간을 언급합니다. 저자는 참석자들에게 과정의 랩 부분에 참석할 것을 촉구하며 강의를 마칩니다.
 

MIT 6.S191: 강화 학습



강의 5. MIT 6.S191: 강화 학습

이 비디오에서 Alexander Amini는 강화 학습의 개념과 이를 신경망 훈련에 사용할 수 있는 방법에 대해 설명합니다. 그는 강화 학습이 어떻게 작동하고 실제 시나리오에서 어떻게 사용될 수 있는지 설명하는 것으로 시작합니다. 그런 다음 정책 기울기 네트워크를 교육하는 방법에 대해 논의합니다. 마지막으로 훈련 루프의 모든 반복에서 정책 기울기를 업데이트하는 방법에 대해 논의하며 비디오를 마무리합니다.

  • 00:00:00 이번 영상에서는 입력 데이터에 대한 사전 지식 없이 딥러닝 모델을 학습시키는 머신러닝의 일종인 강화학습에 대해 알아봅니다. 강화 학습에서 딥 러닝 모델은 동적 환경에 배치되며 사람의 안내 없이 작업을 수행하는 방법을 학습하는 임무를 맡습니다. 이것은 로봇 공학, 게임 플레이, 자율 주행 자동차와 같은 다양한 분야에서 큰 영향을 미칩니다.

  • 00:05:00 강화 학습에서 에이전트는 환경에서 작업을 수행하는 엔터티이고 환경은 에이전트가 존재하고 작업을 수행하는 세계입니다. 에이전트는 작업의 형태로 환경에 명령을 보낼 수 있으며 상태는 에이전트가 현재 자신을 발견하는 구체적이고 즉각적인 상황입니다. 에이전트는 환경에서 보상을 받을 수도 있습니다.

  • 00:10:00 강화 학습 강의의 이 부분은 보상, 감마 및 q 함수의 개념을 설명합니다. q 함수는 현재 상태와 행동을 입력으로 취하고 해당 행동 후에 에이전트가 받을 수 있는 예상 총 미래 보상 합계를 반환합니다. q 함수는 주어진 현재 상태와 동작에서 주어진 상태에서 취할 최선의 동작을 결정하는 데 사용할 수 있습니다.

  • 00:15:00 이 부분에서는 Alexander Amini가 Atari 브레이크아웃 게임 및 관련 q 기능을 소개합니다. 그는 계속해서 미래 보상을 최대화하는 aq 함수를 찾으려는 시도를 기반으로 하는 가치 학습 알고리즘에 대해 논의합니다. 그런 다음 그는 강화 학습 문제를 모델링하는 보다 직접적인 방법인 정책 학습 알고리즘을 제시합니다. 가치학습과 정책학습 모두 간략하게 논의하고 가치학습에 대한 연구 결과를 제시한다.

  • 00:20:00 비디오는 강화 학습 또는 다양한 가능한 작업 및 결과를 실험하여 결정을 최적화하는 학습 프로세스에 대해 설명합니다. 비디오는 에이전트가 어떻게 행동할 수 있는지에 대한 두 가지 예를 보여줍니다. 하나는 에이전트가 매우 보수적이며 다른 하나는 에이전트가 더 공격적입니다. 그런 다음 비디오는 주어진 상태 및 작업에서 수행할 최적의 작업인 q 함수를 학습하기 위해 신경망을 훈련시키는 방법에 대해 논의합니다.

  • 00:25:00 이 부분에서는 q-값 강화 학습 에이전트를 교육하는 방법에 대해 설명합니다. q-값은 서로 다른 결과의 상대적 중요성을 측정하는 척도이며 신경망을 구조화하는 데 사용됩니다. 각 가능한 행동에 대한 예상 수익이 계산되고 이 예상 수익을 최대화하여 최상의 작업이 결정됩니다. q-값 손실 함수는 신경망을 훈련시키는 데 사용되며 각 행동에 대해 받는 보상을 관찰하여 목표 값을 결정합니다.

  • 00:30:00 강화 학습에서 에이전트의 행동은 보상을 최대화하기 위해 환경의 피드백을 사용하여 수정됩니다. 정책 기울기 방법은 가치 학습 알고리즘보다 더 유연하고 효율적인 강화 학습 알고리즘의 새로운 클래스입니다.

  • 00:35:00 이 부분에서 Alexander Amini는 보상과 처벌이 있는 상황에서 행동하는 방법을 학습하는 방법인 강화 학습을 소개합니다. 강화 학습에서 에이전트의 정책은 상태(에이전트가 있는 환경)를 취하고 해당 상태에서 특정 작업을 수행할 확률을 출력하는 함수로 정의됩니다. 그런 다음 이 확률은 현재 상태와 과거의 보상 및 처벌을 기반으로 에이전트의 다음 행동을 예측하도록 신경망을 훈련하는 데 사용됩니다. 학습에 대한 이 접근 방식의 장점은 연속 작업 공간을 처리할 수 있고 정책 그래디언트 방법을 사용하여 높은 정확도로 연속 작업을 모델링할 수 있다는 것입니다.

  • 00:40:00 이 비디오에서 Alexander Amini는 강화 학습 알고리즘의 성능을 개선하기 위해 정책 그래디언트를 사용할 수 있는 방법에 대해 설명합니다. 그는 연속 공간과 불연속 합계 대신에 적분을 사용할 수 있는 방법을 설명하는 것으로 시작합니다. 그런 다음 구체적인 예에서 정책 그래디언트가 작동하는 방식에 대해 논의하고 정책 그래디언트 네트워크를 교육하는 방법에 대해 논의합니다. 그는 교육 루프의 모든 반복에서 정책 기울기를 업데이트하는 방법에 대해 논의하면서 비디오를 마무리합니다.

  • 00:45:00 이 부분에서는 강화 학습을 사용하여 신경망을 훈련시키는 방법을 제시합니다. 이 비디오는 강화 학습이 어떻게 작동하고 실제 시나리오에서 어떻게 사용될 수 있는지 설명합니다.

  • 00:50:00 이 비디오에서 Alexander Amini는 특히 Go 영역에서 강화 학습의 최근 발전에 대해 논의합니다. Google DeepMind 프로젝트인 Alpha Zero는 세계 최고의 인간 플레이어를 능가할 수 있었습니다. 다음 강의에서 Nielsen은 딥러닝 문헌과 그 한계에 대해 논의할 것입니다. 이것은 학생들이 계속해서 배우고 현장을 발전시키도록 동기를 부여할 것입니다.
MIT 6.S191 (2022): Reinforcement Learning
MIT 6.S191 (2022): Reinforcement Learning
  • 2022.04.08
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 5Deep Reinforcement LearningLecturer: Alexander AminiJanuary 2022For all lectures, slides, and lab material...
 

MIT 6.S191(2022): 딥 러닝의 새로운 지평



강의 6. MIT 6.S191(2022): Deep Learning New Frontiers

MIT 6.S191의 "Deep Learning New Frontiers" 강의는 다양한 주제를 다룹니다. 강사 Ava Soleimany 는 과정의 다양한 마감일을 설명하고 초청 강의를 소개하며 현재 연구 분야에 대해 논의합니다. Universal Approximation Theorem, 일반화, 데이터 품질, 불확실성 및 적대적 공격에 관한 심층 신경망의 한계도 해결됩니다. 또한 그래프 컨볼루션 신경망과 약물 발견, 도시 이동성 및 COVID-19 예측과 같은 다양한 도메인에서의 잠재적 응용에 대해 논의합니다. 마지막으로 강의에서는 자동 머신 러닝(autoML)의 주제와 이것이 고성능 머신 러닝 및 딥 러닝 모델을 설계하는 데 어떻게 도움이 되는지 살펴봅니다. 강사는 인간 학습, 지능 및 딥 러닝 모델 간의 연결 및 구별의 중요성을 강조하며 결론을 내립니다.

  • 00:00:00 이 섹션에서 Ava는 학급 티셔츠와 실험실 및 최종 프로젝트의 예정된 마감일에 대한 몇 가지 물류 정보를 제공합니다. 그들은 또한 남은 초청 강의를 소개하고 다룰 새로운 연구 분야에 대해 언급합니다. 강화 학습 랩이 공개되었고 3개 랩 모두 마감일이 내일 밤이지만 제출하지 않아도 합격 점수를 받을 수 있는 것은 아닙니다. 과정의 학점을 받으려면 딥 러닝 보고서 검토 또는 최종 프로젝트 프레젠테이션을 제출해야 합니다. 최종 프로젝트 제안 공모전은 오늘 밤 자정까지 그룹 이름을 제출해야 하며, 딥러닝 논문 보고서에 대한 지침이 요약됩니다.

  • 00:05:00 이 섹션에서 연사는 다음 과정 세션에 예정된 놀라운 게스트 강의 라인업에 대해 논의합니다. 초청 연사에는 신흥 자율주행차 회사인 Innoviz, Google Research 및 Google Brain, Nvidia 및 Caltech, Rev AI의 대표가 포함됩니다. 연사는 콘텐츠에 대한 전체 액세스를 보장하기 위해 동시에 강의에 참석하는 것의 중요성을 강조합니다. 연사는 또한 지금까지 과정에서 다룬 내용을 요약하면서 딥 러닝 알고리즘의 힘과 다양한 분야를 혁신할 수 있는 잠재력을 강조합니다. 발표자는 또한 데이터에서 결정으로 또는 그 반대로 매핑하는 강력한 함수 근사자로서의 신경망의 역할을 강조합니다.

  • 00:10:00 이 섹션에서 발표자는 단일 계층 피드포워드 신경망이 모든 정밀도로 임의의 연속 함수를 근사화하는 데 충분하다는 범용 근사 정리에 대해 설명합니다. 이것은 강력한 진술이지만 정리에는 필요한 뉴런의 수와 문제를 해결할 수 있는 가중치를 찾는 방법에 대한 주장 또는 보장의 부족을 포함하여 몇 가지 주의 사항이 있습니다. 또한 이 정리는 훈련된 설정을 넘어서는 신경망의 일반화 가능성에 대해 주장하지 않습니다. 연사는 발생할 수 있는 잠재적인 우려로 인해 이러한 알고리즘이 마케팅되고 광고되는 방식에 대해 주의를 기울이는 것의 중요성을 강조합니다. 이 섹션은 또한 일반화의 문제와 유명한 ImageNet 데이터 세트의 이미지로 이 문제를 탐구한 논문에서 시작하여 최신 딥 러닝 아키텍처의 한계를 탐구합니다.

  • 00:15:00 이 섹션에서는 동영상에서 심층 신경망의 한계와 완전히 임의의 데이터를 완벽하게 맞출 수 있는 기능에 대해 설명합니다. 신경망은 임의의 레이블이 있는 경우에도 일부 임의의 함수에 맞출 수 있는 우수한 함수 근사자이지만 함수가 어떻게 작동할 수 있는지에 대한 보장이 없는 분포 외 영역으로 일반화하는 능력이 제한됩니다. 이는 신경망의 일반화 범위에 대한 보장을 설정하고 이 정보를 사용하여 교육, 학습 및 배포 프로세스에 정보를 제공해야 할 필요성을 강조합니다. 이 비디오는 또한 딥 러닝이 모든 문제에 대한 마법의 해결책이라는 대중적인 믿음에 대해 경고하고 이러한 모델의 한계와 가정을 이해하는 것의 중요성을 강조합니다.

  • 00:20:00 이 섹션에서는 딥 러닝 모델을 교육하는 데 사용되는 데이터 품질의 중요성을 강조합니다. 신경망의 실패 모드는 강아지의 흑백 이미지가 색상화를 위해 컨볼루션 신경망 아키텍처를 통과한 예를 통해 설명됩니다. 네트워크는 개가 혀를 내밀고 있는 많은 이미지를 포함하는 훈련된 데이터의 특성으로 인해 털이어야 하는 개 코 아래의 분홍색 영역을 예측했습니다. 이 예는 훈련 중에 본 데이터를 기반으로 표현을 구축하는 딥 러닝 모델의 힘을 강조합니다. 그런 다음 이 섹션에서는 사고에 효과적으로 대응하지 못해 결국 운전자가 사망한 자율 Tesla 차량과 관련된 비극적인 사건에서 볼 수 있듯이 훈련 분포를 벗어난 실제 사례를 접한 결과에 대해 논의합니다. 특히 안전이 중요한 애플리케이션에서 딥 러닝 모델 예측의 한계를 이해하는 것의 중요성이 강조됩니다.

  • 00:25:00 이 섹션에서 발표자는 불균형 기능을 포함하여 희소하거나 시끄럽거나 제한된 데이터 세트를 처리할 수 있는 신경 모델을 구축하는 데 중요한 딥 러닝의 불확실성 개념에 대해 논의합니다. 심층 신경 모델에는 두 가지 유형의 불확실성이 있습니다. 데이터 노이즈, 가변성 또는 도메인 외부 예제 테스트로 인해 발생할 수 있는 우발적 불확실성 및 인식적 불확실성. 이러한 불확실성은 예측에 대한 모델의 신뢰도를 나타내며 다양한 유형의 데이터를 처리할 때 효율성에 영향을 미칠 수 있습니다. 또한 딥 러닝 모델을 오도하기 위해 생성된 합성 인스턴스인 적대적인 예는 고려해야 하는 세 번째 실패 모드를 제시합니다. 이 주제에 대한 Jasper의 초청 강연은 이 두 가지 유형의 불확실성이 모든 가능성을 포착하는지에 대한 논쟁을 탐구하고 이 분야의 최근 연구 발전에 대해 논의하는 데 적극 권장됩니다.

  • 00:30:00 비디오의 이 섹션에서 강사는 적대적 공격(adversarial attack)의 개념에 대해 논의합니다. 이 공격은 인간의 눈에는 감지할 수 없지만 신경망의 결정에 상당한 영향을 미치는 이미지에 섭동이 적용되어 오분류가 발생하는 것입니다. 이미지의. 섭동은 적으로 효과적으로 기능하도록 영리하게 구성되며 신경망은 이 섭동을 학습하도록 훈련될 수 있습니다. 강사는 또한 신경망 모델과 AI 시스템이 실질적이고 해로운 사회적 결과를 초래할 수 있는 편향에 취약할 수 있는 알고리즘 편향 문제에 대해 간략하게 다루며, 두 번째 랩에서는 알고리즘 편향을 완화하기 위한 전략을 탐구했습니다. 이러한 제한 사항은 빙산의 일각에 불과하며 고려해야 할 더 많은 제한 사항이 있습니다.

  • 00:35:00 이 섹션에서 연사는 딥 러닝을 위한 데이터 형식으로 그래프 구조를 사용하는 방법과 이것이 컨볼루션 신경망과 관련되지만 다른 새로운 유형의 네트워크 아키텍처에 영감을 줄 수 있는 방법에 대해 논의합니다. 그래프 구조는 소셜 네트워크에서 단백질 및 생물학적 분자에 이르기까지 다양한 데이터 유형을 나타낼 수 있습니다. 그래프 컨벌루션 신경망은 2D 매트릭스 대신 노드와 에지 세트를 입력으로 사용하고 가중치 커널로 그래프를 탐색하여 노드 간 관계에 대한 정보를 보존하는 기능을 추출하는 방식으로 작동합니다. 딥 러닝의 이 신흥 분야는 표준 인코딩을 넘어 더 복잡한 데이터 기하학 및 데이터 구조를 캡처할 수 있게 합니다.

  • 00:40:00 이 섹션에서 발표자는 화학 및 약물 발견, 도시 이동성 및 COVID-19 예측을 포함하여 다양한 도메인에서 그래프 컨벌루션 네트워크 및 해당 애플리케이션에 대해 논의합니다. 그래프 컨벌루션 네트워크를 사용하면 그래프의 로컬 연결 및 구조에 대한 기능을 추출할 수 있으므로 학습 프로세스에서 연결 패턴에 대한 정보를 추출할 수 있는 가중치를 선택할 수 있습니다. 또한 발표자는 3D 포인트 클라우드 매니폴드에 그래프 구조를 적용하여 그래프 컨벌루션 신경망을 포인트 클라우드 데이터 세트로 확장할 수 있는 방법을 설명합니다.

  • 00:45:00 이 섹션에서 연사는 자동화된 기계 학습 및 학습 학습의 새로운 영역에 대해 설명합니다. 목표는 신경망 아키텍처의 설계 문제를 해결할 수 있는 학습 알고리즘을 구축하고 주어진 문제를 해결하기 위한 가장 효과적인 모델을 예측하는 것입니다. 원래 automl 프레임워크는 모델의 아키텍처 제안을 반복적으로 개선하기 위해 컨트롤러 신경망과 피드백 루프가 있는 강화 학습 설정을 사용했습니다. 최근 automl은 최적의 설계와 하이퍼파라미터를 검색하는 것이 목표인 신경 아키텍처 검색으로 확장되었습니다. 이 새로운 연구 분야는 기계 학습 모델을 설계하고 성능을 최적화하는 방식을 혁신할 수 있습니다.

  • 00:50:00 이 섹션에서 강사는 automl(자동 기계 학습)의 개념과 고성능 기계 학습 및 딥 러닝 모델을 설계하는 기능에 대해 설명합니다. automl의 아이디어는 최신 기계 학습 및 딥 러닝 설계 파이프라인, 특히 알고리즘이 매우 잘 작동하는 아키텍처를 만드는 데 성공한 산업 응용 프로그램에서 인기를 얻었습니다. 강사는 automl 알고리즘이 제안한 아키텍처가 인간이 설계한 것보다 적은 매개변수로 이미지 인식 작업에서 어떻게 우수한 정확도를 달성했는지에 대한 예를 제시합니다. Automl은 전체 데이터 처리 및 학습-예측 파이프라인이 AI 알고리즘에 의해 설계되고 최적화되는 보다 광범위한 auto ai 개념으로 확장되었습니다. 강사는 청중이 관심 있는 작업에 대해 높은 성능을 발휘하는 새로운 모델을 생성할 수 있는 AI 설계의 의미와 인간 학습, 지능 및 딥 러닝 모델 간의 연결 및 차이점에 대해 생각하도록 독려하면서 결론을 내립니다.
MIT 6.S191 (2022): Deep Learning New Frontiers
MIT 6.S191 (2022): Deep Learning New Frontiers
  • 2022.04.15
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 6Deep Learning Limitations and New FrontiersLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, an...
 

MIT 6.S191: 자율 주행을 위한 LiDAR



강의 7. MIT 6.S191: 자율주행을 위한 LiDAR

비디오 "MIT 6.S191: 자율 주행을 위한 LiDAR"는 Innoviz의 자율 주행 차량용 LiDAR 기술 개발을 보여주며 시스템의 가시성과 예측 기능의 이점과 중요성을 강조합니다. 발표자는 LiDAR 시스템의 신호 대 잡음비에 영향을 미치는 다양한 요소, 센서 사용의 중복성 중요성, 충돌 관련 물체 감지 시 고해상도 및 계산 효율성의 필요성에 대해 설명합니다. 또한 객체 감지 및 분류, 다양한 LiDAR 데이터 표현, 객체 감지 및 경계 상자 정확도를 위한 클러스터링 및 딥 러닝 접근 방식의 융합에서 딥 러닝 네트워크의 문제에 대해 논의합니다. 또한 이 동영상은 FMCW와 ToF(Time-of-Flight) LiDAR 간의 장단점을 다룹니다. 전반적으로 논의는 안전성과 자율 주행의 미래를 향상시키는 데 있어 LiDAR의 중요한 역할을 강조합니다.

  • 00:00:00 이 섹션에서 연사는 Innoviz와 자율 차량용 Lidar 개발을 소개하고 특히 자동차 제조업체가 자율 차량 개발에서 목표를 달성하도록 돕는 방법에 중점을 둡니다. 발표자는 자율주행의 현황과 자동차 제조사가 전적인 책임을 다하지 않아 발생하는 사고로 인한 책임 문제에 대해 논의한다. 또한 레이저 빔을 사용하여 장면을 스캔하고 물체에서 광자를 수집하는 Lidar 기술의 사용에 대해 설명합니다. 연사는 성공적인 자율 주행을 위해 좋은 가시성과 도로에서 진행되는 상황에 대한 예측의 중요성을 강조합니다.

  • 00:05:00 이 섹션에서는 발표자가 자율 주행에서 LiDAR가 작동하는 방식과 신호 대 잡음비에 영향을 미치는 다양한 요인에 대해 설명합니다. LiDAR 시스템은 반사되는 광자를 사용하여 물체의 거리를 결정하고 신호 대 잡음비는 방출, 조리개, 광자 감지 효율, 감지기 노이즈 및 태양 노이즈에 의해 결정됩니다. 발표자는 또한 2세대 LiDAR 시스템인 Innoviz 2가 더 높은 해상도로 더 넓은 시야와 거리 범위를 커버할 수 있기 때문에 시중의 다른 시스템보다 월등히 뛰어난 점을 설명합니다. 발표자는 또한 고속도로와 같은 자율 주행 애플리케이션의 다양한 요구 사항과 LiDAR가 이러한 애플리케이션을 지원할 수 있는 방법에 대해 논의합니다.

  • 00:10:00 이 섹션에서 발표자는 특히 물이나 직사광선에 의해 가려질 수 있는 카메라와 같은 센서의 한계를 처리할 때 자율 주행에서 중복성이 중요한 이유를 설명합니다. 좋은 자율주행 시스템은 안전을 제공할 뿐만 아니라 승객이 지치지 않도록 원활하게 주행합니다. 레벨 3 요구 사항에는 부드러운 가속, 제동 및 기동을 위해 차량의 전면을 볼 수 있는 기능이 포함됩니다. 연사는 물체의 궤적 투영 및 시야와 같은 요구 사항에 대해 간략하게 언급하면서 센서가 물체를 더 잘 식별할 수 있도록 해상도가 높아진다는 점에 주목합니다. 마지막으로 스피커는 시속 80마일의 긴급 제동 사용 사례를 제공합니다.

  • 00:15:00 이 섹션에서 발표자는 LiDAR의 수직 해상도의 중요성과 이것이 자율 주행 차량의 의사 결정에 미치는 영향에 대해 논의합니다. 그들은 키가 큰 물체를 식별하기 위해 두 개의 픽셀이 있어야 선명도를 높일 수 있으며 LiDAR가 두 배의 범위를 가진다고 해도 픽셀이 하나만 있으면 의사 결정에 반드시 도움이 되지 않는다고 설명합니다. 그들은 더 먼 거리에서 장애물을 식별할 수 있는 더 높은 프레임 속도와 두 배의 수직 해상도의 영향에 대해 논의하고 이러한 매개변수가 자율 주행 차량의 안전에 중요하다고 강조합니다. 발표자는 또한 고해상도의 비용 효율적인 360도 LiDAR 시스템을 개발하려는 회사의 노력에 대해 간략하게 설명합니다. 마지막으로 이 섹션은 포인트 클라우드에서 충돌 관련 포인트를 감지할 수 있는 간단한 알고리즘에 대한 논의로 결론을 내립니다.

  • 00:20:00 이 섹션에서는 화자가 LiDAR 기술을 사용하여 충돌 관련 물체를 감지하는 간단한 알고리즘을 설명합니다. 포인트 클라우드에서 점 쌍 사이의 높이 차이를 측정하면 지상에서 40cm 이상 떨어진 물체를 쉽게 감지할 수 있습니다. 이 알고리즘은 소방차 또는 세계 여러 지역에 있는 물체와 같이 훈련 세트에 표시되지 않을 수 있는 물체를 감지할 수 있습니다. 스피커는 이 알고리즘이 뒤집힌 트럭과 타이어와 같은 작은 물체를 멀리서 감지하는 방법의 예를 보여줍니다. 그러나 정적 객체를 감지하는 것도 중요하지만 움직이는 객체의 역학을 이해하여 미래에 어떻게 움직일지 예측하는 것도 중요합니다.

  • 00:25:00 이 섹션에서는 특히 다리나 몸통과 같은 물체의 모양이 명확하지 않거나 물체가 너무 멀리 있는 시나리오에서 딥 러닝 네트워크를 사용하여 보행자와 같은 물체를 감지하고 분류하는 문제에 중점을 둡니다. Lidar는 물체의 모양을 보는 것이 중요하지 않기 때문에 여전히 물체를 분류하고 클러스터링할 수 있으므로 이러한 시나리오에서 유용한 기술입니다. 이 클러스터링 알고리즘은 운전과 같은 실제 시나리오 환경에 적용할 수 있지만 두 개의 다른 객체로 분류될 수 있는 객체의 예에서 지적된 불안정성과 모호성으로 인해 견고하고 유용한 시스템을 구축하기가 더 어렵습니다. 상위 레벨 자율주행차 스택. 따라서 의미론적 분석은 전체 시스템에서 여전히 중요합니다. 구조화되지 않은 특성과 포인트 클라우드 데이터의 희소성을 이해하는 것도 데이터를 처리하는 동안 필수적입니다.

  • 00:30:00 이 섹션에서 발표자는 이미지와 유사한 구조화된 표현과 데이터가 더 작은 볼륨으로 분할되는 복셀화를 포함하여 자율 주행에 사용할 수 있는 LiDAR 데이터의 다양한 표현에 대해 논의합니다. 구조화된 표현의 문제는 포인트 클라우드의 3D 측정 특성을 활용하기 어려울 수 있는 반면, 복셀화에서는 효율적인 처리를 위해 네트워크의 추가 레이어로 추가할 수 있는 폐색 정보를 이해할 수 있다는 것입니다. 연사는 효율성이 솔루션을 정의할 수 있는 에지에서의 자율 주행 및 처리에서 컴퓨팅 효율성의 중요성을 강조합니다.

  • 00:35:00 이 섹션에서 발표자는 차량 차선에서 오토바이를 감지하는 예를 사용하여 자율 주행을 위한 Lidar 시스템의 핵심 요소에 대해 논의합니다. 오토바이를 정확하게 감지하고 추적하려면 의미론적으로 정확하고 계산적으로 효율적인 오토바이 주위에 단단한 경계 상자를 두는 것이 중요합니다. 이 솔루션은 딥 러닝과 클러스터링 접근 방식을 융합하여 두 방법의 장점을 결합하여 스택의 출력에 대해 견고하고 해석 가능한 개체 목록을 생성하는 것입니다. 이는 안전이 중요한 시스템에 중요합니다. 융합된 출력은 클래스가 있는 정확한 경계 상자를 제공하여 Lidar 및 인식 소프트웨어를 자동차의 처리 장치에 더욱 원활하게 통합합니다.

  • 00:40:00 이 섹션에서는 발표자가 자율 주행에 LiDAR를 사용하는 방법과 중복 센서 정보를 제공하여 안전성을 개선하는 방법에 대해 설명합니다. 그들은 비와 같은 기상 조건은 LiDAR의 성능에 거의 영향을 미치지 않는 반면 안개는 빛을 약간 약화시킬 수 있다고 설명합니다. 연사는 또한 거짓 긍정에 대한 질문과 LiDAR가 이 애플리케이션에 더 적합한 이유에 대해 설명하고 다양한 매개변수와 시스템의 높은 전체 SNR 사이의 장단점을 강조합니다. 계속해서 자율 주행을 위한 훈련 분류기의 문제와 데이터의 효과적인 주석을 보장하기 위한 능동적 학습의 중요성에 대해 논의합니다.

  • 00:45:00 이 섹션에서 발표자는 파장, 레이저 변조 및 스캐닝 메커니즘과 같은 LiDAR 공간의 다양한 진영에 대해 논의합니다. 그런 다음 FMCW 대 비행 시간에 대한 질문을 조사하여 FMCW가 속도를 직접 측정하는 데는 도움이 되지만 1550을 사용해야 할 필요성과 범위 프레임 속도와 시야 사이의 강한 결합으로 인해 제한된다는 점을 설명합니다. 반면 Time of Flight는 고해상도와 높은 프레임 속도로 속도를 잘 계산할 수 있지만 해상도, 범위, 시야, 프레임 속도와 같은 매개 변수 간의 절충은 속도에 대한 요구 사항보다 우선합니다. 연사들은 또한 학계, 건설 회사, 스마트 도시 및 감시를 포함하여 자동차 제조업체 및 그 이상에 센서를 판매한다고 언급합니다.
MIT 6.S191: LiDAR for Autonomous Driving
MIT 6.S191: LiDAR for Autonomous Driving
  • 2022.04.22
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 7Deep Learning for Autonomous DrivingLecturer: Omer Keilaf (CEO) and Amir Day (Head of CV & DL)Innoviz Tech...
 

MIT 6.S191: 자동 음성 인식



강의 8. MIT 6.S191: 자동 음성 인식

이 비디오에서 Rev의 공동 설립자는 전사, 캡션 또는 자막 미디어를 전사 서비스가 필요한 클라이언트와 연결하는 회사의 사명을 설명합니다. Rev는 ASR을 사용하여 시장을 강화하고 주당 15,000시간 이상의 미디어 데이터를 전사하고 고객이 자신의 음성 애플리케이션을 구축할 수 있도록 API를 제공합니다. Rev에서 개발한 새로운 end-to-end 딥러닝 ASR 모델은 전임자에 비해 상당한 성능 향상을 이루지만 영어로도 ASR이 완전히 해결된 문제가 아니기 때문에 여전히 개선의 여지가 있습니다. 발표자는 데이터 세트의 편향을 처리하는 다양한 기술, 학습용 오디오 데이터 준비, 종단간 모델의 문제를 해결하는 접근 방식에 대해 논의합니다.

  • 00:00:00 이 섹션에서는 Rev의 공동 설립자인 Miguel이 회사의 역사와 미션에 대해 설명합니다. Rev는 전사, 캡션 또는 자막 미디어를 전사 서비스가 필요한 고객과 연결하는 양면 마켓플레이스입니다. 170,000명 이상의 고객과 60,000명 이상의 직원을 보유한 Rev는 주당 15,000시간 이상의 미디어 데이터를 기록하므로 ASR(자동 음성 인식) 모델을 위한 중요한 교육 데이터 소스가 됩니다. Rev는 ASR을 사용하여 시장을 강화하고 고객이 자신의 음성 애플리케이션을 구축할 수 있도록 API를 제공합니다. Rev에서 딥 러닝 ASR 프로젝트 개발을 이끄는 Jenny는 엔드 투 엔드 딥 러닝 ASR 모델의 성능과 개발에 들어간 모델링 선택에 대해 설명합니다.

  • 00:05:00 이 섹션에서 연사는 종단 간 자동 음성 인식(ASR) 시스템의 개발과 Rev의 버전 2 출시에 대해 논의합니다. 그들은 새 모델을 하이브리드 버전 1과 비교했습니다. 아키텍처뿐만 아니라 여러 경쟁업체에도 적용됩니다. 이 모델은 단어 오류율을 주요 메트릭으로 사용하여 사람이 전사한 수입 통화의 벤치마크 데이터 세트로 평가되었습니다. 결과는 새 모델이 특히 조직 이름과 사람을 인식하는 성능에서 상당한 개선을 달성했음을 보여줍니다. 그러나 ASR은 영어에서도 완전히 해결된 문제가 아니며 여전히 오류율이 전반적으로 상당히 높기 때문에 여전히 개선의 여지가 있습니다. 발표자는 또한 다양한 국적에 걸친 ASR 시스템의 편견을 조사하는 오픈 소스 데이터 세트의 결과를 제시합니다.

  • 00:10:00 이 섹션에서 발표자는 자동 음성 인식(ASR) 모델을 개발하고 개선하는 데 있어 데이터의 중요성을 강조합니다. 이 회사는 다양한 영어 사용 국가의 많은 양의 데이터에 액세스할 수 있지만 팀은 스코틀랜드 억양에서는 잘 수행되지만 아일랜드 억양에서는 제대로 수행되지 않는 모델의 편향을 처리해야 하는 문제에 직면해 있습니다. 연사는 계속해서 음성 인식을 위한 종단 간 ASR 모델을 개발하는 과정을 설명하면서 오디오 신호의 어떤 정보가 작업과 관련이 있는지 학습해야 하는 어려움을 강조합니다. 회사의 목표는 rev.com에 제출된 모든 오디오를 처리할 수 있는 모델을 생성하여 일반적으로 학계에서 볼 수 있는 것보다 더 크고 더 어려운 문제로 만드는 것입니다. 모델의 정확도에 매우 중요하기 때문에 교육에 축어적 성적표만 사용하기로 한 팀의 결정도 논의됩니다.

  • 00:15:00 이 섹션에서는 화자가 음성 인식 모델을 교육하기 위해 오디오 데이터를 준비하는 방법에 대해 설명합니다. 오디오와 녹취록의 긴 파일은 음성 활동 감지를 통해 단일 문장으로 분할되거나 임의로 분할됩니다. 그런 다음 오디오는 벡터가 있는 스펙트로그램으로 처리되어 신경망에 공급하여 기능을 학습할 수 있는 1차원 신호로 변환합니다. 또한 모델은 텍스트 데이터를 분할하는 방법을 결정해야 하며 필드는 하위 단어 단위 또는 단어 조각 단위를 사용하도록 결정되었습니다. 마지막으로 화자는 다른 주파수 대역에 대한 인간의 청각 인식을 더 잘 모델링하는 데 사용되는 기술인 멜 스케일의 사용에 대해 간략하게 언급합니다.

  • 00:20:00 이 섹션에서 발표자는 음성 인식에서 인간의 귀가 오디오를 처리하는 방식을 모방하는 멜 스케일의 사용에 대해 논의합니다. 이러한 필터를 학습할 수 있는 신경망 모델이 있지만 팀이 네트워크에 포함하는 것보다 신호 처리를 통해 처리하는 것이 더 간단합니다. 발표자는 또한 한 번에 한 단위의 출력을 생성하고 입력 오디오의 임베딩을 조건으로 하는 인코더-디코더 모델을 주의 깊게 설명합니다. 이 모델은 처음에 다운 샘플링을 수행하고 순환 신경망 또는 변환기를 실제 계층으로 사용합니다.

  • 00:25:00 이 섹션에서 발표자는 자동 음성 인식(ASR) 모델에서 기존 변압기 모델보다 더 효율적인 접근 방식인 "conformer" 사용에 대해 논의합니다. 어텐션 기반 ASR 모델은 인상적인 정확도를 보여주었지만 속도와 컴퓨팅 비용의 절충으로 인해 상용 애플리케이션에는 실용적이지 않습니다. 대신 화자는 입력과 출력 사이의 정렬이 단조롭고 출력 시퀀스가 입력 시퀀스보다 길이가 같거나 짧을 때 가장 좋은 ASR용 연결주의 시간 분류(connectionist temporal classification, CTC)라는 알고리즘을 사용할 것을 권장합니다. CTC는 딥 러닝 모델 위에 위치하며 softmax 출력 계층이 필요한 손실 함수 및 디코딩 알고리즘입니다. 출력은 한 번에 모두 생성되므로 주의를 기울여 기존의 인코더-디코더 모델보다 더 빠릅니다.

  • 00:30:00 비디오의 이 섹션에서 화자는 음성 인식에 사용되는 방법인 CTC(Connectionist Temporal Classification)의 개념에 대해 설명합니다. CTC 방법에는 각 시간 단계에 대한 softmax 출력의 로그 확률을 합산한 다음 긴 레이블 시퀀스에서 더 짧은 레이블 시퀀스의 확률을 계산하는 작업이 포함됩니다. CTC 방법은 시퀀스의 확률을 계산하는 데 사용되는 효율적인 동적 프로그래밍 알고리즘과 함께 제공됩니다. CTC는 다른 모델만큼 강력하지 않을 수 있지만 특정 조건에서는 더 빠르고 더 좋습니다. 정확도를 높이기 위해 외부에서 훈련된 언어 모델을 추가할 수 있지만 이는 더 이상 종단간 모델이 아닙니다.

  • 00:35:00 이 섹션에서 발표자는 언어 모델에서 확률을 얻을 때 정확도와 속도 또는 계산 비용 사이의 균형에 대해 논의합니다. 그들은 예측 및 공동 네트워크가 상대적으로 작고 비용이 많이 들지 않는다는 가정하에 프로덕션 시스템의 계산 예산에 맞출 수 있는 트랜스듀서라고 하는 심층 신경망 모델의 일부로 언어 모델을 추가할 가능성을 설명합니다. 발표자는 또한 최고 성능의 ASR 아키텍처 중 하나로 입증된 REV에서 사용하는 공동 CTC 및 어텐션 모델에 대해서도 이야기합니다. 그들은 또한 데이터 세트의 편향 문제를 다루고 학습 데이터의 균형을 유지하기 위해 사람 전사자를 더 많이 사용하는 것과 같이 탐색 중인 전략을 언급합니다.

  • 00:40:00 이 섹션에서 연사는 재조정을 위한 사후 처리 단계 및 마이닝 데이터를 포함하여 엔드 투 엔드 모델의 문제를 해결하기 위한 잠재적인 전략에 대해 논의합니다. 그들은 또한 연구에서 탐구할 수 있는 커리큘럼 학습과 같은 기술을 언급합니다. 또한 그들은 현재 n-gram 언어 모델을 첫 번째 패스로 사용하고 준수자 모델을 CTC와 어텐션 디코더에 공급되는 임베딩 모두에 대한 인코더로 사용하고 있음을 명확히 합니다. 그들은 질문이 있거나 ASR에 대해 일반적으로 논의하고자 하는 모든 사람을 위해 이메일 주소를 제공합니다.
MIT 6.S191: Automatic Speech Recognition
MIT 6.S191: Automatic Speech Recognition
  • 2022.05.02
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 8How Rev.com harnesses human-in-the-loop and deep learning to build the world's best English speech recogni...
 

MIT 6.S191: 과학을 위한 AI



강의 9. MIT 6.S191: 과학을 위한 AI

MIT 6.S191: AI for Science 비디오는 복잡한 과학적 문제를 해결하기 위해 기존 컴퓨팅 방법을 사용하는 문제와 시뮬레이션 속도를 높이기 위한 기계 학습의 필요성을 탐구합니다. 발표자는 불연속 점에 과대적합하지 않고 미세한 현상을 캡처할 수 있는 새로운 ML 방법을 개발해야 할 필요성에 대해 논의하고 신경 연산자 및 푸리에 변환을 사용하여 편미분 방정식(PDE)을 푸는 다양한 접근 방식을 설명합니다. 또한 PDE로 역 문제를 풀 때 주파수 영역에서 위상 및 진폭 정보를 유지하고 손실 함수로 물리 법칙을 추가하는 것의 중요성을 다룹니다. 또한 AI를 사용하여 기호 방정식을 학습하고 새로운 물리학 또는 법칙을 발견할 수 있는 가능성, 불확실성 정량화의 중요성, 확장성 및 AI 애플리케이션 확장을 위한 엔지니어링 측면 고려 사항에 대해 다룹니다. 비디오는 개인이 AI로 멋진 프로젝트를 추구하도록 격려하며 마무리됩니다.

  • 00:00:00 연사는 과학을 위한 AI에 중점을 두고 도전적인 영역에서 AI 알고리즘의 주요 설계 역할에 대해 논의합니다. 도메인 전문가와 AI 전문가 간의 공통 언어와 기반 구축이 필요하고 과학을 위한 AI를 위한 새로운 알고리즘을 개발해야 할 필요성이 있다. 주요 과제는 외삽 또는 제로 샷 일반화의 필요성입니다. 즉, 훈련 데이터와 매우 다르게 보이는 샘플에 대한 예측을 의미합니다. 이를 위해서는 도메인 사전, 제약 및 물리적 법칙을 고려해야 하며 순수하게 데이터 기반일 수 없습니다. 컴퓨팅에 대한 필요성은 과학 컴퓨팅에서 기하급수적으로 증가하고 있으며 AI는 기후 변화에 대처하고 실제 세계를 미세한 규모로 모델링하는 데 유용할 수 있습니다.

  • 00:05:00 비디오의 이 섹션에서 연사는 분자 시뮬레이션 또는 기후 변화 예측과 같은 복잡한 과학적 문제를 해결하기 위해 기존 컴퓨팅 방법을 사용하는 문제에 대해 논의합니다. 슈퍼컴퓨터를 사용하더라도 100개의 원자를 포함하는 분자에 대한 슈뢰딩거 방정식을 계산하는 데는 우주의 나이보다 훨씬 더 오래 걸립니다. 따라서 이러한 시뮬레이션의 속도를 높이고 데이터 기반으로 만들기 위해서는 기계 학습이 필요합니다. 그러나 현재의 딥 러닝 방법에는 잘못된 예측을 할 때 과신하는 등 부정확하고 잠재적으로 비용이 많이 드는 결정으로 이어질 수 있는 한계가 있습니다. 연사는 이산 지점에 과적합하지 않고 미세한 현상을 캡처할 수 있는 새로운 기계 학습 방법을 개발해야 할 필요성을 강조합니다.

  • 00:10:00 이 부분에서는 해상도 불변 및 대칭을 고려한 방식으로 연속 현상 및 분자 모델링을 캡처할 수 있는 AI 모델 개발의 과제에 대해 논의합니다. 그들은 큰 AI 모델이 지구의 날씨와 같은 복잡한 현상을 포착하는 데 도움이 될 수 있으며 데이터의 가용성 증가와 더 큰 슈퍼컴퓨터가 그 효율성에 기여한다고 지적합니다. 연사는 또한 편미분 방정식을 풀 때 알고리즘 설계 문제와 표준 신경망을 직접 사용할 수 없다는 점, 특히 모델이 서로 다른 초기 조건에서 발생하는 일을 학습해야 하는 유체 흐름과 같은 편미분 방정식 계열을 풀 때 직접적으로 사용할 수 없다는 점에 대해 논의합니다.

  • 00:15:00 이 섹션에서 발표자는 편미분 방정식(PDE)을 푸는 문제와 이것이 표준 감독 학습과 어떻게 다른지에 대해 논의합니다. 문제는 PDE 솔루션이 하나의 해상도로 고정되어 있지 않기 때문에 모든 해상도를 해결할 수 있는 프레임워크가 필요하다는 것입니다. 연사는 PDE를 풀기 위해 주어진 초기 및 경계 조건으로 솔루션을 찾아야 하는 방법을 설명하고 선형 PDE, 특히 열원 예제를 풀면서 영감을 얻어 이를 수행할 수 있는 방법을 설명합니다. 선형 연산자 원리는 비선형성으로 구성하여 기계 학습을 위한 신경망을 설정하는 데 사용됩니다. 그러나 입력이 무한차원이고 연속적이어서 실질적인 해법이 필요하며, 화자는 선형편미분방정식의 풀이에서 영감을 받아 선형연산자를 설계할 것을 제안한다.

  • 00:20:00 이 섹션에서 연사는 신경 연산자를 사용하여 선형이든 비선형이든 편미분 방정식(PDE)을 푸는 개념에 대해 설명합니다. 아이디어는 무한한 차원에서 학습할 수 있는 신경 연산자를 만들기 위해 여러 계층에 걸쳐 통합을 수행하는 방법을 배우는 것과 관련이 있습니다. 이를 달성하는 데 필요한 실용적인 아키텍처는 전역 상관 관계를 캡처할 수 있는 푸리에 변환을 통한 전역 컨볼루션을 통해 개발됩니다. 이 아키텍처는 신호를 푸리에 공간으로 변환하고 주파수 가중치를 변경하는 방법에 대한 가중치를 학습하여 작동합니다. 이것은 안정적이고 표현력을 제공하는 매우 간단한 공식을 제공합니다. 또한 연사는 이 접근 방식이 도메인별 유도 바이어스를 기반으로 하므로 유체 흐름과 같은 분야에서 효율적인 계산이 가능하다고 지적합니다.

  • 00:25:00 발표자는 푸리에 변환을 사용하면 모든 해상도에서 처리할 수 있으며 하나의 해상도에서만 학습하는 컨벌루션 필터와 비교하여 다양한 해상도에서 일반화를 개선한다고 설명합니다. 또한 비선형 변환을 통해 전역 컨벌루션을 함께 해결하는 이 접근 방식의 원칙이 어떻게 표현 모델을 생성하는지에 대해 논의합니다. 그들은 구현의 일반화 가능성과 해상도 불변인 하나의 모델 교육의 이점에 대한 몇 가지 청중 질문에 답합니다. 발표자는 Navier-Stokes 데이터에 이 접근 방식을 구현한 결과를 보여주며 고주파수를 잘 캡처할 수 있고 훈련 데이터보다 더 높은 해상도로 외삽하는 경우에도 결과를 개선할 수 있음을 보여줍니다.

  • 00:30:00 이 부분에서는 진폭만이 아니라 주파수 영역에서 위상 및 진폭 정보를 모두 유지하는 것의 중요성에 대해 설명합니다. 신경망에서 복소수를 사용하는 경우 adam과 같은 알고리즘의 기울기 업데이트에서 잠재적인 버그를 확인하는 것이 중요합니다. 발표자는 솔루션이 방정식을 만족하는 데 근접한지 확인하는 것이 이치에 맞기 때문에 편미분 방정식(PDE)과 같은 솔루션에 손실 함수로 물리 법칙을 추가할 것을 제안합니다. 다양한 문제 인스턴스에 대해 교육하고 적은 양의 교육 데이터에 의존함으로써 데이터 또는 물리학 정보 사이의 균형을 통해 적절한 절충안을 만들고 일반화 기능을 생성할 수 있습니다. 또한 발표자는 PDE를 사용하여 역 문제를 해결하는 유용성을 다룹니다.

  • 00:35:00 이 부분에서는 기계 학습을 통해 역 문제를 해결하는 아이디어에 대해 설명합니다. 여기에는 MCMC와 같은 값비싼 방법에 의존하지 않고 정방향으로 편미분 방정식 솔버를 학습한 다음 반전하여 가장 적합한 것을 찾는 것이 포함됩니다. 연사는 또한 혼돈과 변환기와의 연결이라는 주제를 다루며 주의 메커니즘을 푸리에 신경 연산자 모델로 대체하여 효율성을 높이는 방법을 강조합니다. 날씨 예측, 기후 및 재료의 응력 예측을 포함하여 이러한 다양한 프레임워크의 다양한 응용에 대해 논의합니다. 사전 훈련된 네트워크와 유사한 다양한 응용 분야에 신경 연산자를 사용할 수 있는지 여부에 대한 질문도 제기됩니다. 화자는 보편적인 물리 법칙의 중요성을 인정하지만 물리, 화학 및 생물학을 이해하도록 모델을 훈련시키는 것은 여전히 어려운 과제임을 시사합니다.

  • 00:40:00 비디오의 이 섹션에서 연사는 AI를 사용하여 기호 방정식을 배우고 새로운 물리학 또는 법칙을 발견할 수 있는 가능성에 대해 논의합니다. 또한 AI 애플리케이션 확장을 위한 딥 러닝 모델, 확장성 및 엔지니어링 측면 고려 사항에 대한 불확실성 정량화의 중요성에 대해서도 다룹니다. 또한 트랜스포머 모델에서 self-attention을 사용하는 것과 노이즈 제거를 위한 생성 모델과 같은 다른 스레드에 대한 잠재력을 언급합니다. 전반적으로 이 강연은 딥 러닝에 대한 좋은 기반을 제공하고 개인이 AI로 멋진 프로젝트를 추구하도록 장려하는 것을 목표로 합니다.
MIT 6.S191: AI for Science
MIT 6.S191: AI for Science
  • 2022.05.13
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 9AI for ScienceLecturer: Anima Anandkumar (Director of ML Research, NVIDIA)NVIDIA ResearchJanuary 2022For a...
 

MIT 6.S191: 딥 러닝의 불확실성



강의 10. MIT 6.S191: Uncertainty in Deep Learning

강사 Jasper Snoek(연구 과학자, Google Brain)는 기계 학습 모델, 특히 의료, 자율 주행 자동차 및 대화 시스템과 같은 분야에서 불확실성과 분산 외 견고성의 중요성에 대해 논의합니다. 예측의 불확실성을 표현함으로써 모델은 의사나 사람에게 결정을 내리거나 설명을 요청하기 위한 더 많은 정보를 제공하여 궁극적으로 시스템의 전반적인 유용성을 향상시킬 수 있습니다. 발표자는 또한 모델 불확실성과 불확실성의 원인에 대한 아이디어를 소개하면서 자신의 한계를 인정하는 모델이 훨씬 더 유용할 수 있음을 강조합니다.

  • 00:00:00 비디오의 이 섹션에서 연사는 실제 불확실성 추정의 중요성과 딥 러닝의 분포 견고성을 논의합니다. 불확실성 추정은 단일 예측이 아닌 예측에 대한 분포를 반환하여 신뢰도가 있는 레이블 또는 분산이 있는 평균을 제공하는 것과 관련됩니다. 기계 학습 알고리즘이 일반적으로 동일한 데이터 세트에서 독립적이고 동일하게 분산된 데이터 세트에 대해 훈련되더라도 배포된 모델은 종종 분포가 다른 새로운 데이터를 만나기 때문에 분포 외 견고성이 필요합니다. 여기에는 다른 입력 또는 다른 레이블이 포함될 수 있습니다. 연사는 딥 러닝 모델이 배포 중 데이터 세트 변화로 어려움을 겪고 이러한 분포 변화에 직면했을 때 지나치게 자신만만한 실수를 한다는 것을 보여주는 실험을 제시합니다.

  • 00:05:00 이 섹션에서 발표자는 특히 의료, 자율 주행 자동차 및 대화 시스템과 같은 분야에서 기계 학습 모델의 불확실성과 분산 외 견고성의 중요성에 대해 논의합니다. 예측의 불확실성을 표현함으로써 모델은 의사나 사람에게 결정을 내리거나 설명을 요청하기 위한 더 많은 정보를 제공하여 궁극적으로 시스템의 전반적인 유용성을 향상시킬 수 있습니다. 발표자는 또한 모델 불확실성과 불확실성의 원인에 대한 아이디어를 소개하면서 자신의 한계를 인정하는 모델이 훨씬 더 유용할 수 있음을 강조합니다.

  • 00:10:00 강사는 딥 러닝에서 불확실성의 두 가지 주요 원인인 인식론적 및 우월성에 대해 논의합니다. 인식적 불확실성은 더 많은 데이터 수집으로 줄일 수 있는 진정한 모델이 될 수 있는 불확실성입니다. Aleatoric 불확실성은 데이터에 내재된 불확실성을 말하며 종종 환원불가능한 불확실성으로 알려져 있습니다. 전문가들은 종종 두 가지 유형의 불확실성을 혼동합니다. 비디오는 또한 딥 러닝 모델에서 불확실성의 품질을 측정하는 대중적인 방법이 보정 오류의 개념을 통한다는 점에 주목합니다. 이 영상은 날씨 예측을 위한 보정 오류의 예를 제공하며 내장된 정확도 개념이 없다는 보정의 단점을 강조합니다.

  • 00:15:00 이 섹션에서 Jasper Snoek은 모델에서 불확실성에 대한 좋은 개념을 얻는 것의 중요성과 이를 추출하는 방법에 대해 설명합니다. 그들은 모든 손실 함수가 최대값에 해당하므로 손실 함수를 최소화하는 것이 모델 매개변수가 주어진 데이터의 확률을 최대화하거나 로그 확률을 최대화하는 것과 일치한다고 설명합니다. 발표자는 불확실성이 얼마나 좋은지에 대한 아이디어를 제공하는 적절한 채점 규칙의 중요성을 강조하고 L2 정규화를 사용한 softmax 교차 엔트로피의 개념에 대해 논의합니다. 그들은 또한 xy가 주어진 p theta에 대해 여러 개의 좋은 모델을 얻거나 주어진 관측값의 조건부 분포인 사후를 계산하여 분포를 얻을 수 있다고 설명합니다.

  • 00:20:00 이 부분에서는 매개변수가 주어진 예측 시간에 우도를 계산하는 것과 관련된 베이지안 딥 러닝에 대해 설명합니다. 사후는 예측을 얻기 위해 집계되는 적분에서 매개변수의 각 구성에 가중치를 부여하는 데 사용됩니다. 실제로는 단일 샘플이 아닌 모델 분포를 얻기 위해 많은 샘플을 채취하고 개별 샘플 세트에 대해 예측을 집계합니다. 이는 데이터에서 멀어지면 데이터의 동작이 어떻게 될지에 대한 다양한 가설이 형성되기 때문에 흥미로운 불확실성을 제공합니다. 일반적으로 닫힌 형태로 또는 정확히 깊은 그물에 대해 수행하기에는 비용이 너무 많이 들기 때문에 모든 매개변수에 대해 적분을 근사하는 많은 방법이 있습니다. 독립적으로 훈련된 여러 모델을 가져와 혼합 분포를 형성하는 앙상블도 단일 모델보다 더 나은 예측과 불확실성을 제공하므로 논의됩니다.

  • 00:25:00 이 부분에서는 Jasper Snoek이 딥 러닝 모델의 불확실성을 개선하기 위한 다양한 전략에 대해 설명합니다. 그들은 앙상블이 베이지안인지 아닌지에 대한 전문가 간의 논쟁을 언급하며 화자는 "베이지안이 아닌" 진영에 속합니다. 그들은 또한 고차원 적분을 요구하고 깊은 신경망에 대해 결정하기 어려울 수 있는 잘 정의된 모델 클래스를 지정해야 하는 필요성과 같이 심층 신경망에서 베이지안 모델의 몇 가지 어려움을 설명합니다. 이러한 어려움에도 불구하고 그들은 온도 스케일링을 통한 재보정, Monte Carlo 드롭아웃 및 깊은 앙상블을 포함하여 불확실성을 개선하기 위한 몇 가지 대중적이고 효과적인 방법에 대해 논의합니다. 그들은 또한 하이퍼파라미터 앙상블을 딥 앙상블보다 훨씬 더 잘 작동하는 전략으로 언급합니다.

  • 00:30:00 이 부분에서는 딥 러닝 모델을 최적화하고 특히 대형 모델과 짧은 대기 시간을 처리할 때 모델을 보다 효율적으로 만드는 다양한 방법에 대해 설명합니다. 논의된 첫 번째 접근 방식은 앙상블링으로, 여러 독립 모델을 결합하여 보다 다양한 예측 세트를 생성합니다. 또 다른 접근 방식은 SGD를 통해 최적화하고 평균 가중치 반복 주위에 가우시안을 맞추는 SWAG를 사용하는 것입니다. 그런 다음 논의는 스케일링으로 이동하는데, 이는 많은 딥 러닝 모델이 크고 하드웨어에 맞추기 어렵다는 점을 감안할 때 특히 중요한 문제입니다. 발표자는 순위 1 요인을 사용하여 단일 모델을 변조하는 "배치 앙상블"이라는 방법에 대해 논의하며 단일 모델의 매개변수 수의 5%만으로 전체 앙상블과 거의 동일한 성능을 생성합니다.

  • 00:35:00 이 섹션에서 Jasper Snoek은 배치 앙상블 방법을 대략적인 베이지안 방법으로 바꾸는 아이디어에 대해 설명합니다. 이는 요인에 대한 분포를 사용하고 예측 중에 이러한 요인의 샘플링을 통해 달성할 수 있으며, 이는 모델의 가중치를 변조하는 이진 분포 또는 기타 흥미로운 분포에 해당할 수 있습니다. 베이지안 방법에 대한 다른 접근 방식에는 하위 공간에 대한 베이지안이 되고 신경망이 다중 입력 및 출력을 예측하도록 강제하여 다양하고 흥미롭게 정확한 예측을 유도하는 방법이 포함됩니다. 대규모 사전 훈련된 모델의 사용은 기계 학습의 패러다임 전환으로 논의되며, 여기서 거대한 다른 분포에 액세스하여 정확성과 불확실성을 개선할 수 있습니다.

  • 00:40:00 이 비디오는 딥 러닝에서 불확실성과 견고성의 중요성과 사전 교육이 전체 분포를 얻는 데 어떻게 도움이 될 수 있는지에 대해 설명합니다. 저자는 컴퓨팅 성능이 증가함에 따라 우리 모델에서 더 나은 불확실성을 얻을 수 있는 가능성이 있는 프론티어를 보는 새로운 방법이 있다고 언급합니다. 시뮬레이션-투-리얼 응용 프로그램에서 현실 격차를 좁히기 위해 불확실성을 사용하는 것에 대한 논의도 있지만 세부 사항은 불분명하지만 이러한 응용 프로그램에서는 불확실성과 견고성이 매우 중요하다는 지적이 있습니다.

  • 00:45:00 이 섹션에서 Jasper Snoek은 특히 불확실성을 사용하여 예측 모델을 개선하는 다운스트림 AI 모델에서 불확실성 측정의 잠재적 적용에 대해 논의합니다. 그들은 비전문가 사용자에게 불확실성을 전달하는 문제와 특히 의학 및 자율 주행 자동차와 같은 분야에서 다운스트림 의사 결정 손실을 개선하기 위해 불확실성을 사용하는 것의 중요성을 탐구합니다. 그들은 또한 그들의 그룹이 오픈 소스 라이브러리, 불확실성 기준선을 통해 해결하기 위해 노력하고 있는 베이지안 신경망의 접근 가능하고 사용하기 쉬운 구현의 부족에 대해서도 언급합니다.
MIT 6.S191: Uncertainty in Deep Learning
MIT 6.S191: Uncertainty in Deep Learning
  • 2022.05.28
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 10Uncertainty in Deep LearningLecturer: Jasper Snoek (Research Scientist, Google Brain)Google BrainJanuary ...
 

인공 지능: 인류의 마지막 발명품



인공 지능: 인류의 마지막 발명품

"인공 지능: 인류의 마지막 발명" 비디오는 인공 지능(AI) 개발과 관련된 발전과 잠재적 위험을 탐구합니다. 이 동영상은 불과 40일 만에 수세기에 걸친 인간의 전략 지식을 능가한 Google DeepMind의 AlphaGo를 강조합니다. 약한 AI와 강한 AI의 차이점에 대해 자세히 살펴보고 고급 AI가 기술 특이점으로 이어질 수 있는 방법에 대해 논의합니다. 여기서 지속적으로 개선되고 인간보다 수십억 배 더 똑똑해집니다. 화자는 인공지능에게 인간과 같은 가치와 원칙을 부여하는 것의 중요성을 강조하고 제어 불가능한 시스템을 만드는 것에 대한 주의를 강조한다. 영상은 그렇게 하기 전에 초지능 AI 개발의 결과를 신중하게 고려해야 할 필요성을 강조하며 끝을 맺습니다.

  • 00:00:00 이 부분은 무차별 대입이나 예측으로 해결할 수 없고 10개에서 170개의 이동이 가능한 보드 게임인 바둑의 복잡성을 설명합니다. Google DeepMind의 AlphaGo는 실제 인간 바둑 게임의 데이터를 사용하여 훈련되었으며 사용된 기술을 학습하고 아무도 본 적이 없는 새로운 기술을 만들었는데 그 자체만으로도 인상적이었습니다. AlphaGo가 승리한 지 1년 후, AlphaGo Zero는 2,500년이 넘는 전략과 지식을 불과 40일 만에 능가한 인간 상호 작용 없이 플레이하는 방법을 배웠기 때문에 베어본 규칙을 사용하여 AlphaGo를 100대 0으로 이겼습니다. 이 비디오는 기술이 계속해서 발전함에 따라 상당한 양의 비인간 지식을 강조합니다. 인간이 지능의 소수를 대표하고 AI를 끌 스위치가 없는 지점이 있을 것입니다.

  • 00:05:00 이 섹션에서 비디오는 신경망과 기계가 데이터에서 학습하고 데이터에 대한 자신의 관점을 조정하는 방법에 대해 설명합니다. 또한 인간의 두뇌와 컴퓨터의 능력의 차이를 탐구합니다. 예를 들어 컴퓨터는 인간 수준의 20,000년 분량의 연구를 단 일주일 만에 수행할 수 있습니다. 또한 기계 학습의 기하급수적 특성, 즉 시작은 느리지만 급격하게 빨라지기 시작하는 전환점에 도달한다는 의미를 탐구합니다. 약한 AI와 강한 AI의 차이가 지적됩니다. 전자는 더 적은 전력을 필요로 하지만 후자와 초지능 AI의 차이는 수백만 배 더 큽니다. 따라서 단 몇 개월 만에 초지능 수준에 도달할 수 있는 잠재력을 가진 강력한 AI의 중요성이 강조됩니다.

  • 00:10:00 발표자는 고급 AI가 어떻게 자체적으로 지속적으로 개선되고 인간보다 수십억 배 더 똑똑해지는 기술적 특이점으로 이어질 수 있는지에 대해 논의합니다. 인공지능에 인간과 같은 가치와 원칙을 부여하지 않으면 통제불능이 될 수 있기 때문에 인공지능을 만드는 과정에서 신중을 기해야 한다고 강조한다. 연사는 지능만 있고 지혜가 없는 AI가 어떻게 반드시 윤리적이지 않거나 인간에게 이롭지 않은 결정을 내릴 수 있는지 설명합니다. 연사는 또한 인터넷에 대한 고속 액세스를 제공하고 전 세계에서 사용 가능한 모든 정보에 즉시 액세스할 수 있는 신경 레이스를 만드는 것을 목표로 하는 Neuralink를 소개합니다.

  • 00:15:00 이 섹션에서는 인공 지능 시스템을 만들 때 발생할 수 있는 잠재적인 불확실성과 위험을 살펴봅니다. 의식이 어떻게 프로그래밍될 수 있는지, 사랑과 증오와 같은 감정이 어떻게 복제될 수 있는지와 같이 고려해야 할 많은 질문이 있습니다. 또한 초지능 AI가 급진적인 관점을 채택하고 프로그래밍된 것보다 자신의 의제에 전념할 가능성도 있습니다. 컴퓨팅의 발전이 둔화되고 있는 동안 초지능 AI는 여전히 인류가 전성기에 도달하도록 도울 수 있는 잠재력을 가지고 있지만 잘못된 손에 있는 무기가 될 수도 있습니다. 이는 심각하게 받아들여야 하는 주제이며 그러한 시스템이 만들어지기 전에 그러한 시스템의 안전에 대한 결과를 고려해야 합니다.
Artificial Intelligence: Mankind's Last Invention
Artificial Intelligence: Mankind's Last Invention
  • 2018.10.05
  • www.youtube.com
Artificial Intelligence: Mankind's Last Invention - Technological Singularity ExplainedPart 2: https://www.youtube.com/watch?v=zuXNlTJb_FMFollow me on Instag...
 

캐나다의 인공 지능 혁명 - Dr. Joelle Pineau



캐나다의 인공 지능 혁명 - Dr. Joelle Pineau

Joelle Pineau 박사는 인공 지능(AI) 분야의 발전과 과제에 대해 논의하고 AI 연구 진행에 있어 머신 러닝과 컴퓨터 비전의 역할을 강조합니다. 그녀는 신경 자극 요법과 강화 학습을 사용하여 간질 치료를 최적화하는 자신의 작업을 발표합니다. Pineau 박사는 또한 AI의 사회경제적 영향에 대해 논의하면서 치료를 최적화하기 위해 AI 연구원과 도메인별 의료 연구원 간의 협력이 필요하다고 지적합니다. 그녀는 커리큘럼에 더 많은 기술적 관점을 통합하려는 요구를 충족하기 위해 수학, 과학 및 컴퓨팅 기술에 대한 차세대 교육을 준비하는 것의 중요성을 강조합니다. 그러나 그녀는 또한 데이터의 편향 문제, 개인 정보 보호 및 데이터와 관련된 보안 문제와 같은 현장의 문제를 인식하고 있습니다. Pineau 박사는 궁극적으로 AI가 의료 및 로봇 공학과 같은 다양한 분야를 혁신할 수 있는 잠재력을 가지고 있다고 보고 인간 중심 환경에서 안전하고 효과적으로 작동할 수 있는 자율 시스템의 미래를 기대합니다.

그녀는 또한 기술을 확장하기 위해 인공 지능(AI) 분야에 다양한 관점을 도입해야 할 필요성을 강조하고 AI에서 젊은 여성을 교육하는 McGill의 AI for Good과 같은 이니셔티브를 언급합니다. 그러나 그녀는 재능 부족으로 인한 AI 개발의 병목 현상을 극복하기 위해 그들의 영향을 측정하고 AI에서 더 많은 사람들을 빠르게 교육해야 할 필요성을 지적합니다. Pineau는 AI 분야를 발전시키기 위해 다양하고 잘 훈련된 인력을 확보하는 것이 중요하다고 강조합니다. 비디오는 Pineau가 11월 14일 Omni King Edward 호텔에서 Michele Lamont가 출연하는 다가오는 이벤트를 발표하는 것으로 끝납니다.

  • 00:00:00 비디오의 이 섹션에서 Alan Bernstein 박사는 인류가 직면한 중요한 문제를 해결하기 위해 최고의 연구자들을 모으는 글로벌 연구 기관인 Canadian Institute for Advanced Research(CFR)를 소개합니다. CFR의 성공적인 프로그램 중 하나는 2002년 CFR 펠로우가 개척한 인공 지능(AI)입니다. 저녁 연사인 Dr. Joelle Pineau는 AI가 사회에 미치는 영향과 AI 발전을 둘러싼 윤리적 문제에 대해 자세히 설명합니다.

  • 00:05:00 이 섹션에서 연사는 자율 주행 자동차 및 대화형 에이전트의 개발을 포함하여 인공 지능 분야에서 이루어진 흥미로운 발전에 대해 논의합니다. AI가 아직 일상 생활에 완전히 통합되지는 않았지만 기술은 이미 우리가 디지털 세계와 상호 작용하는 방식에 영향을 미치기 시작했습니다. 연사는 또한 AI 연구를 발전시키는 기계 학습 및 컴퓨터 비전의 역할과 의료 및 로봇 공학과 같은 다양한 분야를 혁신할 수 있는 AI의 잠재력을 강조합니다.

  • 00:10:00 이 섹션에서는 인공 지능의 인지 능력이 미치는 영향과 그것이 경제와 사회를 어떻게 혁신하고 있는지에 대해 배웁니다. AI의 개발은 진행 중인 과정이지만 우리는 계획, 자연어 이해 및 이미지 처리를 위한 모듈이 있는 기계를 만들었습니다. 더 나은 AI와 이러한 다양한 능력을 완벽하게 통합하는 AI를 구축하는 데 어려움이 있습니다. 최근 몇 년 동안 AI에 대한 접근 방식에 변화가 있었는데, 기계는 프로그램 철학 대신 예제를 통해 훈련되었습니다. 컴퓨터 비전의 혁신은 이미지를 이해하는 능력을 향상시켜 자율 주행 자동차와 같은 기술 발전으로 이어졌습니다.

  • 00:15:00 이 섹션에서 Dr. Joelle Pineau는 컴퓨터 비전의 혁신이 데이터, 특히 컴퓨터가 수천 개의 서로 다른 물체를 높은 정확도로 인식하도록 훈련시킨 백만 개의 주석 이미지가 있는 ImageNet 데이터 세트의 가용성에 의해 달성되었다고 설명합니다. 이러한 데이터의 증가는 GPU 플랫폼과 같은 컴퓨팅 플랫폼과 결합되어 딥 러닝 기술이 음성 인식을 포함한 다양한 유형의 데이터에서 발전을 주도할 수 있도록 했습니다. 이 기술은 뉴런이 정보를 수신하고, 처리하고, 결정을 내리고, 메시지를 보내는 뇌의 생물학적 뉴런에 비유되며, 이는 인공 뉴런에서와 동일한 프로세스입니다. 이러한 뉴런 간의 연결은 기계 학습 알고리즘으로 조정되어 올바른 가중치 집합을 선택하여 특정 예측을 강화합니다.

  • 00:20:00 이 섹션에서 Dr. Joelle Pineau는 마지막에 예측이 생성될 때까지 네트워크의 각 계층이 보다 추상적인 버전의 정보를 컴퓨팅하는 인공 신경망이 정보를 처리하는 방법에 대해 설명합니다. 이미지 캡션을 예로 들어 시각과 언어의 교차점도 탐구합니다. 기계는 완벽하지 않고 실수할 수 있지만 강화 학습은 기계의 능력을 향상시킬 수 있는 기술입니다. 성공적인 예는 바둑을 배우고 인간 챔피언을 이기는 방법을 배운 AlphaGo입니다. 이 시스템은 딥 러닝과 수백만 건의 전문가 바둑 게임을 결합한 후 시행 착오 학습을 통해 구축되었습니다.

  • 00:25:00 이 섹션에서 Dr. Joelle Pineau는 그녀와 그녀의 팀이 간질 환자를 위한 치료법을 개선하기 위한 기술 개발을 목표로 몇 년 동안 작업해 온 프로젝트에 대해 설명합니다. 이 프로젝트는 장치가 발작 발생을 방해하기 위해 실시간으로 뇌에 전기 자극을 적용하는 신경 자극 요법의 사용을 포함합니다. 그들이 해결하려는 문제는 발작을 방해하는 능력을 향상시키기 위해 자극의 매개 변수를 최적화하는 방법입니다. 연구원들과 협력하여 강화 학습을 사용하여 전략을 최적화하고 뇌가 발작의 즉각적인 위험에 처해 있는지 여부에 따라 자극 발생률을 간격을 두고 매우 다양한 정책을 개발할 수 있었습니다. 이 실험들은 뇌전증의 동물 모델로 진행되었고, 다음 단계는 인간 실험으로 넘어가는 것입니다.

  • 00:30:00 이 섹션에서 Dr. Joelle Pineau는 특히 일련의 개입이 필요한 질병에 대한 치료 최적화를 위한 AI 전략 사용에 대해 논의합니다. 많은 데이터를 보유하는 것도 중요하지만 더 작은 데이터 세트에서 효율적으로 학습하는 것도 중요하다고 그녀는 지적합니다. 그녀는 AI 연구원과 질병의 역학에 대한 도메인 별 지식과 이해를 가진 의료 연구원 간의 협업이 필요하다고 강조합니다. 또한 그녀는 AI 준비를 갖추기 위해 경제와 사회의 여러 부문에서 인재를 개발하는 것이 중요하다고 강조합니다. Pineau는 또한 캐나다에서 AI 연구를 발전시키는 데 도움이 될 차세대 학생을 배출하기 위한 범 캐나다 전략에 대해서도 논의합니다.

  • 00:35:00 이 섹션에서는 토론토에 있는 Massey College의 주니어 펠로우들이 AI의 사회경제적 영향, 특히 실직 및 부의 격차 증가에 대해 논의했습니다. 연사인 Dr. Joelle Pineau는 정책 전문가는 아니지만 어떤 산업이 영향을 받을 가능성이 가장 높은지 예측하고 다음 세대를 이러한 변화에 대비시키는 것이 중요하다고 제안합니다. 직업 이동의 한 가지 예는 트럭 운송 산업에서 자동화가 새로운 사람을 채용하기 어렵기 때문에 약간의 압력을 완화할 수 있습니다. 그러나 의료 분야에서는 방사선 전문의와 같은 특정 직업을 대체하는 AI의 현실에 사람들을 준비시키는 것이 더 어려울 수 있습니다. Pineau 박사는 그룹에 인간 사회는 적응할 수 있으며 해결해야 할 새롭고 흥미로운 문제가 항상 있을 것임을 상기시킵니다.

  • 00:40:00 이 섹션에서 Dr. Joelle Pineau는 더 많은 기술적 관점을 통합하고 다양한 커리큘럼에 코딩해야 하는 요구를 충족하기 위해 수학, 과학 및 컴퓨팅 기술에 대한 차세대 교육을 준비하는 것의 중요성에 대해 논의합니다. 그러나 보다 광범위한 문화적 노출이 없는 기술 전문가와 기술 전문성이 없는 정책 입안자 사이에는 격차가 있으며 공통 언어를 찾는 데 시간이 걸립니다. Pineau 박사는 또한 인간의 두뇌가 AI 연구에 큰 영감을 주지만 기계가 인간의 두뇌가 할 수 있는 물리적 제약이 있으며 신경망은 이러한 알고리즘을 구축하는 이야기의 일부만을 설명합니다. AI 애플리케이션 측면에서 Pineau 박사의 가장 흥미로운 부분은 로봇 공학의 강화 학습이며 인간 중심 환경에서 안전하고 효과적으로 작동할 수 있는 자율 시스템의 미래를 기대하고 있습니다.

  • 00:45:00 비디오의 이 섹션에서 Dr. Joelle Pineau는 AI를 사용한 간질 프로젝트에 대한 그녀의 작업에 대해 설명합니다. 그녀는 문제의 복잡성과 작업의 학제간 특성으로 인해 매력적이라고 생각합니다. 그녀는 AI의 과제가 데이터에 올바른 질문을 하고 이를 올바른 알고리즘과 연결하는 데 있다고 설명합니다. Pineau 박사는 또한 그녀와 그녀의 대학원생들이 종종 창의력을 발휘하고 데이터에 맞는 새로운 알고리즘을 발명해야 한다고 언급합니다. 그녀는 AI에 대한 가장 큰 오해 중 하나가 인간이 이해할 수 없는 결정을 내리는 블랙박스라고 생각합니다.

  • 00:50:00 이 섹션에서 Dr. Joelle Pineau는 신경망이 어떻게 결정을 내리는지 이해하는 데 따르는 어려움에 대해 설명합니다. 신경망의 예측을 추적할 수는 있지만 인간처럼 간결하고 이해하기 쉬운 방식으로 그러한 예측을 한 이유를 설명하는 것이 항상 쉬운 것은 아닙니다. 그러나 기계가 자신의 결정을 설명하는 내레이션을 구축하도록 설계될 수 있다면 기계와 인간 간의 보다 풍부한 대화를 구축할 수 있습니다. 작업장에서 기계가 더 많이 사용됨에 따라 인간과 기계 간의 파트너십을 구축하기 위해 서로의 결정을 설명하는 언어를 갖는 것이 중요합니다. Pineau 박사는 또한 종종 본질적으로 인간이 가지고 있고 기계 학습 알고리즘의 편향으로 이어질 수 있는 데이터의 편향 문제를 다룹니다. 귀납적 편향은 학습 알고리즘에 필수적이지만 우리는 편향을 의식하고 편향되지 않은 시스템을 설계하기 위해 좋은 귀납적 편향과 데이터를 선택해야 합니다.

  • 00:55:00 이 섹션에서 Dr. Joelle Pineau는 AI 모델을 교육할 때 편견을 피하는 것의 중요성과 이를 달성하기 위한 방법(예: 과소 표현된 데이터 유형)에 대해 설명합니다. 그러나 그녀는 또한 편견을 완전히 피하는 것은 어렵고 기술을 구축하는 사람들 사이에서 다양성을 높이는 데 집중해야 한다고 지적합니다. 또한 그녀는 데이터와 관련된 개인 정보 보호 및 보안 문제, 기계 학습 알고리즘을 배포할 때 공유되는 내용 이해, 강화 학습에서 에이전트에 대한 올바른 보상 기능 파악과 같은 현장의 문제를 인식합니다.

  • 01:00:00 이 섹션에서 Joelle Pineau 박사는 기술의 범위를 확장하기 위해 인공 지능(AI) 분야에 대한 다양한 관점을 도입하는 것의 중요성에 대해 이야기합니다. 그녀는 McGill의 AI for Good 프로그램과 같은 이니셔티브에 대해 언급합니다. 이 프로그램은 AI 및 실용적인 프로젝트에 대한 고급 교육을 위해 젊은 여성들을 모으는 것입니다. 그러나 Pineau는 특히 코딩이 학교 커리큘럼에 도입됨에 따라 이러한 이니셔티브의 영향을 측정하는 데 아직 해야 할 일이 많다고 지적합니다. Pineau에 따르면 AI 개발의 병목 현상은 재능 부족과 이 분야에서 더 많은 사람들을 빠르게 교육해야 할 필요성입니다. AI 연구를 위해 사람들을 교육하는 방법에 대해 그녀는 이용 가능한 기회의 스펙트럼과 모든 수준에서 더 잘해야 할 필요성을 인정합니다. 전반적으로 Pineau는 AI 분야를 발전시키기 위해 다양하고 잘 훈련된 인력을 확보하는 것이 중요하다고 강조합니다.

  • 01:05:00 이 섹션에서 연사는 참석자들에게 감사를 표하고 Harvard University의 Seafire 펠로우인 Michele Lamont가 출연하는 예정된 이벤트를 발표하며 이벤트를 마칩니다. Lamont는 사회가 어떻게 더 포괄적이 될 수 있는지에 대해 논의하고 가을 후반에 네덜란드 왕으로부터 Erasmus Prize를 받게 될 것입니다. 행사는 11월 14일 옴니 킹 에드워드 호텔에서 진행됩니다.
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
  • 2017.11.11
  • www.youtube.com
Dr. Joelle Pineau discusses how artificial intelligence is poised to change almost every aspect of our lives, from medical treatments to assistive robots to ...
 

인공 지능 및 알고리즘: 장단점 | DW 다큐멘터리(AI 다큐멘터리)



인공 지능 및 알고리즘: 장단점 | DW 다큐멘터리(AI 다큐멘터리)

이 비디오는 AI의 윤리적 함의에 초점을 두고 인공 지능의 장단점에 대해 논의합니다. AI가 어떻게 효율성과 공공 안전을 개선하는 데 사용될 수 있는지 뿐만 아니라 프라이버시를 침해하는 데 어떻게 사용될 수 있는지를 강조합니다. 이 비디오는 Google에서 오랫동안 근무한 직원인 Jens Redma를 인터뷰하여 회사에서 AI의 중요성에 대해 이야기합니다.

  • 00:00:00 인공 지능은 일상 생활의 여러 측면을 혁신할 수 있는 잠재력을 가지고 빠르게 발전하고 있습니다. 그러나 인공 지능이 노동력과 개인 정보 보호에 미치는 영향에 대한 우려도 있습니다.

  • 00:05:00 이상을 식별하기 위해 흉부 엑스레이를 포함한 대규모 데이터 세트를 분석하는 데 인공 지능이 사용되고 있습니다. 알고리즘의 정확도는 인간 방사선 전문의의 정확도와 비슷합니다. 그러나 알고리즘은 완벽하지 않으며 확률에 따라 클리닉에서 결정을 내리려면 여전히 사람이 필요합니다.

  • 00:10:00 Max Little은 Aston University의 수학자로서 파킨슨병이 있는 사람과 없는 사람의 발성 패턴 차이를 감지하는 알고리즘을 개발했습니다. 이 연구는 알고리즘이 조건을 식별하는 데 거의 99% 정확하다는 것을 보여주었습니다. 이 작업은 잠재적으로 가치가 있지만 이 데이터를 사용하여 적절한 동의 없이 사람들을 진단하는 데 윤리적 문제가 있습니다.

  • 00:15:00 이 비디오는 공공 안전과 효율성을 개선하는 능력을 포함하여 인공 지능의 장점과 단점을 보여줍니다. 또한 개인 정보 보호와 보안 간의 균형에 대해서도 설명합니다. 중국에는 다른 전통이 있으며 효율성과 데이터 수집에 중점을 둔 프라이버시 및 감시 문제를 다루고 있습니다.

  • 00:20:00 영상에서는 인공지능의 장단점에 대해 토론합니다. 이 비디오는 또한 Google과 같은 회사가 사회에 미치는 영향과 유럽 연합이 현재 Google에 27억 달러의 독점 금지 벌금을 어떻게 부과하고 있는지에 대해 설명합니다.

  • 00:25:00 이 동영상은 Google에 대한 인공 지능(AI)의 중요성에 대해 논의하고 사회에 미치는 영향에 대해 제기되는 몇 가지 우려 사항에 대해 논의합니다. 또한 회사에서 AI의 중요성에 대해 Google에서 오랫동안 근무한 직원인 Jens Redma를 인터뷰합니다.

  • 00:30:00 이 비디오는 인공 지능의 장단점에 대해 논의하며 현장에서 직관과 인간의 의사 결정의 중요성을 강조합니다. 복잡한 환경에서 탐색할 수 있는 AI의 필요성과 이를 달성하는 데 수반되는 어려움에 대해 이야기합니다.

  • 00:35:00 인공 지능은 운전자가 사고를 피할 수 있도록 도울 수 있지만 이렇게 급변하는 상황에서 누구를 구할 것인지 결정하는 방법에 대한 윤리적 질문이 있습니다. 최근 온라인 설문 조사에서 사람들은 많은 도덕적 가치에 동의했지만 특정 시나리오에서 행동하는 방법은 달랐습니다.

  • 00:40:00 이 다큐멘터리에서 연구원들은 인공 지능과 알고리즘의 장단점에 대해 논의합니다. 그들은 AI가 우리가 보다 효율적으로 의사 결정을 내리는 데 어떻게 도움이 되는지에 대해 논의하지만 아직 해결해야 할 윤리적 문제가 있다는 점에 주목합니다.
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
  • 2019.09.26
  • www.youtube.com
Developments in artificial intelligence (AI) are leading to fundamental changes in the way we live. Algorithms can already detect Parkinson's disease and can...