머신 러닝 및 신경망 - 페이지 19

 

강의 15. 학습: 아차사고, 펠리시티 조건



15. 배움: 니어미스, 펠리시티 조건

이 비디오에서 패트릭 윈스턴 교수는 니어 미스 및 펠리시티 조건에서 학습의 개념에 대해 설명합니다. 그는 아치를 만들고 아치로 간주되기 위해 필요한 특정 제약 조건을 식별하는 것을 포함하여 다양한 예를 사용합니다. 그는 또한 휴리스틱 학습을 사용하여 컴퓨터 프로그램이 기차의 주요 기능을 식별할 수 있는 방법을 설명합니다. 발표자는 자기 설명과 스토리텔링의 중요성, 특히 두 가지를 프레젠테이션에 통합하는 것이 아이디어를 돋보이게 하고 유명하게 만드는 방법을 강조합니다. 궁극적으로 그는 패키징 아이디어가 AI에 관한 것일 뿐만 아니라 훌륭한 과학을 수행하고 자신을 더 똑똑하게 만들고 더 유명해지는 것이라고 믿습니다.

  • 00:00:00 이 섹션에서는 패트릭 윈스턴 교수가 한 번에 단일 예제에서 학습하는 새로운 방법을 설명합니다. 아치의 교실 예는 모델을 사용하여 모든 예에서 확실한 것을 배울 수 있는 방법과 그가 "니어 미스(near miss)"라고 부르는 것을 보여주기 위해 사용됩니다. 이 프로세스에는 표면의 흠집에 대한 정보를 억제하고 구조를 명시적으로 만들기 위해 높이와 재료와 같이 중요하지 않은 모든 세부 사항을 추상화하는 작업이 포함됩니다. 이 접근 방식은 궁극적으로 보다 효율적인 학습으로 이어지며 인간의 학습과 더 똑똑해지는 데 영향을 미칩니다.

  • 00:05:00 이 섹션에서는 니어 미스 및 펠리시티 조건으로부터 학습의 개념에 대해 설명합니다. 화자는 요점을 설명하기 위해 아치를 만드는 예를 사용합니다. 아치와 니어 미스의 다양한 예를 살펴보면서 진정으로 아치로 간주되기 위해 필요한 특정 제약 조건을 식별하기 시작합니다. 지지 관계의 존재에서 접촉 관계의 금지에 이르기까지 연사는 아치 건축의 핵심 요소를 설명합니다. 또한 아치 상단의 색상은 명령으로 식별됩니다. 필요한 것과 필요하지 않은 것을 식별하는 이 과정을 통해 화자는 수많은 시행착오를 거치지 않고 단계적으로 제약 조건을 학습할 수 있는 방법을 강조합니다.

  • 00:10:00 이 섹션에서 화자는 작업 중인 세계의 특성을 고려하여 새 모델을 만드는 방법을 설명합니다. 예를 들어 세 가지 색상만 사용할 수 있는 깃발 세계에서 모든 색상이 따라서 진화 모델이 조정됩니다. 화자는 어린이 블록의 예를 제시하고 부품의 계층 구조를 어떻게 표현하여 보수적인 일반화를 할 수 있는지 설명합니다. 그런 다음 화자는 이러한 유형의 학습을 신경망과 대조하고 인간이 수행할 예제 작업을 제시합니다. 여기에는 상단 열차를 하단의 열차와 구별하고 구분하는 설명을 제공하는 것이 포함됩니다.

  • 00:15:00 이 섹션에서 발표자는 휴리스틱 학습 과정을 통해 컴퓨터 프로그램이 탑이 닫힌 기차의 주요 기능을 식별할 수 있는 방법을 설명합니다. 프로그램에는 일련의 긍정적 및 부정적 예가 제공되며 부정적인 예는 제외하면서 가능한 한 많은 긍정적 예를 포함하는 설명 구성을 시작하기 위해 "종자" 예가 선택됩니다. 시드에 적용되는 휴리스틱 또는 규칙은 빔 검색과 같은 기술을 사용하여 제어해야 하는 가능한 솔루션의 큰 트리를 형성하기 위해 다양한 방식으로 결합될 수 있습니다. 발표자는 또한 모델의 필수 기능을 식별하는 데 도움이 되는 "require link" 휴리스틱을 포함하여 그의 친구가 개발한 휴리스틱에 대한 어휘를 소개합니다.

  • 00:20:00 이 섹션에서 Patrick Winston 교수는 "금지된 링크", "확장 세트", "드롭 링크" 및 "클라우드 트리"와 같은 다양한 휴리스틱을 사용하여 학습을 전문화하거나 일반화하는 방법을 설명합니다. . 그는 또한 니어 미스(near miss) 및 예에 대한 아이디어와 이들이 일반화 및 전문화와 어떻게 연결되어 있는지에 대해서도 다룹니다. 이러한 휴리스틱을 사용하면 더 적거나 더 많은 항목을 일치시키는 데 도움이 될 수 있으며 문제에 따라 사람이나 더 큰 메모리를 가진 컴퓨터에 더 적합할 수 있습니다. 어떤 방법이 더 나은지 결정하는 방법은 해결하려는 특정 문제에 따라 다릅니다.

  • 00:25:00 학습 과정에서 니어 미스 및 펠리시티 조건의 중요성. 이 섹션에서 패트릭 윈스턴 교수는 학생의 초기 지식 상태를 새로운 지식 상태로 전환하기 위해 교사와 학생이 그들 사이에 유지되는 계약을 어떻게 수립해야 하는지 설명합니다. 학생의 지식 상태를 나타내는 네트워크 모델을 사용하여 교사는 학생이 저지른 실수 유형을 식별하고 그에 따라 피드백을 제공할 수 있습니다. 그렇게 함으로써 교사는 학생 지식의 파면을 효과적으로 밀어내고 새로운 정보를 배우고 적용하는 학생의 능력을 향상시킬 수 있습니다.

  • 00:30:00 이 섹션에서 발표자는 학생을 가르칠 때 학생의 계산 능력을 이해하는 것이 얼마나 중요한지 논의합니다. 여기에는 컴퓨터에 비해 정보를 저장하는 3학년 학생의 제한된 능력을 고려하는 것이 포함됩니다. 그들은 또한 교사의 스타일에 대한 신뢰와 이해와 같은 성약이 학생이 효과적으로 학습하는 데 어떻게 필요한지에 대해서도 이야기합니다. 화자는 혼잣말을 하거나 설명을 작성하는 것이 학습에 얼마나 중요한지 설명합니다. Michelene Chi가 수행한 실험은 기초 물리학을 학습할 때 혼잣말을 하는 것이 이점이 있음을 보여 주었습니다.

  • 00:35:00 이 섹션에서는 자기 설명이 문제 해결 능력에 어떤 영향을 미칠 수 있는지에 중점을 둡니다. 덜 똑똑한 사람들보다 두 배 더 높은 점수를 받은 가장 똑똑한 사람들은 낮은 점수를 받은 그룹의 참가자들보다 세 배 더 많이 혼잣말을 했습니다. 자체 설명은 물리학과 관련된 범주와 물리학 대신 모니터링과 관련된 범주의 두 가지 범주로 나눌 수 있습니다. 누군가가 혼잣말을 많이 할수록 문제 해결 점수가 더 좋아지는 것 같습니다. 더 나은 점수를 얻기 위해 혼잣말을 하는 것이 효과가 있다는 명확한 징후는 없지만 혼잣말을 더 많이 하면 도움이 될 수 있다는 일화적 증거가 있습니다. 마지막으로 토론은 아이디어를 잘 알리고 싶을 때 특히 유용한 패키징 아이디어와 작업과 관련된 기호 또는 시각적 핸들의 필요성부터 시작하여 프로세스를 지원하는 5가지 특성으로 이동합니다.

  • 00:40:00 이 섹션에서는 패트릭 윈스턴 교수가 아이디어를 널리 알리는 데 있어 놀라운 점과 중요한 점의 중요성에 대해 설명합니다. 그는 좋은 아이디어가 유명해지기 위해서는 눈에 띄는 것이 있어야 하며 청중에게 어필할 수 있는 프레젠테이션에 스토리를 포함시키는 것이 필수적이라고 설명합니다. 더욱이 그는 중요함을 나타내지만 명시적으로 "돌출"을 의미한다고 말함으로써 "돌출"이라는 용어를 명확히 합니다. 그는 교육이 본질적으로 스토리텔링에 관한 것이라고 제안하고 개인이 이러한 특성을 프레젠테이션에 통합하여 프레젠테이션을 보다 효과적으로 만들도록 권장합니다. 궁극적으로 그는 아이디어가 성공할 가능성이 가장 높도록 잘 포장되어 있는 한 유명해지는 것이 비도덕적이지 않다고 믿습니다.

  • 00:45:00 이 섹션에서 화자는 Julia Child 옆에 앉아 그녀에게 유명해지는 것에 대해 묻는 이야기를 합니다. 아이는 익숙해진다고 대답했고, 이에 화자는 무시당하는 반대의 경험을 생각하게 되었다. 그는 패키징 아이디어의 중요성과 그것이 단지 AI에 관한 것일 뿐만 아니라 훌륭한 과학을 수행하고 자신을 더 똑똑하고 유명하게 만드는 것과도 관련이 있다는 점을 강조합니다.
 

강의 16. 학습: 서포트 벡터 머신



16. 학습: 서포트 벡터 머신

비디오에서 Patrick Winston은 SVM(Support Vector Machine)의 작동 방식과 결정 규칙을 최적화하는 데 SVM을 사용하는 방법에 대해 설명합니다. 그는 SVM 알고리즘이 변환 Phi를 사용하여 입력 벡터 x를 두 개의 유사한 벡터를 분리하기 더 쉬운 새로운 공간으로 이동한다고 설명합니다. 커널 함수 k는 x sub i와 x sub j의 내적을 제공합니다. 커널 함수인 함수 k만 있으면 됩니다. 1990년대 초에 SVM에서 일했던 소련 이민자인 Vapnik은 커널 아이디어를 되살리고 SVM 접근 방식의 필수적인 부분으로 만든 공로를 인정받고 있습니다.

  • 00:00:00 지원 벡터 머신은 결정 경계를 결정하기 위해 공간을 분할하는 정교한 방법입니다. 그들은 Vladimir Vapnik에 의해 개발되었으며 더 정확한 의사 결정을 허용하기 때문에 큰 문제입니다.

  • 00:05:00 비디오는 서포트 벡터 머신의 작동 방식에 대해 설명하고 샘플이 양성인지 음성인지에 대한 결정 규칙을 제공합니다.

  • 00:10:00 이 비디오에서 Patrick Winston은 문제에 대한 최적의 솔루션을 찾는 데 도움이 되는 기계 학습 알고리즘인 SVM(Support Vector Machine)의 개념을 소개합니다. SVM의 첫 번째 방정식은 변수 벡터를 가져와 숫자를 출력하는 함수인 비용 함수입니다. 비용 함수에는 비용 함수에서 각 변수의 중요도에 해당하는 벡터인 가중치 벡터가 곱해집니다. SVM의 두 번째 방정식은 최적화 문제로, 비용 함수와 가중치 벡터를 받아 최적의 솔루션을 찾으려는 함수입니다. 최적화 문제는 비용 함수를 최소화하여 해결됩니다. SVM의 최종 방정식은 SVM의 출력인 출력 벡터입니다.

  • 00:15:00 비디오는 SVM(Support Vector Machine)을 사용하여 문제를 해결하는 방법에 대해 설명하고 이 기술을 사용하여 거리의 폭을 계산하는 방법을 보여줍니다.

  • 00:20:00 이 비디오에서 Patrick Winston은 라그랑주 승수가 제약 조건이 있는 함수를 최적화하기 위해 어떻게 작동하는지 설명합니다. 이 비디오는 또한 라그랑주 승수를 사용하여 제약 조건이 있는 함수의 극한값을 찾는 방법을 다룹니다.

  • 00:25:00 이 비디오에서 샘플의 선형 합은 샘플 구성 요소의 선형 합과 같다는 것을 발견했습니다. 또한 서로 다른 변수에 대한 Lagrangian 도함수를 미분하여 α i 곱하기 y sub i 의 합이 0 임을 나타내어 벡터 w 가 어떤 α i, 일부 스칼라, 곱하기 이 빼기 1 또는 더하기 1 변수 곱하기 x sub i 나누기 i.

  • 00:30:00 이 비디오에서 그는 지원 벡터 머신을 사용하여 2차 최적화 문제를 해결하는 방법을 설명합니다. 결정 벡터는 샘플의 선형 합이며 대수학이 쉽다고 설명합니다. 학생은 문제의 모든 항에 대해 알파 i 곱하기 y sub i 곱하기 x sub i의 합을 취함으로써 대수학이 단순화된다고 설명합니다.

  • 00:35:00 이 비디오에서 한 수학자는 결정 규칙의 최적화가 어떻게 샘플 쌍의 내적에만 의존하는지 설명합니다. 이는 수학적 분석이 가능하고 최적화 알고리즘이 두 최적 솔루션을 분리하는 직선을 찾을 수 있음을 보여줍니다.

  • 00:40:00 서포트 벡터 머신에서 변환 Phi는 입력 벡터 x를 두 개의 유사한 벡터를 분리하기 더 쉬운 새 공간으로 이동하는 데 사용됩니다. 커널 함수 k는 x sub i와 x sub j의 내적을 제공합니다. 커널 함수인 함수 k만 있으면 됩니다.

  • 00:45:00 동영상에서는 SVM(Support Vector Machine)의 작동 방식과 커널을 사용하여 SVM의 성능을 개선하는 방법에 대해 설명합니다. 1990년대 초에 SVM에서 일했던 소련 이민자인 Vapnik은 커널 아이디어를 되살리고 SVM 접근 방식의 필수적인 부분으로 만든 공로를 인정받고 있습니다.
 

강의 17. 학습: 부스팅



17. 학습: 부스팅

이 비디오에서는 여러 약한 분류기를 결합하여 강력한 분류기를 만드는 부스팅의 아이디어에 대해 설명합니다. 아이디어는 약한 분류자가 투표하고 강한 분류자가 가장 많은 표를 얻은 분류자라는 것입니다. 이 동영상에서는 부스팅 알고리즘을 사용하여 개별 분류기의 성능을 개선하는 방법을 설명합니다.

  • 00:00:00 이 비디오는 여러 약한 분류자를 결합하여 강력한 분류자를 만드는 부스팅의 아이디어에 대해 설명합니다. 아이디어는 약한 분류자가 투표하고 강한 분류자가 가장 많은 표를 얻은 분류자라는 것입니다.

  • 00:05:00 YouTube 동영상에서는 부스팅 알고리즘을 사용하여 개별 분류기의 성능을 개선하는 방법을 설명합니다. 이 알고리즘에는 서로 다른 데이터 세트에서 각 분류자를 교육한 다음 결과를 결합하는 작업이 포함됩니다. 동영상에서는 이 알고리즘을 사용할 때 과적합을 방지하는 방법도 설명합니다.

  • 00:10:00 비디오에서 연사는 기계 학습 알고리즘을 "부스팅"하여 정확도를 향상시키는 방법에 대해 이야기합니다. 부스팅은 왜곡된 샘플 세트를 보는 것과 관련이 있으며, 여기서 알고리즘이 잘못된 샘플은 결과에 과장된 영향을 미칩니다. 이를 통해 알고리즘은 실수로부터 학습하고 정확도를 높일 수 있습니다.

  • 00:15:00 YouTube 동영상에서 연사는 부스팅을 사용하여 테스트 배치를 생성하는 방법을 설명합니다. 그는 또한 오류율을 계산하는 방법과 가중치를 사용하여 일부 오류의 영향을 과장하는 방법을 설명합니다.

  • 00:20:00 발표자가 각각 자체 가중치가 있는 여러 분류기를 결합하여 분류기를 만드는 방법을 설명합니다. 그는 이것이 분류기의 최신 기술이며 분류기를 함께 추가하는 것보다 더 효과적이라고 설명합니다.

  • 00:25:00 비디오는 부스팅 학습 알고리즘과 관련된 다양한 단계에 대해 설명합니다. 이러한 단계에는 오류율을 최소화하는 분류기 선택, 알파 값 계산 및 수정된 가중치 생성을 위한 분류기 사용이 포함됩니다. 알고리즘의 전반적인 목표는 모든 샘플 데이터에 대한 완벽한 결론 세트를 생성하는 분류기를 생성하는 것입니다.

  • 00:30:00 이 비디오는 오류율을 최소화하여 성능을 향상시키도록 기계를 학습시키는 방법에 대해 설명합니다. 일련의 예제를 통해 오류율이 기하급수적으로 감소하는 방법을 보여줍니다.

  • 00:35:00 이 비디오에서 발표자는 알파 값을 사용하여 새 가중치를 계산하는 방법을 설명합니다. 그는 프로그램이 작동하는 방식과 이런 종류의 일을 수행하는 더 나은 방법을 찾기 위해 수학을 수행하는 방법을 알아야 하는 방법에 대해 이야기합니다. 그는 또한 오류율의 제곱근을 1에서 오류율을 뺀 값이 답이 올바른 경우 가중치의 승수이고 1의 제곱근에서 오류율을 오류율로 나눈 값이 어떻게 가중치의 승수인지 설명합니다. 답이 틀리면 무게.

  • 00:40:00 올바르게 분류된 샘플의 가중치 합은 1/2이고 잘못 분류된 샘플의 가중치 합은 1/2입니다.

  • 00:45:00 부스팅은 기계 학습 모델의 성능을 향상시키는 데 사용되는 방법입니다. 여러 약한 모델을 결합하여 더 강력한 모델을 만드는 방식으로 작동합니다. 부스팅은 과적합을 줄이는 데 효과적이며 필기 인식, 음성 이해와 같은 분야에서 자주 사용됩니다.

  • 00:50:00 이 영상은 기계 학습 알고리즘의 성능을 향상시키는 방법인 "부스팅"의 개념에 대해 설명합니다. 부스팅에는 일련의 약한 분류기를 교육한 다음 예측을 결합하는 작업이 포함됩니다. 이것은 일반적으로 단일 강력한 분류자를 사용하는 것보다 상당한 성능 향상을 가져옵니다.
 

강의 18. 표현: 클래스, 궤적, 전환



18. 표현: 클래스, 궤적, 전환

이 비디오에서 패트릭 윈스턴 교수는 인간 지능의 개념, 상징적 표현을 형성하는 능력, 언어와의 관계, 내적 언어와 생각을 표현하기 위한 의미망의 사용에 대해 논의합니다. Winston은 기본 패턴을 이해하고 다양한 객체와 그 동작을 이해하는 데 도움이 되는 변화의 어휘를 개발하는 것의 중요성을 강조합니다. 또한 그는 소스에서 목적지까지의 동작과 문장을 더 잘 이해하기 위한 다중 표현의 중요성을 설명하기 위한 궤적 프레임의 사용에 대해 논의합니다. 마지막으로, Winston은 모호한 언어, 혼란스러운 대명사, 단어 전환을 피함으로써 특히 영어가 모국어가 아닌 사람들을 위해 테크니컬 라이팅을 향상시키는 방법에 대한 팁을 제공합니다.

  • 00:00:00 이 섹션에서 패트릭 윈스턴은 기계 지능과 비교하여 인간 지능의 특성을 반성하는 것으로 시작합니다. 그는 기계가 지원 벡터 기계 및 부스팅과 같은 방법을 통해 스마트 작업을 수행할 수 있지만 수행 중인 작업에 대한 이해가 부족하고 인간 지능에 대한 통찰력을 제공하지 않는다고 설명합니다. 그런 다음 Winston은 인간 지능의 진화론적 관점에 대해 논의하고 우리 가계도에서 증가하는 뇌 크기를 강조합니다. 그러나 그는 현생인류보다 더 큰 뇌를 가진 네안데르탈인이 큰 영향을 미치지 않았기 때문에 뇌의 크기가 인간의 지능을 설명하기에 충분하지 않다고 지적합니다. 대신, 도구와 예술 작품에서 알 수 있듯이 남 아프리카의 호모 사피엔스 그룹은 아무도 가지지 못한 것을 개발하고 빠르게 인수했습니다.

  • 00:05:00 이 섹션에서 화자는 상징적 표현을 형성하는 능력이 인간이 이야기를 말하고 이해할 수 있게 해준다는 생각에 대해 논의합니다. 언어의 발달과 관련된 이 능력은 우리가 두 가지 개념을 취하고 그것들을 결합하여 무한히 세 번째 개념을 형성할 수 있기 때문에 우리 종을 특별하게 만들었습니다. 그는 또한 우리가 생각하는 언어인 "내면의 언어"의 개념에 대해 논의합니다. 이 언어는 우리가 의사소통하는 언어와 동일하지 않을 수 있습니다. 화자는 내적 언어와 생각을 표현하기 위해 의미를 전달하는 노드와 링크의 네트워크인 시맨틱 네트의 사용을 제안합니다. 그는 관계를 지원하는 노트와 Macbeth에서 이벤트를 추적하는 다른 것과 같은 의미망의 예를 제공합니다.

  • 00:10:00 이 섹션에서 발표자는 시맨틱 네트의 개념, 요소 및 인공 지능에서의 응용에 대해 논의합니다. 시맨틱 네트워크는 노드와 링크를 사용하여 노드를 연결하는 링크로 정보를 표현하는 방법입니다. 이를 통해 링크 간의 연결을 다른 링크의 주체 또는 객체가 될 수 있는 객체로 취급할 수 있습니다. 또 다른 개념은 링크를 객체로 취급하는 과정인 "구체화"입니다. 연사는 결합기 네트워크의 개념 위에 현지화 계층을 배치하는 것의 중요성을 강조합니다. 분류의 사용은 의미망의 내부 언어에서 가장 유용한 요소 중 하나이며 피아노, 도구 및 지도와 같은 것에 적용됩니다. 또한 기생적 의미론의 위험이 있습니다. 여기서 우리는 물리적 세계와의 접촉에 근거하지 않는 기계에 대한 이해를 투사합니다.

  • 00:15:00 이 섹션에서 패트릭 윈스턴 교수는 사물에 대한 우리의 이해에서 수준의 개념에 대해 논의합니다. 그는 우리가 서로 다른 수준에서 서로 다른 것에 대해 알고 있으며 일부 개체는 범주화의 특수성에 따라 다른 개체보다 시각화하기 쉽다고 강조합니다. 예를 들어, 도구의 그림을 형성하는 것은 어렵지만 볼핀 해머는 더 구체적이어서 시각화하기가 더 쉽습니다. Winston은 또한 계층 구조의 요소를 사용하여 개체에 대한 지식을 걸고 계층 구조의 기본 수준은 "피아노"라는 단어와 같이 대부분의 지식을 걸 수 있는 위치라고 말합니다. 또한 Winston은 자동차가 벽에 충돌하는 예를 사용하여 계층 구조의 여러 수준에 있는 개체에 대해 이야기하는 방법에 대해 설명합니다. 여기에는 자동차의 속도, 벽까지의 거리, 차량의 상태와 같은 다양한 항목에 대한 생각이 포함됩니다. 자동차.

  • 00:20:00 이 섹션에서 화자는 자동차 충돌과 같은 이벤트 이전, 도중 및 이후와 같이 서로 다른 기간의 개체를 이해하기 위해 변화의 어휘를 사용하는 방법에 대해 논의합니다. 어휘에는 감소, 증가, 변화, 나타나다, 사라지다 등의 요소가 포함되며 모두 시각과 밀접한 관련이 있습니다. 유추는 카메라 작동 방식과 같은 다양한 개념을 이해하는 데에도 사용됩니다. 화자는 또한 궤적을 따라 움직이는 물체를 포함하는 표현의 세 번째 요소로 궤적을 소개합니다. 전반적으로 연사는 기본적인 패턴을 이해하고 다양한 물체와 그 동작을 이해하는 데 도움이 되는 언어를 개발하는 것의 중요성을 강조합니다.

  • 00:25:00 이 섹션에서 발표자는 소스에서 대상까지의 동작을 포함하는 동작을 설명하기 위해 궤적 프레임을 사용하는 방법에 대해 설명합니다. 이 프레임은 객체, 에이전트, 도구 등 다양한 요소로 구성됩니다. 발표자는 전치사가 영어와 같은 언어에서 이러한 요소를 장식하는 데 자주 사용된다고 말합니다. 또한 연사는 궤적은 없지만 도구 및 수혜자와 같은 요소를 여전히 포함하는 역할 프레임에 대해 논의합니다. 발표자는 이러한 프레임이 Wall Street Journal Corpus에서 일반적으로 발견되며 주어진 텍스트에서 전환 밀도와 궤적을 분석하는 데 사용할 수 있다고 설명합니다. 마지막으로 화자는 스토리 시퀀스의 개념을 소개하고 문제를 피하기 위해 선택한 성 중립적인 이름의 예를 제공합니다.

  • 00:30:00 이 섹션에서 동영상은 다중 표현의 중요성과 이를 통해 문장을 더 잘 이해할 수 있는 방법에 대해 설명합니다. 주어진 예는 Pat이 Chris를 위로하는 것으로, 역할 프레임과 분위기가 개선된 대상(Chris)을 포함하는 전환 프레임으로 나눌 수 있습니다. 비디오는 또한 동작을 부정적인 것(예: 테러)으로 변경하면 프레임에 어떤 영향을 미치는지 살펴봅니다. 또한 비디오는 "Pat kissed Chris"와 같은 문장에서 형성될 수 있는 정신적 이미지의 한 유형으로 궤적 프레임의 아이디어를 소개합니다.

  • 00:35:00 이 섹션에서 Jordan Peterson 교수는 인간이 일련의 사건을 사용하여 이야기를 표현하는 방법에 대해 설명합니다. 그는 이 표현이 어떻게 키스나 찌르기와 같은 단순한 행동에서 복잡한 이야기에 이르기까지 다양할 수 있는지, 그리고 사건이 발생하는 맥락에 따라 어떻게 달라지는지 설명합니다. 그는 또한 스토리텔링에서 시퀀스의 중요성과 어떻게 우리의 기억이 시퀀스의 아이디어에 뿌리를 두고 있는지에 대해 이야기합니다. 마지막으로 그는 이벤트 프레임, 재해 프레임, 파티 프레임과 같이 자신이 속한 상위 클래스를 기반으로 인간이 접하는 스토리에 대해 더 잘 이해하는 데 스토리 라이브러리가 어떻게 도움이 되는지 논의합니다.

  • 00:40:00 이 섹션에서 발표자는 파티 및 재해와 같은 프레임 유형으로 이벤트를 그룹화하는 방법에 대해 설명합니다. 각 프레임에는 사망자 또는 신랑 신부의 이름과 같은 정보 유형으로 채워지는 특정 슬롯이 있습니다. 그러나 대명사 선행사의 통사적 문제로 인해 이야기를 이해하는 것이 어려울 수 있습니다. 화자는 이해를 방해할 수 있으므로 스토리텔링에 불필요한 통사적 어려움을 더하지 않는 것이 중요하다고 강조합니다. 신문 기자는 독자가 정보를 쉽게 이해할 수 있도록 명확하고 간결한 방식으로 기사를 작성합니다.

  • 00:45:00 이 섹션에서 Patrick Winston은 특히 영어로 명확하게 작성하려는 러시아 및 독일 작가를 위해 기술 문서 작성을 개선하는 방법에 대한 팁을 제공합니다. 그는 모호함과 혼동을 줄이기 위해 대명사를 피하고 대신 명확한 명사를 사용할 것을 제안합니다. 그는 또한 독자가 의미를 확인하기 위해 다시 참조해야 하는 "이전" 및 "나중"과 같은 단어를 피하고 "삽" 및 "삽"과 같은 단어 전환을 피하는 것의 중요성을 강조합니다. Winston에 따르면 이러한 간단한 규칙을 따르면 테크니컬 작가는 글을 더 명확하고 독자가 이해하기 쉽게 만들 수 있습니다.
 

강의 19. 아키텍처: GPS, SOAR, 포섭, Society of Mind



19. 아키텍처: GPS, SOAR, 포섭, Society of Mind

이 비디오는 일반 문제 해결사 및 인지 심리학 실험을 많이 통합하고 문제 해결에 중점을 둔 SOAR 아키텍처를 포함하여 지능형 시스템을 만들기 위한 다양한 아키텍처에 대해 설명합니다. 연사는 감정을 포함한 여러 층위의 사고를 고려하는 마빈 민스키(Marvin Minsky)의 "감정 기계(Emotion Machine)"와 컴퓨터가 인간과 같은 상식을 갖추도록 해야 한다는 상식 가설에 대해서도 논의합니다. 인간의 뇌 구조에서 영감을 받은 포섭 아키텍처에 대해서도 논의했으며 Roomba가 성공적인 예입니다. 사물을 상상하고 인지하는 능력은 사건을 기술하고 문화를 이해하는 능력과 연결되며, 언어는 기술과 결합자를 구축하는 데 중요한 역할을 합니다. 뇌의 언어 처리 영역을 훈련하기 위해 보고, 듣고, 그림을 그리고 말하는 것과 같은 활동에 참여하는 것의 중요성이 강조되고, 화자는 언어 처리기를 방해하여 충동적인 결정으로 이어질 수 있는 말이 빠른 사람에 대해 경고합니다.

  • 00:00:00 이 섹션에서 교수는 지능형 시스템을 만들기 위한 다양한 대안 아키텍처에 대해 논의합니다. 그는 2007년 에스토니아 사이버 공격과 그가 나중에 시연할 것을 제외하고 어떤 컴퓨터도 그 배후의 이야기를 이해할 수 없다는 이야기로 시작합니다. 그런 다음 그는 Carnegie Mellon의 Newell과 Simon이 개발한 일반 문제 해결사에 대해 이야기합니다. 여기서 지능형 시스템은 현재 상태와 목표 상태 사이의 상징적 차이를 측정하고 중간 상태에서 다음 상태로 이동할 연산자를 선택하여 작동합니다. 더 나은 상태, 목표가 달성될 때까지 프로세스를 반복합니다. 섹션은 다음 강의에서 다룰 아이디어에 대한 설명으로 끝납니다. AI 비즈니스에서 회사를 시작할 때 파산하지 않는 방법에 중점을 둘 것입니다.

  • 00:05:00 이 섹션에서는 현재 상태와 원하는 최종 상태 간의 차이를 식별하고 차이를 최소화하기 위해 적절한 연산자를 선택하는 것을 포함하는 수단-목적 분석의 개념에 대해 배웁니다. MIT에서 집으로 돌아가는 문제를 해결하기 위해 수단-목적 분석을 사용하는 예가 제시되어 원하는 최종 상태가 달성될 때까지 차이점을 식별하고 연산자를 선택하는 재귀 프로세스를 설명합니다. 일반적인 문제 해결사 개념은 그 당시에는 흥미로운 아이디어였지만 연산자와 차이를 연관시키는 테이블을 작성하는 어려움으로 인해 예상대로 되지 않았습니다. 이로 인해 "State Operator And Result"를 나타내는 최신 SOAR 아키텍처가 개발되었습니다. 아키텍처 지지자들은 이것이 약어가 아니라 단지 레이블일 뿐이라고 주장합니다.

  • 00:10:00 이 섹션에서는 SOAR 아키텍처와 다양한 구성 요소에 중점을 둡니다. SOAR는 장기 및 단기 기억, 비전 시스템, 행동 시스템 및 선호 시스템으로 구성됩니다. 이 아키텍처는 인지 심리학 실험을 많이 포함하고 있으며 주요 초점은 문제 해결에 있습니다. 또한 SOAR에는 규칙 기반 시스템의 관계를 끊기 위한 정교한 하위 시스템이 있으며 사람이 기호 조작자라는 아이디어에 중점을 둡니다. 이 시스템은 문제를 체계적으로 해결하도록 설계되었으며 규칙 기반 시스템에서 동점을 끊기 위한 정교한 선호 시스템을 갖추고 있습니다.

  • 00:15:00 이 섹션에서 발표자는 SOAR 및 Newell의 아키텍처를 포함하여 문제 해결에 크게 편향된 다양한 아키텍처에 대해 논의합니다. 그러나 연사에 따르면 가장 중요한 아키텍처는 문제 해결이 계층적으로 어떻게 나타날 수 있는지를 강조하는 Marvin Minsky의 "The Emotion Machine"입니다. 화자는 여성이 길을 건너는 짧은 비네트를 통해 마빈의 건축물의 예를 제공합니다. 마빈의 건축은 소리를 들었을 때의 본능적인 반응에서 시작하여 사회적 맥락에서 성찰적 사고에 이르기까지 여성이 경험하는 다양한 수준의 사고를 강조합니다.

  • 00:20:00 이 섹션에서 SOAR 아키텍처는 문제 해결에 중점을 두는 반면 Minsky의 "Emotion Machine"은 감정을 포함하여 여러 계층에서 생각하는 것을 고려합니다. 그러나 상식의 발달은 그런 생각을 성취하는 데 장애물로 작용합니다. 따라서 상식 가설은 컴퓨터가 이러한 지능적인 사고 과정을 갖기 위해서는 인간과 같은 상식을 갖추어야 한다고 주장합니다. 이것은 계층화된 사고를 달성하기 위한 수단으로 열린 마음 프로젝트와 월드 와이드 웹에서 상식을 모으는 것을 낳았습니다. 대조적으로 Rod Brooks와 그의 포괄 아키텍처는 사람들이 캡슐화된 비전 시스템, 추론 시스템 및 행동 시스템을 사용하여 잘못된 방식으로 로봇을 구축하는 것에 대해 생각하기 때문에 로봇이 많은 일을 할 수 없다고 믿습니다. 대신 Brooks는 사물을 피하고, 방황하고, 탐색하고, 찾는 것과 같이 세상을 다루는 데 초점을 맞춘 추상화 계층을 가질 것을 제안합니다.

  • 00:25:00 이 섹션에서 연사는 Rodney Brooks가 제안한 아키텍처에 대해 논의합니다. 이 아키텍처는 인간의 뇌가 어떻게 구성되어 있는지, 오래된 부분은 깊숙이 있고 그 위에 신피질이 겹쳐져 있는 구조에서 영감을 받았습니다. Brooks는 우리가 과정에서 표현에 중점을 둔 방식으로 반드시 표현을 필요로 하지 않고도 곤충처럼 똑똑하게 작동하는 기계를 얻을 수 있다는 가설을 세웠습니다. 그의 아이디어는 모델 대신 세상을 사용하는 것이었습니다. 그래서 사람이 하는 모든 일은 머리 속에 방의 지도를 가지고 있는 것이 아니라 반응적입니다. 가장 순수한 형태의 메커니즘은 유한 상태 기계일 뿐입니다. Brooks는 이 아이디어를 포섭 아키텍처라고 명명했으며 매우 성공적인 Roomba 로봇에 사용되었습니다. Roomba는 내비게이션에 적외선 근접 센서를 사용하므로 중앙 집중식 컨트롤러와 세계 모델의 필요성을 피할 수 있습니다.

  • 00:30:00 비디오의 이 섹션에서 연사는 캔을 찾아 집을 수 있는 로봇에 예시된 포섭 아키텍처에 대해 설명합니다. 로봇은 레이저 광 스트라이퍼를 사용하여 캔의 위치를 파악하고 팔에 센서를 장착하여 특정 방식으로 캔을 잡습니다. 로봇은 또한 자기 나침반을 사용하여 시작 지점으로 다시 이동합니다. 연사는 또한 SOAR 및 GPS와 같은 다른 아키텍처를 언급하고 언어를 중심으로 지각 시스템을 안내하는 제네시스 아키텍처를 소개합니다.

  • 00:35:00 이 섹션에서 발표자는 사물을 상상하고 인식하는 능력이 어떻게 사건을 설명하고 이야기를 전달하고 이해하며 궁극적으로 문화를 이해하는 능력과 연결되는지 논의합니다. 그는 테이블 톱을 작동하는 동안 장갑을 끼는 것의 위험성과 같이 명시적으로 가르치지 않은 것을 사람들이 어떻게 알고 있는지에 대한 예를 제공합니다. 그는 50,000년 전 인류의 개화에 대한 가능한 설명으로 "강력한 이야기 가설"을 제안합니다.

  • 00:40:00 이 섹션에서는 인지 및 발달 심리학에서 수행된 가장 중요한 일련의 실험으로 간주되는 실험에 대해 배웁니다. 이 실험은 직사각형 방의 마주보는 두 모서리에 있는 바구니에 음식을 담고 쥐, 어린 아이, 어른이 어디로 가는지 보기 위해 회전시키는 것입니다. 그들은 한쪽 벽이 파란색으로 칠해진 경우를 제외하고는 모두 음식을 가지고 두 모퉁이로 가는 경향이 있습니다. 쥐와 아이는 여전히 같은 확률로 두 개의 대각선 모서리로 이동하는 반면 성인은 음식이 있는 모서리로만 이동합니다. 세상을 설명하기 위해 왼쪽과 오른쪽이라는 단어를 사용하기 시작하면 아이는 어른이 됩니다.

  • 00:45:00 이 섹션에서 화자는 지원자와 함께 실험을 수행하여 언어가 설명과 결합자를 구축하는 데 중요한 역할을 하는 방법을 보여줍니다. 이 실험은 자원 봉사자가 동시에 그것을 반복하는 동안 책에서 한 구절을 읽는 것과 관련되어 언어 프로세서를 방해하여 특정 모양과 색상을 연결할 수 없게 만듭니다. 화자는 보고, 듣고, 그림을 그리고 말하는 것과 같은 활동에 참여하는 것이 언어 처리를 담당하는 뇌의 동일한 영역을 훈련시켜 더 똑똑하게 만들 수 있다고 조언합니다. 또한 화자는 말이 빠른 사람에 대해 경고하고 그들이 언어 프로세서를 방해하여 충동적으로 결정을 내리도록 유도합니다.
 

강의 21. 확률적 추론 I



21. 확률적 추론 I

확률론적 추론에 대한 이 비디오에서 패트릭 윈스턴 교수는 인공 지능에서 확률을 사용하여 다양한 시나리오를 기반으로 추론하고 확률을 계산하는 방법을 설명합니다. 그는 동상의 모습, 너구리나 강도에게 짖는 개, 기원전 1861년 MIT의 설립 등의 예를 들어 결합 확률표의 사용 방법, 공리와 연쇄 법칙을 사용하여 확률을 계산하는 방법, 그리고 독립성과 조건부 독립의 개념. 화자는 변수 독립성을 올바르게 설명할 필요성을 강조하고 확률 계산을 단순화하면서 변수 간의 인과 관계를 나타내는 방법으로 신뢰망의 사용을 제안합니다.

  • 00:00:00 비디오의 이 섹션에서 패트릭 윈스턴 교수는 특히 무작위 사건의 관찰과 관련하여 인공 지능에서의 확률 사용에 대해 논의합니다. 그는 캠퍼스에서 동상의 출현을 관찰하는 예를 사용하고 동상의 출현으로 이어질 수 있는 가능한 이벤트 조합을 추적하기 위해 테이블을 구성합니다. 그는 테이블의 행 수는 변수 수의 2이며 이러한 각 이벤트가 발생할 확률을 결정하는 데 오랜 기간의 관찰이 사용될 수 있다고 지적합니다. 궁극적으로 주어진 이벤트의 확률은 단순히 발생 빈도를 총 관찰 수로 나눈 것입니다.

  • 00:05:00 이 섹션에서 발표자는 결합 확률표를 사용하여 다양한 확률을 계산하는 방법을 보여줍니다. 사용된 예는 아트 쇼의 존재 및 해킹과 같은 특정 조건이 충족되면 조각상이 나타날 확률을 아는 것과 관련됩니다. 발표자는 또한 짖는 개를 기준으로 너구리가 나타날 확률과 너구리가 있을 때 개가 짖는 확률에 대해 유사한 계산을 수행합니다. 이 데모에서는 결합 확률표를 사용하여 다양한 시나리오를 기반으로 추론하고 확률을 계산하는 방법을 보여줍니다.

  • 00:10:00 이 섹션에서 연사는 확률적 추론을 계산하기 위해 결합 확률표를 사용하는 방법에 대해 설명합니다. 이 도구의 유용성에도 불구하고 더 복잡한 상황에 필요한 많은 수의 행은 관리하기 어려울 수 있으므로 확률적 추론 외에 다른 방법을 고려해야 합니다. 연사는 또한 MIT가 기원전 1861년에 설립된 가상의 시나리오를 제시하고 어떤 물체가 떠 있는지 확인하는 데 사용되었을 수 있는 실험 방법에 대해 논의합니다.

  • 00:15:00 이 섹션에서 화자는 확률의 기본과 이를 뒷받침하는 공리에 대해 논의합니다. 그들은 확률이 0보다 크고 1보다 작아야 하며, 이진 세계에서 참일 확률은 1이고 거짓일 확률은 0이라고 설명합니다. 화자는 또한 세 번째 공리를 소개합니다. B의 확률에서 A와 B의 확률을 뺀 값은 A 또는 B의 확률과 같습니다. 그들은 확률에 대한 이러한 기본적인 이해가 확률적 추론에 사용되는 보다 복잡한 계산의 기초 역할을 한다는 점에 주목합니다.

  • 00:20:00 이 섹션에서 화자는 공리를 사용하여 확률을 다루는 공식적인 접근 방식과 공간에 대한 논의를 포함하는 직관에 의해 어떻게 반영될 수 있는지 설명합니다. a의 확률은 직사각형의 전체 면적에 대한 원의 크기와 관련이 있으며 공리 1에서 3은 해당 그림과 관련하여 의미가 있습니다. 그런 다음 화자는 조건부 확률을 설명하고 그것이 주어진 b의 확률로 정의되는 방법을 설명합니다. 이는 a와 b의 확률을 B의 확률로 나눈 것과 같습니다. 이 정의는 고려 대상을 다음으로 제한하므로 의미가 있습니다. 원래 우주의 일부.

  • 00:25:00 이 섹션에서 화자는 확률 공간을 세 부분으로 나누는 아이디어를 소개하고 a, b 및 c의 확률이 어떻게 결정될 수 있는지 설명합니다. 공식을 확장하면 모든 것이 그렇게 될 확률이 세 가지 조건부 확률의 곱으로 나뉩니다. 그런 다음 화자는 이 아이디어를 체인 규칙으로 일반화합니다. 즉, 사물 그룹의 확률은 조건부 확률의 곱으로 작성될 수 있습니다. 화자가 다이어그램의 중간에 불과하지만 잘 진행되고 있음을 보여줍니다. 그들이 논의하는 다음 개념은 조건부 확률의 아이디어입니다.

  • 00:30:00 이 섹션에서 교수는 독립과 조건부 독립의 정의를 설명합니다. 독립성은 a의 확률이 b에서 일어나는 일에 의존하지 않는 경우입니다. 예를 들어, a와 b가 독립적이면 a 주어진 b는 a와 같습니다. 조건부 독립은 세계가 z에 있는 것으로 제한되면 a의 확률이 b의 값에 의존하지 않는다는 것을 의미합니다. 교수는 확률을 나타내기 위해 다이어그램의 영역을 사용하여 직관주의자 다이어그램을 사용하여 이러한 개념을 설명합니다.

  • 00:35:00 이 섹션에서 강사는 확률적 추론의 조건부 독립성과 이것이 변수의 공동 확률을 추론하는 방법에 대해 설명합니다. 그는 너구리나 도둑에게 짖는 개를 예로 들어 개념을 설명하고 두 개의 변수를 더 추가하면 어떻게 큰 결합 확률표가 필요하게 되는지 설명합니다. 그런 다음 그는 변수 사이의 인과 관계를 나타내는 방법으로 신뢰망 개념을 소개하고 모든 노드가 하위 변수가 아닌 변수와 독립적이라는 것을 올바르게 설명해야 할 필요성을 강조합니다.

  • 00:40:00 이 섹션에서 화자는 후손이 아닌 부모에게 주어진 독립의 개념과 확률론적 추론에서 이 언어를 이해하는 것의 중요성에 대해 논의합니다. 그런 다음 스피커는 너구리와 같은 다른 요인의 존재를 기반으로 도둑이 나타나거나 개가 짖는 것과 같은 다양한 이벤트의 확률을 결정하는 모델을 만듭니다. 연사는 모델을 지정하는 데 10개의 숫자만 필요하므로 바로 공동 확률표를 구축하려고 시도하는 것과 비교할 때 상당한 노력을 절약할 수 있다고 말합니다.

  • 00:45:00 이 섹션에서 연사는 전체 결합 확률표를 계산할 때 연쇄 규칙을 사용하는 방법에 대해 설명합니다. 그들은 조건부 독립 지식을 사용하여 후손에 의존하지 않기 때문에 공식에서 특정 확률을 긁어낼 수 있는 방법을 설명합니다. 공식을 특정 방식으로 배열함으로써 화자는 숫자를 구성하거나 많은 측정을 하지 않고도 완전한 결합 확률표를 계산할 수 있습니다. 연사는 이 특별한 경우에 32개 중 10개 숫자만 고안하면 되었고 더 많은 속성이 있을 경우 얼마나 많은 비용을 절감할 수 있을지 질문했습니다.
 

강의 22. 확률론적 추론 II



22. 확률적 추론 II

이 비디오에서 Patrick Winston 교수는 "Bayes Nets"라고도 하는 추론 네트워크를 사용하여 확률적 추론을 수행하는 방법을 설명합니다. 그는 모든 변수의 결합 확률을 계산하기 위해 체인 규칙을 사용하여 베이지안 네트워크에서 변수를 정렬하는 방법에 대해 설명합니다. 연사는 시뮬레이션을 실행하여 확률을 축적하는 방법과 모델을 사용하여 확률을 생성하는 방법을 보여줍니다. 또한 베이즈 규칙과 이 규칙을 사용하여 분류 문제를 해결하고 모델을 선택하며 구조를 발견하는 방법에 대해서도 설명합니다. 영상은 의료 진단, 거짓말 탐지, 장비 문제 해결 등 다양한 분야에서 확률적 추론의 유용성을 강조한다.

  • 00:00:00 이 섹션에서 Patrick Winston 교수는 "Bayes Nets"라고도 하는 확률론적 추론에 사용되는 추론 네트워크의 사용에 대해 설명합니다. 그는 적절한 상자를 클릭하여 확률을 결정하는 데 사용할 수 있는 결합 확률표를 검토하는 것으로 시작하지만 문제는 많은 변수가 관련된 경우 숫자를 구성하거나 수집하는 것이 어렵고 시간이 많이 걸린다는 것입니다. 그는 추론 네트워크를 사용하여 함께 발생하는 이벤트의 가능성을 얻기 위한 계산을 수행합니다. 여기에서는 체인 규칙을 사용하며 이 규칙에 대한 설명으로 이 절을 마칩니다.

  • 00:05:00 이 섹션에서 연사는 베이지안 네트워크에서 변수를 정렬하는 프로세스와 이를 체인 규칙과 함께 사용하여 모든 변수의 결합 확률을 계산하는 방법에 대해 이야기합니다. 하위 항목이 왼쪽에 선형 순서로 나타나지 않도록 변수를 배열하고 체인 규칙을 사용하여 해당 변수의 특정 조합에 대한 확률을 계산할 수 있습니다. 그는 이 시나리오의 모든 조건부 확률이 후손이 아니며 종속성을 기반으로 변수를 긁어내면 테이블의 항목을 계산하는 데 도움이 될 수 있다고 주장합니다.

  • 00:10:00 이 섹션에서 발표자는 작은 네트워크를 사용하여 테이블로 수행할 수 있는 모든 작업을 수행하는 방법과 이를 달성하는 데 필요한 확률을 설명합니다. 그는 개가 짖거나 B가 발생할 확률을 계산하는 데 필요한 집계를 추적하기 위해 테이블을 확장하는 방법에 대해 논의하고 실험 결과를 사용하여 테이블의 관련 섹션에 체크 표시 또는 집계를 제공하여 결국 시연으로 이어집니다. 과정.

  • 00:15:00 비디오의 이 섹션에서 교수는 시뮬레이션을 실행하여 네트워크의 확률을 누적하는 방법을 시연하는 것으로 시작합니다. 그는 테이블을 해석하는 방법과 데이터 요소가 특정 조합이 얼마나 자주 나타나는지에 대해 알려주는 내용을 추적하는 방법을 설명합니다. 그는 더 정확한 확률을 얻기 위해 여러 시뮬레이션을 실행합니다. 그런 다음 그는 상위 확률 테이블에서 앞뒤로 이동하고 동전을 던져 모든 변수에 대한 값의 조합을 생성하는 시스템을 시뮬레이션하는 방법을 시연합니다.

  • 00:20:00 이 섹션에서 발표자는 확률 표에서 적절한 행을 선택하여 시나리오에 대한 확률을 생성하는 프로세스에 대해 설명합니다. 그런 다음 연사는 오른쪽의 확률을 계산하기 위한 데이터를 생성하는 데 사용할 수 있는 왼쪽의 모델을 사용하여 이러한 확률을 생성할 수 있는 방법을 계속 설명합니다. 그러나 화자는 주어진 시나리오에 대해 올바른 모델이 여러 개 있을 수 있으므로 어느 것이 올바른지 판단하기 어렵다는 점을 인정합니다. 이 문제를 해결하기 위해 연사는 베이즈 정리를 사용하여 계산할 수 있는 방식으로 조건부 확률을 다시 작성하는 순진한 베이지안 추론의 개념을 소개합니다.

  • 00:25:00 이 섹션에서는 베이즈 규칙을 사용하여 분류 문제를 해결하는 방법을 동영상에서 설명합니다. 예를 들어, 질병을 진단할 때, 질병이 주어진 증거의 확률을 증거의 전체 확률로 나눈 다음, 주어진 질병의 사전 확률을 곱하여 증거가 주어진 질병의 확률을 계산할 수 있습니다. 독립적인 증거가 여러 개 있는 경우 주어진 질병에 대한 결합 증거 확률을 전체 증거 확률로 나눈 다음 모든 관련 클래스의 확률을 비교할 수 있습니다.

  • 00:30:00 이 섹션에서 강사는 앞면이 나올 확률이 0.8인 편향된 동전과 앞면이 나올 확률이 0.5인 공정한 동전 두 개를 선택하는 이야기를 들려줍니다. 동전을 던진 후 강사는 베이지안 확률을 사용하여 사전 확률과 동전 던지기의 증거를 기반으로 어떤 동전이 선택되었는지 알아냅니다. 이 강의는 확률론적 추론에서 서로 다른 가설의 확률을 결정하기 위해 증거가 어떻게 사용될 수 있는지 보여줍니다.

  • 00:35:00 이 섹션에서 교수는 여러 동전의 확률이 일련의 동전 던지기에 따라 어떻게 달라지는지, 증거의 우위가 앞면이 나올 확률을 어떻게 바꿀 수 있는지 보여줍니다. 큰 수의 법칙이 시작되고 선택한 동전이 사용 중일 확률이 점점 1에 가까워집니다. 그런 다음 교수는 이 개념을 사용하여 자녀의 정당을 살펴보고 그에 대해 추론함으로써 부모 정당 분류기를 만듭니다. 부모가 속한 파티. 전반적으로 확률론적 추론의 개념은 예측을 하고 결론을 도출하기 위해 다양한 시나리오에 적용될 수 있습니다.

  • 00:40:00 비디오의 이 섹션에서 연사는 베이지안 해킹을 사용하여 두 모델을 비교하고 데이터를 기반으로 최상의 모델을 선택하는 방법에 대해 설명합니다. 이 프로세스에는 모델에서 추첨을 시뮬레이션하고 데이터가 주어진 각 모델의 확률을 계산하는 작업이 포함됩니다. 그런 다음 연사는 구조 발견으로 이동하여 연결된 변수 없이 시작하고 선호하는 모델을 찾을 때까지 임의 검색을 사용하여 모델을 수정하고 비교합니다. 이 프로세스에서는 32비트 시스템에서 정보 손실을 방지하기 위해 제품 대신 확률의 로그 합계를 사용해야 합니다. 그러나 최적의 구조를 찾는 것은 큰 공간과 국부 최대값으로 인해 어려울 수 있습니다.

  • 00:45:00 이 섹션에서는 연사가 의료 진단, 거짓말 탐지 및 장비 문제 해결과 같은 다양한 분야에서 확률적 추론 및 구조 발견의 유용성에 대해 논의합니다. 그는 정보가 제한적일 때 확률적 계산이 어떻게 올바른 접근 방식인지, 관찰된 증상을 기반으로 문제의 가장 가능성 있는 원인을 결정하는 데 이 방법이 어떻게 사용될 수 있는지 설명합니다. 연사는 또한 이 방법이 패턴과 스토리를 발견하는 데 어떻게 사용될 수 있는지에 대한 향후 논의를 암시합니다.
 

강의 23. 모델 병합, 교차 모드 결합, 과정 요약



23. 모델 병합, 교차 모드 결합, 과정 요약

이 비디오에서 패트릭 윈스턴 교수는 모델 병합, 교차 모달 결합에 대해 이야기하고 과정의 자료를 반영합니다. 그는 베이지안 확률에 지나치게 집착하지 않고 규칙성을 발견하는 것의 중요성과 우리 주변의 세계를 이해하기 위한 교차 모드 결합의 잠재적 이점에 대해 논의합니다. 또한 향후 과정에 대한 제안을 제시하고 단순히 사람을 대체하는 것을 목표로 하기보다 사람과 컴퓨터가 함께 작동하여 새로운 수익과 기능을 창출하는 데 중점을 두는 것이 중요하다고 강조합니다. 또한 그는 먼저 문제를 식별하고 이를 해결하기 위한 적절한 방법론을 선택하는 것의 중요성을 강조합니다. 마지막으로 교수는 지능을 복제 가능한 인공 모델로 줄이는 데 한계가 있음을 반성하고 그의 팀의 뛰어난 작업을 강조합니다.

  • 00:00:00 이 섹션에서는 Patrick Winston이 모델 병합 및 교차 모달 결합에 대해 설명합니다. 그는 두 개의 스토리에서 이벤트를 발견하고 두 개의 스토리 그래프로 조합하는 것과 같이 다른 방법으로는 찾을 수 없는 상황에서 구조를 발견하는 방법을 보여줌으로써 베이지안 스토리 병합의 아이디어를 보여줍니다. 또한 효율성을 위해 기계 학습 및 클라우드 컴퓨팅을 사용하는 여러 수준을 통해 개념을 발견하는 능력에 대해 이야기합니다. 마지막으로, 그는 zebra finch 노래에 기여하는 두 가지 양식을 분류하기 위해 여러 양식과 그들 사이의 대응을 사용하는 Michael Coen의 프로그램을 보여줍니다.

  • 00:05:00 이 섹션에서는 모음 소리를 생성하는 제스처를 소리 자체와 연결하는 예를 통해 교차 모달 결합의 개념을 설명합니다. 모음의 푸리에 변환은 포만트를 생성하고 입 주변의 타원은 두 번째 양식을 형성합니다. 교차 모달 결합 데이터를 사용하면 마크업 데이터 없이 사운드를 클러스터링하고 입술 형태를 사운드와 연결할 수 있습니다. Coen의 작업 시연에서는 투영과 벡터를 메트릭의 구성 요소로 사용하여 클러스터를 형성하는 방법을 보여줍니다.

  • 00:10:00 이 섹션에서 연사는 교차 모드 결합의 개념과 그것이 우리에게 제시된 세계를 이해하는 데 어떻게 도움이 될 수 있는지에 대해 논의합니다. 그는 베이지안 확률에 집착하지 않고 규칙성을 발견하는 것이 가능하며 이러한 종류의 결합 아이디어는 우리 주변 세계에 대한 우리의 이해와 관련이 있을 것이라고 제안합니다. 연사는 또한 과정의 자료를 요약하여 인공 지능을 위한 정교한 응용 프로그램을 만드는 데 엔지니어링 및 과학적 관점의 중요성을 강조합니다. 또한 단순히 사람을 대체하는 것을 목표로 하기보다 사람과 컴퓨터가 함께 작동하여 새로운 수익과 기능을 창출하는 데 집중해야 한다고 지적합니다.

  • 00:15:00 이 섹션에서 발표자는 프로그래밍이 모델 생성 및 실험 수행에 제공하는 고유한 이점에 대해 논의합니다. 특히 프로그래밍은 이러한 모델의 의미를 테스트하기 위한 실험을 허용하는 모델을 만들 수 있는 은유와 기능을 제공합니다. 화자는 또한 메커니즘 선망에 빠져 구체적인 방법에 집중하기보다 먼저 문제를 파악한 다음 사용할 적절한 방법론이나 기계를 선택하는 것이 중요하다고 강조한다. 마지막으로 발표자는 시험 형식을 간략하게 검토하고 시계와 계산기를 가져오고 시험 중에 의상을 입을 수 있는 유연성과 같은 학생들을 위한 몇 가지 알림을 제공합니다.

  • 00:20:00 이 섹션에서 교수는 Marvin Minsky의 과목, Society of Mind 또는 언어 이해 및 진화에 관한 Bob Berwick의 과목 또는 Gerry Sussman의 대규모 기호 시스템 과목을 포함하여 다음 학기에 해야 할 일에 대한 몇 가지 제안을 제공합니다. 그는 또한 자신의 봄 과정인 Human Intelligence Enterprise를 홍보합니다. 교수는 자신의 과정을 인문학 과정으로 설명하고 강의가 아니라 오히려 그와의 대화입니다. 그는 다양한 인텔리전스 시스템에서 발견되는 패키징 및 공통 요소와 같이 과정에서 다루는 일부 주제에 대해 논의합니다.

  • 00:25:00 이 섹션에서 연사는 포장의 중요성과 경력 경로에 관계없이 포장이 성공에 어떻게 영향을 미칠 수 있는지에 대해 논의합니다. 발표자는 "말하는 방법" 강의라는 이벤트에 대해 언급합니다. 이 강의는 언제 농담을 해야 하는지 또는 어떻게 농담을 해야 하는지와 같은 팁을 제공함으로써 누군가의 프레젠테이션, 강의 및 직업 대화 능력에 상당한 영향을 미칠 수 있는 1시간짜리 비선형 강의입니다. 프레젠테이션을 엽니다. 또한 화자는 가능한 질병의 시작을 감지할 수 있는 영역으로 이동하려는 그룹의 Genesis 시스템에 대해 이야기합니다.

  • 00:30:00 이 섹션에서는 시스템이 잠재적인 문제를 감지하고 재해를 방지하기 위한 개입을 허용하는 여러 관점에서 스토리를 읽고 이해할 수 있는 방법을 라이브 데모로 보여줍니다. 서로 다른 교육 배경을 가진 두 명의 페르소나는 이야기에서 명시적으로 무엇을 식별하고 다른 개념을 회색으로 추론합니다. 독특한 배경 때문에 그들은 이야기에 대해 서로 다른 관점을 가지고 있으며 서로 협상하고, 다른 영역을 가르치고, 재난이 발생하기 전에 예방할 수 있습니다. 이 시스템은 또한 잠재적인 문제를 예측하고 개입하는 능력을 보여주는 잠재적인 복수 작전과 Pyrrhic 승리를 감지합니다.

  • 00:35:00 이 섹션에서는 여러 수준에서 스토리를 이해하여 정보 검색을 위해 키워드 수 대신 개념 벡터를 사용하는 방법을 배웁니다. Propagator 아키텍처는 개인이 자신의 작업에 지나치게 몰두하는 것을 방지하는 데 사용되며 MIT 그룹에 학생이 참여하는 것을 높이 평가합니다. 추가 대학원 프로그램에 관해서는 그들이 누구에게 견습하고 싶은지 생각하고 현장에서 시야를 넓히기 위해 AI와 같은 다른 초점을 가진 프로그램을 찾아야 합니다.

  • 00:40:00 이 섹션에서 Winston 교수는 이론 물리학 및 인공 지능 대학원에 지원하는 학생들에게 전자의 경우 현장 방문의 중요성을 강조하고 후자의 경우 특정 영역에 집중하는 것이 중요하다고 조언합니다. 컴퓨터 비전 연구원이 사물 인식에 특화돼 아내를 알아보지 못하는 극단적인 AI 진로 선택 결점 이론에 대한 일화도 전한다. 마지막으로 Winston 교수는 컴퓨터 과학에서 강력한 아이디어의 유용성과 단순성에 대해 반성하고 언어를 이해하는 데 반드시 진정한 지능이 필요한 것은 아니라는 주장을 다룹니다.

  • 00:45:00 이 섹션에서 화자는 지능을 인위적으로 복제할 수 있는 것으로 줄이는 것의 한계에 대해 이야기합니다. 그는 자신의 애완용 너구리를 고도로 지능적인 동물의 예로 사용했는데, 그는 동등하게 지능적인 기계를 만들 수 있을 것이라고 기대하지 않았습니다. 인공 지능이 불가능하다는 생각은 시간이 지남에 따라 실행 중인 프로그램에서 나오는 지식과 마법을 고려하지 않는 환원주의적 주장에 근거하는 경우가 많습니다. 연사는 또한 잠시 시간을 내어 그의 팀의 뛰어난 성과를 인정하고 학생들이 최종 시험을 잘 치르기를 바랍니다.
 

메가-R1. 규칙 기반 시스템



메가-R1. 규칙 기반 시스템

이 비디오는 학생들이 강의와 암송에서 다루는 자료로 작업할 수 있도록 돕는 튜토리얼 형식의 강의인 Mega-Recitation에 중점을 둡니다. 비디오는 역방향 연결, 순방향 연결, 규칙에 대한 타이브레이크 순서, 일치 프로세스를 포함하여 규칙 기반 시스템과 관련된 여러 주제를 다룹니다. 역방향 연결 프로세스에는 규칙의 후건을 살펴보고 필요에 따라 전건을 추가하여 최상위 목표에 도달하는 과정이 포함되며, 동점 구분 및 모호성 제거는 목표 트리에 매우 중요합니다. 비디오는 또한 일련의 어설션을 사용하여 어설션에 순방향 연결 및 일치 규칙을 설명합니다. 화자는 규칙을 사용하기 전에 어설션을 확인하고 아무것도 하지 않는 무력한 규칙을 피하는 것의 중요성을 강조합니다. 일치 프로세스에는 역방향 연결을 사용하여 주어진 어설션과 일치하는 규칙을 결정하고 시스템은 새 규칙인지 여부에 관계없이 낮은 번호의 규칙에 우선 순위를 지정합니다.

  • 00:00:00 이 섹션에서 Mark Seifter는 학생들이 강의 및 암송에서 다루는 자료로 작업할 수 있도록 돕기 위해 고안된 튜토리얼 스타일의 강의인 Mega-Recitation의 개념을 소개합니다. 목표는 학생들이 수업에 중요한 알고리즘을 이해하고 사용하도록 돕고 퀴즈에 대한 이해를 입증하는 것입니다. 초점은 작년에 많은 학생들을 걸려 넘어지게 한 퀴즈 문제에 있으며, Marx는 이러한 실수가 다시 발생하지 않도록 하기 위해 그들을 잡은 요령을 검토합니다. 마지막으로, 그는 규칙을 작성하기 위한 두 가지 표기법인 인픽스와 접두사의 차이점과 학생들이 이를 인식해야 하는 이유를 설명합니다.

  • 00:05:00 이 섹션에서는 각각 해당하는 if-then 문이 있는 P로 표시된 6개의 규칙에 대해 알아봅니다. 첫 번째 규칙은 X가 야망이 있고 X가 squib이면 X가 나쁜 조건을 갖는다는 것입니다. X 또는 Y의 물음표는 바인딩 대기 중인 변수를 나타냅니다. 역방향 및 순방향 연결은 이러한 변수의 바인딩을 결정하는 데 사용됩니다. Slytherin 던전에 사는 Millicent와 Gryffindor Tower에 있고 Millicent를 태그하는 Seamus를 포함하여 작업할 네 가지 주장도 제공됩니다. 규칙을 사용하기 전에 어설션을 확인하는 것의 중요성은 작년에 일부 사람들을 넘어뜨린 실수였기 때문에 강조됩니다.

  • 00:10:00 이 섹션에서 발표자는 역방향 연결의 개념을 설명하고 정방향 연결과의 차이점을 강조합니다. 가설에 대해 작업하면서 역방향 체이너는 주장 목록에서 일치하는 주장을 찾으려고 시도하고 일치하는 항목이 없으면 일치하는 결과가 있는 규칙을 찾으려고 시도합니다. 발표자는 계속해서 쉬운 문제의 예를 제공한 다음 Millicent가 Hermione의 친구가 되는 실생활 문제를 다룹니다. 예제 전반에 걸쳐 발표자는 목표 트리에서 타이 브레이킹 및 명확성의 중요성을 강조합니다.

  • 00:15:00 이 섹션에서는 비디오에서 규칙 기반 시스템의 역방향 연결 프로세스에 대해 설명합니다. 역방향 연결에는 규칙의 후건을 살펴보고 필요에 따라 전건을 추가하여 최상위 목표에 도달하는 것이 포함됩니다. 이 비디오는 다른 규칙을 확인하기 전에 결과에서 현재 목표가 있는 것을 찾고 주장에서 검색하는 것의 중요성을 강조합니다. 프로세스에는 왼쪽 노드에서 시작하여 자식이 있는 경우 아래로 이동하고 현재 목표와 일치하는 규칙을 찾는 깊이 검색이 포함됩니다. 비디오는 또한 하단에 또는 노드가 있는 끝 노드와 같이 목표 트리에 노드를 올바르게 추가하는 방법을 설명합니다.

  • 00:20:00 이 섹션에서 화자는 트리 다이어그램을 사용하여 Millicent가 주인공인지 악당인지 식별하고 궁극적으로 그녀가 악당임을 증명하려고 노력하면서 깊이 우선 검색에 대해 논의합니다. 그들은 먼저 왼쪽 가지를 따라 밀리센트가 주인공인지 여부에 대한 규칙을 찾으려고 합니다. 기준과 일치하는 규칙이 없기 때문에 "or" 노드로 다시 이동하고 Millicent가 악당이 되는 것으로 역추적합니다. 어설션에 없는 경우에도 분기를 따라 결과로 규칙이 있는지 확인합니다. 결국 그들은 Millicent가 악당이지만 궁극적인 답을 찾기 위해 계속 노력해야 한다는 규칙을 찾습니다.

  • 00:25:00 이 섹션에서 화자는 역방향 체이너의 외곬적인 초점과 다른 주장이나 선례에 대한 관심 부족을 설명합니다. 백워드 체이너는 Millicent가 악당일 가능성을 증명하는 것을 목표로 할 뿐, Millicent가 야심을 품는 것과 같은 다른 결과에 대해서는 신경 쓰지 않습니다. 이로 인해 불필요한 계산이 발생할 수 있지만 시스템을 코딩하는 간단하고 효율적인 방법입니다. 해시 테이블의 잠재적인 사용에 대해 논의했지만 추가 노력을 기울일 가치가 없을 수도 있다는 결론을 내렸습니다.

  • 00:30:00 이 섹션에서 클래스는 규칙 기반 시스템의 실행 속도를 높이기 위해 해시 테이블을 구현하는 방법에 대해 설명합니다. 그러나 이 접근 방식에는 테이블의 어설션이 실행되는 순서가 손실되고 일부 규칙이 이러한 어설션의 순서에 따라 달라지기 때문에 몇 가지 잠재적인 문제가 있습니다. 강의는 또한 이전에 주장된 것과 반대되는 주장이 있을 때 규칙 해결에 대한 군중의 질문과 이 문제를 해결하는 방법을 다룹니다. 학급은 이것이 퀴즈에 삭제 문이 없고 주장을 추가하지 않고 대신 증명되거나 반증될 때까지 목표 트리의 모든 항목을 확인하는 이유라고 결론을 내립니다.

  • 00:35:00 이 섹션에서 화자는 주인공 Millicent의 예의 나머지 부분과 그녀가 Hermione의 친구가 되는지 여부를 결정하기 위해 규칙 기반 시스템을 사용하는 방법을 빠르게 살펴봅니다. 여기에는 규칙의 결과와 일치하는 어설션을 추가하지 않고 Millicent가 Hermione의 친구가 되기 위해 필요한 추가 어설션의 최소 수를 결정하는 것과 같은 몇 가지 질문에 답하는 것이 포함됩니다. 이 섹션에서는 어설션 추가로 인해 발생하는 드문 상황과 모순되는 어설션을 제거하여 수정해야 하는 필요성도 다룹니다. 마지막으로 역방향 연결에 대해 간략하게 언급하고, 연사는 Millicent가 나쁜 용어를 가지고 있는지 확인하는 것이 목표인 변수 바인딩과 관련된 문제를 청중에게 해결하도록 요청합니다.

  • 00:40:00 이 섹션에서 내레이터는 새로운 어설션을 추가하는 포워드 체인과 규칙에 대한 타이브레이크 순서에 대해 설명합니다. 규칙의 타이브레이크 순서는 0부터 5까지이며, 동일한 규칙이 여러 다른 어설션으로 트리거될 수 있는 경우 규칙은 숫자 순서로 사용됩니다. 내레이터는 일련의 어설션을 사용하여 어설션에 규칙을 일치시키는 방법과 규칙을 실행하는 방법을 보여줍니다. 내레이터는 또한 무능한 규칙이나 아무 일도 하지 않는 규칙은 발동되어서는 안 되며, 그 대신 순서에 있는 다음 규칙으로 이동해야 한다고 말합니다. 마지막으로 내레이터는 규칙과 어설션을 일치시키는 방법과 새 어설션을 추가한 방법을 설명합니다.

  • 00:45:00 비디오의 이 섹션에서 발표자는 규칙 기반 시스템의 일치 프로세스에 대해 설명합니다. 주어진 예는 번호가 매겨진 규칙과 어설션이 있는 퀴즈 질문입니다. 시스템은 역방향 연결을 사용하여 주어진 어설션과 일치하는 규칙을 결정하며, 이 경우 규칙 1, 2, 3 및 5만 일치합니다. 발표자는 또한 규칙 번호가 낮은 새 어설션을 먼저 처리해야 하는지에 대한 질문에 답하면서 시스템이 새로운 규칙인지 여부에 관계없이 낮은 번호의 규칙에 우선 순위를 부여한다고 설명합니다.
 

메가-R2. 기본 검색, 최적 검색



메가-R2. 기본 검색, 최적 검색

이 YouTube 동영상은 깊이 우선 검색, 너비 우선 검색, 최적 검색 및 A* 알고리즘을 포함한 다양한 검색 알고리즘과 기술을 다룹니다. 비디오는 이러한 개념을 설명하기 위해 새로운 거점을 찾는 Evil Overlord Mark Vader의 재미있는 예를 사용합니다. 발표자는 그래프 검색에서 허용 가능성과 일관성의 중요성을 강조하고 노드의 재평가를 방지하기 위해 확장 목록을 사용하는 방법을 설명합니다. 비디오는 청중의 일반적인 실수와 질문을 다루고 시청자가 더 많은 질문을 하도록 권장합니다. 전반적으로 비디오는 이러한 검색 알고리즘과 기술에 대한 철저한 소개를 제공합니다.

  • 00:00:00 이 섹션에서 비디오는 그가 수업에서 배운 시작 검색 기술을 활용하여 새로운 거점을 찾는 Evil Overlord Mark Vader의 문제를 소개합니다. Vader는 현재의 요새인 깊이 우선 검색 별에서 시작하여 약점이 없고 노예가 된 미니언, 레이저 빔이 있는 상어, 훌륭한 탈출 경로와 같은 모든 바람직한 기능을 갖춘 6:03 요새에 도달하기를 원합니다. 비디오는 탐색 선택의 그래프를 보여줍니다. 여기서 가장자리는 단 하나의 기능만 다른 거점을 연결하고 시청자는 신뢰할 수 있지만 느린 접근 방식과 빠르고 오류가 발생하기 쉬운 접근 방식을 포함하여 검색을 수행할 수 있는 여러 가지 방법을 제공합니다.

  • 00:05:00 이 섹션에서는 비디오 발표자가 깊이 우선 검색을 해결하는 다양한 접근 방식에 대해 설명합니다. 매우 빠른 접근 방식이 있지만 실수하기 쉽고 일반적으로 사용되지 않습니다. 대신 발표자는 목표 트리를 사용하고 시작 노드에서 시작하여 목표 노드에서 끝나는 것을 권장합니다. 전체 의제를 그리는 것보다 조금 더 빠릅니다. 발표자는 또한 사전 편찬의 개념과 검색 중에 알파벳 순서로 동점을 끊는 데 사용되는 방법에 대해 설명합니다. 또한 비디오는 시스템에서 규칙을 구현할 때 흔히 저지르는 실수인 자신의 꼬리를 무는 것에 대해 경고합니다. 마지막으로 발표자는 오류가 발생할 수 있으므로 동일한 경로 내에서 동일한 노드가 두 번 나타나지 않는 것이 중요함을 강조합니다.

  • 00:10:00 이 섹션에서 발표자는 대기열 대신 목표 트리를 사용하여 깊이 우선 검색 문제를 해결하는 방법을 설명합니다. 그들은 노드에서 시작하여 청중에게 해당 노드에서 선택 사항을 파악하는 데 도움을 요청합니다. 연사는 연결 확인 및 지침 읽기의 중요성을 강조합니다. 이들은 사전식 타이브레이크를 사용하여 다음으로 이동할 노드를 결정하고 막다른 골목에 도달했을 때 역추적합니다. 그들은 또한 역추적을 이중으로 계산하는 실수에 대해 경고하고 청중에게 그들이 역추적하는 횟수에 주의를 기울일 것을 상기시킵니다.

  • 00:15:00 이 섹션에서 화자는 솔루션을 찾는 데 필요한 단계 수에 영향을 줄 수 있으므로 검색을 수행할 때 알고리즘의 중요성을 설명합니다. 그들은 또한 역추적 기술에 대해 논의하고 검색 중에 이를 추적하는 방법에 대해 조언합니다. 그런 다음 발표자는 깊이 우선 검색을 수행하는 방법을 시연하고 너비 우선 검색 질문을 해결하는 빠른 방법을 제안합니다. 너비 우선 검색 중에 찾은 경로가 점프 횟수가 가장 적다는 점을 강조하고 그래프를 수준별로 왼쪽에서 오른쪽으로 확장하도록 지시합니다. 마지막으로 화자는 너비 우선 검색에서 유형 순위 순서의 사용법을 명확히 합니다.

  • 00:20:00 이 섹션에서 화자는 비디오에서 사용된 검색 알고리즘에 대해 대기열의 경로를 정렬하지 않는 것의 중요성을 강조합니다. 그들은 최고의 우선 검색이 노드에 도달했을 때만 동점을 끊고 모든 것을 항상 대기열의 끝에 추가하므로 역추적할 필요가 없다는 것을 설명합니다. 그들은 또한 그래픽 순서가 검색에서 역할을 하지만 미묘하고 은밀한 방식으로만 그렇게 한다고 언급합니다. 마지막으로 프로그램이 이미 방문한 노드를 재평가하는 것을 방지하는 데 사용할 수 있는 확장된 목록으로 너비 우선 검색의 가능성에 대해 논의합니다.

  • 00:25:00 비디오의 이 섹션에서 화자는 Mark가 현재 우주에서 목표 우주까지 다양한 에너지 비용을 사용하여 최단 경로를 찾으려고 노력하는 예를 사용하여 최적 검색에 대해 논의합니다. 그래프에는 각 노드에 주어진 거리와 휴리스틱 값이 포함되며 발표자는 알고리즘이 각 노드에 도달하는 실제 비용을 고려하면서 목표 노드를 향한 검색을 안내하기 위해 휴리스틱 값을 사용할 것이라고 설명합니다. 사용된 알고리즘은 결합된 실제 비용과 휴리스틱 비용이 가장 낮은 노드를 확장하는 A-star 알고리즘입니다. 연사는 또한 검색의 반복을 방지하기 위해 확장 목록을 사용하는 것의 중요성을 설명하고 노드가 검색에 추가되는 순서에 대한 질문을 처리합니다.

  • 00:30:00 이 섹션에서 Mark는 너무 많은 에너지를 사용하지 않고 목표에 도달할 수 있는 가장 짧은 우주 점프 수를 프로그래밍하는 개념을 소개합니다. 그는 치즈 피자와 같은 간단한 분기 검색을 설명하고 A-star 검색은 추가 토핑이 있는 고기 애호가의 피자와 같습니다. 그러나 서로 영향을 미칠 수 있으므로 현재 최단 경로를 선택하는 것이 중요합니다. 예제에서 컴퓨터는 노드 C를 확장 목록에 추가하여 길이가 0인 유일한 경로로 표시합니다. SB의 길이는 3이고 경로 비용은 103인 반면 f는 비용이 4인 반면 of 14. 사전식 순서의 타이브레이커를 무시함에도 불구하고 가장 짧은 경로가 선택되고 B가 소비되면 길이 4로 D로 이동하므로 G로 업데이트된 경로 길이는 7입니다.

  • 00:35:00 이 섹션에서 화자는 최적의 검색 알고리즘을 계속 사용하여 경로 S, B, F 및 D를 확장합니다. 그런 다음 경로 E는 H 및 A로 확장되며 최단 경로는 SFHIG로 확인됩니다. . 연사는 또한 A-star를 보다 효율적인 검색 알고리즘으로 사용하는 것을 언급하고 이미 확장 목록에 있는 노드 확장에 대한 청중의 질문에 답합니다. 경로가 C와 D에 연결되는지에 대한 초기 혼란에도 불구하고 궁극적으로 정답을 얻습니다.

  • 00:40:00 이 섹션에서 발표자는 이전 섹션에서 생성된 최종 트리에서 일부 노드가 제외되도록 만든 몇 가지 오류에 대해 설명합니다. 그는 노드도 "e"로 이동해야 하며 확장 목록으로 이동하지 않기 때문에 노드가 몇 번 실행되었는지 묻는다면 차이가 있을 것이라고 설명합니다. 그런 다음 A-star 알고리즘과 경험적 값 계산에 대해 논의합니다. 목록의 모든 노드에 휴리스틱 값을 추가하는 것이 아니라 최종 휴리스틱 값에 지금까지의 경로를 추가하는 것이 중요하다는 점을 강조합니다. 그들은 또한 노드 "G"를 확장하기로 한 결정은 취향의 문제이며 문제 세트에서 포인트를 잃지 않는 구현 세부 사항임을 명확히 합니다. 마지막으로 A-star 검색을 해결하고 최종 승자는 값이 57인 노드 "D"로 결정됩니다.

  • 00:45:00 이 섹션에서 비디오는 A*라는 검색 알고리즘을 요약하고 이를 그래프에서 최단 경로를 찾기 위해 최적으로 사용하는 방법을 보여줍니다. 이 비디오는 그래프의 모든 지점에서 허용 가능한 휴리스틱을 갖는 것의 중요성에 대해 설명합니다. 허용 가능함은 남은 작업량에 대한 추정치가 항상 과소 평가되었거나 정확한 예측임을 의미합니다. 과대평가된 휴리스틱은 알고리즘이 필요한 것보다 더 많은 작업을 수행해야 한다고 생각하고 중요한 노드를 탐색하지 않을 수 있습니다. 비디오는 또한 일관성에 대해 이야기합니다. 즉, 그래프에서 인접한 노드 사이의 거리가 해당 노드 사이의 경험적 차이보다 작다는 의미입니다. 비디오는 이러한 개념이 퀴즈에 나올 가능성이 있으므로 이해하는 것의 중요성을 강조합니다.

  • 00:50:00 이 섹션에서 화자는 그래프 검색의 허용 가능성 및 일관성 개념을 설명합니다. 허용 가능성은 일관성과 비슷하지만 모든 노드와 목표 노드 간의 일관성이 필요합니다. 일관된 모든 그래프는 항상 허용되지만 모든 허용 가능한 그래프가 일관된 것은 아닙니다. 확장 목록은 목표 노드에 대한 모든 노드에 대한 추정치를 확인하기 때문에 허용 가능한 그래프에서 작동합니다. 그러나 노드 내 추정이 올바르지 않은 경우 이를 순서 없이 살펴보는 것은 확장 목록을 사용하기로 결정할 때 만든 가정을 위반합니다. 비디오에 제시된 그래프는 병목 현상 목표 노드가 되도록 전문적으로 제작되었으며 I와 H를 포함하여 노드 간의 불일치가 포함되어 있으며 이는 중요한 유일한 불일치로 판명되었습니다. 마지막으로 연사는 시청자가 이 주제에 대해 가질 수 있는 질문을 하도록 권장합니다.