머신 러닝 및 신경망 - 페이지 6

 

인공지능의 역사 [다큐멘터리]



인공지능의 역사 [다큐멘터리]

The History of Artificial Intelligence 다큐멘터리는 공상과학 작가와 영화 산업이 낳은 "생각하는 기계"라는 개념의 초기부터 현재까지 AI와 딥 러닝 프로세스의 발전을 보여줍니다. AI에서는 기계가 인간처럼 학습하는 능력과 컴퓨터 작동 원리에 대한 것입니다. 이 비디오는 컴퓨터의 한계, 발전 가능성, 인공 지능(AI)의 가능한 미래를 탐구합니다. 과학자들은 기계가 생각하고 새로운 아이디어를 생성할 수 있는 가능성에 대해 논의하며 목표는 경험을 통해 학습하고 개념을 형성하고 논리를 수행할 수 있는 보다 일반적인 컴퓨터 시스템을 만드는 것입니다. AI를 향한 첫 걸음은 미로를 해결하는 전기 제어 마우스의 예에서 볼 수 있듯이 경험을 통해 학습할 수 있는 소형 컴퓨팅 머신에서 볼 수 있습니다.

두 번째 부분은 생각, 느낌 및 창의성 측면에서 컴퓨터의 한계와 잠재력을 탐구합니다. 컴퓨터는 논리적 연산과 수학적 계산에 탁월하지만 인식, 패턴 인식 및 일반화, 블록 인식, 언어 번역 및 간단한 작업 수행에는 어려움을 겪습니다. 실망스러운 초기 결과에도 불구하고 SHRDLU 및 TENDRIL과 같은 전문가 시스템 및 프로그램은 컴퓨터가 지식을 사용하여 모호성과 언어 학습을 해결하는 방법을 보여주었습니다. 그러나 사람들이 시간이 지남에 따라 습득하는 사실적 지식과 경험을 모두 포함하는 상식 지식을 가르치는 문제는 여전히 남아 있습니다. 신경망은 처음에는 매력적이지만 한계가 있고 작은 작업만 처리할 수 있습니다. 연구원들은 완전히 인공적인 버전을 구축하기 전에 자연이 두뇌 내에서 많은 미세 기계를 구축하고 조정하는 방법을 이해하도록 컴퓨터를 교육해야 합니다.

3부에서는 인공지능의 역사와 미래에 관한 폭넓은 주제를 다룬다. Cyc 프로젝트와 AI의 일반적인 자연어 이해 가능성을 포함하여 상식에 기반한 범용 지능을 달성하기 위한 지속적인 노력에 대해 논의합니다. 공식적인 지능 모델의 필요성과 심리학의 역할을 포함하여 인간과 같은 지능을 달성하는 데 따르는 어려움도 탐구합니다. 인터뷰 대상자들은 컴퓨터가 심리학 분야에 미치는 영향뿐만 아니라 비단조적 추론과 개념적 돌파구의 필요성에 의해 제기된 문제에 대해 논의합니다. 비판에도 불구하고 인터뷰 대상자들은 AI의 목표를 우리 자신을 더 잘 이해하는 데 도움을 줄 수 있는 고귀한 프로젝트로 보고 있습니다.

  • 00:00:00 이 섹션에서 우리는 "생각하는 기계"에 대한 아이디어가 여전히 꿈이었던 1950년대로 돌아가 공상 과학 작가와 영화 산업에 의해서만 유지되었습니다. 영화 "The Thinking Machine"은 인공 지능 분야가 초기 단계에 불과하고 연구원들이 아직 파악하지 못했기 때문에 당시에는 여전히 너무 억지스러운 개념인 기계가 실제로 생각할 수 있는지에 대한 논의를 따랐습니다. 기계가 진정으로 새로운 아이디어를 내도록 만드는 방법. 오늘날 다큐멘터리는 AI의 발전과 우리가 때때로 당연하게 여기는 기술 발전에 기여한 딥 러닝 프로세스를 상기시킵니다.

  • 00:05:00 대본의 이 섹션에서 어린이는 알파벳을 배우고 심리학자는 두뇌가 패턴을 인식하는 방법에 대해 질문합니다. 그런 다음 대화는 처음으로 알파벳을 보여줌으로써 어린 시절과 동일한 학습 과정을 모방하는 컴퓨터의 잠재력으로 이동합니다. 컴퓨터가 테스트되었으며 완벽하지는 않지만 더 많은 정보가 제공됨에 따라 정확도가 높아져 문자를 정확하게 식별할 수 있습니다. 기계가 인간처럼 학습할 수 있는 가능성이 탐색되고 있지만, 기계의 구체적인 사고 과정은 아직 명확하지 않으며 컴퓨터의 전체 유용성이 발견되고 있습니다.

  • 00:10:00 이 섹션에서는 사이먼과 뉴웰이라는 이름의 카네기 공대 교수 그룹이 선교사와 식인종의 퍼즐 같은 논리적 문제를 이해하려고 시도하는 모습을 보여줍니다. 그들은 세 명의 선교사와 식인종이 선교사보다 많은 식인종 없이 한 번에 두 사람만 태울 수 있는 배를 타고 강을 건너도록 하는 문제를 해결함으로써 그들의 진전을 나타냅니다. 교수들 사이의 대화는 Barbara라는 학생 중 한 명이 컴퓨터가 현재 재현한 문제에 대한 해결책을 제시했음을 보여줍니다. 또한 교수는 컴퓨터에 프로그래밍된 확률 또는 합리성을 기반으로 학습하는 컴퓨터의 능력에 주의를 기울이는 컴퓨터에 대해 체커 게임을 하는 남자의 시연을 보여줍니다.

  • 00:15:00 이 섹션에서는 컴퓨터가 입력을 받고 수학적 연산을 사용하여 처리하고 프로그래밍을 통해 결과를 출력한다고 설명하면서 컴퓨터 작동 방식에 대한 질문을 탐구하는 비디오입니다. 컴퓨터와 살아있는 신경계 사이에는 유사점이 있지만 신경생리학자들은 유사점보다 차이점이 더 많다고 믿습니다. 이 비디오는 또한 인간이 유전적으로나 경험에 의해 프로그래밍된다는 생각을 다루며, 고립된 새끼 오리가 거위의 실루엣을 인식하지 못하는 실험을 제공합니다. 전반적으로 이 섹션에서는 컴퓨터 작동 원리에 대한 간략한 설명을 제공하고 기계와 생명체의 프로그래밍에 대한 몇 가지 아이디어를 살펴봅니다.

  • 00:20:00 이 섹션에서는 두 남자가 프로그래밍 대 동물의 본능 개념에 대해 논의합니다. 하나는 거위와 매를 구별하는 오리의 능력이 본능의 예라고 주장하는 반면, 다른 하나는 일부 동물이 이전에 생각했던 것보다 더 많은 내장 지식을 가지고 태어난다고 제안합니다. 그들은 개구리에 대한 연구를 분석하고 개구리 눈의 섬유가 움직임 및 잠재적인 먹이와 같은 개구리의 생존과 관련된 특정 사항만 뇌에 보고한다고 제안합니다. 이 이론은 아직 널리 받아들여지지는 않았지만 본능의 존재를 설명할 수 있었습니다.

  • 00:25:00 이 섹션에서는 인간이 특정 타고난 능력을 가지고 태어난다는 것을 증명하기 위해 5세 어린이를 대상으로 실험을 수행하는 연구원을 봅니다. 아이는 자신의 유리잔에 연구원의 유리잔과 같은 높이까지 우유를 채우라는 요청을 받았지만, 같은 양이라고 생각하고 가장자리까지 채웁니다. 이것은 우리 주변의 세계에 대한 일부 개념이 우리 마음에 선입견이 있고 우리가 주변 세계에 대한 개념을 형성하기 위해 우리의 눈에 의존한다는 것을 암시합니다. 비디오는 계속해서 우리가 눈으로 보는 것이 항상 정확하지 않으며 환상이 우리의 뇌를 속일 수 있음을 증명합니다.

  • 00:30:00 이 섹션에서는 교수가 다른 사람에게 인간이 선입견과 규칙에 따라 반응하도록 프로그래밍된 방법에 대해 이야기합니다. 그 남자는 컴퓨터가 독창적인 일을 할 수 있는지 의문을 품고, 교수는 해리슨 모스라는 프로그래머의 도움을 받아 컴퓨터가 쓴 희곡을 그에게 보여줍니다. 관객은 연극의 출력물에 놀라고 교수는 그것이 마술이 아니라 잘 설계된 프로그램의 결과라고 설명합니다.

  • 00:35:00 이 섹션에서는 MIT 직원인 Doug Ross가 프로그램을 사용하여 지능적인 행동을 구성하는 규칙을 설명하는 플레이렛을 작성하는 방법을 설명합니다. 지능적인 행동이 규칙을 준수하는 행동임을 강조하고 컴퓨터가 창의적인 작업을 수행하도록 만드는 방법을 보여줍니다. 그들은 컴퓨터가 합리적인 행동을 결정하기 위해 사용하는 규칙을 언급하고 심지어 강도의 행동에 영향을 미치는 취한 요인을 프로그래밍했습니다. 그들은 기계에서 이러한 작업을 수행하는 데 흑마술이 없다는 점을 강조하고 컴퓨터가 매번 다른 연극을 작성하여 창의성을 발휘함을 보여줍니다.

  • 00:40:00 이 섹션에서 비디오는 컴퓨터의 한계와 개발 가능성을 탐구합니다. 이 애니메이션은 컴퓨터 프로그래밍과 관련된 시행착오 과정과 오류 가능성을 강조합니다. 그런 다음 비디오는 컴퓨터를 사용하여 인간 두뇌의 신호를 연구하는 실험을 보여 주며 컴퓨터가 학습 과정에 대한 이해를 향상시킬 수 있는 잠재력을 강조합니다. 비디오는 시청자에게 Lincoln 연구소와 세계에서 가장 크고 가장 다재다능한 컴퓨터 중 하나인 TX2 컴퓨터를 보여줍니다. 비디오는 TX2와 같은 컴퓨터가 학습 프로세스를 연구하는 데 사용되고 있으며 컴퓨터가 과학적 목적을 위해 전 세계적으로 개발되고 있음을 시사합니다.

  • 00:45:00 이 섹션에서 과학자들은 기계가 생각하고 새로운 아이디어를 생성할 수 있는 가능성에 대해 논의합니다. 어떤 사람들은 기계와 컴퓨터 프로그램이 지능적으로 행동하고 인간이 지적 작업의 부담을 덜 수 있도록 도울 수 있을 것이라고 믿는 반면, 다른 사람들은 기계가 진정한 창의적 사고를 할 수 있을지 의심합니다. 컴퓨터의 미래는 기계가 다양한 방식으로 작동하게 하고 인간이 컴퓨터와 작업하면서 새로운 것을 학습하는 등 직간접적인 영향을 미칠 것으로 예측됩니다. 2차 산업혁명은 컴퓨터가 인간의 마음을 돕는 시대가 될 것으로 예상되며, 인간의 도움으로 기계가 할 수 있는 일의 가능성은 상상하기 어렵습니다.

  • 00:50:00 이 섹션에서는 인공 지능(AI)의 잠재력과 향후 개발 가능성에 중점을 둡니다. 목표는 경험을 통해 학습하고, 개념을 형성하고, 논리를 수행할 수 있는 보다 일반적인 컴퓨터 시스템을 만드는 것입니다. 그것은 감각 기관, 대형 범용 유연한 컴퓨터 프로그램 및 출력 장치로 구성됩니다. 진전이 이루어지고 있는 동안 기술의 영향을 관리하는 것에 대한 우려가 있습니다. 그러나 한 과학자는 우리가 그것을 올바르게 다루면 훨씬 더 나은 세상을 만들 수 있다고 믿습니다. AI를 향한 첫 걸음은 미로를 해결하는 전기 제어 마우스의 예에서 볼 수 있듯이 경험을 통해 학습할 수 있는 소형 컴퓨팅 머신에서 볼 수 있습니다.

  • 00:55:00 이 섹션에서는 전화 릴레이 및 리드 스위치 시스템에 의해 제어되는 미로를 탐색하는 마우스 데모를 볼 수 있습니다. 마우스는 새로운 정보를 추가하고 변화에 적응할 수 있습니다. 이 시연에서는 마우스가 오래된 구식 정보를 새로운 미로 구성에 대해 학습한 내용으로 대체하는 것을 보여줍니다. 실제로 마우스를 움직이는 것은 미로 바닥 아래에 있는 기계이지만 시연에서는 달성할 수 있는 지능적인 행동 유형을 엿볼 수 있습니다.

  • 01:00:00 이 섹션에서는 "사고"의 정의와 이것이 컴퓨터와 어떤 관련이 있는지에 대한 비디오를 살펴봅니다. 컴퓨터는 정보를 저장하고 기억하는 데 탁월하지만 그것만으로는 진정한 사고를 포함할 수 없습니다. 그러나 컴퓨터는 데이터를 분석하고 최상의 수를 결정하는 체스 게임과 같은 논리적 작업을 수행할 수 있습니다. 이러한 기본 논리 기능의 디스플레이는 일부 컴퓨터를 아마추어 체스 토너먼트에서 1등으로 수여했습니다.

  • 01:05:00 이 섹션에서 비디오는 컴퓨터가 어떻게 논리 연산을 수행할 수 있는지, 심지어 매일 수백만 건의 논리적 결정을 내릴 수 있지만 시각화 및 인식 능력 면에서 제한이 있는지 살펴봅니다. 컴퓨터는 그림을 만들고 디자인을 시뮬레이션할 수 있지만 패턴을 인식하고 일반화하는 데 어려움을 겪습니다. 이 비디오는 또한 서로 다른 언어의 단어 사이에 일대일 대응이 없기 때문에 언어를 번역하도록 컴퓨터를 가르치는 데 어려움이 있음을 지적합니다. 궁극적으로 컴퓨터는 무엇이든 생각하고 느끼고 배려하는 능력이 부족합니다.

  • 01:10:00 이 섹션에서 비디오는 감정과 창의성 측면에서 컴퓨터의 기능에 대해 설명합니다. 컴퓨터는 실제로 감정을 느낄 수 없지만 감정을 시뮬레이션하도록 프로그래밍할 수 있습니다. 마찬가지로 창의성은 종종 인간 고유의 능력이라고 생각되지만 컴퓨터는 애니메이션 영화와 음악까지 제작할 수 있습니다. 실수 없이 수행할 수 있는 수십억 개의 수학적 연산을 포함하여 컴퓨터의 유용성과 효율성은 부인할 수 없지만 진정으로 "생각"할 수 있는 능력이 있는지에 대한 질문은 여전히 논쟁의 여지가 있습니다.

  • 01:15:00 컴퓨터가 체커처럼 게임을 하고 복잡한 문제를 풀 수 있다는 사실이 인공지능(AI)의 탄생으로 이어졌다. 이것은 AI의 가능성을 탐구하기 위해 MIT에 부서를 설립한 Marvin Minsky와 John McCarthy가 이끄는 수학자 그룹의 탐험을 위한 개척지가 되었습니다. Jim Slagle과 같은 학생들은 미적분 문제를 풀기 위한 프로그램을 개발했고, 1960년에는 컴퓨터가 MIT 시험에서 평균 학생 수준의 성능으로 A를 받을 수 있었습니다. 이것은 컴퓨터가 지능을 가질 수 있음을 보여주고 기계가 생각할 수 있는 미래에 대한 희망을 높였습니다.

  • 01:20:00 이 섹션에서는 다큐멘터리가 인공 지능의 초기와 해당 분야의 선구자들이 어떻게 뇌의 물리적 구조에 관심을 갖지 않았는지 살펴봅니다. 그들은 마음을 상징적인 처리 실체로 보았고, 뇌는 단순히 마음이 움직이는 하드웨어라고 생각했습니다. 다큐멘터리는 자연의 일을 하는 방식을 맹목적으로 복사하는 것이 항상 좋은 생각은 아니며 새가 나는 방식을 기반으로 한 인공 비행 시도는 재앙이었다고 주장합니다. 이 다큐멘터리는 MIT 과학자들이 세상과 상호 작용하고 블록을 쌓을 수 있는 컴퓨터 정신을 구축하려고 시도했을 때 발생한 어려움을 강조합니다. 간단한 작업처럼 보일 수 있지만 블록을 인식하는 것은 실제로 매우 복잡하며 블록을 놓을 때 블록에 어떤 일이 발생하는지 프로그램에 이상한 아이디어가 있다고 합니다.

  • 01:25:00 이 섹션에서 다큐멘터리는 컴퓨터가 사람처럼 보고 움직이도록 가르치는 문제를 탐구합니다. 연구원들은 시각의 계산 문제가 너무 커서 많은 사람들이 언어를 지능적으로 사용하는 기계의 능력을 측정하는 튜링 테스트로 알려진 실체 없는 형태의 지능에 집중하기로 결정했다는 것을 발견했습니다. 이러한 목적으로 만들어진 최초의 컴퓨터 프로그램 중 하나는 대화를 시뮬레이션하기 위해 일련의 트릭을 사용했지만 튜링 테스트를 통과할 수 없었던 "Eliza" 프로그램이었습니다. 이 다큐멘터리는 인간 언어 이해의 복잡성으로 인해 인간처럼 의미와 맥락을 이해할 수 있는 AI 언어 모델 개발을 어렵게 만들었다는 점을 강조합니다.

  • 01:30:00 이 섹션에서 비디오는 컴퓨터를 사용하여 언어를 번역하려는 초기 시도에 대해 설명합니다. 이 시도는 모호성과 문맥 문제로 인해 심각한 문제에 직면했습니다. 컴퓨터가 인간 번역가를 대체할 수 있다는 주장에도 불구하고, 언어의 복잡성과 일반적인 인간 지식 및 이해의 필요성으로 인해 이 작업이 예상보다 훨씬 더 어려워졌습니다. 컴퓨터가 얼굴을 인식하고, 언어를 배우고, 옷을 입는 것과 같은 간단한 작업을 수행할 수 없다는 것은 사람들이 쉽다고 생각하는 일이 실제로 AI가 달성하기 매우 어렵다는 것을 보여줍니다. AI의 실패는 자금 조달의 감소와 이 분야에 대한 암울한 전망으로 이어졌습니다.

  • 01:35:00 이 섹션에서는 초기의 실망스러운 결과에도 불구하고 SHRDLU라는 Terry Winograd의 프로그램이 컴퓨터가 지식을 사용하여 모호함과 언어 학습을 해결할 수 있음을 보여주었습니다. 그러나 블록의 시뮬레이션된 마이크로 세계로 제한되었습니다. Edward Feigenbaum과 그의 동료들은 좁은 분야의 전문가들이 결정을 내리는 데 사용하는 규칙을 캡처한 TENDRIL이라는 시스템을 개발했습니다. 그들은 좁은 영역에서의 전문가 행동에는 수백 개의 지식만 필요하다는 것을 발견했습니다. 이로 인해 부서지기 쉽고 지식 영역 밖에서 작동할 수 있는 유연성이 부족한 전문가 시스템이 개발되었습니다.

  • 01:40:00 이 섹션에서 다큐멘터리는 1970년대에 컴퓨터가 어린이처럼 단순한 이야기를 따르도록 하려고 노력하던 언어 연구자들이 직면한 문제를 다룹니다. 그들은 문제가 이야기가 말한 내용이 아니라 너무나 명백해서 언급할 가치가 없기 때문에 말하지 않은 채로 남겨진 엄청난 수의 일들에 있다는 것을 발견했습니다. 연구자들은 일반적으로 생일 파티에서 일어나는 모든 일을 포함하는 생일 파티와 같이 컴퓨터가 직면할 수 있는 다양한 상황에 대한 프레임 또는 스크립트를 구축하는 아이디어를 개발했습니다. 그러나 문제는 상황이나 맥락에 한정되지 않은 일반적인 배경 지식을 포함하는 방법이었습니다. 이 일반적인 지식은 상식적인 지식 문제를 만들었고, 간단한 이야기를 해석하도록 컴퓨터를 가르치는 것을 어렵게 만들었습니다.

  • 01:45:00 이 섹션에서는 발췌 부분에서 상식 지식과 이를 기계에 가르치는 것의 어려움에 대해 설명합니다. 상식 지식은 물체를 놓으면 떨어진다는 것을 아는 등 모두가 공유하는 직관적 지식입니다. 그러나 그것은 사실에 입각한 지식일 뿐만 아니라 사람들이 시간이 지남에 따라 습득하는 기술과 경험이기도 합니다. 과학자들은 기계에게 인간처럼 지식을 배우고 습득하는 방법을 가르치는 데 오랫동안 관심을 가져왔지만 컴퓨터는 너무 낮은 수준의 학습으로 시작하여 방대한 양의 상식 지식이 제공될 때까지 기계 학습이 효과적이지 않았습니다. PYSCH 프로젝트는 상식을 입력하기 위해 1984년 텍사스에서 만들어졌으며 AI의 궁극적인 테스트였습니다. 그러나 비평가들은 진정한 상식은 인체를 가지고 있는지에 달려 있으며, 상식 지식은 단순히 사실로 만들어지는 것이 아니라 아이들이 시간이 지남에 따라 습득하는 경험과 기술도 포함한다고 주장했습니다.

  • 01:50:00 이 섹션에서 비디오는 상식의 개념과 그것이 세상의 경험을 통해 어떻게 획득되는지 탐구하지만, 또한 언어를 통해 상식을 습득한 신체적 경험이 없는 환자의 사례도 제시합니다. 그런 다음 비디오는 인공 정신을 구축하려면 먼저 인공 두뇌를 구축해야 한다는 주장을 탐구합니다. 수천 가지 방식으로 연결된 수십억 개의 뉴런으로 구성된 인간 두뇌의 복잡성은 1950년대 과학자들이 인공 두뇌를 구축하는 아이디어를 추구하도록 영감을 주었고, 이후 신경망으로 진화한 퍼셉트론의 개발로 이어졌습니다. 신경망의 현대 인식 모델은 연결주의자라고 불리는 성장하는 운동이며 마음이 아닌 두뇌를 통한 기계 학습에 중점을 둡니다.

  • 01:55:00 시행착오, 이 섹션에서 다큐멘터리는 신경망과 그 한계에 중점을 둡니다. 신경망은 처음에는 매력적이었지만 범위가 작은 작업만 정복할 수 있었고 연구자들은 아직 학습 방법을 완전히 이해하지 못했습니다. 탱크가 있는 사진과 탱크가 없는 사진을 구별하는 신경망 학습의 예는 그물이 잘못된 결론에 도달할 가능성을 강조합니다. 상식만큼 정교한 것을 포착하는 작은 신경망의 가능성은 흥미롭지만, 연구원들은 이러한 장기 목표가 오늘날의 기술로는 아직 달성할 수 있는 것과 거리가 멀다는 점을 인정합니다. 또한 수백 개의 뉴런보다 큰 신경망을 만들려는 시도는 긴 훈련 시간이 필요하기 때문에 종종 역효과를 냅니다. 따라서 연구자들은 완전히 인공적인 버전을 구축하기 전에 자연이 뇌 내에서 많은 미세 기계를 구축하고 조정하는 방법을 이해해야 합니다.

  • 02:00:00 이 섹션에서 대본은 인공 지능의 실용적인 응용이 어떻게 용어를 차용했는지 논의하지만 상식에 기반한 범용 지능을 달성하려는 원래 탐구와는 거리가 멉니다. 그러나 AI에 대한 탐구는 포기되지 않았으며 Doug Leonard가 1984년에 시작한 Cyc 프로젝트는 여전히 진행 중입니다. 이 프로젝트는 언어를 이해하고 인간이 아는 모든 것을 배울 만큼 충분히 아는 마음을 키우는 것을 목표로 합니다. 몸이 없거나 세상에 대한 직접적인 경험이 없는 소프트웨어임에도 불구하고 Cyc 프로젝트의 AI 엔티티인 Psyche는 데이터베이스의 불일치를 분석하고 흥미로운 새로운 발견을 하여 세상을 독특한 방식으로 본다는 것을 보여줍니다.

  • 02:05:00 이 섹션에서는 인공 지능의 일반적인 자연어 이해의 잠재력과 기호 AI의 소멸을 방지하기 위해 이를 달성해야 하는 필요성에 대해 논의합니다. 프시케 프로젝트는 일반적인 자연어 이해에 대한 튜링 테스트를 통과하면 높은 보수를 받을 수 있는 고위험 프로젝트로 언급된다. 이러한 성공은 알려지지 않은 것을 학습하는 기계 학습 프로그램의 개발로 이어져 현재로서는 상상할 수 없는 방식으로 지능을 증폭시킬 수 있습니다. 인공 지능의 창시자 중 한 명인 John McCarthy 박사는 학문의 역사를 되돌아보고 그것이 사회에 미칠 영향을 예측했습니다.

  • 02:10:00 이 섹션에서는 비디오가 인간만큼 지능적인 컴퓨터 프로그램을 구현하는 데 따르는 어려움에 대해 설명합니다. 수학적 정리를 푸는 것과 같은 어려운 문제로 일부 초기 진전에도 불구하고 음성 인식과 같은 상식적인 작업은 컴퓨터 지능에 어려운 것으로 입증되었습니다. 화자와 그의 동료들은 인간 지능과 동등한 지능의 공식 모델을 개발하기 위해 노력해 왔지만 이 목표를 달성하기 위한 접근 방식은 서로 다릅니다. 행동주의에서 벗어나 인지에 대한 통찰력을 얻는 데 도움이 되는 컴퓨터 과학과 함께 심리학 분야도 역할을 했습니다.

  • 02:15:00 이 섹션에서 전문가들은 컴퓨터가 심리학 분야에 미치는 영향과 두 분야에서 의식의 개념이 어떻게 접근되었는지에 대해 논의합니다. 컴퓨터가 마음의 작용에 대한 훌륭한 통찰력을 제공했지만 컴퓨터가 진정으로 자의식을 가질 수 있는지에 대한 질문은 여전히 철학적 논쟁의 주제로 남아 있습니다. 더욱이 의식은 기계처럼 부분들의 합일 뿐이라는 개념은 전적으로 정확하지 않습니다. 마음은 특정 방식으로 상호작용하는 특수화된 부분들의 복잡한 시스템이기 때문입니다.

  • 02:20:00 이 섹션에서 인터뷰 대상자는 인간의 생리학과 심리학에 대해 더 많이 발견됨에 따라 인간이 우리 존재의 기계적 측면을 초월하는 무언가를 가지고 있다는 관점의 후퇴에 대해 논의합니다. 그럼에도 불구하고 컴퓨터 프로그램의 기계에는 아직 실현되지 않은 인간 의식의 측면이 있습니다. AI에 대해 낙관적인 인터뷰 대상자는 컴퓨터 무차별 대입이 적용될 수 있는 문제 모음에 대해 이야기하지만 이는 다소 제한적이며 인공 지능의 핵심 문제는 지능적인 행동에 필요한 세계에 대한 지식을 표현하는 것입니다. 이를 위한 도구로 수학적 논리가 추구되었고, 1970년대 후반에 몇몇 사람들은 소위 비단조적 추론이라고 부르는 것을 형식화하는 방법을 발견하여 상식 영역에서 수학적 논리의 힘을 크게 확장했습니다.

  • 02:25:00 이 섹션에서 인터뷰 대상자는 비단조적 추론과 그것이 컴퓨터에서 인간과 같은 사고에 어떻게 도전을 제기하는지에 대해 논의합니다. 일반적인 논리는 더 많은 결론을 도출하기 위해 더 많은 전제를 추가하는 방식으로 작동하지만 인간의 추론에는 항상 그러한 속성이 있는 것은 아닙니다. 예를 들어, "새"라는 용어는 그것이 날 수 있다는 기본 가정을 가지고 있으며 추가 컨텍스트는 그로부터 도출된 결론을 변경할 수 있습니다. 비단조적 추론은 이러한 유형의 사고를 공식화하고 컴퓨터에서 컨텍스트 인식을 도입하는 수학적 도구로 사용할 수 있습니다. 그러나 상황에 대한 문제는 항상 설명할 수 없는 예외가 있기 때문에 반대 증거가 없는 한 가정이 이루어지는 시스템이 필요하다는 것입니다.

  • 02:30:00 이 섹션에서는 AI의 선구자인 John McCarthy가 AI의 역사와 인간이 인공 지능을 개발하는 데 왜 그렇게 오랜 시간이 걸렸는지에 대해 논의합니다. 그는 150년 후에 Boule이 대신 발명한 명제 미적분학을 발명하지 못한 Leibniz의 실패에서 볼 수 있듯이 우리 자신의 정신적 과정을 관찰할 수 있는 제한된 능력이 우리의 발전을 방해했다고 설명합니다. 그는 또한 AI의 미래를 위해 개념적 돌파구가 필요하며 기계에서 진정한 인간과 같은 지능을 달성하는 데 수십 년에서 수백 년이 걸릴 수 있음을 인정합니다. 인간 지능을 복제하는 것이 불가능하다는 비판에도 불구하고 McCarthy는 AI의 목표를 우리 자신을 더 잘 이해하기 위한 고귀한 프로젝트로 보고 있습니다.
The History of Artificial Intelligence [Documentary]
The History of Artificial Intelligence [Documentary]
  • 2020.03.26
  • www.youtube.com
Visit Our Parent Company EarthOne For Sustainable Living Made Simple ➤https://earthone.io/ This video is the culmination of documentaries that cover the hist...
 

인공 지능의 탄생



인공 지능의 탄생

이 비디오는 현대 인공 지능(AI)의 탄생과 60년대와 70년대 초 AI의 '황금기' 동안 함께 온 낙관론에 대해 논의합니다. 그러나 이 분야는 그들이 직면한 문제의 어려움과 제한된 계산 성능으로 인해 70년대 중반 첫 AI 겨울을 포함하여 상당한 도전에 직면했습니다.

전문가 시스템은 일반 인텔리전스 개발에서 좁은 영역별 AI로 초점을 전환하여 현장의 전환점을 표시하고 비즈니스 효율성을 높이는 데 도움을 주었습니다. 그러나 전문가 시스템을 둘러싼 과대 광고는 특히 1987년 시장 붕괴 이후 자금 조달을 감소시켰습니다. 이 비디오는 AI를 이해하고 정의하는 문제를 인정하고 Brilliant를 사람들이 기본 빌딩 블록에서 고급 아키텍처에 이르기까지 AI에 대해 배울 수 있는 리소스로 추천합니다.

  • 00:00:00 이 섹션에서는 "인공 지능"이라는 용어가 처음 만들어진 1956년 다트머스 여름 연구 프로젝트에서 현대 인공 지능의 공식적인 탄생에 대해 배웁니다. 이 회의는 기계가 시뮬레이션할 수 있는 지능의 모든 기능을 설명함으로써 인간 학습을 시뮬레이션하는 것을 목표로 했습니다. 7가지 측면에는 언어, 신경망, 추상화, 자기 개선, 무작위성 및 창의성을 사용하기 위한 프로그래밍 컴퓨터가 포함되었습니다. 회의 이후의 기간은 검색, 의미망, 마이크로 세계로서의 추론을 포함하여 컴퓨팅 및 AI 이론과 알고리즘이 구현되기 시작한 AI의 "황금기"로 알려졌습니다. 이러한 알고리즘은 획기적이었고 현장에 낙관주의를 불어넣어 Marvin Minsky와 같은 개인이 인공 지능을 만드는 것이 한 세대 안에 실질적으로 해결될 수 있다고 믿게 만들었습니다.

  • 00:05:00 이 섹션에서는 인공 지능의 탄생과 인공 지능이 60년대와 70년대 초반에 어떻게 많은 낙관주의와 과대 광고를 불러일으켰는지에 대한 비디오를 살펴봅니다. 이로 인해 주로 정부로부터 AI 연구 및 구현을 위한 막대한 자금이 지원되었으며, 그 결과 오늘날 많은 연구 기관이 AI 연구의 최전선에 서게 되었습니다. 그러나 70년대 중반, 그들이 직면한 문제의 어려움을 인식하지 못하고 이 기간 동안 컴퓨터 과학 분야가 여전히 정의되고 있다는 사실로 인해 첫 번째 AI 겨울이 시작되었습니다. 제한된 계산 성능으로 돌파구를 만들었다는 사실과 카네기 멜론의 AI 및 로봇 연구원 Hans Moravec이 가정한 이론인 Moravec의 역설을 포함하여 다섯 가지 문제가 나열되었습니다.

  • 00:10:00 이 섹션에서는 전문가 시스템이 일반 지능 개발에서 좁은 영역별 AI로 초점을 전환하여 AI 분야에서 중요한 전환점을 표시한 방법에 대해 알아봅니다. 특정 영역의 전문가 지식을 기반으로 하는 전문가 시스템은 실제 세계에 실질적인 영향을 미쳤으며 디지털 장비 기업이 연간 거의 4천만 달러를 절약한 XCON 물류 전문가 시스템에서 볼 수 있듯이 기업의 효율성을 높이는 데 도움이 되었습니다. 게다가 전문가 시스템의 부상은 정보를 배우고 처리하는 실행 가능한 방법으로 등장한 연결주의를 되살리는 데 도움이 되었습니다. AI 훈련 방법인 Hopfield net과 backpropagation은 이 기간 동안 대중화되고 개선되어 딥 러닝의 길을 열었습니다. 그러나 전문가 시스템에 대한 기대가 걷잡을 수 없이 치솟고 취약한 조건부 논리 기반 시스템에 균열이 생기기 시작하면서 부분적으로는 1987년 세계 시장의 붕괴로 인해 AI에 대한 자금이 다시 감소했습니다.

  • 00:15:00 이 섹션에서는 인공 지능(AI)을 정의하고 이해하는 데 따르는 문제, 특히 지난 세기 동안 오고 간 과대 광고 주기에 대해 논의합니다. 영상은 딥 러닝에서 인공 지능에 이르기까지 AI 유행어의 흥망 성쇠로 인해 발생한 혼란을 인정합니다. 희망은 딥 러닝 시스템의 도메인별 전문 지식과 같은 AI의 실용적인 현재 응용 프로그램에서 과대 광고를 분리하는 것입니다. 비디오는 Brilliant를 개인이 두뇌를 날카롭게 유지하고 기본 빌딩 블록에서 고급 아키텍처에 이르기까지 AI에 대해 배울 수 있는 리소스로 추천합니다.
 

감독 기계 학습 설명




감독 기계 학습 설명

비디오는 지도 학습이 입력 변수에서 출력 변수로의 매핑 함수 학습을 목표로 레이블이 지정된 데이터 세트를 포함한다고 설명합니다. 레이블이 지정된 데이터 세트는 훈련 세트와 테스트 세트로 나뉘며 모델은 훈련 세트에서 훈련되고 테스트 세트에서 평가되어 정확도를 측정합니다.
비디오는 모델이 너무 복잡하고 훈련 세트에 너무 가깝게 맞으면 과대적합이 발생할 수 있어 새 데이터에서 성능이 저하될 수 있으며 모델이 너무 단순하고 데이터의 복잡성을 캡처할 수 없으면 과소적합이 발생한다고 설명합니다. 이 비디오는 붓꽃 데이터 세트의 예를 제공하고 결정 트리 알고리즘을 사용하여 측정값을 기반으로 새 붓꽃의 종을 예측하도록 모델을 훈련하는 과정을 안내합니다.

  • 00:00:00 이 섹션에서는 과거 데이터를 기반으로 예측하는 데 사용할 수 있는 기계 학습의 정의와 목적을 설명하는 동영상입니다. 비디오는 변수 사이의 관계를 측정하고 최적선을 만들고 해당 선을 사용하여 새 데이터를 예측하는 회귀의 예를 제공합니다. 그런 다음 비디오는 이 아이디어를 확장하여 레이블 데이터를 추가하고 새 데이터의 출력 레이블을 분류하기 위한 결정 경계를 만드는 것과 관련된 분류 문제를 설명합니다. 비디오는 이 모델의 정확도를 검사하고 기계 학습 알고리즘이 모델 정확도를 최대화하려고 한다고 설명합니다. 비디오는 의사 결정 트리가 전문가 시스템과 유사한 조건문 기반 접근 방식을 사용하는 일종의 기계 학습 알고리즘이라고 설명합니다.

  • 00:05:00 이 섹션에서는 지원 벡터 머신을 포함하여 기계 학습에 사용할 수 있는 다양한 유형의 알고리즘과 고차원 공간에 추가 변수를 추가할 수 있는 방법에 대한 비디오를 살펴봅니다. 이 비디오는 또한 인공 지능, 빅 데이터 및 데이터 과학의 교차점을 다루며, 데이터 과학과 통계는 단순화를 위해 동일하게 간주됩니다. 그런 다음 비디오는 학습 모델의 두 가지 기본 모드인 회귀 및 분류로 구성된 감독 학습과 패턴 인식 문제에 대한 본질적으로 통계 수학인 방법에 대해 설명합니다. 비디오는 향후 비디오에서 다룰 비지도 학습 및 딥 러닝에 대한 언급과 이러한 개념의 배후에 있는 수학과 과학에 대해 더 많은 것을 배우고자 하는 사람들을 위한 Brilliant.org의 추천으로 끝납니다.
 

감독되지 않은 기계 학습 설명



감독되지 않은 기계 학습 설명

이 영상은 레이블이 지정되지 않은 비정형 데이터를 다루는 비지도 머신러닝에 대해 설명하며 주로 비정형 데이터에서 구조를 도출하는 데 사용됩니다. 클러스터링은 K-평균 클러스터링과 같은 알고리즘을 사용하여 결정 공간을 이산 범주 또는 클러스터로 나누는 연관 및 클러스터링의 두 가지 유형으로 나뉩니다.

연관 문제는 데이터 집합 특징 간의 상관 관계를 식별하고 의미 있는 연관성을 추출하기 위해서는 차원 축소를 통해 열의 복잡도를 줄여야 합니다. 이 프로세스에는 데이터 포인트를 나타내는 데 필요한 기능 수를 최소화하고 과소적합 또는 과적합을 방지하면서 의미 있는 결과 및 연결을 달성하는 작업이 포함됩니다. 영상의 마지막 부분에서는 즐겁고 상호 연결된 수학과 과학 학습을 제공하는 플랫폼인 Brilliant에서 수학과 과학을 배우는 개념을 소개하고 미래학 콘텐츠를 보기 위해 프리미엄 구독을 20% 할인합니다. 이 비디오는 또한 Patreon 또는 YouTube 멤버십에서 채널에 대한 지원을 요청했으며 댓글에서 향후 주제에 대한 제안을 환영했습니다.

  • 00:00:00 이 섹션에서는 레이블이 지정되지 않고 구조화되지 않은 데이터를 위한 비지도 머신 러닝에 대해 알아봅니다. 그것은 대부분의 현실 세계 문제를 대표하며 빅 데이터와 인공 지능 분야의 교차점에서 발생합니다. 비지도 학습은 주로 구조화되지 않은 데이터에서 구조를 도출하는 데 사용됩니다. 이러한 유형의 학습은 연관 및 클러스터링이라는 두 가지 기본 유형으로 세분됩니다. 클러스터링은 K-평균 클러스터링과 같은 알고리즘의 사용을 포함하며, 여기서 목표는 많은 데이터 포인트가 있는 결정 공간을 지정된 수의 이산 범주 또는 클러스터로 나누는 것입니다. 이것은 먼저 중심을 추가한 다음 중심을 업데이트하는 동안 데이터 포인트를 새 클러스터에 반복적으로 재할당하여 수행됩니다.

  • 00:05:00 이 섹션에서는 비지도 학습에서 클러스터링에서 연결로 초점이 이동합니다. 연관 문제는 유사한 데이터 포인트를 함께 그룹화하는 클러스터링과 달리 데이터 세트의 기능 간의 상관 관계를 식별합니다. 의미 있는 연결을 추출하려면 데이터 포인트를 고유하게 나타내는 기능의 수가 최소화되는 차원 축소를 통해 데이터 세트의 열 복잡성을 줄여야 합니다. 데이터 세트의 과소적합 또는 과적합을 방지하기 위해 최적의 기능 수를 선택하여 기능 추출을 수행할 수 있습니다. 차원 축소는 고차원 데이터를 저차원 다양체로 표현할 수 있는 다양체 학습을 통해 달성됩니다. 데이터 세트의 저차원 표현에는 문제를 표현하고 여전히 의미 있는 결과와 연관성을 생성하는 데 필요한 감소된 기능 세트가 포함되어 있습니다. 기능 엔지니어링은 차원 축소, 기능 선택 및 추출을 포함하는 기계 학습의 하위 필드입니다.

  • 00:10:00 비디오의 이 마지막 부분에서는 채널에서 논의된 개념을 더 깊이 이해하기 위해 수학과 과학 학습의 개념을 소개합니다. Brilliant는 수학 및 과학 학습을 흥미롭고 상호 연결하며 오프라인 학습을 제공하는 플랫폼입니다. 또한 사용자는 제공된 링크를 방문하여 미래학에 대해 알아보고 프리미엄 구독에 대해 20% 할인을 받을 수 있습니다. 마지막으로 시청자는 Patreon 또는 YouTube 멤버십에서 채널을 지원하고 댓글에 향후 주제에 대한 제안을 남겨주시기 바랍니다.
 

기계 학습이란 무엇입니까(기계 학습 설명)



기계 학습이란 무엇입니까(기계 학습 설명)

기계 학습은 컴퓨터가 명시적으로 프로그래밍하지 않고도 학습할 수 있도록 하는 연구 분야입니다. 여기에는 알고리즘을 사용하여 데이터 세트의 결정 공간에 대한 결정 경계를 형성하는 것이 포함됩니다. 기계 학습에 대한 이러한 이해는 Tom Mitchell 박사가 두 번째로 가장 널리 사용하고 확립한 것입니다.

기계 학습은 더 크고 더 나은 데이터를 허용하는 컴퓨팅 성능 및 스토리지의 증가와 딥 러닝의 부상에 기인할 수 있습니다. 수행하는 작업이 종종 격리되고 도메인별로 다르기 때문에 약한 인공 지능으로 분류됩니다. 기계 학습은 다양한 접근 방식과 모델을 포함하며 추상화 및 단순화로 인해 실제 문제의 출력을 100% 정확하게 예측할 수는 없지만 광범위한 응용 프로그램에서 여전히 유용할 수 있습니다. Brilliant는 기계 학습 및 기타 STEM 주제에 대한 학습을 위한 리소스 중 하나로 언급됩니다.

  • 00:00:00 이 섹션에서는 기계 학습의 의미와 정의, 그리고 그것이 인공 지능과 어떻게 관련되는지에 중점을 둡니다. 기계 학습은 컴퓨터가 명시적으로 프로그래밍하지 않고도 학습할 수 있는 기능을 제공하는 연구 분야입니다. 여기에는 데이터 세트의 결정 공간에 대한 결정 경계를 형성하는 알고리즘의 사용이 포함됩니다. 모델을 형성하는 과정을 훈련이라고 하며 훈련된 모델이 훈련 데이터에 대해 좋은 정확도를 나타내면 새로운 데이터 출력을 예측하는 추론에 사용할 수 있습니다. 이 프로세스는 Carnegie Mellon University의 Tom Mitchell 박사가 설정한 두 번째로 널리 사용되는 기계 학습 정의를 정의합니다.

  • 00:05:00 이 섹션에서 비디오는 기계 학습의 5가지 주요 부류인 상징주의자, 연결주의자, 진화론자, 베이지안 및 유추자를 강조하여 기계 학습 및 인공 지능의 부상을 탐구합니다. 이어 AI의 발전이 AI 초기에는 보다 일반적이고 강력한 AI를 만들려는 시도에서 다양한 분야의 도메인별 전문 지식 습득에 집중하는 방향으로 어떻게 이동했는지 설명한다. 기계 학습의 부상은 더 크고 더 나은 데이터를 허용하는 컴퓨팅 성능과 스토리지의 증가와 딥 러닝의 부상에 기인할 수 있습니다. 또한 이 비디오는 데이터가 업계의 큰 병목 현상으로 인해 얼마나 많은 AI 혁신이 가능했는지에 대해 다룹니다.

  • 00:10:00 이 섹션에서는 기계 학습이 인공 지능의 한 형태이지만 수행하는 작업이 종종 고립되고 영역별로 다르기 때문에 약한 AI로 분류된다고 설명합니다. 기계 학습은 복잡한 규칙 및 의사 결정 트리에서 진화 기반 접근 방식에 이르기까지 다양한 접근 방식을 포함하며, 모두 우리의 두뇌가 시도하는 방식과 마찬가지로 삶의 복잡성을 모델링하는 것을 목표로 합니다. 추상화 및 단순화로 인해 실제 문제의 출력을 예측할 때 모델이 100% 정확할 수 없다는 것은 인정되지만 머신 러닝 모델은 여전히 다양한 애플리케이션에서 유용할 수 있습니다. 이 비디오는 시청자가 다양한 STEM 주제를 다루는 과정과 일일 과제를 제공하는 플랫폼인 Brilliant를 포함하여 더 많은 것을 배우기 위해 추가 리소스를 찾도록 권장합니다.
 

딥 러닝 설명(& 딥 러닝이 인기 있는 이유)



딥 러닝 설명(& 딥 러닝이 인기 있는 이유)

동영상에서는 딥 러닝의 인기 비결이 데이터에서 직접 기능을 학습할 수 있고 신경망을 사용하여 데이터 세트의 기본 기능을 학습할 수 있다는 사실에서 비롯된다고 설명합니다. 딥 러닝의 부상은 빅 데이터, 향상된 처리 능력 및 간소화된 소프트웨어 인터페이스에 기인할 수 있습니다.

  • 00:00:00 이 섹션에서는 딥 러닝이 기계 학습의 연결주의 부족의 성공으로 인해 대중화 된 인공 지능의 하위 분야라고 설명합니다. 딥 러닝 시스템은 데이터에서 직접 기능을 학습하고 신경망을 사용하여 데이터 세트의 기본 기능을 학습할 수 있습니다. 딥 러닝의 핵심 요소는 수작업이 아닌 범용 학습 절차를 사용하여 데이터에서 기능 계층을 학습한다는 것입니다. 이 비디오는 또한 입력 이미지에서 얼굴을 감지하는 신경망의 예를 제공합니다. 낮은 수준의 특징부터 시작하여 중간 수준의 특징을 식별하고 마지막으로 다양한 얼굴 구조를 식별하기 위해 높은 수준의 특징을 발견합니다. 이 비디오는 궁극적으로 딥 러닝의 진정한 탄생이 2012년 ImageNet 대회에서 시작되었으며 우승한 알고리즘의 오류율이 16%로 가장 근접한 경쟁자보다 거의 10% 더 나은 것으로 나타났습니다.

  • 00:05:00 이 섹션에서는 동영상에서 딥 러닝의 부상이 어떻게 빅 데이터의 보급, 컴퓨팅 성능의 증가, TensorFlow와 같은 간소화된 소프트웨어 인터페이스, 딥 러닝의 처리 능력과 같은 요인에 기인하는지 설명합니다. 구조화되지 않은 데이터. 이 비디오는 또한 60년대의 단일 레이어 퍼셉트론 네트워크에서 수십에서 수백 개의 레이어가 있는 현대의 딥 네트워크에 이르기까지 신경망의 역사적 발전에 대해 다룹니다. 또한 이 비디오는 Brilliant.org를 딥 러닝 분야에 더 깊이 파고드는 데 관심이 있는 사람들을 위한 훌륭한 학습 리소스로 추천합니다.
 

뇌에서 AI까지(신경망이란?)




뇌에서 AI까지(신경망이란?)

영상은 인공신경망의 주요 구성요소인 인공신경망의 구성요소와 그것이 어떻게 생물학적 신경망의 구조를 기반으로 하는지에 대해 논한다.

또한 모든 유형의 입력에 적용할 수 있는 계층별 프로세스에서 신경망이 대량의 데이터에서 표현을 도출하는 방법을 설명합니다. 이 비디오는 딥 러닝 알고리즘의 기본 빌딩 블록에 대해 자세히 알아보기 위해 bright.org로 이동할 것을 권장합니다.

  • 00:00:00 이 섹션에서는 인공 신경망의 주요 구성 요소인 인공 신경의 기본 사항을 설명하는 비디오입니다. 인공 뉴런의 구조는 생물학적 뉴런과 유사하며 세 가지 주요 구성 요소가 있습니다: 체세포 또는 핵, 수상 돌기 또는 다른 뉴런에 연결되는 팔, 축삭 또는 세포에서 정보를 전송하고 세포로부터 정보를 전송하는 긴 꼬리 몸. 이 동영상은 딥 러닝 신경망 아키텍처의 기본 구조가 Santiago Ramon y Cajal의 첫 번째 뉴런 그림에서 파생된 방법을 보여줍니다. 수상돌기는 입력으로, 세포체는 처리 센터로, 축삭은 출력으로 나타냅니다. 또한 뉴런 간의 연결 또는 시냅스를 모델링하고 연결 강도를 선의 두께와 연결했습니다.

  • 00:05:00 이 섹션에서 비디오는 신경망이 방대한 양의 데이터에서 표현을 도출하는 데 어떻게 작동하는지 설명합니다. 계속해서 이미지 인식의 픽셀 값에서 음성 인식을 위한 음성의 오디오 주파수 또는 예측을 위한 환자의 병력에 이르기까지 모든 유형의 입력으로 변환할 수 있는 계층별 프로세스에서 이것이 어떻게 발생하는지 설명합니다. 암 가능성. 이 비디오는 또한 이 분야에 대해 자세히 알아보려면 두뇌를 예리하고 창의적으로 유지하고 딥 러닝 알고리즘의 기본 구성 요소를 이해하기 위한 플랫폼인 bright.org를 방문하는 것을 고려해야 한다고 언급합니다.
 

신경망을 만드는 방법 | 신경망 설명



신경망을 만드는 방법 | 신경망 설명

이 비디오는 관련된 구조와 수학을 논의하여 신경망이 패턴 인식 기능을 형성하는 방법을 설명합니다. 이미지를 예로 사용하고 입력 레이어, 출력 레이어 노드에 대해 설명하고 숨겨진 레이어의 개념을 소개합니다.

그런 다음 비디오는 활성화 기능과 입력 신호를 출력 신호로 변환하는 방법에 대해 자세히 설명합니다. 하이퍼볼릭 탄젠트 함수와 정류된 선형 단위 계층에 대해 논의하고 구축된 신경망이 모호하지 않은 값을 보장하기 위해 상당한 인간 공학이 필요하다는 것이 밝혀졌습니다. 비디오는 Brilliant.org에서 자세한 정보를 얻을 것을 권장합니다.

  • 00:00:00 이 섹션에서는 신경망이 패턴 인식 기능을 형성하는 방법을 확인하기 위해 신경망의 구조와 수학에 대해 자세히 논의하여 마지막 비디오가 중단된 부분에서 비디오를 계속합니다. 이 복잡한 주제를 더 잘 이해하기 위해 이미지를 직관적인 예로 사용합니다. 입력 레이어는 이미지를 구성하는 픽셀로 정의되며, 출력 레이어 노드는 네 가지 유형의 구조에 대해 임의로 설정됩니다. 그런 다음 비디오는 입력 값을 다시 매핑하고 원시 노드 값에 경계를 추가하기 위해 활성화 함수를 적용할 수 있는 숨겨진 레이어의 아이디어를 소개합니다. 은닉층 노드에 대한 입력이 임의의 입력 이미지에 의해 어떻게 영향을 받는지 보여주기 위해 가중치도 통합됩니다.

  • 00:05:00 이 섹션에서는 활성화 함수가 작동하여 입력 신호를 신경망의 다음 레이어에서 이해할 수 있는 출력 신호로 변환하는 방법에 대해 설명합니다. 하이퍼볼릭 탄젠트 함수는 X축의 모든 값을 -1과 1 사이의 Y 값으로 매핑하는 예제로 사용됩니다. 더 많은 노드를 추가하면 수용 필드가 더 복잡해지고 예를 들어 세 번째 숨겨진 레이어에서 네트워크가 역 십자와 같은 패턴을 인식하기 시작합니다. 마지막으로 음수 값을 수정하고 양수 값을 동일하게 유지하는 수정된 선형 단위 레이어가 도입되어 테스트 준비가 된 완성된 신경망으로 이어집니다.

  • 00:10:00 이 섹션에서는 이전 섹션에서 구축한 신경망을 심층 분석하여 입력 이미지에서 패턴을 식별하는 방법을 이해합니다. 구축된 네트워크가 완벽하지 않으며 모호하지 않은 값을 보장하기 위해 상당한 인간 공학이 필요하다는 것이 밝혀졌습니다. 이 시리즈의 다음 동영상에서는 경사 하강법 및 역전파, 딥 러닝에 학습을 적용하는 방법, 네트워크가 자체 표현을 구축하도록 허용하는 방법을 다룰 것입니다.
 

컴퓨터 학습 방법 | 신경망 설명(경사하강법 및 역전파)



컴퓨터 학습 방법 | 신경망 설명(경사하강법 및 역전파)

이 비디오는 네트워크가 가중치를 결정할 수 있도록 숨겨진 레이어의 가중치를 변경하여 신경망이 학습하는 방법을 설명합니다. 신경망의 오류율을 최소화하기 위해 비용함수(cost function)의 개념을 도입하였으며, 역전파(backpropagation)는 신경망의 매개변수를 튜닝하는데 필수적인 과정으로 설명하였다.

표현, 평가 및 최적화를 포함한 기계 학습의 세 가지 주요 구성 요소는 연결주의 부족에서 다룹니다. 비디오는 또한 네트워크가 항상 추상화 계층에서 완벽하게 배열되지는 않는다는 점에 주목합니다. 딥 러닝의 목표는 네트워크가 자체적으로 가중치를 학습하고 조정하는 것입니다.

  • 00:00:00 이 섹션에서는 신경망이 실제로 학습하는 방법에 중점을 둡니다. 첫 번째 단계는 이전에 수동으로 설정한 숨겨진 레이어의 가중치를 변경하여 네트워크 자체가 가중치를 결정할 수 있도록 네트워크를 조정하는 것입니다. 181개의 잠재적 가중치를 사용하면 출력 결정 공간에서 각각의 영향을 시각화하는 것이 힘든 작업이 됩니다. 단순화하기 위해 12개의 가중치와 함께 간단한 숫자를 사용하고 출력 노드 방정식을 결정 경계로 표시합니다. 여기서 P는 빨간색으로 Q보다 크고 파란색으로 Q보다 작습니다. 네트워크에서 가중치를 변경하면 결정 경계의 기울기가 변경됩니다. 비선형성을 추가하기 위해 시그모이드 함수와 같은 활성화 함수가 적용될 때까지 가중치 조정으로 인한 모든 변경 사항은 직선으로 선형 출력되는 것으로 관찰됩니다. 딥 러닝을 달성하기 위한 목표는 네트워크 자체에서 학습 프로세스 및 가중치 튜닝을 수행하는 것입니다.

  • 00:05:00 이 섹션에서는 비용 함수의 개념과 그것이 신경망의 오류율을 최소화하는 데 어떻게 도움이 되는지 설명합니다. 이 비디오는 또한 신경망 매개변수의 값을 조정하는 데 필수적인 역전파 프로세스를 설명합니다. 기울기 하강법은 이동할 방향을 결정하는 방법이며 역전파는 실제로 매개변수를 해당 값으로 조정하여 네트워크가 원하는 결과를 생성할 수 있도록 합니다. 목표는 비용 함수 값을 최소화하기 위해 가중 값을 실측값에 가깝게 만드는 것입니다. 가중치가 우리가 기대하는 결과를 생성하는 지점에 도달할 때까지 네트워크를 훈련하는 동안 프로세스가 반복됩니다.

  • 00:10:00 이 섹션에서는 표현, 평가 및 최적화를 포함하는 연결주의 부족에서 기계 학습의 세 가지 주요 구성 요소에 대해 배웁니다. 표현은 표현 공간을 정의하는 신경망 함수를 사용하여 이루어지며 평가는 출력에서 노드의 제곱 오차를 계산하여 비용 또는 효용 함수를 얻는 데 사용됩니다. 마지막으로 표현 모듈의 공간을 탐색하여 최적화를 달성하는데, 이는 경사하강법과 역전파를 통해 이루어집니다. 우리는 인공 신경망이 어떻게 작동해야 하는지에 대해 많은 일반화를 만들었지만 여전히 다루지 않은 많은 것들이 있습니다. 그 중 하나는 네트워크가 항상 완벽한 추상화 계층으로 배열되지 않는다는 것입니다.
 

신경망 작동 방식 | 신경망 설명



신경망 작동 방식 | 신경망 설명

이 비디오는 특정 임계값이 충족될 때 노드를 활성화하도록 점프 시작하는 신경망의 바이어스 매개변수와 최적화 기술을 통해 미세 조정이 필요한 하이퍼 매개변수와 함께 매개변수와 하이퍼 매개변수 간의 차이를 설명합니다.

학습률에 대해서도 논의하고 과적합 또는 과소적합을 피하면서 최적의 속도를 찾는 문제를 강조합니다. 기능 엔지니어링은 분석가가 문제를 정확하게 설명하는 입력 기능을 결정해야 하는 신경망에서 발견되는 또 다른 하위 필드입니다. 비디오는 이론적인 인공 신경망이 완벽한 추상화 계층을 포함하지만 실제로는 가장 중요한 하이퍼파라미터를 선택하여 선택되는 사용되는 네트워크 유형으로 인해 훨씬 더 무작위적이라는 점에 주목합니다.

  • 00:00:00 이 섹션에서는 딥 러닝에 대한 이전 비디오에서 다루지 않은 몇 가지 개념에 대해 설명합니다. 표현을 배우기 위해 조정해야 하는 또 다른 매개변수인 신경망의 편향 매개변수에 대해 설명합니다. 편향 매개변수의 목적은 특정 임계값이 충족될 때 노드가 강력하게 활성화되도록 점프 시작하는 것입니다. 비디오는 바이어스가 선형 방정식에 대한 Y 절편이며 여기서 가중치는 기울기라고 설명합니다. 파라미터 대 하이퍼파라미터의 개념도 설명합니다. 여기서 하이퍼파라미터는 모델 외부에 있고 데이터에서 값을 추정할 수 없는 구성입니다. 논의는 하이퍼파라미터 조정 및 최적화가 딥 러닝의 전체 하위 분야이며 다양한 파라미터에 대한 최상의 값을 찾기 위해 다양한 기술이 필요하다는 점을 강조합니다. 하이퍼파라미터인 학습률에 대해서도 설명하는데, 학습률의 값은 신경망이 구축할 표현에 큰 영향을 미칩니다.

  • 00:05:00 이 섹션에서는 동영상에서 신경망에서 이상적인 학습 속도 및 기능 엔지니어링을 찾는 문제를 설명합니다. 최적의 학습 속도를 찾으려면 신경망이 제대로 작동하는지 확인하는 데 많은 작업이 필요합니다. 부적절한 학습률은 과적합 또는 과소적합으로 이어져 계산 능력과 시간 소모를 증가시킬 수 있습니다. 반면에 기능 엔지니어링은 분석가가 해결하려는 문제를 정확하게 설명하는 입력 기능을 결정해야 하는 하위 필드입니다. 신호를 강화하고 노이즈를 제거하는 기능을 캡처하는 것이 중요합니다. 기능이 거의 없을 때 과소적합이 발생할 수 있는 반면, 과적합은 모델이 너무 전문화되어 새 데이터에 응답하기 어려울 때 발생합니다.

  • 00:10:00 이 섹션에서 비디오는 인공 신경망의 이론적 개념이 완벽한 추상화 계층을 포함하지만 실제로는 훨씬 더 무작위적이라고 설명합니다. 가장 중요한 하이퍼파라미터를 선택하여 선택한 특정 문제에 사용되는 네트워크 유형이 큰 이유입니다. 피드 포워드 신경망은 일반적으로 이해하기 쉽기 때문에 딥 러닝에 대한 학습에 선택됩니다. 그러나 컨볼루션 네트워크 및 순환 네트워크를 포함하여 다양한 문제에 훨씬 더 적합한 많은 유형의 신경망이 존재하게 되었습니다. 비디오는 개인이 두뇌를 날카롭게 유지하고 여러 분야의 문제에 대한 창의적인 해결책을 생각하도록 촉구하며 끝납니다.