머신 러닝 및 신경망 - 페이지 10

 

Demis Hassabis 박사: AI를 사용하여 과학적 발견 가속화

DeepMind의 공동 설립자 겸 CEO가 2022년 5월 17일 화요일 옥스퍼드의 Sheldonian Theatre에서 대규모 공개 강연을 합니다.




Demis Hassabis 박사: AI를 사용하여 과학적 발견 가속화

DeepMind의 CEO이자 공동 창립자인 Demis Hassabis 박사가 AI를 사용하여 과학적 발견을 가속화하게 된 경력 여정에 대해 설명합니다. DeepMind는 경험에서 직접 첫 번째 원칙을 통해 학습하는 일반 학습 시스템 구축에 중점을 두고 딥 러닝 또는 심층 신경망을 강화 학습과 융합합니다. Hassabis 박사는 AlphaFold가 단백질의 3D 구조를 예측할 수 있게 되면서 AlphaGo와 AlphaZero가 어떻게 AI를 사용하여 과학적 발견을 가속화했는지 설명합니다. AlphaFold 2 시스템은 평균 1옹스트롬 오류 미만의 점수로 원자 정확도에 도달했으며 전 세계 수백 건의 논문 및 응용 프로그램에 사용됩니다.

또한 그는 생물학 분야, 특히 신약 개발 분야를 혁신하는 AI의 잠재력에 대해 논의합니다. 그는 AI를 책임감 있게 구축하고 과학적인 방법을 사용하여 위험과 이점을 관리하는 것의 중요성을 강조합니다. 또한 Hassabis 박사는 신경과학, 의식 및 자유 의지에서 AI 사용과 관련된 윤리적 문제를 다루며 철학자, 윤리학자 및 인문학을 포함하는 다학제적 접근 방식의 필요성을 강조합니다. 그는 AI가 가상 시뮬레이션을 통해 도덕과 정치학 분야에 기여할 수 있다고 믿지만 인간의 복잡성과 동기를 인정합니다. 마지막으로, Dr. Hassabis는 인공 신경망 연구의 어려움과 향후 10년 동안 이러한 시스템을 더 잘 이해해야 할 필요성에 대해 논의합니다.

  • 00:00:00 이 섹션에서는 연사이자 DeepMind의 CEO이자 공동 창립자인 Dr. Demis Hassabis가 AI를 사용하여 과학적 발견을 가속화하게 된 경력 여정에 대해 설명합니다. 그는 AI의 잠재력을 가장 유익한 기술 중 하나로 표현하지만 중요한 윤리적 문제를 고려하는 것의 중요성에 주목합니다. 그런 다음 Hassabis 박사는 AlphaFold 시스템과 같은 일반 학습 시스템 구축에 대한 DeepMind의 초점에 대해 이야기합니다. 이 시스템은 단백질 구조 예측이라는 50년 간의 그랜드 챌린지를 성공적으로 해결했습니다. 그는 실제 세계, 특히 과학적 발견 분야에서 중요한 문제를 해결하기 위해 AI를 사용할 가능성을 강조합니다.

  • 00:05:00 이 섹션에서는 Demis Hassabis 박사가 2010년 DeepMind 설립에 대해 이야기하고 초기 목표가 과학을 발전시키고 인류에게 도움이 되도록 AGI(일반 인공 지능)를 구축하는 것이었는지에 대해 이야기합니다. 그는 AI를 구축하는 두 가지 광범위한 방법이 있다고 설명합니다. 첫 번째는 프로그래머가 예측한 것으로 제한되는 전통적인 논리 또는 전문가 시스템입니다. 두 번째는 신경과학에서 영감을 받아 경험에서 직접 첫 번째 원칙을 통해 스스로 학습하는 학습 시스템입니다. 그는 심층 학습 또는 심층 신경망을 강화 학습과 융합하는 학습 시스템에 대한 DeepMind의 특별한 해석에 대해 이야기합니다. 이러한 조합을 통해 환경 또는 데이터의 모델을 구축하고 해당 환경에 대한 이해를 바탕으로 의사 결정을 내릴 수 있습니다.

  • 00:10:00 이 섹션에서 Dr. Demis Hassabis는 딥 강화 학습이 작동하는 방식과 AI 시스템이 환경의 내부 모델을 사용하여 시행착오로부터 학습할 수 있도록 함으로써 과학적 발견을 가속화하는 데 어떻게 사용될 수 있는지 설명합니다. 강화 학습에는 환경에서 관찰한 내용을 사용하여 내부 모델을 구축 및 업데이트하고 에이전트가 목표에 가장 근접할 수 있는 작업을 선택하는 작업이 포함됩니다. 이 학습 메커니즘은 인간을 포함한 포유류의 뇌가 작동하는 방식과 유사하며 일반적인 인공 지능을 향한 하나의 경로입니다. Hassabis 박사는 또한 전통적인 논리와 전문가 시스템으로는 해결할 수 없었던 바둑에서 세계 챔피언을 이기기 위해 고안된 프로그램인 AlphaGo에 대한 개요를 제공합니다.

  • 00:15:00 이 섹션에서 Dr. Demis Hassabis는 학습 시스템, 특히 프로그램의 AlphaGo 시리즈 개발에서 AI를 사용하여 직관에 근접하는 과정에 대해 논의합니다. 시스템은 위치를 평가하고 가장 유용한 동작을 선택하기 위해 셀프 플레이로 훈련됩니다. 초기 신경망은 지식이 없고 무작위로 움직입니다. 네트워크에서 자체적으로 100,000번 플레이한 데이터는 어느 쪽이 이길 것인지, 어떤 움직임이 특정 위치에서 가장 가능성이 높은지 예측하는 또 다른 신경망을 훈련하는 데 사용되는 데이터 세트를 형성합니다. 미니 토너먼트는 첫 번째 네트워크와 두 번째 네트워크 사이에서 진행되며 두 번째 네트워크가 이기면 첫 번째 네트워크가 교체됩니다. 이 프로세스는 계속 진행되어 55%의 승률에 도달할 때까지 점진적으로 더 나은 데이터 세트를 생성하고 그 후 개발의 다음 단계가 시작되어 약 17-18회 반복 내에서 세계 챔피언 수준 이상의 결과로 이어집니다.

  • 00:20:00 이 섹션에서는 Demis Hassabis 박사가 AI, 특히 AlphaGo를 사용하여 과학적 발견을 가속화하는 방법을 설명합니다. AlphaGo는 신경망 시스템과 Monte Carlo 트리 검색 알고리즘을 활용하여 바둑 게임에서 거대한 검색 공간을 제한하여 보다 다루기 쉽게 만들었습니다. 이 시스템은 매우 발전하여 인간이 바둑 게임을 보는 방식을 바꾸었고 이후 과학 연구 분야에도 혁명을 일으켰습니다. 예를 들어 AlphaGo는 약물 개발 및 질병 퇴치에 중요한 단백질 폴딩을 연구하는 데 도움을 주었습니다.

  • 00:25:00 이 섹션에서는 Demis Hassabis 박사가 바둑 및 체스와 같은 보드 게임을 플레이하도록 훈련된 두 AI 시스템인 AlphaGo 및 AlphaZero의 개발에 대해 설명합니다. AlphaGo는 2016년 바둑에서 세계 챔피언을 이겼습니다. AlphaGo가 한 움직임은 인간의 플레이에서 배울 수 있는 것이 아니었기 때문에 바둑 커뮤니티를 놀라게 했습니다. 그런 다음 Hassabis 박사는 이 기술이 어떻게 모든 2인용 게임을 플레이하도록 훈련된 AlphaZero로 일반화되었는지 설명합니다. AlphaZero는 4시간의 교육으로 최고의 수제 체스 프로그램을 이길 수 있었고 물질보다 이동성을 선호하므로 미학적으로 더 즐거운 완전히 새로운 체스 스타일을 생각해 냈습니다.

  • 00:30:00 이 섹션에서는 DeepMind의 공동 창립자이자 CEO인 Demis Hassabis가 인공 지능 프로그램인 Alpha Zero의 고유한 기능과 기존 체스 엔진과의 차이점에 대해 설명합니다. 관련된 위치와 패턴을 평가하고 학습한 요소의 균형을 맞추는 Alpha Zero의 능력은 수천 개의 수작업 규칙이 있는 기존의 체스 엔진보다 더 효율적입니다. 또한 하드 코딩된 체스 엔진이 계산해야 하는 내장된 규칙을 극복할 필요가 없습니다. Alpha Zero라는 프로그램은 Atari와 Starcraft 2를 포함한 게임에서 획기적인 발전을 이루었지만 Hassabis는 Alpha Zero가 가장 흥미로운 순간이라고 믿습니다.

  • 00:35:00 이 섹션에서는 Demis Hassabis 박사가 AI를 사용하여 과학적 발견을 가속화하는 방법에 대해 설명합니다. 그는 방대한 검색 공간, 최적화할 수 있는 명확한 목적 함수, 학습할 수 있는 많은 양의 데이터 또는 데이터를 생성할 수 있는 정확한 시뮬레이터의 세 가지 주요 기능으로 과학적 문제를 찾는다고 설명합니다. 이 프레임워크를 사용하여 그의 팀은 단백질 접힘이 이러한 기준에 완벽하게 맞는 문제임을 확인했습니다. 단백질 폴딩은 아미노산 서열에서 단백질의 3D 구조를 예측하는 고전적인 문제로, 최근까지 힘든 실험을 통해서만 수행되었습니다. 이 문제는 평균 크기의 단백질의 가능한 형태를 10의 300승으로 추정되는 검색 공간으로 인해 매우 복잡합니다. 희망은 AI를 사용하여 이 문제를 계산적으로 해결하여 과학적 발견의 완전히 새로운 분야를 여는 것입니다.

  • 00:40:00 이 섹션에서 Dr. Demis Hassabis는 90년대 케임브리지의 학부생일 때 어떻게 단백질 폴딩 문제에 관심을 가지게 되었는지 이야기합니다. 2000년대 David Baker의 연구실은 AI로 문제를 해결할 수 있는 가능성을 깨달았습니다. Hassabis 박사는 단백질 접힘 분야가 10년 넘게 정체되어 있었기 때문에 AlphaFold 프로젝트 작업을 시작했을 때 단백질 접힘 분야에 들어갈 수 있었다고 설명합니다. 그들은 CASP라는 맹목적인 예측 경쟁이 실험적 사실에 대한 예측을 평가할 수 있게 하여 이 분야에서 상당한 발전을 가져왔기 때문에 특히 유용하다는 것을 알게 되었습니다.

  • 00:45:00 이 섹션에서 Demis Hassabis 박사는 그의 팀이 AlphaFold 1 및 2의 개발로 단백질 폴딩 분야에서 이룬 돌파구에 대해 논의합니다. AlphaFold 1은 단백질 폴딩 예측의 평균 정확도를 50% 증가시켰습니다. 60 GDT에 가까운 점수로 AlphaFold 2는 평균 1옹스트롬 오류 점수로 원자 정확도에 도달했습니다. Casp 주최측과 John Mull은 AlphaFold 2 개발 이후 구조 예측 문제가 본질적으로 해결되었다고 선언했습니다. 시스템에는 32개의 구성 요소 알고리즘이 필요했으며 성공을 위해 모든 부품이 필요했습니다. 주요 기술 발전은 암시적 그래프 구조를 추론하기 위해 관심 기반 신경망을 사용하고 재활용 반복 단계 접근 방식을 채택하여 시스템을 완전히 엔드 투 엔드로 만드는 것입니다.

  • 00:50:00 이 섹션에서는 Demis Hassabis 박사가 단백질 구조를 예측하는 복잡한 AI 시스템인 AlphaFold의 개발에 대해 논의합니다. 이 시스템은 학습에 영향을 미치지 않으면서 컨볼루션 편향을 제거하고 진화 및 물리적 제약 조건을 포함해야 했습니다. AlphaFold의 개발 과정에는 생물학자, 물리학자, 화학자, 기계 학습자로 구성된 다분야 팀이 필요했습니다. 대부분의 시스템에서 일반성을 추구하지만, AlphaFold는 단백질의 구조를 찾기 위해 개발되었으며, 여기에는 주방 싱크대 접근 방식이 필요했습니다. 훈련하는 데 2주밖에 걸리지 않았고 단일 GPU에서 예측이 가능했던 AlphaFold 2는 약 20,000개의 단백질로 구성된 인체 프로테옴의 모든 단백질 구조를 예측하는 데 사용되었습니다. 시스템은 프로테옴 단백질의 각각 36%와 58%에 대해 높은 정확도로 예측했으며, 이는 실험 적용 범위의 17%에 대한 이전 적용 범위의 두 배 이상입니다.

  • 00:55:00 이 섹션에서 Dr. Demis Hassabis는 Alpha Fold가 알츠하이머병과 같은 질병에서 중요한 장애 단백질 예측 인자로 어떻게 사용되었는지 설명합니다. 그들은 또한 시스템이 예측에 대한 자체 신뢰도를 예측하는 방법을 개발하여 생물학자들이 예측의 품질을 쉽게 평가할 수 있도록 했습니다. 팀은 방치된 열대성 질병의 우선순위를 정하고 모든 용도에 대해 무료 및 무제한 액세스를 위해 데이터를 공개했습니다. 불과 9개월 만에 Alpha Fold는 수백 건의 논문과 응용 프로그램에 사용되었으며, 190개국에서 500,000명의 연구원이 데이터베이스를 사용하고 150만 개의 구조를 조회했습니다.

  • 01:00:00 이 섹션에서 Dr. Demis Hassabis는 AI가 생물학 분야를 혁신할 수 있는 잠재력을 공유하며 정보 처리 시스템으로서의 근본적인 역할 때문에 AI가 유용할 수 있는 잠재적으로 완벽한 체제라고 설명합니다. 그는 또한 AlphaFold의 성공이 기계 학습이 전통적인 수학적 방법에 비해 생물학의 복잡한 현상에 접근하는 더 나은 방법일 수 있다는 개념 증명이라고 믿습니다. Hassabis 박사는 DeepMind의 팀이 DeepMind와 DeepMind의 새로운 분사 회사인 Isomorphic Labs 내에서 특히 약물 발견에 중점을 둘 생물학 분야의 노력을 두 배로 늘리고 있다고 설명합니다. 마지막으로 그는 AI가 모든 사람에게 혜택을 줄 수 있도록 책임감 있게 AI를 구축하는 것의 중요성을 강조합니다.

  • 01:05:00 이 섹션에서 Dr. Demis Hassabis는 AI에서 윤리 및 안전의 중요성과 그것이 우리가 그것을 배포하고 사용하는 방법에 따라 어떻게 달라지는지 강조합니다. 이러한 이유로 새로 설립된 윤리 연구소와 같은 장소에서 폭넓은 토론을 통해 이러한 시스템의 설계 및 배포 결정에 가능한 한 가장 광범위한 정보를 얻을 수 있도록 해야 합니다. Deepmind는 잠재적인 위험과 피해를 미리 식별하고 완화하는 데 도움을 주어 Google의 AI 원칙 초안을 작성하는 데 중요한 역할을 했습니다. 빠르게 움직이고 문제를 해결하는 대신 Dr. Hassabis는 AI의 위험과 이점을 관리하기 위해 사려 깊은 숙고, 사전 예측, 가설 생성, 엄격하고 신중한 테스트, 통제된 테스트를 포함하는 과학적 방법을 사용할 것을 제안합니다.

  • 01:10:00 이 섹션에서 Demis Hassabis는 엔지니어링 분야에서 부족하다고 생각하는 과학적 방법에서 제어 테스트 및 동료 검토의 중요성을 강조합니다. 그는 또한 존중, 예방 및 겸손을 가지고 인공 일반 지능에 접근해야 할 필요성을 강조합니다. Hassabis는 AI가 올바르게 수행되면 잠재적으로 지금까지 발명된 가장 훌륭하고 가장 유익한 기술이 될 수 있다고 믿으며 AI를 과학자들이 우주를 더 잘 이해하는 데 도움이 되는 궁극적인 범용 도구로 보고 있습니다. 그는 AI 응용 프로그램과 관련하여 윤리적 문제가 있음을 인정하고 이러한 문제에 대한 의사 결정이 개발자와 기업의 어깨에만 있는 것이 아니라 정부도 역할을 해야 한다고 믿습니다.

  • 01:15:00 이 섹션에서는 Demis Hassabis 박사가 신경과학 분야에서 AI의 잠재력과 AI가 인간 정신의 미스터리를 밝히는 데 어떻게 도움이 되는지에 대해 논의합니다. 그는 의식 또는 자유 의지를 위해 AI를 활용하는 것과 관련된 윤리적 문제를 해결하기 위해 철학자, 윤리학자, 신학자 및 인문학을 포함하는 다학제적 접근 방식의 필요성을 강조합니다. Hassabis 박사는 또한 DeepMind가 모든 측면에서 연구 프로젝트를 평가하고 생물학자와 생명윤리학자를 포함한 외부 전문가를 끌어들이는 기관 검토 위원회를 가지고 있다고 주장합니다. AI 시스템이 더욱 강력해지고 전 세계에 더 많은 영향을 미치게 됨에 따라 Dr. Hassabis는 윤리적 문제를 보다 적극적으로 해결하기 위해 더 많은 작업이 필요할 것임을 인정합니다.

  • 01:20:00 이 섹션에서 Hassabis는 DeepMind의 조직적, 문화적 느낌과 규모를 통합하면서 스타트업(에너지, 창의성 및 속도)과 학술 연구(푸른 하늘 사고)의 가장 좋은 측면을 성공적으로 결합한 방법에 대해 설명합니다. Google과 같은 대기업의 리소스. 그는 관료주의를 피하고 성장하면서 신생 기업의 민첩성과 속도를 유지하는 것이 과제라고 언급합니다. 그는 또한 DeepMind의 접근 방식이 다른 대규모 프로젝트의 청사진 역할을 할 수 있다고 제안합니다. AI를 사용하여 소셜 네트워크를 구축하는 것에 대해 질문을 받았을 때 Hassabis는 피상적인 연결의 가치에 의문을 제기하고 과학적 방법을 사용하여 그러한 프로젝트의 결과와 지표를 통해 생각하도록 제안합니다. 그는 올바른 질문을 찾는 것의 중요성을 강조하며, 이는 그 자체로 도전이 될 수 있습니다.

  • 01:25:00 이 섹션에서 Dr. Demis Hassabis는 인간의 복잡성과 동기를 언급하면서 AI가 도덕과 정치학의 영역에 관여하는 어려움을 인정합니다. 그러나 그는 AI가 수백만 명의 에이전트로 가상 시뮬레이션을 생성하여 실제 구현의 결과 없이 다양한 정치 시스템과 경제 모델을 실험하고 테스트할 수 있게 함으로써 이러한 분야에 기여할 수 있다고 믿습니다. 그는 AI를 덜 불투명하고 투명하게 만드는 것의 중요성을 강조합니다. 이는 뇌를 이해하는 데 있어 신경과학이 발전한 방식과 비교할 수 있습니다.

  • 01:30:00 이 섹션에서 Dr. Demis Hassabis는 인공 신경망 연구의 어려움에 대해 설명하면서 네트워크의 모든 뉴런 또는 인공 뉴런에 대한 액세스는 과학자들이 실험 조건을 완전히 제어할 수 있음을 의미한다고 말합니다. 그러나 AlphaGo와 같은 인공 시스템의 빠르게 진화하는 특성은 연구원이 결론에 도달할 때까지 시대에 뒤떨어져 있어 문제를 제시합니다. 그럼에도 불구하고 Hassabis 박사는 연구 시간을 투자할 만큼 충분히 흥미로운 대형 모델과 AlphaFold 유형을 포함하여 향후 10년 동안 이러한 시스템에 대한 더 나은 이해를 보게 될 것이라고 믿습니다.
 

Geoffrey Hinton과 Yann LeCun, 2018 ACM AM Turing Award 강의 "The Deep Learning Revolution"


Geoffrey Hinton과 Yann LeCun, 2018 ACM AM Turing Award 강의 "The Deep Learning Revolution"

Geoffrey Hinton과 Yann LeCun은 2018 ACM AM Turing Award를 수상하고 딥 러닝 혁명에 대한 강의를 했습니다.
강의에서 그들은 딥 러닝이 컴퓨터 과학을 어떻게 혁신했는지, 그리고 딥 러닝이 삶의 다양한 측면에 어떻게 도움이 되는지에 대해 논의했습니다. 그들은 또한 딥 러닝의 과제와 이 분야의 미래에 대해서도 이야기했습니다.
그들은 딥 러닝에 대한 이론적 이해가 중요하지만 복잡한 상황에서 결정을 내리는 것은 여전히 인간에게 달려 있다고 지적했습니다. 그들은 또한 자율 주행에서 진화 계산 및 기타 형태의 인공 지능의 가능성에 대해 논의했습니다.

  • 00:00:00 Geoffrey Hinton과 Yann LeCun이 2018 ACM AM Turing Award 강의에서 딥 러닝 혁명에 대해 이야기합니다. 그들은 딥 러닝이 어떻게 컴퓨터 과학을 혁신했는지, 참석자들이 관련 컨퍼런스에 참석함으로써 얻을 수 있는 이점에 대해 논의합니다.

  • 00:05:00 2018 ACM AM Turing Award의 세 명의 수상자는 Geoffrey Hinton, Yoshua Bengio 및 Yann LeCun입니다. Hinton은 딥 러닝의 발전에 대한 역사 강의를 하고 Kuhn은 딥 러닝의 지속적인 발전에 대해 논의합니다.

  • 00:10:00 2018 ACM AM Turing Award 강의에서 Geoffrey Hinton은 인공 지능에 대한 생물학적 접근 방식을 기반으로 하는 딥 러닝 혁명에 대해 설명합니다. 딥 러닝 접근 방식은 기존의 상징적 패러다임보다 효율적이고 효과적이지만 배우기가 더 어렵습니다.

  • 00:15:00 2018 ACM AM Turing Award 강의에서 Geoffrey Hinton은 신경망이 뇌에 있는 실제 뉴런의 단순화된 버전이라고 설명하면서 신경망의 작동 방식에 대해 논의했습니다. 그는 또한 역전파가 어떻게 강화 학습 알고리즘의 효율적인 버전인지, 그리고 이것이 어떻게 신경망 훈련 프로세스를 10배 이상 빠르게 할 수 있는지 설명했습니다.

  • 00:20:00 Geoffrey Hinton과 Yann LeCun이 ACM Turing Award 시상식에서 딥 러닝 혁명에 대해 강의했습니다. 두 사람은 역전파, 확률적 경사하강법 및 대규모 학습에서 성공하지 못한 방법에 대해 논의합니다.

  • 00:25:00 이 강의에서 Geoffrey Hinton과 Yann LeCun은 보다 효율적인 신경망 개발과 관련된 딥 러닝 혁명에 대해 논의합니다. 최근 몇 년 동안 사용 가능한 컴퓨팅 성능이 증가함에 따라 신경망은 점점 더 강력해졌으며 이제 컴퓨터 비전의 다양한 분야에서 유비쿼터스입니다.

  • 00:30:00 Geoffrey Hinton과 Yann LeCun은 딥 러닝의 역사와 현재 상태에 대해 이야기하면서 이 분야의 성공과 과제를 강조했습니다. 그들은 또한 컴퓨터 비전의 미래에 대해 이야기하면서 더 나은 결과를 얻기 위한 딥 러닝의 중요성을 강조했습니다.

  • 00:35:00 2018 ACM AM Turing Award 강의에서 Geoffrey Hinton은 딥 러닝 혁명과 인공 지능에 대한 중요성에 대해 논의합니다. 그는 딥 러닝이 특정 작업을 달성하는 데 매우 효과적이지만 비전을 수행하는 최선의 방법은 아니라고 지적합니다. Hinton은 뇌에 복제된 딥 러닝 혁명의 한 측면이 복제된 장치의 사용이라고 제안합니다. 그는 참가자가 회전된 입방체의 모서리를 가리키도록 하여 왼쪽 상단 모서리가 전면 오른쪽 하단 모서리 위에 수직으로 놓이도록 함으로써 이를 시연합니다. Hinton은 딥 러닝이 특정 가중치 집합을 사용하여 원하는 출력을 근사화하는 데는 효과적이지만 객체의 대칭을 유지하는 데는 효과적이지 않다고 설명합니다. 그는 미래에 신경망이 뇌에서 시냅스가 어떻게 변화하는지와 유사한 다른 시간 척도를 사용하여 물체를 인식하는 법을 배울 수 있을 것이라고 예측합니다.

  • 00:40:00 2018 ACM AM Turing Award 강의에서 Geoffrey Hinton은 딥 러닝 혁명에 대해 논의합니다. 학습 과정에 새로운 시간 척도가 점진적으로 도입되었기 때문이라고 생각합니다. 그는 과거 학습의 메모리가 신경망의 가중치에 저장되는 방법과 빠른 가중치를 사용하여 이 메모리에 액세스하는 방법에 대해 설명합니다. Hinton은 빅 데이터가 딥 러닝에 미치는 영향과 컴퓨터 하드웨어 및 소프트웨어의 최근 발전으로 연구원들이 딥 러닝에 더 쉽게 접근할 수 있게 된 방법에 대해서도 이야기합니다.

  • 00:45:00 Geoffrey Hinton과 Yann LeCun 강의는 딥 러닝 혁명, 계층적 표현이 어떻게 도움이 되는지, Pennebaker 육아 네트워크가 어떻게 작동하는지에 대해 다루었습니다.

  • 00:50:00 Geoffrey Hinton과 Yann LeCun은 2018 ACM AM Turing Award 강의에서 딥 러닝과 삶의 다양한 측면을 혁신할 수 있는 가능성에 대해 논의했습니다. 이미지 분할 및 자율주행차에 대한 그들의 작업이 가장 주목할만한 작업 중 하나였습니다.

  • 00:55:00 Geoffrey Hinton과 Yann LeCun은 인간과 동물이 어떻게 효율적으로 빠르게 학습할 수 있는지에 대해 토론하면서 딥 러닝 혁명에 대한 강의를 했습니다. 그들은 또한 인간과 동물이 세상을 관찰하고 예측함으로써 개념을 학습하는 방법에 대해서도 논의했습니다.
 

이 캐나다 천재는 현대 AI를 만들었습니다



이 캐나다 천재는 현대 AI를 만들었습니다

AI 선구자인 제프 힌튼(Geoff Hinton)은 거의 40년 동안 컴퓨터가 인간처럼 학습하도록 노력해 왔으며 인공 지능 분야에 혁명을 일으켰습니다. Hinton은 1950년대에 개발된 뇌를 모방한 신경망인 Frank Rosenblatt의 퍼셉트론에서 영감을 받았습니다. 힌튼의 결의는 AI 분야의 돌파구로 이어졌다. 80년대 중반에 Hinton과 그의 협력자들은 다층 신경망, 즉 심층 신경망을 만들어 많은 방식으로 작동하기 시작했습니다. 그러나 초고속 칩과 인터넷에서 생성된 엄청난 양의 데이터가 컴퓨터가 이미지에 있는 것을 식별하고 음성을 인식하고 언어를 번역할 수 있는 마법 같은 향상을 제공한 2006년까지 필요한 데이터와 컴퓨팅 성능이 부족했습니다. 2012년까지 캐나다는 AI 초강대국이 되었고 신경망과 기계 학습은 New York Times의 첫 페이지에 실렸습니다.

  • 00:00:00 이 섹션에서는 거의 40년 동안 컴퓨터가 인간처럼 학습하도록 노력해 온 Geoff Hinton에 대해 알아봅니다. 모두가 절망적이라고 생각했던 이 추구는 인공 지능 분야에 혁명을 일으켰고 Google, Amazon 및 Apple과 같은 회사는 이것이 회사의 미래라고 믿습니다. Hinton의 영감은 1950년대에 뇌를 모방한 신경망인 퍼셉트론을 개발한 Frank Rosenblatt에게서 나왔습니다. Rosenblatt의 신경망은 제한적이었고 잘 작동하지 않았지만 Hinton은 뇌가 큰 신경망이기 때문에 신경망이 작동할 수 있다고 믿었습니다. 자신의 아이디어를 추구하려는 힌튼의 결의는 인공지능 분야의 돌파구로 이어졌고, 기업들은 그것이 기업의 미래라고 믿고 있습니다.

  • 00:05:00 이 섹션에서 비디오는 80년대 중반에 Hinton과 그의 협력자들이 간단한 신경망으로는 해결할 수 없는 문제를 해결할 수 있는 더 복잡한 신경망을 만드는 과정을 설명합니다. 그들은 여러 방식으로 작동하기 시작한 심층 신경망인 다층 신경망을 만들었습니다. 그러나 필요한 데이터와 컴퓨팅 성능이 부족하여 한계에 부딪혔습니다. 90년대와 2000년대까지 Hinton은 여전히 이 기술을 추구하는 소수의 사람들 중 한 명이었고 그는 천민 취급을 받았습니다. 2006년경까지 초고속 칩이 등장하고 인터넷에서 대량의 데이터가 생성되어 Hinton의 알고리즘이 마법처럼 향상되었습니다. 컴퓨터는 이미지에 있는 것을 식별하고 음성을 인식하고 언어를 번역할 수 있었습니다. 2012년까지 신경망과 기계 학습이 New York Times의 첫 페이지에 등장했고 캐나다는 AI 강국이 되었습니다.
 

Geoffrey Hinton: 딥 러닝의 기초




Geoffrey Hinton: 딥 러닝의 기초

인공 지능의 대부 Geoffrey Hinton이 딥 러닝의 기초에 대한 개요를 제공합니다. 이 강연에서 Hinton은 음성 및 물체 인식, 이미지 분할, 자연어 읽기 또는 생성에 적용되는 신경망의 발전을 분석합니다.

Geoffrey Hinton이 딥 러닝의 기초, 특히 역전파 알고리즘과 그 진화에 대해 논의합니다. Hinton은 딥 러닝이 어떻게 초기 필기 인식에 영향을 미치고 결국 2012 ImageNet 경쟁에서 우승하게 되었는지 설명합니다. 그는 또한 입력, 출력, 중간에 동일한 기호를 사용하는 기존 기호 AI보다 신경 활동의 벡터를 사용하는 딥 러닝의 우월성을 강조합니다. 기계 번역 시스템의 개선 사항, 이미지 인식 및 자연스러운 추론을 위한 조합에 대해 논의하고 의료 이미지를 해석하는 딥 러닝의 가능성에 대해서도 논의합니다. Hinton은 진정한 자연어 처리를 달성하기 위해 인간의 두뇌에 필적하는 매개변수를 가진 신경망의 필요성을 강조하면서 결론을 내립니다.

  • 00:00:00 이 섹션에서 Hinton은 딥 러닝에서 사용되는 기본 알고리즘인 역전파의 개념을 설명합니다. 그는 프로그램을 단계별로 작성하여 컴퓨터를 프로그래밍하는 전통적인 방법과 학습 알고리즘이 포함된 신경망을 통해 학습하는 방법을 컴퓨터에 지시하는 선호 방법에 대해 설명합니다. 이 방법은 가중치의 강도를 변경하여 적응하는 입력 라인 및 가중치가 있는 인공 뉴런을 사용하는 것과 관련됩니다. Hinton은 또한 진화의 아이디어와 유사한 방식으로 작동하는 간단한 알고리즘을 사용하여 이러한 연결을 조정하는 프로세스를 설명합니다. 여기서 네트워크는 좋은 일을 할 때까지 수정할 수 있습니다. 그는 미적분학을 사용하여 동일한 프로세스를 보다 효율적으로 수행하는 방법을 설명함으로써 이 섹션을 마무리합니다.

  • 00:05:00 이 섹션에서 Geoffrey Hinton은 특히 역전파 알고리즘과 관련하여 초기에 딥 러닝이 겪었던 어려움에 대해 설명합니다. 처음에는 사람들이 역전파가 잘 작동하지 않아 포기했지만 토론토, 몬트리올, 뉴욕에서 많은 레이블 데이터와 많은 컴퓨팅 성능으로 기하급수적으로 개선된 기술 발전이 거의 없었습니다. 확장성도 높였습니다. 딥 러닝이 가장 먼저 영향을 미친 실질적인 문제 중 하나는 필기 인식이었습니다. 한 무리의 학생들이 힌튼의 알고리즘을 당시에는 수백만 개의 학습 예제만 있는 음성 인식에 적용하려고 시도했으며 통계적으로 실용적이지 않은 것으로 간주되었습니다. 그러나 그들은 어떤 음소가 말하고 있는지 예측하고 그럴듯한 발화를 묶을 수 있었고 이러한 음성 인식 시스템은 현재 다양한 엔드 투 엔드 시스템에서 널리 사용되고 있습니다.

  • 00:10:00 이 섹션에서는 Geoffrey Hinton이 딥 러닝 신경망을 사용하여 2012년 ImageNet 대회에서 우승한 방법에 대해 설명합니다. 이 시스템은 기존 컴퓨터 비전 시스템 오류율의 거의 절반으로 이미지에서 피사체를 인식할 수 있었습니다. 약 25%의 오류율에서 정체 상태에 있었습니다. 이 성공은 사람들이 이미지 인식에서 딥 러닝 신경망의 잠재력을 깨닫게 되면서 큰 영향을 미쳤습니다. Hinton은 또한 음성과 같은 시퀀스를 처리하기 위해 순환 네트워크가 어떻게 사용되는지 설명합니다. 숨겨진 뉴런은 스스로 연결되어 시스템이 역전파를 통해 정보를 축적하고 학습할 수 있도록 합니다. 이 알고리즘은 나중에 한 언어로 된 문장을 생각으로 인코딩한 다음 다른 언어로 된 문장으로 번역하여 기계 번역에 사용되었습니다.

  • 00:15:00 이 섹션에서는 Geoffrey Hinton이 상징적 AI의 문제와 현재 형태의 딥 러닝이 이 문제를 해결하는 방법에 대해 설명합니다. 기호 AI에 대한 전통적인 관점은 입력과 출력에 사용되는 동일한 종류의 기호가 중간에도 사용된다고 가정했지만 딥 러닝 전문가는 신경 활동의 벡터를 사용하여 데이터를 처리합니다. 입력 텍스트는 네트워크에서 학습한 기능을 통합하는 벡터로 인코딩됩니다. 그런 다음 디코더 네트워크는 이 벡터를 가져와 생각을 생성한 다음 새로운 언어로 변환합니다. 흥미롭게도 그러한 시스템은 너무 많은 언어 지식을 허용하지 않고도 더 잘 작동합니다. 대신 Google 번역은 언어의 32,000개 조각으로 구성된 고정 알파벳을 사용하고 역전파로 네트워크를 훈련합니다. 여기서 가중치를 지속적으로 개선하기 위해 무작위 가중치와 데이터 볼륨으로 시작합니다.

  • 00:20:00 이 섹션에서 Geoffrey Hinton은 주의 추가 및 전체 단어 대신 단어 조각 사용과 같은 기계 번역 시스템의 몇 가지 개선 사항에 대해 설명합니다. 그는 또한 이미지 인식과 언어 생성의 조합과 이것이 어떻게 기계에서 자연스러운 추론으로 이어질 수 있는지에 대해 논의합니다. 이러한 시스템의 성공에도 불구하고 Hinton은 진정한 자연어 처리를 달성하기 위해 인간의 두뇌에 필적하는 많은 매개 변수를 가진 신경망이 필요하다고 제안합니다.

  • 00:25:00 이 섹션에서 Geoffrey Hinton은 의료 이미지 해석에서 인간의 성능을 능가하는 딥 러닝 알고리즘의 잠재력에 대해 논의합니다. 그는 이미 피부과 전문의만큼 우수한 피부암 탐지 시스템이 있으며 더 많은 이미지에 대한 추가 교육을 통해 훨씬 더 잘 수행할 수 있다고 언급합니다. Hinton은 또한 의사가 생성한 레이블에 대해 훈련된 신경망이 의사가 동의하지 않을 때 네트워크가 무슨 일이 일어나고 있는지 파악할 수 있기 때문에 때때로 의사보다 성능이 뛰어날 수 있다고 지적합니다. 마지막으로 그는 정류된 선형 단위의 여러 계층과 훈련 사례보다 훨씬 더 많은 매개변수가 있는 신경망을 사용하여 분자가 무언가에 결합할지 여부를 예측하기 위한 경쟁에서 우승한 학생에 대한 이야기를 들려줍니다. 연구 분야.
 

딥 러닝의 영웅: Andrew Ng가 Geoffrey Hinton을 인터뷰합니다.




딥 러닝의 영웅: Andrew Ng가 Geoffrey Hinton을 인터뷰합니다.

딥 러닝 분야의 선도적인 인물인 Geoffrey Hinton은 Andrew Ng와의 인터뷰에서 자신의 여정과 현장에 대한 공헌에 대해 이야기했습니다. 그는 단어 임베딩의 기원, 제한된 Boltzmann 기계의 개발, 빠른 추와 캡슐에 대한 그의 최근 작업에 대해 이야기합니다. Hinton은 딥 러닝 발전에서 비지도 학습의 중요한 역할에 주목하고 학습자들에게 폭넓게 읽고, 대규모 프로젝트에 참여하고, 비슷한 관심사를 가진 조언자를 찾으라고 조언합니다. Hinton은 컴퓨터가 보여줌으로써 학습하는 컴퓨팅 분야에 상당한 변화가 일어나고 있다고 믿으며, 대학이 이 새로운 접근 방식을 위해 연구원을 교육하는 데 있어서 업계를 따라잡아야 한다고 경고합니다.

  • 00:00:00 Geoffrey Hinton이 AI 및 기계 학습에 어떻게 관심을 갖게 되었는지 이야기합니다. 고등학교 때 한 친구가 그에게 홀로그램을 사용하는 뇌에 대한 아이디어를 소개했고, 이는 뇌가 기억을 저장하는 방법에 대한 그의 관심을 불러일으켰습니다. 그는 대학에서 생리학과 물리학을 공부했지만 심리학이 뇌의 기능을 설명하는 데 부적절하다는 것을 알게 되자 심리학으로 전환했습니다. 목수가 되기 위해 휴가를 낸 후 그는 당시 신경망에 회의적이었던 Longer Higgins와 함께 AI를 공부하기 위해 Edinburgh로 갔다. Hinton은 결국 AI에서 박사 학위를 취득하고 뇌가 작동하는 방식에 대해 생각하는 것이 긍정적인 것으로 여겨지는 캘리포니아로 갔습니다. 그는 1986년에 발표한 Backpropagation Algorithm에 대해 David Rumelhart와 협력했으며 궁극적으로 커뮤니티가 알고리즘을 받아들이도록 도왔습니다.

  • 00:05:00 이 섹션에서 Hinton은 역전파가 단어 표현을 학습할 수 있게 해주는 단어 임베딩의 기원과 Stuart Sutherland가 단어의 세 단어에 대한 모델을 교육함으로써 프로그램이 학습할 수 있는 방법에 대해 깊은 인상을 받았다는 사실에 대해 설명합니다. 국적, 세대 등과 같은 의미론의 특징. Hinton은 단어 임베딩의 개발이 지식에 대한 두 가지 다른 관점(특징 묶음으로서의 개념에 대한 심리학자의 관점과 개념이 다른 개념과 어떻게 관련되는지에 대한 AI 관점)을 결합하여 논문의 수용률을 높였다고 지적합니다. 90년대 초에 Bengio는 개발자가 유사한 접근 방식을 사용하여 데이터에서 단어 임베딩을 도출할 수 있음을 보여 많은 사람들에게 깊은 인상을 남겼습니다. 나중에 Hinton은 심층 신경망의 부활에 중요한 요소였던 제한된 볼츠만 기계(RBM)로 이루어진 개발에 대해 이야기했습니다.

  • 00:10:00 이 섹션에서는 Geoffrey Hinton이 한 계층의 숨겨진 기능을 사용하여 제한된 Boltzmann 머신을 교육하고 이러한 학습된 기능을 데이터로 사용하여 다른 계층을 교육하는 작업에 대해 이야기합니다. 그는 이 접근법이 시그모이드 신념망에서 추론을 수행하는 효율적인 방법의 개발로 이어졌으며, 이는 이전 방법에 비해 크게 개선되었다고 설명합니다. 또한 신경망에서 수정 선형 단위(ReLU)를 사용하는 배후의 수학 개발 및 변형 방법에 대한 작업에 대해 설명합니다. 마지막으로 그는 2014년에 Google에서 ReLU를 사용하고 아래 계층의 패턴을 복사하는 항등 행렬로 초기화하는 방법에 대해 발표하여 심층 신경망 훈련을 크게 개선했다고 언급했습니다.

  • 00:15:00 Geoffrey Hinton은 심층 신경망을 효율적으로 훈련할 수 있는 ID로 네트워크를 초기화하는 아이디어를 추구하지 않은 것에 대해 후회합니다. 그는 역전파가 학습을 위한 좋은 알고리즘이라면 뇌가 이를 구현하는 방법을 알아냈을 것이라고 말하면서 역전파와 뇌 사이의 관계에 대한 자신의 생각을 공유합니다. 그는 대학원 시절 처음 제시한 딥러닝에서 여러 시간 척도를 다루기 위해 단기 기억을 유지하는 빠른 가중치를 사용하는 아이디어를 제안합니다.

  • 00:20:00 인터뷰의 이 섹션에서 Geoffrey Hinton은 재귀 호출 중에 빠른 가중치를 사용하여 뉴런의 활동 상태 메모리를 저장하는 것과 관련된 빠른 가중치 및 재귀 호출에 대한 최근 작업에 대해 설명합니다. 그는 또한 캡슐에 대한 자신의 아이디어에 대해 이야기합니다. 캡슐에는 벡터로 다차원 엔티티를 나타내고 다양한 뉴런의 활동을 사용하여 해당 기능의 다양한 측면을 나타냅니다. 뉴런은 기능의 다른 좌표 또는 캡슐의 하위 집합을 나타내는 작은 묶음으로 그룹화되며, 각각은 전통적인 신경망에서와 같이 하나의 스칼라 속성이 아니라 다양한 속성을 가진 기능의 한 인스턴스를 나타낼 수 있습니다. 그런 다음 이러한 캡슐은 합의에 의한 라우팅 시스템을 통해 정보를 라우팅할 수 있으므로 제한된 데이터에서 신경망을 더 잘 필터링하고 일반화할 수 있습니다. 이 아이디어에 대한 논문에서 거부당했음에도 불구하고 Hinton은 캡슐을 추구하는 데 낙관적이고 끈질기게 남아 있습니다.

  • 00:25:00 Geoffrey Hinton이 AI 및 딥 러닝에 대한 생각이 수십 년 동안 어떻게 발전해 왔는지 설명합니다. 그는 처음에 어떻게 역전파와 차별적 학습에 관심이 있었고 90년대 초에 비지도 학습으로 초점을 옮겼는지에 대해 이야기합니다. Hinton은 또한 지난 10년 동안 지도 학습이 얼마나 잘 작동했는지에 대해 이야기하지만, 그는 여전히 비지도 학습이 향후 발전을 위해 중요할 것이라고 믿습니다. 그는 자율 학습을 위한 유망한 아이디어로 변이형 자동 인코더와 생성적 적대 신경망을 언급합니다. 또한 Hinton은 딥 러닝에 뛰어들고 싶은 사람들에게 가능한 한 많이 읽고 경험을 쌓기 위해 대규모 프로젝트에 참여하도록 권장하는 조언을 제공합니다.

  • 00:30:00 이 섹션에서는 AI 및 딥 러닝 분야의 연구원과 학습자를 위한 조언을 중심으로 대화가 진행됩니다. Hinton은 창의적인 연구자들이 약간의 문헌을 읽고 모두가 잘못하고 있는 것을 찾은 다음 올바르게 수행하는 방법을 찾아야 한다고 제안합니다. 그는 또한 프로그래밍을 중단하지 말고 자신의 직감을 믿으라고 조언합니다. 그는 대학원생들에게 가장 유용한 조언을 얻기 위해 자신과 비슷한 신념과 관심사를 가진 조언자를 찾도록 권장합니다. 박사 과정이나 기업의 최고 연구 그룹에 가입할지 여부에 대해 Hinton은 현재 딥 러닝 교육을 받은 학자가 부족하지만 부서가 변화하는 환경을 따라잡기 때문에 일시적일 것이라고 생각합니다. 필드.

  • 00:35:00 Geoffrey Hinton은 컴퓨터 사용에 중대한 변화가 일어나고 있다고 설명합니다. 컴퓨터를 프로그래밍하는 대신 이제 컴퓨터에 보여주면 컴퓨터가 알아냅니다. 컴퓨팅에 대한 이 새로운 접근 방식은 다르고 중요하며, 컴퓨터 과학 부서는 컴퓨터 과학에 영향을 미치는 프로그래밍만큼 큰 접근 방식을 인식하고 환영해야 합니다. 현재 대기업이 이 새로운 접근 방식에 대해 사람들을 교육하고 있지만 Hinton은 대학이 따라잡을 때까지 그리 오래 걸리지 않을 것이라고 믿습니다. Hinton은 계속해서 지능에 필요한 표현이 일부 정리된 논리의 상징적 표현이라는 믿음에서 생각이 신경 활동의 큰 벡터라는 현재의 관점으로 AI의 패러다임 전환을 설명합니다.
 

딥 러닝의 영웅: Andrew Ng, Yann LeCun 인터뷰



딥 러닝의 영웅: Andrew Ng, Yann LeCun 인터뷰

Andrew Ng와 Yann LeCun의 이 인터뷰에서 LeCun은 AI에 대한 초기 관심과 신경망 발견에 대해 이야기합니다. 그는 또한 컨벌루션 신경망에 대한 작업과 CNN의 역사에 대해 설명합니다. LeCun은 90년대 중반에 신경망에 대한 관심이 부족했음에도 불구하고 어떻게 현장에서 계속 일했고 결국 CNN에 대한 그의 작업이 컴퓨터 비전 분야를 이어받았는지에 대해 이야기합니다. 그는 또한 AlexNet 팀이 2012년 ImageNet 대회에서 우승했을 때 컴퓨터 비전의 결정적인 순간에 대해 논의하고 AI 및 머신 러닝 분야에서 경력을 쌓고자 하는 사람들에게 오픈 소스 프로젝트에 기여하거나 알고리즘을 구현하여 유용한 사람이 되도록 조언합니다.

  • 00:00:00 이 섹션에서는 Yann LeCun이 인공 지능에 대한 초기 관심과 신경망 개념을 우연히 발견한 방법에 대해 이야기합니다. 그는 퍼셉트론과 오토마타 네트워크에 대한 연구 논문을 어떻게 발견했는지 설명하고 여러 계층으로 신경망을 훈련시키는 방법을 연구하도록 영감을 주었습니다. 이로 인해 그는 프랑스의 독립 연구소에서 같은 것에 관심이 있는 사람들을 만나게 되었고 궁극적으로 볼츠만 기계로 작업하게 되었습니다.

  • 00:05:00 이 섹션에서 LeCun은 당시 역전파 작업을 하고 있던 Terry Zaleski를 어떻게 만났는지, 그리고 만나기 전에 두 사람이 어떻게 독립적으로 그것을 발명했는지에 대해 이야기합니다. 그는 또한 AT&T Bell Labs에서 근무하는 동안 어떻게 컨볼루션 네트워크 작업을 시작했는지, 마우스로 문자를 그려서 생성한 작은 데이터 세트에서 어떻게 테스트했는지, 그리고 이것이 어떻게 5,000개의 훈련으로 USPS 데이터 세트를 생성하게 되었는지 언급합니다. 견본. 그는 이 데이터 세트에서 컨볼루션 네트워크를 훈련했으며 당시 사용되던 다른 방법보다 더 나은 결과를 얻었습니다.

  • 00:10:00 인터뷰의 이 섹션에서 Yann LeCun은 컨벌루션 신경망(CNN)의 역사에 대해 논의합니다. 그는 Bell Labs에서 개발한 상업용 네트워크의 첫 번째 버전에 대해 이야기합니다. 이 버전에는 별도의 서브샘플링 및 풀링 레이어가 없었으며 계산 시간을 줄이기 위해 네트워크를 크게 개선해야 했습니다. LeCun은 또한 CNN에서 제프 힌튼(Geoff Hinton)이 "합리적인 일을 하면 실제로 효과가 있다"는 말을 들은 흥미로운 이야기를 들려줍니다. 그러나 유망한 결과에도 불구하고 CNN은 인터넷, 표준화된 소프트웨어 및 하드웨어 플랫폼의 부족으로 인해 AT&T 외부에서는 널리 채택되지 않았습니다.

  • 00:15:00 이 섹션에서 Yann LeCun은 문자 인식에 대한 그의 작업과 인터넷 공유를 위해 스캔한 문서를 디지털 방식으로 저장하고 압축하는 "Digital Djvu" 프로젝트를 시작하게 된 방법에 대해 설명합니다. 그는 또한 특히 컴퓨터의 발전과 함께 딥 러닝 기술이 언젠가는 유용해질 것이라고 항상 믿었지만 90년대 중반에 대한 관심 부족으로 인해 약 7년 동안 아무도 신경망을 연구하지 않았다고 말했습니다. . 이러한 차질에도 불구하고 LeCun은 계속해서 이 분야에서 일했으며, 컨볼루션 신경망에 대한 그의 작업은 컴퓨터 비전 분야를 인수했으며 다른 분야로 크게 잠식하기 시작했습니다.

  • 00:20:00 비디오의 이 섹션에서 Yann LeCun은 컴퓨터 비전 커뮤니티에서 AlexNet 팀이 2012 ImageNet 대회에서 큰 차이로 우승하여 대부분의 커뮤니티를 놀라게 했던 결정적인 순간을 설명합니다. LeCun은 계속해서 기업 연구 수행 방법에 대한 자신의 독특한 관점에 대해 논의하며 공개 연구를 강조하면서 그가 가장 적절하다고 생각하는 방식으로 Facebook AI Research(FAIR)를 설정할 수 있는 많은 자유가 주어졌다고 설명합니다. 그리고 대학과의 협력. 그는 심지어 지난 4년 동안 그의 출판물 대부분이 NYU 학생들과 함께 한 것이라고 언급합니다.

  • 00:25:00 이 섹션에서 Yann LeCun은 AI 및 기계 학습 분야에서 경력을 쌓고자 하는 사람들에게 오픈 소스 프로젝트에 기여하거나 알고리즘을 구현하고 다른 사람들이 사용할 수 있도록 함으로써 자신을 유용하게 만들라고 조언합니다. 그는 현재 사용할 수 있는 도구와 리소스를 통해 고등학생도 어느 정도 수준에서 쉽게 참여할 수 있다고 믿습니다. 흥미롭고 유용한 기여를 함으로써 개인은 주목을 받고 잠재적으로 원하는 회사에 취업하거나 박사 프로그램에 합격할 수 있습니다.
 

딥 러닝의 영웅: Andrew Ng가 Ian Goodfellow를 인터뷰합니다.




딥 러닝의 영웅: Andrew Ng가 Ian Goodfellow를 인터뷰합니다.

Andrew Ng와의 인터뷰에서 Ian Goodfellow는 딥 러닝에 대한 그의 열정과 Stanford에서 공부하는 동안 어떻게 이 분야에 관심을 갖게 되었는지에 대해 이야기합니다. Goodfellow는 GAN(Generative Adversarial Networks)의 발명과 딥 러닝에서의 잠재력에 대해 논의하는 동시에 GAN을 더 안정적으로 만들어야 할 필요성을 강조합니다. 그는 단순히 AI 관련 작업에 사용할 기술을 얻는 것부터 딥 러닝 모델의 잠재력을 최대한 탐구하는 것까지 AI와 딥 러닝에 대한 자신의 생각이 수년에 걸쳐 어떻게 발전해 왔는지 되돌아봅니다. Goodfellow는 또한 AI에 참여하려는 사람들을 위한 조언을 공유하며 좋은 코드를 작성하고 처음부터 기계 학습 알고리즘에 보안을 구축하는 것이 중요하다고 말합니다.

  • 00:00:00 이 섹션에서는 Ian Goodfellow가 스탠포드의 학부 지도교수와 Andrew Ng의 인터넷 AI 수업 덕분에 어떻게 AI 및 딥 러닝 분야에 관심을 갖게 되었는지 설명합니다. 그는 자신과 친구가 Stanford에서 최초의 GPU CUDA 기반 기계 중 하나를 구축한 방법과 이것이 딥 러닝이 미래에 가야 할 길이라는 강한 직감을 어떻게 이끌어 냈는지 설명합니다. Goodfellow는 계속해서 자신의 GAN 발명과 생성 모델을 연구하면서 개념을 생각해낸 방법에 대해 이야기합니다. 마지막으로 그는 AI 연구에 대한 자신의 의지를 재확인한 개인적인 경험을 회고합니다.

  • 00:05:00 이 섹션에서는 Ian Goodfellow가 GAN(Generative Adversarial Networks)의 잠재력과 딥 러닝에서의 미래에 대해 논의합니다. 그는 GAN이 현재 다양한 작업에 사용되고 있지만 종종 신뢰할 수 없으며 안정화하는 것이 그의 연구의 주요 초점이라고 설명합니다. Goodfellow는 현재 GAN이 중요하지만 더 신뢰할 수 있게 만들지 않으면 결국 다른 형태의 생성 모델로 대체될 것이라고 믿습니다. 그는 또한 딥 러닝에 관한 첫 번째 교과서를 공동 집필한 경험에 대해 이야기하고 해당 분야를 마스터하는 데 기본이 되는 수학 원리를 이해하는 것의 중요성을 강조합니다. 마지막으로 Goodfellow는 단순히 AI 관련 작업에 사용할 기술을 얻는 것부터 딥 러닝 모델의 잠재력을 최대한 탐구하는 것까지 AI 및 딥 러닝에 대한 그의 생각이 수년에 걸쳐 어떻게 발전해 왔는지 되돌아봅니다.

  • 00:10:00 이 섹션에서는 Ian Goodfellow가 딥 러닝의 진화와 AI에 존재하는 수많은 경로에 대해 설명합니다. 그는 AI에 참여하고 싶은 사람들을 위해 좋은 코드를 작성하고 GitHub에 올리는 것이 관심을 끌 수 있고 책을 읽는 것과 함께 프로젝트를 진행하는 것이 도움이 될 수 있다고 조언합니다. 또한 나중에 추가하는 대신 처음부터 기계 학습 알고리즘에 보안을 구축하는 것의 중요성에 대해서도 이야기합니다. 이러한 조치는 알고리즘의 보안을 보장하고 나중에 발생하는 보안 문제를 방지합니다.
 

딥 러닝의 영웅: Andrew Ng가 Andrej Karpathy를 인터뷰합니다.




딥 러닝의 영웅: Andrew Ng가 Andrej Karpathy를 인터뷰합니다.

Andrew Ng와의 인터뷰에서 Andrej Karpathy는 Geoff Hinton과의 수업을 통해 딥 러닝을 소개하고 ImageNet 이미지 분류 대회에서 인간 벤치마크가 된 방법에 대해 설명합니다. 그는 소프트웨어 심층망이 자신의 성능을 능가하고 온라인 과정을 만들어 다른 사람들에게 그것에 대해 가르치기로 결정했을 때 놀라운 결과에 대해 이야기합니다. Karpathy는 또한 AI의 미래와 이 분야가 응용 AI와 AGI라는 두 가지 궤도로 어떻게 분할될 것인지에 대해 논의합니다. 그는 딥 러닝 분야에 입문하려는 사람들에게 처음부터 모든 것을 구현하여 전체 스택을 완전히 이해하도록 조언합니다.

  • 00:00:00 이 섹션에서는 Andrej Karpathy가 토론토 대학에서 학부 과정을 공부하는 동안 Geoff Hinton과 함께 수업을 들으면서 처음으로 딥 러닝에 관심을 갖게 된 방법에 대해 이야기합니다. 또한 ImageNet 이미지 분류 경쟁에서 인간 벤치마크가 된 방법과 벤치마크가 인간의 능력과 어떻게 비교되는지 이해하기 위해 Javascript 인터페이스를 만든 방법에 대해 설명합니다. 그는 천 가지 범주에서 이미지를 분류하는 문제와 ImageNet 데이터 세트의 3분의 1이 개라는 놀라운 깨달음에 대해 설명하여 개 종에 대한 훈련에 비정상적으로 오랜 시간을 소비하게 했습니다.

  • 00:05:00 이 섹션에서 Andrej Karpathy는 소프트웨어 딥넷이 특정 작업에서 자신의 성능을 능가했을 때 놀랐다고 말합니다. 그는 기술이 어떻게 변모했는지 설명하고 온라인 과정을 만들어 다른 사람들에게 기술을 가르치기로 결정했습니다. 기술을 이해하는 능력과 그것이 매일 계속 변화한다는 사실이 학생들을 흥분하게 만든 것입니다. Karpathy는 또한 딥 러닝 분야가 어떻게 빠르게 발전하고 있으며 기술이 얼마나 보편화되었는지에 대해서도 이야기합니다. 그는 ImageNet뿐만 아니라 미세 조정 및 전이 학습에도 얼마나 잘 작동하는지에 놀랐습니다. 그는 또한 비지도 학습이 많은 연구자들이 바라는 약속을 여전히 제공하지 못하는 것에 놀랐습니다.

  • 00:10:00 이 섹션에서 Karpathy는 AI의 미래에 대해 논의하며 이 분야가 두 궤적으로 나뉠 것이라고 말했습니다. 첫 번째는 지도 및 비지도 학습을 위해 신경망을 사용하는 응용 AI이고, 다른 하나는 완전한 동적 시스템인 단일 신경망을 만드는 데 중점을 둔 AGI입니다. 그는 AI를 여러 부분으로 분해한 다음 결합하는 것이 옳지 않다고 생각하고 대신 단일 신경망을 전체 에이전트로 사용하여 가중치를 최적화하고 지능적인 행동을 얻을 수 있는 목표를 생성할 것을 옹호합니다. 딥 러닝 분야에 입문하려는 사람들을 위한 조언에 대해 물었을 때 Karpathy는 TensorFlow와 같은 프레임워크로 작업하는 것보다 처음부터 모든 것을 구현하여 전체 스택에 대한 완전한 이해를 구축할 것을 권장합니다.
 

딥 러닝의 영웅: Andrew Ng가 Apple의 AI 연구 책임자인 Ruslan Salakhutdinov를 인터뷰합니다.




딥 러닝의 영웅: Andrew Ng가 Apple의 AI 연구 책임자인 Ruslan Salakhutdinov를 인터뷰합니다.

Apple의 AI 연구 책임자인 Ruslan Salakhutdinov가 딥 러닝의 진화, 생성 모델 훈련 및 비지도 학습의 과제, 딥 러닝 연구의 흥미로운 영역에 대해 설명합니다. 그는 또한 연구자들이 다양한 방법을 탐구하고 혁신을 두려워하지 않도록 권장합니다.
Salakhutdinov는 대화 기반 시스템 구축의 중요성과 텍스트를 지능적으로 읽을 수 있는 시스템 구축의 중요성과 보다 인간과 유사한 학습 능력을 달성하는 궁극적인 목표를 강조합니다.

  • 00:00:00 이 섹션에서 Ruslan Salakhutdinov는 제한적인 Boltzmann 머신과 지도 교육을 사용하는 개념을 소개한 Jeff Hinton과의 우연한 만남을 시작으로 그가 어떻게 딥 러닝을 시작했는지 설명합니다. Hinton의 도움과 안내로 Salakhutdinov는 제한된 Boltzmann 머신에 대한 최초의 논문 중 하나를 공동 집필할 수 있었으며, 이는 신경망과 딥 러닝의 부활을 촉진하는 데 도움이 되었습니다. 그러나 컴퓨팅 성능이 향상됨에 따라 연구자들은 제한적인 Boltzmann 기계를 사용하여 사전 훈련할 필요가 없으며 기존의 최적화 기술을 사용하여 심층 모델을 직접 훈련할 수 있음을 깨달았습니다.

  • 00:05:00 이 섹션에서 Ruslan Salakhutdinov는 딥 러닝의 진화와 컴퓨터가 느렸던 초기에 사전 교육의 중요성에 대해 논의합니다. 그는 또한 지도 학습과 비교할 때 생성 모델 및 비지도 학습 훈련의 어려움에 대해 언급합니다. 자신의 실험실에서와 같은 변형 자동 인코더 및 에너지 모델과 같은 기술을 사용하여 생성 모델링에서 진전이 있었지만 그는 감독되지 않은 모델을 교육하는 보다 효율적이고 확장 가능한 방법을 알아낼 필요가 있다고 생각합니다. 그는 이것이 딥 러닝에 관심이 있는 사람들이 탐구해야 할 중요한 영역이라고 강조합니다.

  • 00:10:00 이 섹션에서는 Apple의 AI 연구 책임자인 Ruslan Salakhutdinov가 머신 러닝에서 레이블이 지정되지 않은 대량의 데이터를 사용하는 데 따른 어려움과 이 분야에 진출하려는 사람들을 위한 조언에 대해 설명합니다. 그는 자신과 그의 팀이 신경망에서 고도로 볼록하지 않은 시스템을 최적화하는 어려운 문제를 어떻게 해결했는지에 대한 한 가지 예를 인용하면서 연구자들이 다른 방법을 시도하고 혁신을 두려워하지 말 것을 권장합니다. Salakhutdinov는 또한 딥 러닝 분야의 회사에 합류하는 것과 박사 학위를 받는 것의 장단점에 대해 논의하면서 학계와 산업계 모두 흥미로운 연구 개발 기회를 제공한다고 강조합니다.

  • 00:15:00 이 섹션에서 Ruslan Salakhutdinov는 딥 러닝 연구, 특히 딥 강화 학습, 추론 및 자연 언어 이해와 같은 영역에서 흥미진진한 최전선에 대해 논의하고 더 적은 수의 예제에서 학습할 수 있습니다. 그는 가상 세계에서 AI를 훈련하는 데 많은 진전이 있었으며 이제 이러한 시스템을 확장하고 새로운 알고리즘을 개발하고 AI 에이전트가 서로 통신하도록 하는 것이 과제라고 지적합니다. 또한 그는 대화 기반 시스템과 텍스트를 지능적으로 읽을 수 있는 시스템 구축의 중요성을 강조합니다. 마지막으로 그는 더 인간과 같은 학습 능력을 달성하는 목표를 언급합니다.
 

딥 러닝의 영웅: Andrew Ng가 인터뷰하는 Yoshua Bengio




딥 러닝의 영웅: Andrew Ng가 인터뷰하는 Yoshua Bengio

Andrew Ng는 Yoshua Bengio를 인터뷰하고 딥 러닝과 관련된 다양한 주제에 대해 논의합니다. Bengio는 자신이 딥 러닝에 입문한 방법과 신경망에 대한 생각이 어떻게 발전했는지 설명합니다. 또한 일련의 단어를 위한 단어 임베딩 개발과 오토인코더 스택을 사용한 딥 러닝에 대한 자신의 기여도에 대해 설명합니다. 또한 Bengio는 비지도 학습의 중요성과 딥 러닝과 뇌 사이의 관계를 이해하는 데 관심이 있다고 강조합니다.
Bengio는 큰 문제를 해결하기 위해 딥 러닝 과학과 적절한 연구를 이해해야 할 필요성을 강조합니다. 마지막으로, 그들은 딥 러닝 분야에서 경력을 쌓기 위한 강력한 수학 기초 지식의 필요성과 지속적인 교육의 중요성에 초점을 맞춥니다.

  • 00:00:00 이 섹션에서는 Yoshua Bengio가 1985년 공상과학 소설과 대학원 과정에 대한 열정을 시작으로 딥 러닝에 입문하게 된 방법에 대해 설명합니다. 그는 인간 지능에 대한 생각의 세계를 발견했을 때의 흥분과 어떻게 인공 지능과 연결될 수 있습니다. Bengio는 또한 초기 실험에서 역전파 및 깊이와 같은 특정 기술이 잘 작동하는 이유에 대한 이론 및 확실한 근거 개발에 이르기까지 신경망에 대한 자신의 생각이 어떻게 진화했는지에 대해 반성합니다. 또한 그는 ReLU 기능이 처음에 필요하다고 생각했던 기존의 부드러운 비선형성보다 더 잘 작동한다는 사실에 놀랐다고 말합니다. Bengio는 많은 뉴런의 활성화에 걸쳐 분산된 정보의 중요성과 그것이 신경망에 대해 그를 흥분하게 만든 초기 통찰력에 어떻게 연결되는지를 강조합니다.

  • 00:05:00 이 섹션에서 Yoshua Bengio는 신경망을 사용하여 차원의 저주를 해결하고 많은 무작위 변수에 대한 효율적인 결합 분포를 만드는 초기 작업에 대해 설명합니다. 그는 또한 유사한 의미론적 의미를 가진 단어 전체에 일반화를 허용하는 일련의 단어에 대한 단어 임베딩을 만드는 작업에 대해 언급합니다. Bengio는 오토인코더 스택을 사용한 딥 러닝 개발 및 신경망 기계 번역에서의 어텐션 사용을 포함하여 연구 그룹의 몇 가지 다른 중요한 발명 또는 아이디어를 계속 언급합니다. 그는 또한 딥 러닝과 두뇌 사이의 관계를 이해하는 데 관심이 있고 두뇌에 의해 구현될 수 있는 역전파와 유사한 시스템을 개발하는 작업에 대해서도 논의합니다.

  • 00:10:00 이 섹션에서는 Yoshua Bengio가 뇌가 작동하는 방식에 대한 Geoff Hinton의 생각과 시간 코드의 잠재적 용도에 대해 이야기합니다. 그는 레이블이 지정된 데이터 없이 세계를 설명하는 정신 모델을 구성할 수 있기 때문에 비지도 학습이 얼마나 필수적인지 논의합니다. 그는 또한 비지도 학습과 강화 학습의 조합에 대해 이야기하여 사물을 탐색하고 제어하려고 시도함으로써 서로 분리된 기본 개념을 더 잘 이해합니다. 비지도 학습 연구의 문제는 이 문제를 공격하는 방법이 너무 많고 시스템이 잘 작동하는지 여부를 측정하기 위한 좋은 목적 함수를 구성하는 요소에 대한 좋은 정의가 없다는 것입니다. 마지막으로, Yoshua는 딥 러닝의 현재 상태가 그가 원하는 수준과는 거리가 멀고 다음 단계로 나아가고자 하는 야망을 느낍니다.

  • 00:15:00 이 섹션에서 Yoshua Bengio는 컴퓨터가 세상을 관찰하고 세상과 상호작용하여 세상이 어떻게 작동하는지 알아내는 기본 원리에 초점을 맞춘 연구에 대한 그의 흥분에 대해 이야기합니다. 그는 그러한 연구가 어떻게 세계가 작동하는 방식을 더 잘 이해하도록 유도하는지에 대해 논의하고 전이 학습 및 공동 국가 문제와 같은 큰 문제를 해결하는 데 도움이 되기를 희망합니다. Bengio는 더 작은 문제에 대한 실험이 더 빠른 연구 주기와 더 나은 이해로 이어질 수 있으며 결국 확장될 수 있다고 말합니다. 그는 딥 러닝에서 무슨 일이 일어나고 있는지 이해하는 것의 중요성과 딥 러닝 과학에 대한 생각을 공유할 필요성을 강조합니다.

  • 00:20:00 이 섹션에서는 딥 러닝 분야의 저명한 인물인 Yoshua Bengio가 단순히 벤치마크나 경쟁자를 이기기 위해 노력하는 것보다 관심 있는 현상을 이해하고 적절한 연구를 수행하는 것의 중요성에 대해 논의했습니다. 그는 현장에 입문하려는 개인에게 읽기, 코딩, 실험 등의 연습이 필요하다고 강조했다. Bengio는 컴퓨터 과학 및 수학에 대한 강력한 배경 지식이 도움이 되지만 기계 학습에 대한 사전 지식이 없는 개인도 몇 개월 내에 학습하고 숙달할 수 있다고 말했습니다.

  • 00:25:00 이 발췌문에서 Andrew Ng와 Yoshua Bengio는 딥 러닝 분야에서 경력을 쌓을 때 대수, 최적화 및 미적분과 같은 수학에 대한 강력한 기본 지식을 갖는 것의 중요성에 대해 논의합니다. Bengio는 현장에서 최신 정보를 유지하기 위해 지속적인 교육과 지속적인 학습의 필요성을 강조합니다. 두 사람 모두 자신의 통찰력과 지식을 다른 사람들과 공유할 수 있는 기회에 대해 감사를 표합니다.