머신 러닝 및 신경망 - 페이지 21

 

컨퍼런스 JENSEN HUANG(NVIDIA) 및 ILYA SUTSKEVER(OPEN AI).AI 오늘과 미래의 비전



컨퍼런스 JENSEN HUANG(NVIDIA) 및 ILYA SUTSKEVER(OPEN AI).AI 오늘과 미래의 비전

NVIDIA의 CEO인 Jensen Huang과 OpenAI의 공동 창립자인 Ilya Sutskever가 컨퍼런스에서 인공 지능(AI)의 기원과 발전에 대해 논의합니다. Sutskever는 그에게 딥 러닝이 어떻게 명확해졌는지, 압축을 통한 비지도 학습이 어떻게 감정에 해당하는 뉴런의 발견으로 이어졌는지, 신경망 사전 훈련이 인간과 AI 협업을 통해 어떻게 지시하고 다듬게 되었는지 설명합니다. 또한 GPT-4 및 다중 양식 학습의 발전과 한계, 합성 데이터 생성의 역할 및 AI 시스템의 신뢰성 향상에 대해 논의합니다. 20년 전과 같은 개념임에도 불구하고 두 사람 모두 AI 연구의 발전에 경탄한다.

  • 00:00:00 이 섹션에서는 NVIDIA의 CEO인 Jensen Huang이 OpenAI의 공동 설립자인 Ilia Sutskever의 인공 지능 분야에서의 업적을 칭찬합니다. 그는 Ilia에게 딥 러닝에 대한 자신의 직감과 그것이 작동할 것이라는 것을 어떻게 알았는지 묻습니다. Ilia는 의식과 그 영향에 대한 호기심 때문에 인공 지능에 관심을 갖게 되었고 AI의 발전이 진정으로 도움이 될 것 같다고 설명합니다. 그는 2002-2003년에 컴퓨터가 아무것도 배울 수 없었고 그것이 이론적으로 가능한지조차 분명하지 않았지만 신경망에서 일했던 Jeff Hinton을 찾는 것이 Ilia에게 희망을 주었다고 덧붙입니다.

  • 00:05:00 이 섹션에서 Sutskever는 AlexNet의 기원과 지도 학습을 사용하여 깊고 큰 신경망을 구축한다는 아이디어가 어떻게 명확해졌는지에 대해 설명합니다. 그는 기계 학습 분야가 당시 신경망을 고려하지 않았고 이론적으로는 우아하지만 좋은 솔루션을 나타낼 수 없는 다른 방법을 사용하고 있었다고 설명합니다. Sutskever는 또한 대규모 신경망이 훈련될 수 있다는 것을 증명한 다른 대학원생의 획기적인 최적화 방법을 언급합니다. 큰 컨볼루션 신경망이 ImageNet 데이터 세트에서 훈련되면 성공해야 한다는 것이 분명해졌습니다. Sutskever는 또한 연구실에서 GPU의 출현과 Alex Krizhevsky가 어떻게 빠른 컨볼루션 커널을 프로그래밍하고 신경망 데이터 세트를 훈련할 수 있었는지에 대해 이야기합니다. 이 돌파구의 중요성은 데이터 세트가 매우 어렵고 고전적인 기술의 범위를 벗어났다는 것입니다.

  • 00:10:00 이 섹션에서는 Jensen Huang과 Ilya Sutskever가 OpenAI의 초창기와 지능에 접근하는 방법에 대한 초기 아이디어에 대해 논의합니다. 2015-2016년에는 이 분야가 아직 초기 단계였으며 훨씬 적은 수의 연구자와 이해도가 훨씬 낮았습니다. OpenAI의 첫 번째 큰 아이디어는 당시 기계 학습에서 미해결 문제였던 압축을 통한 비지도 학습의 개념이었습니다. Sutskever는 데이터를 정말 잘 압축하면 비지도 학습으로 이어져 그 안에 존재하는 모든 숨겨진 비밀을 추출할 수 있다고 믿었습니다. 이로 인해 LSTM 내부에서 감정에 해당하는 뉴런을 발견한 감정 뉴런을 포함하여 OpenAI에서 여러 작업이 이루어졌습니다.

  • 00:15:00 이 섹션에서 Ilya Sutskever는 비지도 학습의 개념과 표현을 학습하기 위한 가치 있는 목표로서 시퀀스의 다음 토큰을 예측하는 것의 중요성에 대해 설명합니다. 그는 감독 학습에서 어려운 부분은 데이터를 어디서 얻을 수 있는지가 아니라 다음 토큰을 예측하기 위해 신경망을 훈련시키는 데 귀찮게 하는 이유라고 언급합니다. 성능 향상을 위한 스케일링도 그들의 작업에서 중요한 요소였으며 강화 학습은 특히 최고의 플레이어와 경쟁하기 위해 실시간 전략 게임인 DotA 2를 플레이하도록 강화 학습 에이전트를 훈련할 때 또 다른 중요한 초점 영역이었습니다. 세상에.

  • 00:20:00 이 섹션에서 Ilya Sutskever는 인터넷의 다양한 텍스트에서 다음 단어를 예측하기 위해 대규모 신경망을 사전 훈련하는 과정을 설명합니다. 그러나 사전 훈련은 우리가 신경망에서 기대하는 원하는 동작을 지정하지 않으며, 여기에서 인간과 AI 협업을 통한 미세 조정 및 강화 학습의 두 번째 단계가 시작됩니다. 우리는 신경망과 통신하고 해야 할 일과 하지 말아야 할 일을 지시합니다.

  • 00:25:00 이 섹션에서는 발표자가 출시된 지 불과 몇 개월 만에 인류 역사상 가장 빠르게 성장하는 애플리케이션이 된 GPT-4와 같은 AI 기술의 발전에 대해 논의합니다. GPT-4는 Chat GPT를 개선한 것으로, 텍스트의 다음 단어를 더 정확하게 예측하여 텍스트에 대한 이해도를 높입니다. 충실도를 지속적으로 연구하고 혁신함으로써 AI는 의도된 지침을 따르는 데 있어 더욱 신뢰할 수 있고 정확해졌습니다. 또한 대화는 AI가 사용자의 의도를 이해할 때까지 모호성을 개선할 수 있습니다. 또한 SAT 점수, GRE 점수 및 변호사 시험과 같은 많은 영역에서 GPT-4의 향상된 성능은 놀랍고 주목할 만합니다.

  • 00:30:00 이 섹션에서 발표자는 신경망, 특히 GPT4의 추론 기능에 대한 현재의 한계와 개선 가능성에 대해 논의합니다. 신경망은 일부 추론 기술을 보여주지만 안정성은 유용성에 있어 주요 장애물로 남아 있습니다. 연사는 신경망에 소리내어 생각하도록 요청하고 야심 찬 연구 계획을 도입하면 신뢰성과 정확성을 향상시킬 수 있다고 제안합니다. 현재 GPT4에는 검색 기능이 내장되어 있지 않지만 다음 단어 예측 기능이 뛰어나고 이미지를 사용할 수 있습니다.

  • 00:35:00 이 섹션에서는 Jensen Huang과 Ilya Sutskever가 다중 양식 학습과 그 중요성에 대해 논의합니다. 그들은 인간이 시각적인 동물이기 때문에 텍스트와 이미지 모두에서 학습하는 다중 양식 학습이 신경망이 세상을 더 잘 이해하는 데 유용하다고 설명합니다. 다중 방식 학습은 또한 신경망이 추가 정보 소스를 제공하여 세상에 대해 더 많이 배울 수 있도록 합니다. 그들은 색상과 같은 것을 이해하기 위해 보는 것이 중요하지만 텍스트 전용 신경망은 여전히 수조 단어에 대한 노출을 통해 텍스트만으로는 학습하기 어려운 정보를 학습할 수 있다고 주장합니다.

  • 00:40:00 이 섹션에서 Sutskever와 Huang은 시각 및 오디오를 포함하여 AI 학습에서 다양한 데이터 소스의 중요성에 대해 논의합니다. 그들은 다중 양식의 아이디어와 서로 다른 데이터 소스를 결합하는 것이 세상에 대해 배우고 시각적으로 의사 소통하는 데 얼마나 큰 도움이 될 수 있는지에 대해 다룹니다. Sutskever는 또한 세상이 결국 훈련할 토큰이 고갈될 것이며 자체 데이터를 생성하는 AI가 해당 문제에 대한 가능한 해결책이 될 수 있음을 시사하는 논문을 언급합니다.

  • 00:45:00 이 섹션에서는 연사가 AI 교육 및 자가 학습에서 합성 데이터 생성의 역할에 대해 논의합니다. 기존 데이터의 가용성을 과소평가해서는 안 되지만 AI가 학습 및 문제 해결을 위해 자체 데이터를 생성할 가능성은 미래의 가능성입니다. 가까운 미래에는 중요한 의사 결정을 위해 AI 시스템을 신뢰할 수 있도록 AI 시스템의 신뢰성을 개선하는 데 중점을 둘 것입니다. GPT-4와 같은 AI 모델이 안정적으로 수학 문제를 풀고 창의적인 콘텐츠를 생성할 수 있는 잠재력은 흥미롭지만, 사용자 의도를 이해하고 응답하는 데 있어서 정확도와 명확성을 개선하기 위해서는 아직 해야 할 일이 남아 있습니다.

  • 00:50:00 이 섹션에서는 Jensen Huang과 Ilya Sutskever가 오늘날 AI에서 신경망의 놀라운 성공에 대해 논의합니다. 20년 전과 같은 신경망 개념임에도 불구하고 동일한 기본 훈련 알고리즘으로 더 큰 데이터 세트에서 다른 방식으로 훈련되면서 더 심각하고 강렬해졌습니다. Open AI에서 Alexnet 및 GPT에 대한 Sutskever의 중요한 작업은 놀라운 성과이며 Huang은 문제를 분석하고 대규모 언어 모델의 최신 기술을 설명하는 그의 능력에 감탄했습니다. 두 사람은 AI 분야의 발전을 따라잡고 경탄한다.
 

AI에 주목해야 할 때입니다(ChatGPT 및 그 이상).



AI에 주목해야 할 때입니다(ChatGPT 및 그 이상).

이 비디오는 인공 지능(AI)의 발전과 그것이 우리가 일하고 생활하는 방식을 어떻게 변화시키고 있는지에 대해 논의합니다. 어떤 사람들은 AI의 잠재력에 대해 흥분하고 다른 사람들은 잠재적 영향에 대해 걱정합니다. 연사는 최근 팟캐스트 에피소드에 대한 간략한 요약도 제공합니다.

  • 00:00:00 ChatGPT는 2022년에 출시된 AI 프로그램으로 방대한 인터넷 데이터 세트에서 본 것을 기반으로 문장의 다음 단어가 무엇인지 예측하는 텍스트를 생성할 수 있습니다. ChatGPT는 개방형 AI가 GPT 3.5라고 부르는 gpt3의 개선된 버전입니다. GPT 3.5와 GPT의 주요 차이점은 지도 강화 학습이라고 하는 훈련 과정 중에 사람의 피드백을 추가했다는 것입니다. 본질적으로, 훈련하는 동안 AI에 의한 응답의 여러 버전은 인간에 의해 품질에 따라 최고에서 최악으로 순위가 매겨졌으며 AI는 모델을 개선할 때 디지털 방식으로 보상을 받습니다. ChatGPT는 개방형 AI CEO가 모든 산업의 미래에 대한 흥미로운 통찰력을 가지고 있기 때문에 신진 기업가들이 차세대 혁신이 무엇인지 궁금해하는 데 사용하고 있습니다.

  • 00:05:00 ChatGPT는 고객이 보다 쉽게 불만을 제기하고 구독을 취소하는 등의 작업을 할 수 있도록 설계된 스타트업입니다. 또한 ChatGPT는 어떤 검색 엔진도 할 수 없는 매우 구체적인 주제에 대한 의견을 형성할 수 있습니다. ChatGPT는 AI로 향상시킬 수 있는 기술로 일반적으로 생각되지 않는 코딩도 잘한다고 합니다. ChatGPT에는 많은 유용한 응용 프로그램이 있지만 아직 초기 단계에 있으며 진정으로 혁신적인 기술로 간주되려면 갈 길이 멉니다. 그럼에도 불구하고 ChatGPT의 잠재적 영향은 고려할 가치가 있으며 앞으로 더 중요해질 것입니다.

  • 00:10:00 ChatGPT는 인간과 같은 방식으로 "말하기"가 가능한 챗봇으로 개방형 AI가 설정한 윤리적 경계에 의문을 제기하는 데 사용되었습니다. ChatGPT는 예측 불가능하고 불안정하여 제어하기 어려울 수 있습니다. 또한 ChatGPT는 여러 분야에서 필요한 작업자 수를 줄일 수 있는 잠재력을 가지고 있습니다.

  • 00:15:00 저자는 자동화가 인력에 미치는 잠재적 영향과 준비 방법에 대해 논의합니다. 그는 또한 기업가들이 염두에 두어야 할 몇 가지 근미래 예측과 함께 AI가 어떻게 빠르게 발전하고 있는지에 대해 논의합니다.

  • 00:20:00 ChatGPT는 의학이나 컴퓨터 모델과 같은 미래의 모델을 만드는 데 사용될 새로운 기술 플랫폼입니다. 플랫폼을 사용하여 기존 대형 모델을 조정하여 산업 또는 사용 사례에 특정한 모델을 생성하는 새로운 스타트업 세트가 있을 것입니다.

  • 00:25:00 이 비디오는 인공 지능(AI)의 발전과 그것이 우리가 일하고 생활하는 방식을 어떻게 변화시키고 있는지에 대해 논의합니다. 어떤 사람들은 AI의 잠재력에 대해 흥분하고 다른 사람들은 잠재적 영향에 대해 걱정합니다. 연사는 최근 팟캐스트 에피소드에 대한 간략한 요약도 제공합니다.
 

ChatGPT의 놀라운 잠재력의 비하인드 스토리 | 그렉 브록만 | 테드



ChatGPT의 놀라운 잠재력의 비하인드 스토리 | 그렉 브록만 | 테드

비디오의 이 섹션에서 Greg Brockman은 교육 개선에서 AI의 역할에 대해 설명합니다. 그는 학생들이 지식을 유지하기 위해 고군분투하고 교사들이 모든 학생을 참여시키는 방식으로 가르치기 위해 고군분투하는 전통적인 교육 방법이 종종 비효율적이고 비효율적이라고 주장합니다. Brockman은 AI가 각 학생에게 개인화된 학습 경험을 제공함으로써 이러한 문제를 해결하는 데 도움이 될 수 있다고 제안합니다. AI 도구를 사용하면 학생의 진행 상황을 실시간으로 모니터링하고 필요와 선호도에 맞게 커리큘럼을 조정할 수 있습니다. 이것은 더 매력적이고 효율적인 학습 경험으로 이어져 학생들은 더 많은 지식을 유지하고 교사는 더 중요한 작업에 집중할 수 있습니다. Brockman은 또한 개인 정보 보호를 염두에 두고 AI 도구를 설계하여 학생 데이터를 보호하고 교육 목적으로만 사용하는 것의 중요성을 강조합니다.

  • 00:00:00 이 섹션에서는 OpenAI의 CEO인 Greg Brockman이 AI용 도구를 구축하는 Dolly라는 AI 도구의 기능을 시연했습니다. ChatGPT와 함께 이 도구를 사용하면 사용자는 통합 언어 인터페이스로 의도를 달성하기 위해 이미지와 텍스트를 생성할 수 있으므로 작은 세부 사항을 제거하고 다른 응용 프로그램과 통합하여 확인할 수 있습니다. 사용자 인터페이스에 대한 이 새로운 사고 방식은 AI가 사용자를 대신하여 수행할 수 있는 기능을 확장하고 기술을 새로운 차원으로 끌어 올릴 것입니다.

  • 00:05:00 이 섹션에서 Greg Brockman은 AI가 도구를 사용하고 피드백을 통해 원하는 결과를 생성하도록 훈련되는 방법을 설명합니다. 이 프로세스에는 두 단계가 있습니다. 첫째, AI가 전 세계를 보여주고 이전에 본 적이 없는 텍스트에서 다음에 무엇이 올지 예측하도록 요청하는 비지도 학습 프로세스가 사용됩니다. 두 번째 단계는 AI가 여러 가지를 시도하여 해당 기술로 무엇을 해야 하는지 가르치는 사람의 피드백과 관련이 있으며, 답을 생성하는 데 사용되는 전체 프로세스를 강화하기 위해 사람의 피드백이 제공됩니다. 이 피드백을 통해 학습을 일반화하고 새로운 상황에 적용할 수 있습니다. AI는 또한 사실 확인에 사용되며 검색 쿼리를 발행하고 전체 사고 체인을 작성할 수 있으므로 추론 체인의 모든 부분을 보다 효율적으로 검증할 수 있습니다.

  • 00:10:00 비디오의 이 섹션에서 Greg Brockman은 복잡한 문제를 해결하는 데 인간과 AI 간의 협력 가능성에 대해 논의합니다. 그는 다른 AI에 유용한 데이터를 생성하기 위해 인간의 입력이 필요한 사실 확인 도구의 예를 보여주며, 기계가 신뢰할 수 있고 검사 가능한 방식으로 작동하는 동안 인간이 관리, 감독 및 피드백을 제공할 수 있는 방법을 보여줍니다. Brockman은 이것이 우리가 컴퓨터와 상호 작용하는 방식을 재고하는 것을 포함하여 이전에는 불가능했던 문제를 해결하는 것으로 이어질 것이라고 믿습니다. 그는 강력한 AI 언어 모델인 ChatGPT를 사용하여 167,000개의 AI 논문으로 구성된 스프레드시트를 분석하고 탐색적 그래프를 통해 통찰력을 제공하여 AI가 데이터 분석 및 의사 결정을 지원할 수 있는 가능성을 보여줍니다.

  • 00:15:00 이 섹션에서 Greg Brockman은 AI의 잠재력에 대해 논의하며 AI를 올바르게 사용하려면 일상 생활에 AI를 통합하기 위한 규칙과 지침을 설정하는 데 모든 사람이 참여해야 한다고 말했습니다. 그는 문해력과 우리가 일하는 방식을 재고하려는 의지를 통해 인공 일반 지능이 모든 인류에게 혜택을 주도록 보장하는 OpenAI 사명을 달성하는 것이 가능하다고 믿습니다. Brockman은 기술이 놀랍지만 현재 우리가 하고 있는 모든 일을 재고해야 하기 때문에 무섭기도 하다는 점을 인정합니다. OpenAI의 chatGPT 모델의 성공은 부분적으로 그들의 신중한 선택, 현실에 직면하고 다양한 팀 간의 협업을 장려하기 때문입니다. Brockman은 또한 새로운 가능성의 출현을 언어 모델의 성장과 창발의 원리에 기인합니다. 여기서 많은 단순한 구성 요소가 복잡한 창발 행동으로 이어질 수 있습니다.

  • 00:20:00 비디오의 이 섹션에서 Greg Brockman은 기계에 명시적으로 학습되지 않은 영역에서도 ChatGPT의 학습 및 예측 능력의 놀라운 잠재력에 대해 논의합니다. 그러나 그는 기계가 40자리 숫자 추가를 처리할 수 있지만 40자리 숫자와 35자리 숫자가 제시될 때 잘못된 추가 문제가 발생하는 경우가 많다고 지적합니다. Brockman은 또한 기계 학습을 통한 엔지니어링 품질의 중요성을 강조하고 예측을 수행하기 전에 모든 조각이 적절하게 엔지니어링되도록 전체 스택을 재구축합니다. 그는 그러한 기술을 확장하면 예측할 수 없는 결과를 초래할 수 있다는 점을 인정하지만 점진적인 변화를 배치하여 기계의 의도를 적절하게 감독하고 우리의 의도와 일치시킬 수 있다고 믿습니다. 궁극적으로 Brockman은 적절한 피드백과 인간과의 통합을 통해 AI를 통해 진실과 지혜로의 여정이 가능하다고 믿습니다.

  • 00:25:00 이 섹션에서 Greg Brockman은 적절한 가드레일 없이 GPT와 같은 인공 지능(AI)을 출시할 때의 책임과 안전 영향에 대한 우려를 다룹니다. 그는 비밀리에 건설한 다음 안전이 제대로 실행되기를 바라는 기본 계획이 무섭고 옳지 않다고 설명합니다. 대신 그는 AI를 해제하고 사람들이 너무 강력해지기 전에 입력할 수 있도록 하는 것이 대안적 접근 방식이라고 주장합니다. Brockman은 기술이 5년 후인지 500년 후인지 고민한 이야기를 공유하며, 집단적 책임을 가지고 이 권리에 접근하고 AI가 무모한 것보다 현명할 수 있도록 가드레일을 제공하는 것이 낫다고 결론지었습니다.
 

생명 과학 분야의 MIT 딥 러닝 - 2021년 봄



생명 과학 분야의 MIT 딥 러닝 - 2021년 봄

"Deep Learning in Life Sciences" 과정은 기계 학습을 다양한 생명 과학 작업에 적용하며 기계 학습 및 유전체학 연구원이 MIT의 박사 과정 학생 및 학부생 교직원과 함께 진행합니다. 이 과정에서는 Google Cloud 플랫폼에서 Python을 통해 TensorFlow를 사용한 기계 학습 기초, 유전자 조절 회로, 질병의 변이, 단백질 상호 작용 및 폴딩, 이미징을 다룹니다. 이 과정은 4가지 문제 세트, 퀴즈 및 팀 프로젝트로 구성되며 중간에 멘토링 세션이 있어 학생들이 자신의 프로젝트를 설계하는 데 도움이 됩니다. 강사는 보완적인 기술과 관심을 가진 팀 구성의 중요성을 강조하고 학기 내내 다양한 이정표와 결과물을 제공합니다. 이 과정은 보조금 및 펠로우십 제안서 작성, 동료 검토, 연간 보고서, 커뮤니케이션 및 협업 기술 개발을 포함한 실제 경험을 제공하는 것을 목표로 합니다. 발표자는 전통적인 AI와 관찰 가능한 자극을 기반으로 장면의 내부 표현을 구축하는 딥 러닝의 차이점에 대해 논의하고, 교육 데이터, 컴퓨팅 성능 및 새로운 알고리즘의 융합으로 인해 생명 과학에서 딥 러닝의 중요성을 강조합니다. .

영상은 생명과학 분야의 딥러닝 입문 강의로, 세상의 복잡성을 탐구하는 과정에서 머신러닝과 딥러닝의 중요성을 설명합니다. 이 강연은 베이지안 추론의 개념과 이것이 학습에 대한 생성적 접근과 차별적 접근의 차이점과 함께 고전적 및 심층 기계 학습에서 어떻게 중요한 역할을 하는지에 초점을 맞춥니다. 이 강의는 또한 생물학적 시스템 전반의 네트워크를 이해하기 위한 서포트 벡터 머신, 분류 성능 및 선형 대수학의 힘을 강조합니다. 발표자는 이 과정이 정규화, 과적합 방지, 훈련 세트를 포함하여 딥 러닝의 다양한 주제를 다룰 것이라고 언급합니다. 강의는 향후 강의를 위한 인공 뉴런 및 심층 네트워크의 해석 가능성과 관련된 질문을 다루며 마무리됩니다.

  • 00:00:00 이 섹션에서 발표자는 생명 과학의 딥 러닝 과정을 소개하고 유전자 조절, 질병, 치료 설계, 의료 영상 및 전산을 포함한 생명 과학 작업에 기계 학습을 적용하는 데 중점을 둡니다. 생물학. 이 과정은 금요일에 선택적 멘토링 세션과 함께 일주일에 두 번 만나며 기계 학습 및 유전체학 연구원인 연사와 MIT의 박사 학생 및 학부생으로 구성된 교수진이 진행합니다. 연사는 또한 모든 강의를 녹음한 작년 코스워크 페이지에 대한 링크를 제공합니다.

  • 00:05:00 성적표의 이 섹션에서 강사는 미적분학, 선형 대수학, 확률 및 통계, 프로그래밍과 같은 과정에서 구축할 기초를 소개합니다. 이 과정에는 또한 학생들이 기초를 다질 수 있는 입문 생물학 기초가 있습니다. 그런 다음 강사는 문제 세트, 퀴즈, 최종 프로젝트 및 참여를 포함하는 과정의 채점 분석을 자세히 설명합니다. 이 섹션은 저렴한 대용량 데이터 세트의 융합, 기계 학습 방법의 근본적인 발전, 과학 분야를 완전히 변화시킨 고성능 컴퓨팅으로 인해 생명 과학에서 딥 러닝이 중요한 이유에 대한 설명으로 결론을 내립니다.

  • 00:10:00 이 섹션에서 발표자는 컴퓨터 생물학의 중요성과 이점에 대해 논의합니다. 학생들은 대용량 데이터 처리, 발견 속도 향상, 복잡한 프로세스에 대한 수학적 모델 생성, 생물학적 데이터의 패턴 이해, 의미 있는 추출을 위한 시각화 사용을 포함하여 계산 생물학이 중요한 이유에 대한 답을 제공합니다. 패턴. 연사는 컴퓨팅을 통해 이해할 수 있는 생물학의 기본 패턴과 원리의 존재를 강조하고 학생들이 학과 및 학과 간에 제공되는 다양한 과정을 탐색하도록 권장합니다.

  • 00:15:00 이 섹션에서 발표자는 계산 방법이 응용 연구뿐만 아니라 기본 생물학 연구에서 새로운 기초 이해를 생성하는 데 어떻게 도움이 될 수 있는지 논의합니다. 그들은 사용된 계산 방법이 항상 완벽한 결과를 제공하지는 않지만 훨씬 더 흥미로운 중요한 근사치를 제공할 수 있다고 강조합니다. 또한 발표자는 계산 생물학이 다양한 연구 영역을 통합하여 여러 기관에 영향을 미치는 복잡한 질병에 대한 보다 포괄적인 이해를 가능하게 하는 방법을 보여줍니다. 마지막으로 그들은 질병 전파 및 질병 진행과 같은 장기적인 시간적 과정을 시뮬레이션하기 위해 계산 도구를 사용하는 것에 대해 언급합니다.

  • 00:20:00 비디오의 이 섹션에서 연사는 생명 과학에서 컴퓨팅의 역할, 특히 시간 경과에 따른 프로세스 진행을 시뮬레이션하여 약물 및 치료의 발견 및 개발 시간을 단축하는 방법에 대해 논의합니다. 약물을 설계하고 합성 테스트 데이터를 생성하는 데에도 딥 러닝의 사용이 점점 더 보편화되고 있습니다. 연사는 또한 유전 데이터 세트의 진정한 평등을 위해 인구 통계 전반에 걸쳐 유전적 다양성을 연구하는 것의 중요성을 강조합니다. 생명 자체는 디지털이며 생물학을 이해하는 데 있어 어려운 점은 노이즈에서 신호를 추출하고 데이터 세트에서 의미 있는 패턴을 인식하는 것입니다.

  • 00:25:00 이 섹션에서 과정 강사는 기계 학습 기초, 유전자 조절 회로, 질병의 변이, 단백질 상호 작용 및 폴딩, 이미징을 포함하여 과정에서 다룰 주요 작업과 과제를 설명합니다. 이 과정은 문제 세트를 활용하여 학생들에게 이러한 각 영역을 소개하고 학생들은 Google Cloud 플랫폼 내의 프로그래밍 환경에서 Python을 통해 TensorFlow를 사용하게 됩니다. 첫 번째 문제 세트는 문자 인식에 초점을 맞춘 다음 이러한 기술을 사용하여 게놈 데이터를 분석하고 유전자 조절 이벤트와 관련된 시퀀스 패턴을 인식합니다.

  • 00:30:00 이 섹션에서 강사는 수업 기간 동안 네 가지 문제 세트, 퀴즈 및 팀 프로젝트로 구성되는 과정의 구조와 목표에 대해 논의합니다. 강사는 코스가 상호 작용할 것이라고 강조하고 학생들이 관심 있는 강의에 등록하여 특정 분야에 투자할 수 있도록 격려합니다. 또한 생명과학 분야에서 딥러닝 분야에서 활동하고 있는 객원 강사들과 교류할 수 있는 기회를 갖게 되며, 연구 프로젝트 방향에 대한 토론을 바탕으로 팀 프로젝트를 구축하여 학생들에게 새로운 기술을 적용하여 실제 문제를 해결할 수 있는 기회를 제공합니다. . 또한 강사는 생명 과학 분야의 딥 러닝이 불과 10년밖에 되지 않았다는 점을 언급하고 초청 강사는 해당 분야의 주요 논문을 소개하여 학생들에게 매우 흥미진진하고 상호 작용이 가능한 과정을 제공합니다.

  • 00:35:00 이 섹션에서 과정 강사는 학생들이 자신의 프로젝트를 설계하고 아이디어를 내며 파트너 및 멘토와 균형을 맞추는 데 도움이 되는 모듈과 함께 멘토링 세션이 과정에 어떻게 포함될 것인지에 대해 논의합니다. 이러한 멘토링 세션에는 관련 분야에서 활동하는 직원 또는 연구원이 참여하여 학생들이 아이디어를 내고 전산 생물학에서 활발한 연구원이 될 준비를 할 수 있습니다. 강사는 또한 연구 제안서 작성, 보완 기술 세트 작업, 동료 피드백 받기 및 동료 제안의 잠재적 결함 식별을 포함하여 과정이 도움이 될 교육의 무형적 측면을 강조합니다. 이 과정에는 실생활에서 이러한 무형의 작업을 반영하는 학기 프로젝트가 있습니다. 또한 학생들은 동료를 만나고, 보완적인 전문 지식으로 조기에 팀을 구성하고, 프로필과 비디오 소개를 제출하도록 권장됩니다.

  • 00:40:00 이 섹션에서 강사는 충분한 계획, 피드백 및 학생의 기술과 관심에 맞는 프로젝트 찾기를 보장하기 위해 과정에 대해 설정된 다양한 이정표에 대해 논의합니다. 그는 보완적인 기술과 관심을 가진 팀을 구성하고, 영감을 얻기 위해 작년 프로젝트와 최근 논문에 대한 링크를 제공하고, 선배 학생, 박사후 연구원 및 과정 직원과 정기적인 멘토링 세션을 수립하는 것의 중요성을 언급합니다. 이 과정에는 제안에 대한 비판적 사고를 장려하고 피드백과 제안을 제공하기 위해 동료 검토의 다양한 주제와 측면에 대한 그룹 토론도 포함됩니다. 강사는 보조금 및 펠로우십 제안서 작성, 동료 검토, 연간 보고서, 커뮤니케이션 및 협업 기술 개발을 포함하여 이 과정을 통해 얻게 될 실제 경험을 강조합니다. 강사는 코스 전반에 걸쳐 다양한 세부 세션에서 학생들이 서로 만나도록 초대하고 학기 동안 예정된 이정표 및 결과물에 대한 개요를 제공합니다.

  • 00:45:00 과정 및 프로젝트의 구조, 강사는 각 주제에 사용할 수 있는 다양한 모듈 및 논문에 대한 개요를 제공합니다. 또한 프로젝트 제안 및 엔드투엔드 파이프라인 데모의 마감일을 포함하여 과정 일정이 설명되어 있습니다. 강사는 나중에 문제가 발생하지 않도록 과정 초기에 데이터와 도구를 갖추는 것이 중요하다고 강조합니다. 중간 과정 보고서 및 발표 강의, 최종 프로젝트 및 프레젠테이션 마감일도 언급됩니다. 일부 논문을 저술한 객원 강사도 초대될 수 있습니다.

  • 00:50:00 이 섹션에서 발표자는 멘토링 및 피드백 랩을 포함하여 과정에 사용할 수 있는 리소스 및 지원을 소개합니다. 그들은 또한 코스를 수강하는 학생들의 다양한 배경을 보여주는 입문 설문 조사 결과를 공유합니다. 대다수는 6전공과 20전공 출신입니다. 발표자는 약 10분 동안 기계 학습 주제와 생물학 중 일부를 소개합니다. 딥 러닝과 다양한 응용 프로그램의 중요성을 강조합니다. 또한 인공 지능, 딥 러닝 및 기계 학습의 차이점을 설명합니다.

  • 00:55:00 이 섹션에서 강사는 전통적인 인공 지능(AI) 접근 방식과 딥 러닝의 차이점에 대해 설명합니다. 전통적인 AI는 인간 전문가에 의존하여 규칙과 점수 매기기 기능을 코딩하는 반면, 딥 러닝은 명시적인 인간의 안내 없이 스스로 직관과 규칙을 배우는 것을 목표로 합니다. 강사는 체스의 예를 사용하여 이러한 차이점을 설명하고 기계가 자연 장면 및 실제 상황과 같은 복잡한 환경을 탐색할 수 있게 함으로써 딥 러닝이 AI를 혁신했다고 언급합니다. 강사는 딥 러닝의 세 가지 핵심 기둥으로 훈련 데이터, 컴퓨팅 성능 및 새로운 알고리즘의 융합을 식별하고 기계가 관찰 가능한 자극을 기반으로 장면의 내부 표현을 구축한다고 설명합니다.

  • 01:00:00 이 섹션에서 연사는 머신 러닝과 딥 러닝이 관찰과 데이터를 분석하여 세상의 복잡성에 대한 표현을 구축하는 것을 포함한다고 설명합니다. 전통적인 기계 학습은 단순 표현을 사용하는 반면 딥 러닝은 계층적 표현을 사용합니다. 생성 모델을 사용하면 세계의 숨겨진 상태가 주어진 이벤트의 순방향 확률을 표현할 수 있으며, 베이즈 규칙을 사용하면 관측값이 주어진 특정 계절일 확률을 추정할 수 있습니다. 여기에는 가설이 주어진 데이터의 확률에서 우도 및 사전 확률의 곱을 통해 데이터가 주어진 가설의 확률로 이동하는 것이 포함됩니다. 데이터의 주변 확률은 데이터의 전체 확률을 얻기 위해 모든 가설을 합산하는 데 사용됩니다.

  • 01:05:00 이 섹션에서 연사는 베이지안 추론의 개념과 고전 및 딥 머신 러닝에서의 역할을 설명합니다. 베이지안 추론에는 세계에 대한 생성 모델이 있는 다음 해당 모델에 대해 무언가를 추론하는 것이 포함되며, 이는 일부 지점에 대한 레이블이 존재하는 지도 학습에 특히 유용하며 기능을 기반으로 객체를 분류할 수 있습니다. 기존 기계 학습에서 주요 작업은 기능 엔지니어링 또는 데이터 세트에서 올바른 기능을 선택하는 반면 딥 러닝에서는 기능이 자동으로 학습됩니다. 클러스터링은 데이터 세트를 학습하고 표현할 수 있는 비지도 학습의 한 형태이며 베이지안 추론을 사용하여 데이터 세트에 대한 생성 모델의 매개변수를 반복적으로 추정하여 데이터의 특성을 개선할 수 있습니다.

  • 01:10:00 비디오의 이 섹션에서 강사는 학습에 대한 생성적 접근 방식과 차별적 접근 방식의 차이점에 대해 논의하고, 차별적 학습이 데이터의 전체 분포를 캡처하려고 시도하는 대신 데이터 요소 간의 최상의 구분 기호를 학습하는 데 초점을 맞추는 방법을 강조합니다. 강의는 또한 생물학적 시스템 전반에 걸친 네트워크를 이해하기 위한 서포트 벡터 머신, 분류 성능 및 선형 대수학의 힘에 대해 다룹니다. 강사는 수업이 심층 학습, 특히 세계에 대한 다양한 객체와 개념을 분류하기 위해 계층을 통해 단순하고 더 추상적인 기능을 구축하는 데 중점을 둘 것이라고 언급합니다. 마지막으로 강의는 모든 학습이 심층적이지 않음을 강조하고 인공 지능 및 기계 학습에 대한 역사적 접근 방식을 검토합니다.

  • 01:15:00 이 섹션에서 발표자는 추상적 추론 계층을 학습하는 뉴런 계층을 사용하여 인간의 뇌가 이미지를 처리하고 물체를 인식하는 방법에 대해 논의합니다. 그는 이 프로세스를 생물학적 공간에서 계산 공간으로 포팅된 딥 러닝 및 AI에 사용되는 신경망의 아키텍처와 비교합니다. 이 과정에서는 정규화, 과적합 방지, 훈련 세트, 테스트 세트 등 딥 러닝의 다양한 주제를 다룹니다. 발표자는 또한 비지도 방식으로 기능하는 감독 알고리즘과 더 간단한 표현으로 표현을 제한하기 위한 자동 인코더에 대해 언급합니다. 또한 그는 코스 참석자들을 환영하고 코스의 생물학적 측면의 중요성을 강조합니다.

  • 01:20:00 이 섹션에서 발표자는 인공 뉴런 및 심층 네트워크의 해석 가능성과 관련된 몇 가지 질문에 답하며 향후 강의에서 자세히 다룰 예정입니다. 또한 학생들에게 프로필을 작성하고 비디오 소개를 업로드하도록 상기시킵니다.
 

기계 학습 기초 - 강의 02(2021년 봄)



Machine Learning Foundations - Deep Learning in Life Sciences 강의 02(2021년 봄)

이 강의에서는 기계 학습의 기초를 다루며 교육 및 테스트 세트와 같은 개념, 판별 및 생성과 같은 모델 유형, 손실 함수 평가, 정규화 및 과적합, 신경망을 소개합니다. 강사는 하이퍼파라미터의 중요성, 생명과학에서의 정확도 평가, 상관관계 테스트, 모델 테스트를 위한 확률 계산에 대해 설명합니다. 마지막으로 심층 신경망의 기초와 뉴런의 구조에 대해 논의하며 복잡한 함수 학습에서 비선형성의 역할을 강조합니다.

강의 2부에서는 딥러닝에서 활성화 함수의 개념을 설명하고 기울기의 기초가 되는 오류를 최소화하기 위해 가중치 업데이트를 튜닝할 때 편도함수를 사용하여 출력 함수에 맞게 가중치를 조정하는 학습 과정을 설명합니다. 기반 학습. 가중치를 조정하기 위해 신경망을 통해 도함수를 전파하는 방법으로 역전파(backpropagation)의 개념을 소개합니다. 확률적 경사하강법과 모델 용량 및 VC 차원의 개념을 포함하여 딥 러닝 모델의 여러 계층에서 가중치를 최적화하는 다양한 방법에 대해 설명합니다. 조기 중지 및 가중치 감소와 같은 다양한 정규화 기술과 함께 그래프에서 모델 용량의 효율성과 편향 및 분산에 대해서도 설명합니다. 복잡성의 올바른 균형을 찾는 것의 중요성이 강조되고 학생들은 급우들에게 자신을 긍정적으로 소개하도록 권장됩니다.

  • 00:00:00 이 섹션에서는 강사가 기계 학습의 기초와 정의를 소개합니다. 기계 학습은 경험을 전문 지식이나 지식으로 변환하는 과정으로, 데이터에서 발견되지 않은 패턴을 사용하여 미래 결과를 정확하게 예측하기 위해 계산 방법을 사용합니다. 기계 학습의 목표는 데이터에서 패턴을 자동으로 감지하고 이를 사용하여 출력을 잘 예측할 수 있는 방법을 개발하는 것입니다. 강사는 또한 모델 매개변수와 아키텍처를 맞추는 데 사용되는 훈련 세트와 모델의 성능 및 일반화력을 평가하는 테스트 세트의 개념을 설명합니다. 마지막으로 강사는 과적합을 방지하기 위해 매개변수와 모델 복잡성을 제어할 때 정규화의 중요성에 대해 다룹니다.

  • 00:05:00 강의의 이 섹션에서 강사는 스칼라, 벡터, 행렬 및 텐서와 같은 기계 학습에 사용되는 다양한 유형의 객체를 소개합니다. 입력 공간은 특정 데이터 세트가 특정 인덱스 및 기능과 함께 사용되는 이러한 개체의 개별 예로 정의됩니다. y 모자로 표시된 예측 레이블과 함께 레이블 공간도 도입됩니다. 기계 학습의 목표는 입력 데이터에서 추출된 특징을 평가하고 입력을 출력으로 변환하는 함수를 사용하여 출력 결과를 계산하는 것입니다. 강사는 또한 교육 세트와 테스트 세트의 차이점과 함수가 입력 매개변수를 받아들이고 가중치 벡터와 편향을 사용하여 출력을 계산하는 방법을 설명합니다.

  • 00:10:00 이 섹션에서 발표자는 축이 없을 때 선형 함수의 출력을 최적화하기 위해 가중치와 바이어스가 어떻게 사용되는지 설명합니다. 변환 함수는 세계에 대한 추론과 분류를 만드는 세계의 모델로 볼 수 있습니다. 두 가지 유형의 모델이 있습니다. 두 클래스를 구별하는 판별 모델과 여러 클래스의 공동 분포를 모델링하려는 생성 모델입니다. 선형 회귀는 기계 학습의 한 유형일 뿐이며 회귀는 분류 외에 일반적인 작업입니다.

  • 00:15:00 이 섹션에서 강사는 지도, 반지도, 비지도 및 강화 학습을 포함한 다양한 유형의 기계 학습에 대해 설명합니다. 초점은 지도 학습과 다변량 회귀, 이진 및 다중 클래스 분류, 다중 레이블 분류와 같은 다양한 유형의 출력에 있습니다. 강사는 또한 교육 중에 기계 학습 모델을 최적화하는 데 사용되는 목적 함수에 대해 이야기하며 손실, 비용 또는 오류 함수의 형태가 될 수 있습니다. 01 손실, 교차 엔트로피 손실, 힌지 손실 등 다양한 유형의 손실 함수가 제시되며, 회귀를 위한 평균 제곱 오차 및 평균 절대 오차에 대한 논의로 강의가 마무리됩니다.

  • 00:20:00 이 섹션에서 강사는 각각 예측 값에서 벗어나는 선형 및 2차 페널티인 L1 및 L2 정규화의 개념을 소개합니다. 매개변수에 제약 조건을 할당하여 훨씬 이상값에 페널티를 부여하고 과적합을 방지하는 데 이러한 기능을 사용할 수 있는 방법에 대해 논의합니다. 그런 다음 강사는 값 발생 확률로 모든 것을 평가하는 이진 교차 엔트로피 손실 및 정보 기반 접근 방식을 사용하는 범주 교차 엔트로피 손실과 같은 분류 작업을 위한 다양한 손실 함수를 탐색합니다. 또한 데이터를 0에서 1 범위로 매핑하기 위한 소프트 맥스 기능을 다룹니다. 이러한 개념은 모두 베이지안 설정에서 최대 우도 추정기와 사후 확률을 고려합니다.

  • 00:25:00 이 섹션에서 강의는 특정 클래스에 속하는 경우 1이고 그렇지 않은 경우 0인 클래스 전체에서 특정 공식을 사용한 결과를 설명합니다. 강의는 또한 입력 데이터, 가중치 및 편향 항을 포함하여 문제의 구조에 대해 설명합니다. 옵티마이저는 가중치 간의 불일치를 기반으로 구축되며 이러한 가중치는 평균 제곱 오차 또는 평균 절대 오차와 같은 손실 함수를 사용하여 학습됩니다. 강의는 또한 특정 예측과 관련된 비용을 설명하는 위험의 개념을 소개하고 목적 함수를 최적화하기 위해 위험을 사용하는 방법을 설명합니다. 그런 다음 강의에서는 손실 함수를 기반으로 가중치를 업데이트하는 방법과 훈련 및 테스트 세트를 사용하여 모델을 평가하는 방법을 설명합니다.

  • 00:30:00 이 섹션에서는 강사가 기계 학습에서 과적합 및 과소적합의 개념을 설명합니다. 그는 교육 세트가 개선됨에 따라 모델이 검증 세트의 데이터를 더 잘 예측하는 방법을 설명합니다. 그러나 특정 시점 이후 모델은 훈련 세트에 과적합되기 시작하고 검증 세트의 오류가 증가하기 시작합니다. 따라서 강사는 데이터를 훈련 세트, 검증 세트, 테스트 세트로 분할하여 검증 세트는 하이퍼파라미터를 조정하는 데 사용하고 테스트 세트는 완전히 훈련된 모델의 성능을 평가하는 데 사용하도록 하는 것이 중요하다고 강조합니다.

  • 00:35:00 이 섹션에서 연사는 생명 과학의 맥락에서 기계 학습 모델의 정확도를 평가하는 방법에 대해 논의합니다. 그들은 참 긍정과 참 부정에 초점을 맞춘 참 긍정 힘, 거짓 긍정과 거짓 부정과 같은 다양한 평가 방법을 설명합니다. 발표자는 또한 정밀도, 특이성, 재현율 및 정확성과 같은 다른 평가 기술과 데이터 세트의 균형을 고려하는 것의 중요성에 대해 논의합니다. 그런 다음 ROC(수신자 작동 특성) 곡선과 이것이 분류기의 민감도와 특이성 절충을 평가하는 데 어떻게 도움이 되는지 소개합니다. 또한 특정 회귀 설정에 대해 매우 불균형한 데이터 세트에 대한 더 나은 옵션으로 정밀도 리콜 곡선이 언급됩니다. 두 곡선 모두 보완적이며 모델 성능의 다양한 측면을 포착합니다.

  • 00:40:00 이 섹션에서 발표자는 상관관계의 개념과 회귀 예측자를 평가하는 데 사용할 수 있는 방법에 대해 설명합니다. 그들은 상관관계가 예측되는 값과 실제 값 사이의 관계를 측정하고 Pearson 상관관계 및 Spearman 순위 상관관계와 같은 다양한 유형의 상관관계 테스트가 있다고 설명합니다. 발표자는 또한 상관 테스트의 중요성과 예측 변수의 정확도를 평가하는 데 사용할 수 있는 방법에 대해서도 언급합니다. 특정 상관 값을 얻을 확률과 예상 값에서 크게 벗어나는지 여부를 결정하기 위해 스튜던트 t 분포 및 이항 테스트와 같은 통계 테스트를 사용하는 방법을 설명합니다.

  • 00:45:00 이 섹션에서 화자는 초기하 분포를 사용하여 k개의 관측치가 우연히 올바르게 분류될 확률을 계산하여 분류기가 무작위로 올바른 선택을 할 확률에 대해 논의합니다. 그는 또한 여러 가설을 테스트하는 경우 null 확률을 조정해야 하며 엄격한 Bonferroni 수정 또는 덜 엄격한 Benjamin Hofberg 수정을 사용하여 임계값을 조정할 수 있다고 강조합니다. 화자는 충분한 데이터가 있는 거의 모든 곳에서 상관관계를 찾는 것의 위험에 대해 경고하고 상관관계가 부족하다고 해서 관계가 부족하다는 의미는 아니라고 강조합니다. 이 섹션은 발표자가 신경망에 대해 논의하기 전에 스트레치 브레이크로 끝납니다.

  • 00:50:00 강의의 이 섹션에서 강사는 심층 신경망의 개념과 학습의 추상화 계층 구조에 대한 뿌리를 소개합니다. 강사는 입력 계층에서 시작하여 점점 더 복잡해지는 기능을 학습하는 여러 숨겨진 계층을 통해 네트워크의 계층을 설명합니다. 컨벌루션 필터의 개념은 간략하게 언급되었지만 이후 강의에서 더 자세히 다룰 것입니다. 강사는 또한 이러한 네트워크가 인간 두뇌에 있는 뉴런의 생물학적 구조에서 영감을 얻었다고 지적합니다.

  • 00:55:00 이 섹션에서는 강사가 딥 러닝 신경망의 기본 사항을 설명합니다. 그는 뉴런의 구조를 가중 입력을 수신하고 임계값을 넘은 다음 동일한 출력을 자손에게 보내는 계산 구조로 설명합니다. 신경망의 학습은 이러한 가중치에 포함되며 계산되는 함수는 수신된 입력을 기반으로 변환된 확률입니다. 강사는 신경망이 선형 함수를 넘어 거의 모든 함수를 학습할 수 있는 비선형성을 도입했을 때 강력해졌다고 강조합니다. 원래의 비선형성은 시그모이드 단위로, 뉴런이 1에서 발화하거나 임계값을 넘을 때까지 0에서 유지되는 것을 나타냅니다. 그 외에도 더 복잡한 기능을 근사화하기 위해 소프트 플러스 장치가 도입되었습니다.

  • 01:00:00 강의의 이 섹션에서 연사는 딥 러닝에서 활성화 기능의 개념과 입력에 대한 반응으로 뉴런이 발화하도록 돕는 방법을 설명합니다. 그는 소프트 플러스, 시그모이드, 정류 선형 단위(ReLU) 등과 같은 다양한 활성화 함수를 소개합니다. 연사는 또한 출력 함수와 일치하도록 가중치를 조정하는 학습 과정과 오류를 최소화하기 위해 가중치 업데이트를 조정하는 부분 도함수의 역할에 대해 논의합니다. 이것이 기울기 기반 학습의 기초라고 그는 설명합니다.

  • 01:05:00 강의의 이 섹션에서는 가중치를 조정하기 위해 신경망을 통해 도함수를 전파하는 방법으로 역전파(backpropagation)의 개념을 소개합니다. 체인 규칙은 이전 레이어의 함수로 각 레이어의 도함수를 계산하는 데 사용되어 각 레벨에서 조정할 수 있습니다. 기울기를 조정하기 위한 학습 속도, 큰 가중치를 방지하기 위한 가중치 감쇠, 필요한 변화의 방향과 양을 결정하기 위해 이전 시간 단계에서 델타를 고려하는 것과 같은 추가 종소리와 휘파람이 이 프로세스에 추가될 수 있습니다.

  • 01:10:00 이 섹션에서 연사는 딥 러닝 모델의 여러 계층에서 가중치를 최적화하는 다양한 방법을 설명합니다. 이러한 방법에는 체인 규칙을 사용하여 각 가중치에 대한 출력의 도함수를 계산하는 것과 가중치를 업데이트하기 위해 훈련 데이터의 하위 집합을 무작위로 샘플링하는 확률적 경사 하강법이 포함됩니다. 또한 연사는 매개 변수와 계산할 수 있는 함수 유형을 기반으로 딥 러닝 모델의 전반적인 모델링 능력을 설명하는 모델 용량 및 VC 차원의 개념에 대해 논의합니다. 비모수적 모델의 용량은 훈련 세트의 크기로 정의됩니다.

  • 01:15:00 이 섹션에서는 k-최근접 이웃의 개념과 일반화 가능성을 소개합니다. k-최근접 이웃은 좋은 기준선 방법이지만 데이터 세트를 분리하는 기능을 학습하지 않기 때문에 일반화 능력이 낮아 이전에 본 적이 없는 입력에 대해 잘 수행하기 어려울 수 있습니다. 그래프에서 모델 용량의 효율성에 대해서도 설명합니다. 여기서 x축은 매개변수 또는 차원의 유효 수를 표시하며 이 수를 늘리면 데이터와 더 잘 일치할 수 있지만 일반화 오류가 더 높아질 수 있습니다. 바이어스 또는 주어진 데이터와 얼마나 잘 일치하는지, 분산 또는 미래 데이터 세트와 얼마나 잘 일치하는지도 소개됩니다. 마지막으로 모델은 매개변수 정규화와 모델 복잡도 정규화를 절충하여 정규화할 수 있으며, 이는 뉴런 복잡성 수준이 다른 데이터 세트를 비교하여 입증할 수 있습니다.

  • 01:20:00 강의의 이 섹션에서 강사는 신경망에 정규화를 추가하는 다양한 기술(예: 조기 중지, 가중치 감쇠, 정규화로 노이즈 추가, 베이지안 사전)에 대해 설명합니다. 활성화 함수와 가중치 수에 따라 용량의 개념도 논의됩니다. 강사는 더 많은 레이어, 더 넓은 레이어, 더 많은 연결 사이의 균형은 이론이 아니라 예술이며 복잡성의 올바른 균형을 맞추는 것이 필수적이라고 강조합니다. 강사는 학생들이 급우들에게 자신을 긍정적으로 소개하고 시간을 내어 그들의 프로필과 비디오에 대해 알아보도록 권장합니다.
 

CNNs Convolutional Neural Networks - Lecture 03 (Spring 2021)



CNNs Convolutional Neural Networks - Deep Learning in Life Sciences - Lecture 03 (Spring 2021)

이 비디오 강의는 생명 과학을 위한 딥 러닝의 CNN(컨볼루션 신경망) 주제를 다룹니다. 연사는 시각 피질의 원리와 이들이 합산 및 가중치의 기본 구성 요소와 뉴런의 편향 활성화 임계값과 같은 인간 및 동물 시각 시스템의 구성 요소를 포함하여 CNN과 어떻게 관련되는지에 대해 논의합니다. 그들은 CNN이 낮은 수준의 탐지 작업을 위해 특수 뉴런을 사용하고 추상적 개념 학습을 위해 숨겨진 단위 계층을 사용한다고 설명합니다. 또한 컨볼루션 및 풀링 레이어의 역할, 여러 특징을 추출하기 위한 여러 필터의 사용, 전이 학습의 개념에 대해서도 강의합니다. 마지막으로 비선형성과 패딩을 사용하여 컨볼루션의 에지 사례를 해결하는 방법도 설명합니다. 전반적으로 강의는 다양한 생명 과학 응용 분야에서 CNN의 힘과 잠재력을 강조합니다.

강의의 두 번째 부분에서는 합성곱 신경망(CNN)과 관련된 다양한 개념을 다룹니다. 강의에서 연사는 CNN에서 입력 크기를 유지하는 것의 중요성, 변환에 대한 불변성을 달성하는 수단으로서의 데이터 증대, 다양한 CNN 아키텍처 및 응용 프로그램에 대해 이야기합니다. 이 강의에서는 심층 CNN, 하이퍼파라미터 및 전체 성능에 미치는 영향, 하이퍼파라미터 튜닝에 대한 접근 방식과 관련된 문제도 다룹니다. 연사는 CNN의 기본 원칙을 이해하는 것의 중요성을 강조하고 여러 설정에 적용할 수 있는 기술로서 CNN의 다양성을 강조합니다.

  • 00:00:00 이 섹션에서 발표자는 CNN(컨볼루션 신경망)의 주제를 소개하고 다양한 도메인에 걸친 딥 러닝에서의 중요성을 강조합니다. 발표자는 6s191 과정과 Tess Fernandez의 Coursera 노트를 CNN을 공부하는 데 훌륭한 리소스로 인정합니다. 발표자는 CNN이 인간 두뇌 자체의 신경망과 50년대와 60년대 동물 시각 피질에 대한 신경과학 연구 결과에서 어떻게 영감을 받았는지 설명합니다. 연사는 계속해서 제한된 수용 영역과 직각의 가장자리에 반응하는 세포만 있다는 개념을 포함하여 신경과학의 기초 연구에서 발견한 몇 가지 핵심 원리를 설명합니다. 이러한 개념은 오늘날 사용되는 컨볼루션 필터와 CNN의 기초를 형성합니다.

  • 00:05:00 이 섹션에서 발표자는 시각 피질의 원리와 이들이 회선 신경망(CNN)과 어떻게 관련되는지에 대해 논의합니다. 시각 피질은 가장자리 감지와 같은 간단한 기본 작업을 포함하며, 이는 서로 다른 장소에서 빛과 어둠을 감지하고 해당 신호를 임계값으로 지정하는 개별 뉴런으로 구성됩니다. 감지된 에지 또는 객체의 위치에 대해 불변하는 고차 뉴런이 있으며, 이는 CNN의 풀링 레이어에서 위치 불변의 개념으로 이어졌습니다. 연사는 또한 합산 및 가중치의 기본 구성 요소와 뉴런의 바이어스 활성화 임계값과 같은 신경망에서 발견되는 유사한 원리를 포함하는 인간 및 동물 시각 시스템의 구성 요소에 대해 논의합니다.

  • 00:10:00 강의의 이 섹션에서 연사는 특정 임계값 이상의 입력을 기반으로 뉴런이 발화하는지 여부를 결정하는 뉴런의 활성화 기능에 대해 논의합니다. 선형 정보의 선형 변환이 여전히 선형 변환이기 때문에 이 프로세스의 비선형성으로 인해 더 복잡한 함수를 학습할 수 있습니다. 뉴런은 창발적 특성을 갖고 학습과 기억을 허용하는 네트워크에 연결됩니다. 인간의 두뇌는 860억 개의 뉴런과 단순하고 크고 깊은 네트워크로 구성된 1,000조 개의 연결을 포함하는 매우 강력하여 모서리와 선과 같은 복잡한 개념을 추상화하고 인식할 수 있습니다. 밝은 영역과 어두운 영역에 대한 응답으로 양성 및 음성 신호를 기반으로 낮은 수준의 뉴런에서 가장자리 감지기를 생성할 수 있는 방법에 대한 예가 제공됩니다.

  • 00:15:00 이 섹션에서 발표자는 뇌의 신경 연결이 어떻게 가장자리 및 막대와 같은 매우 기본적인 선형 및 원형 프리미티브를 감지하고 이를 사용하여 색상, 곡률 및 방향과 같은 더 복잡한 기능을 감지하는지 설명합니다. 뇌의 시각 피질의 상위 계층은 간단한 부분에서 복잡한 개념을 구축하는 딥 러닝의 추상화 계층에 해당합니다. 뇌의 가단성은 또한 뇌의 다른 부분을 활용하여 해당 신호를 감지할 수 있도록 하며, 동물 실험에서 뇌의 회로가 상호 교환 가능하고 부상 시 재배선될 수 있음이 밝혀졌습니다. 또한 발표자는 인간과 생쥐의 뇌 사이의 엄청난 크기 차이와 포유동물, 특히 영장류의 신피질 확장이 어떻게 더 높은 수준의 추상화 및 사회적 지능을 발생시켰는지에 대해 언급합니다.

  • 00:20:00 이 섹션에서 강사는 모든 수학 함수를 학습할 수는 없지만 신경망이 우리가 거주하는 물리적 세계에 매우 적합한 광범위한 함수를 학습할 수 있는 방법을 설명합니다. 이 강의는 또한 착시가 뇌 내부에서 진행되는 계산의 기본 요소와 구성 요소를 어떻게 드러낼 수 있는지 탐구합니다. 딥 러닝을 통해 사람이 동물의 괴물 같은 조합으로 변하는 것을 보는 것과 같은 경험을 생성할 수 있습니다. 그런 다음 강의는 완전히 연결된 네트워크가 아닌 로컬에서 계산되는 컨볼루션 필터의 지역성 및 계산과 같은 컨볼루션 신경망의 핵심 요소에 대해 논의합니다.

  • 00:25:00 CNN 및 생명 과학의 심층 학습에 대한 강의의 이 섹션에서 연사는 컨볼루션 신경망의 몇 가지 주요 기능에 대해 논의합니다. 여기에는 낮은 수준의 감지 작업을 수행하는 특수 뉴런의 사용, 간단한 부분에서 추상적 개념을 학습하는 숨겨진 단위 계층, 비선형성을 도입하는 활성화 기능, 위치 불변성을 위한 풀링 계층 및 계산 시간 단축, 원본 이미지의 다양한 측면과 정규화를 위해 개별 숨겨진 단위의 가중치를 제한하는 방법을 캡처합니다. 이러한 기능은 모두 복잡한 이미지 또는 게놈 데이터에서 패턴을 학습하고 인식할 수 있는 효과적인 CNN을 구축하는 데 중요합니다.

  • 00:30:00 이 섹션에서 강사는 인간의 뇌도 다양한 메커니즘을 사용하여 유용한 연결을 강화하는 동시에 특정 작업에 대한 단일 연결에 대한 과도한 의존을 제한한다고 설명합니다. 그는 시간이 지남에 따라 뉴런 발화를 줄이고 강화 학습을 사용하여 운동 작업을 개선하는 예를 언급합니다. 그는 또한 인간 두뇌의 이러한 원시 학습 메커니즘과 컨볼루션 신경망에서 사용되는 역전파 알고리즘 사이의 유사점을 그립니다. 강사는 학생들이 현재 아키텍처를 넘어 생각하고 개별 프리미티브에서 파생될 수 있는 새로운 컴퓨팅 아키텍처를 고려하도록 권장합니다. 마지막으로 그는 완전히 연결된 네트워크 내에서 지역성이 필요하거나 필요하지 않은 애플리케이션에 대해 생각하는 방법에 대한 채팅의 질문에 답합니다.

  • 00:35:00 이 섹션에서 발표자는 심층 신경망의 두 부분인 표현 학습과 분류에 대해 설명합니다. 계층적 학습 계층을 가짐으로써 픽셀 조합이 특징 추출로 바뀌고 특징 감지가 이어집니다. 이를 통해 네트워크는 역전파와 특징 추출이라는 두 작업의 결합을 통해 복잡한 비선형 함수를 학습할 수 있습니다. 연사는 이 패러다임이 매우 강력하고 다양한 응용 분야에서 일반화할 수 있다고 언급합니다. 이 분야는 아직 초기 단계에 있으며 특히 유전체학, 생물학, 신경과학, 이미징 및 전자 건강 기록 분야에서 창의성과 탐구의 여지가 많습니다. 따라서 이러한 애플리케이션 도메인은 다양한 분야의 데이터 과학에 광범위하게 적용할 수 있는 새로운 아키텍처 개발을 주도할 수 있습니다.

  • 00:40:00 이 섹션에서 발표자는 컨볼루션 신경망의 개념과 공간 구조 활용, 로컬 계산 수행 및 전체 이미지에서 매개변수 공유에 있어 컨볼루션의 역할을 설명합니다. 이미지의 모든 단일 패치에 필터 또는 커널을 적용함으로써 컨볼루션은 이미지의 모든 패치에 얼마나 많은 기능이 있는지 알려주는 기능 맵을 계산하는 데 사용되어 기능 추출을 효과적으로 수행합니다. 발표자는 다중 필터를 사용하여 가장자리 및 위스커와 같은 여러 기능을 추출하고 각 필터의 매개변수를 공간적으로 공유하여 더 적은 매개변수에서 학습하도록 강조합니다.

  • 00:45:00 CNNs에 대한 이 섹션에서 화자는 가장자리 감지와 같은 각 특징 추출 프로세스에 대한 매개 변수를 공유하여 전체 이미지에 한 번에 적용한다고 설명합니다. 은닉층의 각 뉴런은 패치에서 입력을 받아 가중치 합을 계산하고 편향을 적용하여 비선형 함수로 활성화합니다. 컨벌루션 필터는 이미지에서 특징을 추출하고 작업별 필터를 통해 학습할 수 있는 표현을 학습하는 데 사용됩니다. 다양한 종은 태어날 때부터 하드 코딩된 컨볼루션 필터를 진화시켰으며 가장 유용한 작업에 재사용할 수 있습니다.

  • 00:50:00 이 섹션에서 강사는 이미지에서 공통 기능을 추출하고 다양한 작업에 대한 특정 기능을 식별하는 컨볼루션 신경망을 통해 필터를 학습하는 과정에 대해 이야기합니다. 특정 종에 특정한 필터와 같은 특정 필터는 하드 코딩되어 있지만 가장자리 및 얼굴 감지와 같은 다른 필터는 다양한 응용 분야에 유용합니다. 이전 컨볼루션 필터를 새 데이터에 적용하여 새 기능을 재훈련하기 전에 중간 및 상위 수준 표현을 미리 학습할 수 있는 전이 학습의 개념에 대해 설명합니다. 낮은 수준에서 높은 수준까지의 기능 계층 구조는 당면한 분류 작업에 맞게 조정됩니다. 강사는 또한 컨볼루션이 한 가지를 다른 것으로 뒤틀는 효과를 말하며, 그 후에 비선형성을 사용하여 탐지가 시작된다고 설명합니다.

  • 00:55:00 이 섹션에서 발표자는 비선형성의 개념과 특정 기능이 관찰될 때까지 침묵을 도입하여 감지를 허용하는 방법에 대해 설명합니다. 또한 특정 섹션 내에서 최대값을 찾고 표현의 크기를 줄여 일부 감지된 기능을 더 강력하게 만드는 풀링 레이어의 사용에 대해 논의합니다. 완전히 연결된 계층은 훨씬 더 복잡한 기능을 학습하고 네트워크에서 추출된 기능의 조합을 캡처하여 궁극적으로 분류를 허용합니다. 발표자는 또한 컨볼루션의 에지 케이스와 컨볼루션 전에 이미지를 0으로 패딩하여 이 문제를 해결하는 방법을 다룹니다.

  • 01:00:00 이 섹션에서 발표자는 컨볼루션 신경망에서 입력 크기를 유지하는 것의 중요성과 제로 패딩 및 확장된 컨벌루션을 포함하여 이를 달성하는 다양한 방법에 대해 논의합니다. 데이터 증대의 개념은 방향이나 모양의 변화와 같은 실제 세계의 변형에 대한 불변성을 달성하는 방법으로 도입되었습니다. 먼저 이미지를 변환함으로써 네트워크는 위치나 방향에 관계없이 물체를 인식하는 방법을 학습할 수 있습니다. 화자는 상향식으로 수백만 개의 기능을 학습하고 불변성을 달성하기 위해 이미지를 변환하는 것의 중요성을 강조합니다.

  • 01:05:00 이 섹션에서 화자는 지역성, 필터 및 기능, 활성화 기능, 풀링 및 다중 양식을 포함하여 강의의 이전 섹션에서 논의된 개념을 요약합니다. 그런 다음 그는 RGB 이미지의 입력 볼륨과 스트라이드가 2인 20개의 필터로 구성되어 10의 볼륨을 생성하는 심층 합성곱 신경망의 예를 보여줍니다. 발표자는 계산된 필터의 수가 다음을 생성한다고 강조합니다. 네트워크의 모든 계층에서 변경되는 해당 볼륨. 또한 다양한 필터 크기, 활성화 기능, 풀링 및 보폭 크기를 포함하여 딥 러닝용 Keras 엔진을 사용하여 TensorFlow에서 이러한 개념을 구현하는 방법을 시연합니다.

  • 01:10:00 이 섹션에서 발표자는 일련의 컨볼루션 필터, 서브 샘플링 및 완전히 연결된 레이어를 구성하는 데 도움이 되는 문서 인식을 위한 LeNet-5를 시작으로 컨볼루션 신경망 및 해당 응용 프로그램의 다양한 아키텍처에 대해 설명합니다. 오늘 CNN. 연사는 더 많은 수의 매개변수와 계층으로 인해 훨씬 더 많은 훈련 데이터가 필요하기 때문에 CNN 훈련이 예술이라고 설명합니다. 비대칭 데이터가 모델의 성능에 영향을 줄 수 있으므로 교육에서 정규화의 중요성도 강조됩니다. 전반적으로 발표자는 CNN이 분류 작업을 수행할 수 있는 자연스럽고 효과적인 방법을 강조합니다.

  • 01:15:00 이 섹션에서 강사는 심층 합성곱 신경망에서 학습과 관련된 몇 가지 문제에 대해 논의합니다. 문제 중 하나는 기울기가 사라지거나 폭발하는 것으로, 초기 값을 신중하게 선택하고 데이터를 정규화하여 완화할 수 있습니다. 강사는 또한 배치 크기를 선택하는 방법을 설명합니다. 여기에서 전체 데이터 세트에 대해 교육하거나 미니 배치를 사용할 수 있으며 RMS prop 및 시뮬레이션 어닐링과 같은 다양한 교육 기술에 대해 이야기합니다. 강의에서는 아키텍처 및 학습 매개변수인 하이퍼 매개변수와 전체 성능에 미치는 영향도 다룹니다. 마지막으로 강사는 하이퍼파라미터 튜닝, 그리드 검색 및 무작위 검색에 대한 두 가지 접근 방식을 소개하고 장단점에 대해 논의합니다.

  • 01:20:00 이 섹션에서 연사는 물류 및 전통적인 접근 방식에 초점을 맞추는 대신 컨볼루션 신경망 뒤에 있는 기본 원칙의 중요성을 강조합니다. 강의는 컨볼루션, 학습 표현, 감지, 비선형성 및 풀링 레이어를 포함한 CNN의 주요 기능을 다룹니다. 연사는 또한 훈련을 작은 섭동에 대해 불변하게 만들고 다양한 유형의 아키텍처를 다루는 실질적인 문제를 강조합니다. 또한 수업은 향후 세션에서 모델 훈련 기술에 대해 논의할 것입니다. 전반적으로 강의는 CNN을 여러 설정에 적용할 수 있는 매우 다재다능한 기술로 제시합니다.
 

순환 신경망 RNN, 그래프 신경망 GNN, 장단기 기억 LSTM - 강의 04(2021년 봄)



순환 신경망 RNN, 그래프 신경망 GNN, 장단기 기억 LSTM

이 비디오는 반복 신경망(RNN)과 시퀀스 학습에 중요한 시간적 컨텍스트를 인코딩하는 기능으로 시작하는 다양한 주제를 다룹니다. 연사는 은닉 마르코프 모델의 개념과 그 한계를 소개하며, 이는 긴 시퀀스를 처리하기 위한 강력한 접근 방식인 장단기 기억(LSTM) 모듈에 대한 논의로 이어집니다. 비디오는 또한 RNN을 풀거나 사용하지 않고 임시 관계를 학습하는 변환기 모듈에 대해 설명합니다. 그래프 신경망이 소개되고 고전적인 네트워크 문제를 해결하고 계산 생물학에서 잠재적인 응용 프로그램이 소개됩니다. 강연은 퇴행성 그래프 모델 및 잠재 그래프 추론에서의 적용과 같은 그래프 신경망의 연구 분야에 대한 논의로 마무리됩니다.

비디오의 두 번째 부분에서는 RNN(Recurrent Neural Networks), GNN(Graph Neural Networks) 및 LSTM(Long Short Term Memory) 모듈에 대해 설명합니다. 기존의 피드포워드 신경망이 그래프 기반 데이터를 처리할 때 어떻게 한계가 있는지 설명하지만 GNN은 광범위한 불변성을 처리하고 그래프 전체에 정보를 전파할 수 있습니다. 연사들은 또한 GCN(Graph Convolutional Networks)과 그 이점 및 문제점에 대해 논의합니다. 또한 비디오는 GNN을 보다 강력하고 유연하게 만드는 데 있어 어텐션 기능의 중요성을 설명합니다.

  • 00:00:00 이 섹션에서 강사는 순환 신경망 및 장기 단기 메모리 모듈을 포함하여 수업에서 다룰 주제를 소개합니다. 강사는 기계가 컨텍스트와 관심을 이해하고 숨겨진 마르코프 모델과 순환 신경망을 사용하여 시간적 컨텍스트를 인코딩하는 방법에 대해 설명합니다. 또한 메모리 모듈을 사용하여 그래디언트 소실을 방지하는 방법과 시퀀스를 풀지 않고 시간 관계를 학습할 수 있는 Transformer 모듈을 소개합니다. 이 강의에서는 그래프 신경망과 그래프 연결 패턴을 사용하여 교육을 안내하는 방법에 대해서도 다룹니다. 이어서 강사는 맥락을 읽고 이해하는 인간 두뇌의 능력에 대해 논의하고 맥락을 기반으로 음소 복원 및 누락된 단어 채우기의 예를 소개합니다.

  • 00:05:00 비디오의 이 섹션에서 화자는 이해의 근원인 다음에 무엇이 올지 예측함으로써 뇌가 언어와 소리를 처리하는 방법에 대해 논의합니다. 순환 신경망은 기계 학습을 시퀀스에 적용하여 입력 시퀀스를 다른 도메인에 있는 출력 시퀀스로 전환하기 위해 시간적 컨텍스트를 인코딩하는 데 사용됩니다(예: 음압 시퀀스를 일련의 단어 ID로 변환). 화자는 또한 McGurk 효과 및 지연된 청각 피드백과 같은 청각 및 시각적 컨텍스트 정보와 관련된 인지 효과의 예를 제공하고 작동 방식을 설명합니다.

  • 00:10:00 비디오의 이 섹션에서 연사는 시퀀스 예측 모델을 사용하여 세상에 대해 배우는 힘에 대해 논의합니다. 시퀀스의 다음 항을 예측함으로써 비지도 학습 프로세스를 지도 학습 프로세스로 전환할 수 있습니다. 이를 통해 주석 없이 지도 학습용으로 설계된 방법을 사용할 수 있습니다. 화자는 단일 공통 기능을 학습하고 전체 시퀀스에 적용하여 미래 이벤트를 예측할 수 있다고 설명합니다. 숨겨진 노드와 내부 역학을 통합함으로써 더 복잡한 모델을 구축할 수 있고 정보를 장기간 저장할 수 있습니다. 발표자는 숨겨진 상태 벡터에 대한 확률 분포를 추론할 수 있는 방법과 현재 숨겨진 노드에 정보를 제공하여 숨겨진 노드를 직접 또는 간접적으로 구동하는 데 입력을 사용할 수 있는 방법을 설명합니다.

  • 00:15:00 이 섹션에서는 발표자가 HMM(Hidden Markov Models)과 그 한계에 대해 설명합니다. HMM에는 두 가지 유형의 매개변수가 있습니다. 숨겨진 상태가 주어진 각 출력을 관찰할 확률을 나타내는 방출 행렬과 현재 상태가 주어진 다른 숨겨진 상태로 전환할 확률을 나타내는 전이 행렬입니다. 그러나 모든 단계에서 숨겨진 상태 중 하나만 선택할 수 있으며 n 상태에서는 log n 비트의 정보만 기억할 수 있습니다. 더 많은 이전 정보를 인코딩하려면 엄청난 수의 상태가 필요합니다. 이 제한은 정보의 명시적 인코딩을 허용하는 순환 신경망(RNN)에 의해 해결됩니다.

  • 00:20:00 이 섹션에서는 비선형 역학으로 더 복잡한 방식으로 업데이트되는 분산 숨겨진 상태를 사용하여 많은 정보를 효율적으로 저장할 수 있는 순환 신경망(RNN)의 속성에 대해 배웁니다. 선형 동적 시스템 또는 숨겨진 마르코프 모델(HMM)에서 숨겨진 상태의 사후 확률 분포는 확률적이지만 RNN의 숨겨진 상태는 결정적입니다. 본질적으로 확률적인 HMM 또는 선형 동적 시스템과 달리 RNN은 진동 또는 혼란스러운 행동과 같은 모든 종류의 동작을 가질 수 있어 예측할 수 없는 결정을 허용합니다. 피드포워드 네트워크와 RNN은 시간이 전개될 때 동일하므로 네트워크의 각 문자를 계산하는 데 사용되는 동일한 공유 가중치를 사용하여 무한 개수의 스택이 있는 피드포워드 네트워크와 동일합니다.

  • 00:25:00 이 섹션에서 발표자는 반복 신경망(RNN)에 사용할 수 있는 특정 아키텍처와 역전파를 사용하여 학습할 수 있는 방법을 설명합니다. 한 가지 방법은 숨겨진 유닛에 입력을 공급한 다음 전체 시퀀스 후에 단일 출력을 갖는 것입니다. 또 다른 방법은 모든 시간 단계에서 출력 예측을 수행하여 숨겨진 유닛 간에 정보가 흐르도록 하고 출력 변수의 예측을 가능하게 하는 것입니다. 동일한 역전파 알고리즘을 사용하여 이러한 아키텍처의 가중치를 업데이트할 수 있습니다. 발표자는 가중치가 네트워크의 여러 수준에서 공유되므로 보다 효율적인 학습이 가능하다고 강조합니다.

  • 00:30:00 이 섹션에서 발표자는 반복 신경망(RNN)에서 시간을 통한 역전파의 개념과 이전 시간 단계에서 메모리 인코딩을 허용하는 방법에 대해 설명합니다. 그들은 이전 시간 단계의 출력을 현재 숨겨진 단위로 흐르게 하거나 훈련 중에 이전 발화에 대한 올바른 출력 레이블을 현재 모델에 공급함으로써 이를 달성할 수 있다고 설명합니다. 교육 프로세스에는 모든 가중치에 대한 손실 함수의 미분을 취하고 이를 사용하여 선형 제약 조건에서 가중치를 업데이트하는 작업이 포함됩니다. 발표자는 RNN이 복잡해 보일 수 있지만 다른 신경망과 동일한 절차를 사용하여 훈련할 수 있다고 말합니다.

  • 00:35:00 이 섹션에서 연사는 기계 학습 도구를 사용한 시퀀스 모델링의 개념과 긴 시퀀스를 처리하는 방법에 대해 설명합니다. 그는 문장을 번역하거나 말을 전사하는 것과 같은 경우 입력 시퀀스를 출력 시퀀스로 전환해야 한다고 설명합니다. 다만, 별도의 타겟 시퀀스가 없을 경우 입력 시퀀스의 다음 항을 예측하여 티칭 신호를 얻을 수 있다. 이 접근 방식의 문제는 특정 단어의 영향이 시간이 지남에 따라 감소하는 매우 긴 시퀀스를 처리할 때 발생합니다. 이에 대처하기 위해 화자는 에코 상태 네트워크, 모멘텀 활용 등 다양한 방법을 설명하지만 가장 강력한 접근 방식으로 장단기 기억 모듈을 강조한다. 이 모듈은 수백 시간 단계의 값을 기억할 수 있는 메모리 셀을 설계하기 위해 곱셈 상호 작용이 있는 로지스틱 및 선형 단위를 사용합니다.

  • 00:40:00 이 섹션에서는 화자가 LSTM(장단기 기억) 신경망에서 아날로그 메모리 셀의 개념을 설명합니다. 메모리 셀은 가중치가 1인 자체 링크가 있는 선형 장치로, 모든 종류의 가중치 감소에 의해 정보가 변경되지 않고 희석되지 않은 상태로 유지되도록 합니다. 세포는 정보가 필요할 때까지 끊임없이 반복되는 에코 챔버를 유지하는 게이트에 의해 제어되며 네트워크는 정보 조각을 기억하거나 잊어버릴 때를 결정합니다. 읽기 및 유지 게이트의 활성화는 각각 정보의 검색 및 유지 관리를 허용합니다. 네트워크에는 메모리를 기억하고, 잊어버리고, 저장하고, 검색하는 기능이 제공되며 특정 정보를 기억하거나 잊어버리는 것이 도움이 되는 시기를 결정합니다. 이러한 게이트를 구현하면 순환 신경망에서 오랫동안 정보를 보존할 수 있습니다.

  • 00:45:00 이 섹션에서 화자는 필기체 읽기에 순환 신경망(RNN)을 적용하는 방법에 대해 설명합니다. 장단기 메모리 모듈이 있는 RNN이 2009년에 이 작업에 가장 적합한 시스템인 것으로 밝혀졌습니다. 일련의 작은 이미지가 네트워크 훈련을 위한 펜 좌표 대신 사용되었습니다. 연사는 시간이 지남에 따라 필기에서 문자를 추론하고 각 문자에 대한 사후 확률에 액세스하는 온라인 필기 인식 데모를 보여줍니다. 시스템의 상태가 유지되고 다른 포인트는 다른 가중치를 받습니다. 화자는 문자를 학습하는 방법과 시스템의 어떤 부분이 중요한지 설명합니다. 발표자는 또한 RNN의 숨겨진 및 출력 단위의 초기화와 초기 상태를 명시적으로 인코딩하는 대신 학습 매개변수로 처리할 수 있는 방법에 대해 논의합니다.

  • 00:50:00 이 섹션에서 비디오는 순환 신경망을 사용하지 않고 언롤링하지 않고 시간 관계를 학습하는 변환기 모듈이라는 신경망의 새로운 개발에 대해 설명합니다. 변환기 모듈은 위치 인코딩이 있는 입력을 사용하여 시간이 지남에 따라 네트워크를 풀 필요 없이 시퀀스에서 네트워크의 위치를 나타냅니다. 인코더는 어텐션 모듈이 문장에서 가장 중요한 포인트를 결정하는 동안 문장의 다음 항목을 예측하기 위해 입력에 상대적으로 출력 임베딩을 1씩 이동합니다. 이 모듈은 시간 관계를 달성하기 위해 시퀀스의 한 단어에 대한 쿼리 표현, 시퀀스의 모든 단어에 대한 키 표현 및 시퀀스에 있는 모든 단어의 값 표현을 사용합니다.

  • 00:55:00 이 섹션에서 연사는 시퀀스 변환 또는 모든 종류의 순차적 작업에 유용한 신경망 유형인 Transformer에 대해 설명합니다. 각 단어를 생성할 때마다 전체 문장의 문맥 정보를 부호화하고, 이 입출력 관계에 연속된 단어 간의 관계를 1씩 이동시켜 부호화한다. 연사는 또한 그래프 신경망을 소개하고 고전적인 네트워크 문제를 해결하는 데 사용할 수 있는 방법과 전산 생물학의 잠재적 응용 분야에 대해 설명합니다. 강연은 퇴행성 그래프 모델 및 잠재 그래프 추론에서의 적용과 같은 그래프 신경망의 연구 분야에 대한 논의로 마무리됩니다.

  • 01:00:00 이 섹션에서 발표자는 이미지와 같은 그리드 구조의 데이터에 CNN(Convolutional Neural Networks)을 사용할 때의 이점과 소셜 네트워크와 같은 그리드가 아닌 데이터에 그래프 신경망(GNN)을 사용할 때의 잠재력에 대해 이야기합니다. 뇌 연결 지도 및 화학 분자. 발표자는 또한 GNN에 존재할 수 있는 세 가지 유형의 기능인 노드 기능, 에지 기능 및 그래프 수준 기능에 대해 설명합니다. 또한 연사는 노드 수에 따라 조정되는 매개 변수의 수를 포함하여 그래프 예측을 위해 완전히 연결된 네트워크를 사용하여 많은 상황에서 비실용적인 문제를 강조합니다.

  • 01:05:00 이 섹션에서 발표자는 그래프 크기 문제 및 노드 순서에 대한 불변성 부족을 포함하여 그래프 기반 데이터에 대한 기존 피드포워드 신경망 사용의 몇 가지 제한 사항에 대해 논의합니다. 그런 다음 다양한 종류의 불변성을 처리하고 그래프 전체에 정보를 전파하여 노드 기능을 계산하고 다운스트림 예측을 수행할 수 있는 그래프 신경망(GNN)을 도입합니다. GNN의 기본 공식에는 노드의 주변 환경에서 정보를 샘플링하고 이 정보를 기반으로 노드의 표현을 업데이트하는 것이 포함됩니다. 화자는 이 프로세스가 이미지 데이터에 대한 컨볼루션 신경망(CNN)에서 사용되는 프로세스와 유사하다고 언급합니다.

  • 01:10:00 이 섹션에서 발표자는 2계층 그래프 신경망의 개념과 그래프의 다른 노드에 대해 신경망이 업데이트되는 방법에 대해 설명합니다. 그들은 그래프 신경망이 입력 공간의 서로 다른 부분 간의 고차원적 상호 작용 대신에 전반적으로 더 많은 정보를 허용하기 때문에 다른 유형의 신경망과 다르다고 설명합니다. 발표자는 그래프 컨벌루션 네트워크(GCN)와 무방향 그래프를 고려하는 방법에 대해 이야기하고 노드 이웃의 각 숨겨진 표현에 가중치 매트릭스를 적용하는 업데이트 규칙을 사용합니다. 네트워크가 폭파되는 것을 방지하기 위해 노드 업데이트에 대한 기여자 수를 서브샘플링하는 제안과 함께 그래프 신경망의 확장성도 논의됩니다.

  • 01:15:00 이 섹션에서는 화자가 그래프 데이터에 사용되는 신경망의 일종인 그래프 신경망(GNN)에 대해 설명합니다. GNN은 완전히 연결된 네트워크보다 가중치에 덜 의존하고 순열에 불변하므로 큰 그래프에서 분류할 수 있습니다. GNN은 에지 기능을 간접적으로 지원하며 한 가지 적응은 네트워크를 통해 메시지를 완전히 전달하기 위해 에지 임베딩을 사용하는 것입니다. 연사는 인용 네트워크를 예로 사용하고 GNN에서 업데이트 메커니즘이 작동하는 방식을 설명합니다.

  • 01:20:00 비디오의 이 섹션에서 연사는 그래프 신경망이 에지에서 정점으로 업데이트되는 방식과 주의 기능이 네트워크를 유연하고 강력하게 만드는 데 중요한 역할을 하는 방식을 설명합니다. GNN 에지-꼭지점 업데이트의 목표는 에지 중 하나의 상태를 가져오는 것인데, 이는 사건 노드에서 표현을 집계하고 에지 업데이트에 특정한 비선형 함수를 적용하여 달성할 수 있습니다. 마찬가지로 정점 업데이트에는 노드의 인시던트 에지 정보가 포함됩니다. 그러나 에지 기반 활성화가 거대해져서 큰 그래프를 처리하기가 어렵습니다. 주의 기능은 모든 에지 정보를 포함하지 않고 명시적인 벡터 표현을 제공하여 모델의 유연성과 성능을 유지하면서 모델의 계산 요구 사항을 줄입니다. 발표자는 주의 점수가 각 이웃이 중앙 노드의 업데이트에 얼마나 기여하고 있는지를 보여줌으로써 일부 관계를 추론하거나 속성을 기여할 수 있도록 하는 방법을 설명합니다.

  • 01:25:00 이 섹션에서는 발표자가 GCN(Graph Convolutional Networks)과 그 이점 및 문제점에 대해 논의합니다. GCN을 사용하면 그래프 전체에 여러 레이어를 적용할 수 있으며 각 업데이트의 형식은 동일합니다. 노드 분류, 그래프 분류 및 링크 예측에 유용합니다. 그러나 그래프 전체의 병렬 업데이트로 인해 여전히 최적화 문제가 있으며 불안정화를 방지하기 위해 정규화 상수를 수정해야 할 수도 있습니다. 또한 GCN은 GAT(Graph Attention Networks)와 같은 다른 방법과 비교할 때 표현성 문제로 어려움을 겪을 수 있습니다. 그럼에도 불구하고 GCN은 에지 임베딩 또는 신경 메시지 전달이 필요한 방법보다 여전히 빠릅니다.

  • 01:30:00 이 섹션에서 발표자는 그래프 또는 데이터 네트워크에 적용할 수 있는 모델 유형인 그래프 신경망(GNN)에 대해 설명합니다. GNN은 그래프에 있는 두 노드의 표현 사이에 내적을 취하고 시그모이드와 같은 비선형 함수를 적용한 다음 해당 에지가 존재할 확률을 생성하는 작업을 포함합니다. GNN은 또한 생물학에서의 유전자 상호작용과 같은 영역에서 예측 모델링을 가능하게 합니다. 연사는 Convolutional Neural Networks(CNNs), Recurrent Neural Networks(RNNs), Long Short-Term Memory 모듈 및 Transformer 모듈을 포함하여 논의된 다양한 유형의 네트워크를 요약하여 결론을 내립니다.
 

Interpretable Deep Learning - Deep Learning in Life Sciences - Lecture 05 (Spring 2021)



Interpretable Deep Learning - Deep Learning in Life Sciences - Lecture 05 (Spring 2021)

이 비디오는 딥 러닝 모델, 특히 결정이 심각한 결과를 초래할 수 있는 생명 과학 분야에서 해석 가능성의 중요성에 대해 논의합니다. 발표자는 두 가지 유형의 해석 가능성을 설명합니다. 처음부터 모델 설계에 해석 가능성을 구축하는 것과 이미 구축된 모델에 대한 사후 해석 가능성 방법을 개발하는 것입니다. 계속해서 가중치 시각화, 대리 모델 구축 및 활성화 최대화를 포함하여 모델 해석을 위한 다양한 기술을 탐색하고 모델의 내부 표현을 이해하는 것의 중요성에 대해 논의합니다. 강사는 또한 사례 기반 및 귀속 방법과 같은 개별 결정을 해석하는 여러 가지 방법을 설명합니다. 또한 연사는 복잡한 개념 해석의 어려움과 신경망 모델 해석의 한계에 대해 논의하고 딥 러닝 신경망에서 기울기의 불연속성과 관련된 가설을 탐구합니다.

강연의 두 번째 부분에서 연사는 생명 과학 분야의 딥 러닝 모델에서 불연속 기울기와 포화 함수의 문제를 다루었습니다. 그들은 더 부드러운 기울기를 얻기 위해 여러 샘플에 대한 입력의 작은 섭동을 평균화하고, 이미지 분류에서 두드러진 특징을 강조하기 위해 무작위 노이즈를 사용하고, 유전자 규제 모델을 해석하기 위해 deconvolutional 신경망 및 가이드 역전파와 같은 역전파 기술과 같은 방법을 제안했습니다. 발표자는 또한 픽셀 플리핑 절차와 점수 제거 및 교체 접근 방식을 포함하여 귀속 방법의 정량적 평가에 대해 논의했습니다. 마지막으로 그들은 딥 러닝 모델에서 해석 가능성의 필요성과 이를 달성하기 위한 다양한 기술을 강조했습니다.

  • 00:00:00 이 섹션에서 발표자는 딥 러닝에서 해석 가능성의 중요성과 이를 달성하기 위한 다양한 방법에 대해 논의합니다. 그들은 딥 러닝 모델이 인간을 능가할 수 있지만 어떻게 결정을 내리고 이러한 결정을 신뢰할 수 있는지 이해하는 것이 중요하다고 설명합니다. 해석 가능성은 디버깅, 검색, 결정에 대한 설명 제공에 도움이 될 수 있습니다. 발표자는 계속해서 해석을 위한 매파 방지 및 사후 분석 방법과 해석 모델 대 결정에 대해 논의합니다. 그런 다음 가중치 시각화, 대리 모델 구축, 활성화 최대화 및 예제 기반 모델과 같은 모델 해석을 위한 특정 방법을 탐구합니다. 마지막으로 발표자는 귀인 방법에 대해 논의하고 정성적 및 정량적 측정을 통해 이러한 방법의 효과를 평가합니다.

  • 00:05:00 이 섹션에서는 기계 학습, 특히 잘못된 결정으로 인해 비용이 많이 드는 생명 과학 분야에서 해석 가능성의 중요성을 강조합니다. 작동 방식과 이유를 이해하지 않고 거대한 모델을 구축하는 기존의 접근 방식으로는 더 이상 충분하지 않으며 대신 블랙 박스 모델에서 해석 가능한 정보를 추출해야 합니다. 해석 가능한 기계 학습은 일반화 오류뿐만 아니라 인간의 경험에도 최적화된 검증된 예측을 제공합니다. 의사를 더 잘 훈련시키고 인간의 뇌 기능에 대한 통찰력을 얻으려면 질병의 물리적, 생물학적 및 화학적 메커니즘을 이해하는 것이 중요합니다. 또한 설명에 대한 권리는 수세기에 걸친 차별로 인해 교육 데이터 세트에 내재되어 있을 수 있는 편견과 싸우는 데 중요합니다.

  • 00:10:00 비디오의 이 섹션에서 연사는 딥 러닝의 두 가지 유형의 해석 가능성, 즉 모델 설계에 해석 가능성 구축 및 복잡한 모델이 구축된 후 해석을 위한 특수 기술을 개발하여 사후 해석 가능성 구축에 대해 논의합니다. . 딥 러닝에는 수백만 개의 매개변수가 있어 처음부터 해석 가능한 모델을 구축하는 것이 불가능하다고 설명합니다. 따라서 지역성의 정도에 따라 사후 해석 가능성을 위한 기술을 개발하는 데 중점을 둡니다. 연사는 또한 모델 및 결정 수준 모두에서 해석 가능한 신경망을 구축하는 방법에 대해 논의합니다.

  • 00:15:00 이 섹션에서 발표자는 딥 러닝을 위한 해석 가능한 모델의 두 가지 유형인 모델 자체를 해석하는 모델과 결정을 해석하는 모델에 대해 설명합니다. 결정은 속성 방법 또는 예제 기반 방법을 기반으로 할 수 있습니다. 발표자는 또한 표현 자체를 분석하고 모델에서 데이터를 생성하는 것에 대해 이야기합니다. 그들은 가중치 시각화, 대리 모델 구축 및 활성화 단위를 최대화하는 입력 이해를 포함하여 표현을 분석하는 네 가지 유형의 접근 방식을 소개합니다. 마지막으로 연사는 모델의 내부 표현, 특히 딥 러닝 모델이 추론을 수행하는 방법에 대한 통찰력을 제공할 수 있는 모델의 왼쪽 절반에서 추출된 계층적 특징을 이해하는 것의 중요성을 강조합니다.

  • 00:20:00 이 섹션에서 강사는 신경망의 내부 작동을 살펴봄으로써 딥 러닝을 해석하는 아이디어에 대해 논의합니다. 그는 과학자들이 고양이와 원숭이의 시각 피질을 연구하여 개별 뉴런이 서로 다른 방향에서 어떻게 작동하는지 이해한 것처럼 신경망에서 뉴런이 작동하는 것을 보고 네트워크가 인식하도록 학습한 기본 요소나 기능을 이해할 수 있다고 설명합니다. 그러나 수백만 개의 매개변수와 수천 개의 내부 노드가 있으므로 이들을 모두 시각화하는 것은 불가능합니다. 따라서 강사는 더 간단하고 해석하기 쉬운 대리 모델 또는 근사 모델에 대한 아이디어를 소개합니다. 강의는 또한 특정 뉴런의 활성화를 최대화하는 데이터를 생성하는 것이 목표인 활성화 최대화를 다룹니다.

  • 00:25:00 이 섹션에서 발표자는 주어진 입력에 대한 클래스 사후 확률을 최대화하는 동시에 정규화 용어를 사용하여 출력을 사람이 해석할 수 있도록 하는 최적화 문제에 대해 논의합니다. 클래스 확률을 기반으로 단순히 최대화하면 의미가 없는 이미지가 생성될 수 있으므로 출력을 해석 가능하도록 제한하려면 추가 정규화 항이 필요하다고 설명합니다. 또한 노이즈 벡터를 매개변수화하고 해석 품질을 향상시키는 데 도움이 되는 잠재 변수 및 매개변수의 개념을 다룹니다. 목표는 훈련 데이터와 더 밀접하게 일치하는 데이터를 생성하여 출력이 클래스 관련 패턴과 유사하고 사람이 더 쉽게 해석할 수 있도록 하는 것입니다.

  • 00:30:00 목표는 특정 기능을 최대화하거나 최소화한 다음 해당 인스턴스를 사용하여 모델이 어떻게 결정을 내리는지 이해하는 것입니다. 이는 가능한 입력 공간 내에서 활성화 최대화를 통해 수행할 수 있으며 입력은 인간과 같은 데이터 분포에서 나오도록 제한됩니다. 또는 생성 모델을 사용하여 해당 분포의 확률 밀도 함수에서 샘플링할 수 있습니다. 프리젠테이션이 코드 공간 내에 있도록 강제함으로써 결과 이미지는 더 해석 가능하고 더 해석 가능한 모델을 구축하는 데 사용될 수 있습니다. 해석 가능한 모델을 구축하기 위한 다른 기술로는 가중치 시각화, 출력에 가까운 대리 모델 구축, 특정 기능을 최대화하거나 최소화하는 인스턴스를 사용하여 모델의 의사 결정 프로세스를 이해하는 예제 기반 해석이 있습니다.

  • 00:35:00 이 섹션에서 발표자는 특히 실제 적용 측면에서 모델이 내린 결정을 해석하는 네 가지 다른 방법에 대해 논의합니다. 첫 번째 방법은 예제 기반으로 잘못 분류되고 특정 입력에 가까운 예제를 선택하여 모델에 개선 방법을 가르칩니다. 두 번째 방법은 능동적 속성으로 특정 그래디언트에 노이즈가 있는 이유를 살펴보는 것입니다. 세 번째 방법은 매끄러운 그래디언트 또는 내부 그래디언트를 사용하는 그래디언트 기반 속성이고, 마지막 방법은 컨볼루션 및 가이드 블랙 전파를 사용하는 백프롭 기반 속성입니다. 특히 분류를 해석하기 위한 최상의 이미지를 결정할 때 모델 수준 해석의 한계도 언급됩니다.

  • 00:40:00 이 섹션에서 발표자는 프로토타입 또는 오토바이나 해바라기와 같은 복잡한 개념을 나타내는 전형적인 이미지를 찾는 측면에서 딥 러닝 모델을 해석하는 문제에 대해 논의합니다. 예제 기반 방법은 해당 이미지의 중요한 기능을 특별히 강조하지 않고 어떤 교육 인스턴스가 결정에 가장 큰 영향을 미치는지 식별하는 방법으로 도입되었습니다. 이 방법은 픽셀 근접성이 아닌 특정 이미지의 분류에 미치는 영향을 기반으로 가장 가까운 트레이닝 이미지를 결정하는 것을 목표로 합니다. 연사는 또한 신경망 모델 해석의 취약성과 기본 학습 프로세스를 이해하는 데 영향 기능을 사용하는 방법에 대해 이야기합니다.

  • 00:45:00 이 섹션에서 연사는 딥 러닝 모델을 해석하는 두 가지 방법을 소개합니다. 첫 번째는 예 기반 해석으로, 신경망의 의사 결정 프로세스를 이해하기 위해 훈련 세트의 개별 예를 살펴봅니다. 두 번째는 속성 값을 이미지의 각 픽셀에 할당하여 분류 결정에 기여하는 정도를 결정하는 속성 방법입니다. 두 방법의 목표는 기계 학습을 사람이 해석하고 이해할 수 있게 만들고 이미지에서 가장 두드러지는 기능을 식별하는 것입니다. 속성 값을 히트 맵으로 시각화함으로써 연구원은 심층 신경망이 어떻게 결정을 내리는지, 이미지의 어떤 픽셀이 해당 결정에 가장 큰 영향을 미치는지 더 잘 이해할 수 있습니다.

  • 00:50:00 이 섹션에서 발표자는 교육 중 역전파와 동일한 방법론을 사용하여 이미지의 돌출성을 계산하는 방법을 설명합니다. 가중치에 상대적인 도함수를 보는 대신 픽셀에 대한 도함수를 봅니다. 그런 다음 돌출 맵은 이러한 픽셀을 이미지에 시각적으로 표시하여 계산됩니다. 그러나 이러한 돌출 맵은 잡음이 많고 정확하지 않은 경향이 있습니다. 발표자는 이것이 왜 그런지 설명하기 위해 두 가지 가설을 자세히 설명합니다. 분산된 픽셀이 신경망 의사 결정 프로세스에 중요하거나 기울기가 불연속적일 수 있다는 것입니다. 그런 다음 연사는 이러한 가설이 시끄러운 돌출 맵을 해결하기 위한 방법 개발을 어떻게 안내했는지 설명합니다.

  • 00:55:00 강의의 이 섹션에서 연사는 딥 러닝 신경망에서 기울기의 불연속성과 관련된 세 가지 가설에 대해 논의합니다. 첫 번째 가설은 학습되는 함수가 매끄럽지 않고 더 많은 레이어가 추가될수록 발사가 극도로 불연속적으로 되어 오분류가 발생한다는 것입니다. 두 번째는 레이어의 수와 비도함수 함수로 인해 그래디언트가 불연속적이어서 노이즈가 발생하고 분류 함수에 속임수가 허용된다는 것입니다. 세 번째 가설은 함수가 포화되어 더 매끄러운 학습 능력을 방해한다고 제안합니다. 입력과 관련하여 이러한 편도함수를 개선하기 위해 논의된 한 가지 가능성은 노이즈를 추가하여 입력을 교란시키고 교란된 입력에 기울기를 사용하거나 여러 교란에 대한 평균을 취하여 잡음이 있는 기울기를 평활화하는 것입니다.

  • 01:00:00 이 섹션에서 발표자는 불연속 기울기 또는 포화 함수로 인해 발생하는 딥 러닝 문제에 대한 솔루션에 대해 논의했습니다. 여기에는 그래디언트 또는 역전파를 변경하고 노이즈가 추가된 여러 이미지를 사용하는 방법이 포함되었습니다. 발표자는 또한 유전자 조절 모델을 해석하기 위한 계층별 관련성 전파 및 딥 리프트와 같은 다양한 속성 방법에 대해 논의했습니다. 그래디언트의 불연속성을 해결하기 위해 그들은 많은 샘플에 대한 입력의 작은 섭동을 평균화하여 부드러운 그래디언트 함수를 정의하여 그래디언트 함수가 깊은 네트워크가 아닌 얕은 네트워크처럼 작동하도록 효과적으로 평활화할 것을 제안했습니다. 또한 발표자는 이미지에 임의의 노이즈를 추가하면 모델의 견고성을 입증하고 이미지 분류에서 반복적으로 사용되는 두드러진 기능을 강조하는 데 어떻게 도움이 될 수 있는지 설명했습니다.

  • 01:05:00 이 섹션에서 강사는 생명 과학 분야에서 딥 러닝 모델을 해석하기 위한 세 가지 가설에 대해 논의합니다. 두 번째 가설은 그래디언트가 특정 이미지 하나와 불연속적이지만 해당 이미지를 둘러싼 여러 이미지 샘플을 취하면 더 부드러운 그래디언트를 얻을 수 있다는 것입니다. 세 번째 가설은 함수가 포화되어 극도의 활성화로 이어진다는 것을 시사합니다. 이를 해결하기 위해 강사는 이미지를 축소하여 배포 가능한 기능에 더 가깝게 만들 것을 제안합니다. 이것은 이미지의 픽셀 크기를 재조정하는 데 사용되는 내부 그래디언트를 통해 수행됩니다. 정류된 선형 단위에서 값이 0이 되는 문제로 인한 디콘볼루션 신경망 및 유도 역전파와 같은 배경 기반 방법도 탐구합니다.

  • 01:10:00 이 섹션에서 연사는 딥 러닝에서 역전파의 문제와 역합성곱 신경망을 사용하여 문제를 해결할 수 있는 방법에 대해 논의합니다. 기능 패턴을 입력 공간에 매핑하고 이미지를 재구성함으로써 디콘볼루션 신경망은 유효한 기능 재구성을 얻을 수 있고 음의 기울기를 제거하여 노이즈를 제거할 수 있습니다. 발표자는 또한 원본 이미지를 나타내는 이미지를 생성하기 위해 순방향 및 역방향 패스의 정보를 결합하는 데 가이드 역전파가 어떻게 사용될 수 있는지 설명합니다. 또한 연사는 일관성 및 클래스 민감도를 기반으로 하는 정성적 및 정량적 접근을 포함하여 이러한 속성 방법을 평가하는 방법에 대해 논의합니다. 마지막으로 발표자는 딥 리프트, 돌출 맵, 부드러운 그래드와 같은 다양한 속성 방법과 특정 분류를 담당하는 특정 픽셀을 캡처하는 효과를 탐색합니다.

  • 01:15:00 이 섹션에서 연사는 딥 러닝에서 기여 방법의 정량적 평가에 대해 논의합니다. 목표는 이러한 방법이 의도한 관심 개체를 적절하게 캡처하고 다른 개체 클래스를 구별하는지 여부를 평가하는 것입니다. 발표자는 기여도 값이 높은 개별 특징을 제거하기 위한 픽셀 플리핑 절차를 소개하고 분류 기능을 평가하여 방법의 민감도를 측정합니다. 돌출 속성 및 분류 속성의 정확도는 곡선을 사용하여 측정할 수 있으며 화자는 더 나은 정확도를 달성하기 위해 제거하고 재훈련할 것을 제안합니다. 전반적으로 이 섹션에서는 딥 러닝 속성 방법의 효과를 평가하는 정량적 방법에 대해 설명합니다.

  • 01:20:00 이 섹션에서 발표자는 귀속 방법을 기반으로 특정 기능을 제거하여 분류기의 성능을 측정할 수 있는 방법을 설명합니다. "점수 제거 및 교체" 접근 방식에는 가장 중요하거나 가장 중요하지 않은 픽셀의 특정 비율을 교체하고 심층 신경망을 재훈련하여 정확도의 변화를 측정하는 작업이 포함됩니다. 이것은 해석 결정의 정확성을 평가하기 위한 정량적 메트릭을 제공합니다. 연사는 또한 사후 방법의 문제뿐만 아니라 속성 방법 및 활성화 최대화를 사용하여 딥 러닝 모델을 해석하기 위한 해석 가능성 및 다양한 기술의 중요성을 요약합니다.

  • 01:25:00 이 섹션에서 강사는 딥 러닝 모델을 제한하는 방법과 역전파, 디콘볼루션 및 유도 역전파를 사용하여 발견된 가장 중요한 기능에 대해 논의합니다. 일관성, 클래스 민감도, 기여도가 높은 기능을 제거하기 위한 정량적 메트릭을 포함하여 이러한 분할 방법에 점수를 매기는 다양한 방법도 강조되었습니다. 그런 다음 강사는 개별 픽셀을 제거하고 재훈련하고 정확도 저하를 측정할 수 있는 제거 및 재훈련 방법을 소개했습니다. 강의는 다뤘던 주제에 대한 리뷰를 끝으로 마무리되었으며 앞으로 진행될 강의가 공지되었습니다.
 

Generative Models, Adversarial Networks GANs, Variational Autoencoders VAEs, Representation Learning - Lecture 06 (Spring 2021)



Generative Models, Adversarial Networks GANs, Variational Autoencoders VAEs, Representation Learning - Lecture 06 (Spring 2021)

이 비디오는 기계 학습에서 표현 학습의 개념에 대해 설명하고 분류 작업에서의 중요성과 새로운 아키텍처 개발의 혁신 가능성을 강조합니다. Autoencoder 및 Variational Autoencoder(VAE)와 같은 기술을 통해 레이블이 지정된 데이터 없이 표현을 학습하는 방법으로 Self-supervised 및 pretext 작업이 도입되었습니다. 발표자는 잠재 공간 표현을 조작하여 새로운 데이터를 생성할 수 있는 VAE 및 GAN(Generative Adversarial Networks)과 같은 생성 모델에 대해서도 논의합니다. 각 방법의 장단점을 논의하여 그 효과와 한계를 강조합니다. 전반적으로 이 비디오는 기계 학습의 표현 학습 및 생성 모델에 대한 다양한 접근 방식에 대한 포괄적인 개요를 제공합니다.

이 동영상에서는 GAN(Generative Adversarial Networks), VAE(Variational Autoencoders) 및 생성 모델의 표현 학습의 개념을 살펴봅니다. GAN은 서로 반대되는 목표를 가진 생성자와 판별자를 포함하며 가짜 샘플의 경우 훈련 프로세스가 느리지만 해상도와 목적 함수의 개선으로 사실적인 이미지를 얻을 수 있습니다. 연사는 GAN이 어떻게 건축학적으로 그럴듯한 방을 생성하고 한 방을 다른 방으로 옮길 수 있는지 보여줍니다. VAE는 밀도 함수를 명시적으로 모델링하고 의미 있는 잠재 공간 매개변수를 통해 실제 이미지의 다양성을 캡처합니다. 연사는 개방형 아키텍처와 모델로 창의성과 실험을 장려하며, 다양한 영역에서 생성 모델과 표현 학습을 적용하는 것은 무한한 가능성을 지닌 빠르게 성장하는 분야입니다.

  • 00:00:00 이 섹션에서 연사는 기계 학습에서 표현 학습의 개념과 세상을 배우기 위해 CNN(컨볼루션 신경망)에서 어떻게 사용되었는지에 대해 논의합니다. 그들은 딥 러닝의 진정한 발전이 특징 추출을 통해 세계에 대한 비선형성과 표현을 학습하는 CNN의 능력에서 왔다고 강조합니다. 화자는 분류 작업이 특징 추출을 주도하고 있으며 이것이 세계의 모든 지식 표현이 나오는 곳이라고 주장합니다. 또한 기존 아키텍처를 뛰어넘는 다양한 영역에서 표현 학습을 위한 새로운 아키텍처를 개발하는 데 혁신의 가능성이 있음을 시사합니다. 마지막으로 생성 모델의 가장 흥미로운 부분은 레이블이 아닌 잠재 공간 표현이며 이러한 모델은 레이블에 의존하지 않고 세계 모델을 학습하는 데 사용할 수 있다고 주장합니다.

  • 00:05:00 이 섹션에서 화자는 표현 학습과 이러한 목적을 위한 자기 지도 학습의 사용에 대해 논의합니다. 자기 지도 학습은 데이터의 일부를 사용하여 데이터의 다른 부분을 교육하고 데이터를 속여 자체 감독자가 되도록 하는 것입니다. 이를 통해 세계관을 생성하는 데 사용할 수 있는 멋진 표현을 학습할 수 있습니다. 생성 모델은 모델을 거꾸로 실행하고 세계의 압축된 표현에서 더 많은 사례로 이동하는 방식으로 작동합니다. 표현 학습에 대한 또 다른 접근 방식은 사전 텍스트 작업으로, 당면한 작업은 표현을 배우기 위한 구실일 뿐입니다. 주어진 예는 자동 인코더의 모든 것인 self를 예측하는 것입니다. 압축된 표상을 거쳐 클램프를 통해 이미지 자체로 재확장된다는 개념은 세계 저변에 깔린 표상을 학습할 수 있을 만큼 의미가 있다. Variational auto-encoder는 분산과 분포를 명시적으로 모델링합니다.

  • 00:10:00 이 섹션에서 발표자는 네트워크의 표현을 학습하기 위해 네트워크를 통해 입력 신호를 처리하고 입력 신호를 사용하여 수행할 수 없는 작업인 훈련 신호를 생성하는 프리텍스트 작업의 개념에 대해 설명합니다. 별로 신경쓰지 마. Pretext 작업의 예로는 전후 이미지 예측, 패치 제거 후 이미지의 나머지 픽셀 예측, 흑백 이미지 색상 지정 등이 있습니다. 프리텍스트 작업의 목표는 효과적인 지도 학습 작업으로 이어지는 세계의 표현을 배우도록 스스로를 강요하는 것입니다. 이 개념을 이해하는 것의 중요성은 Autoencoder, Variational Autoencoder 및 Generative Adversarial Network와 같은 후속 논의 주제로 이어지기 때문에 매우 중요합니다.

  • 00:15:00 이 섹션에서는 레이블이 지정된 데이터 없이도 학습이 가능한 pretext 작업을 구성하여 좋은 표현을 학습하는 방법으로 자기 지도 학습의 개념을 소개합니다. Pretext 작업에는 이미지 구조 추론, 이미지 변환 또는 여러 이미지 사용 등이 포함됩니다. 구실 작업의 한 예는 이미지 패치의 상대적인 방향을 추론하는 반면 다른 예는 원본 이미지를 재구성해야 하는 직소 퍼즐 작업입니다. 각 자체 감독 방법의 장단점에 대해 논의하여 그 효과를 강조하지만 훈련 이미지 또는 제한된 외부 공간에서 사진의 표준 방향을 가정하는 것과 같은 제한 사항도 설명합니다.

  • 00:20:00 이 섹션에서 화자는 프리텍스트 작업의 개념을 설명하고 동일한 종류의 프리텍스트 작업 개념을 구축하고 이를 다른 예에 적용하여 겉보기에 복잡해 보이는 작업을 실제로 세상에 대해 흥미로운 것을 배웁니다. 예 중 하나는 비지도 학습 작업을 지도 학습 작업으로 교육하는 레이블이 지정되지 않은 데이터에서 저차원 기능 표현을 학습하기 위해 인코더 및 디코더 표현을 생성하는 것을 포함합니다. 목표는 데이터 변형의 의미 있는 표현을 강제하고 기능을 사용하여 인코딩된 원본 이미지의 디코딩된 버전을 구성하는 것입니다. 손실 함수는 원본과 예측 간의 차이입니다.

  • 00:25:00 이 섹션에서 발표자는 자동 인코더를 사용하여 세계의 표현을 구축하고 생성기 기능을 통해 이미지를 생성하는 방법을 설명합니다. 오토인코더의 z 벡터는 추가 이미지를 생성하는 데 사용할 수 있는 세계의 다른 기능의 상대적인 기능 및 존재에 대한 의미 있는 정보를 제공할 수 있습니다. 인코더와 디코더는 디코더를 생성 모델로 사용하고 인코더를 표현 학습을 위한 특징 공간 벡터로 사용하는 것과 같이 서로 다른 작업에 대해 별도로 사용할 수 있습니다. 그런 다음 발표자는 모델에서 샘플링하여 추가 데이터를 생성할 수 있는 자동 인코더의 확률론적 스핀인 VAE(변형 자동 인코더)의 개념을 소개합니다. VAE는 스칼라 세트의 다차원 표현 및 모든 스칼라에 대한 관련 분산에서 학습합니다. 잠재 공간 벡터의 실제 사전에서 샘플링하여 이미지의 다양한 속성을 기반으로 이미지를 생성할 수 있습니다.

  • 00:30:00 이 섹션에서 발표자는 생성 모델과 자동 인코더에서 다양한 벡터를 조정하여 세계를 캡처하는 목표에 대해 논의합니다. 이러한 벡터는 매개 변수를 변경하여 다양한 이미지를 샘플링할 수 있도록 하여 세상을 의미 있게 표현하게 됩니다. 생성 모델을 훈련시키는 전략은 모델 매개변수를 학습하여 훈련 데이터의 우도를 최대화하는 것입니다. 그런 다음 연사는 데이터의 평균과 분산을 명시적으로 모델링하여 확률적으로 모델을 생성하는 변형 자동 인코더를 소개합니다. 인코더가 단일 z와 z의 분산을 모두 제공하도록 함으로써 스피커는 두 정규 분포에서 샘플링하고 보트와 같은 물체의 다양한 변형을 인식할 수 있습니다.

  • 00:35:00 이 섹션에서는 화자가 VAE(변형 자동 인코더)의 개념과 작동 방식을 설명합니다. VAE는 입력 데이터를 잠재 공간에 매핑하는 인코더 네트워크, 잠재 공간에서 출력 데이터를 생성하는 디코더 네트워크, 인코더 네트워크에서 학습한 표현에서 이미지를 생성하는 생성 네트워크로 구성됩니다. 화자는 VAE 손실 함수가 디코더 네트워크를 사용하여 입력 데이터의 재구성 및 이미지의 사전 분포 근사치를 최대화하는 변형 하한값이라고 설명합니다. 화자는 또한 KL 발산 항이 다루기 어렵지만 경사 하강법을 통한 최적화를 위한 하한선으로 취급될 수 있다고 언급합니다.

  • 00:40:00 이 섹션에서 발표자는 VAE(Variational Autoencoder)와 같은 생성 모델을 사용하여 의미 있는 기능으로 세계를 표현하는 방법을 설명합니다. 2차원만을 사용하여 이미지를 인코딩함으로써 VAE는 가능한 모든 문자의 공간을 캡처하고 2차원 좌표만을 사용하여 표현할 수 있는 모든 종류의 문자를 생성할 수 있습니다. z에 대한 사전을 대각화함으로써 네트워크는 독립적인 잠재 변수를 학습하고 z의 다른 차원은 좋은 특징 표현에서 해석 가능한 변형 요인을 인코딩합니다. 이 인코더 네트워크를 사용하면 z의 사전 분포를 통해 데이터를 생성하고 잠재 공간을 디코딩할 수 있으므로 VAE가 표현 학습에 유용한 도구가 됩니다.

  • 00:45:00 이 섹션에서 비디오는 다른 작업에 유용한 표현이 될 수 있는 x가 주어진 잠재 공간의 추론을 허용하는 생성 모델에 대한 원칙적 접근 방식으로 VAE(Variational Autoencoder)의 사용에 대해 설명합니다. 그러나 VAE에는 가능성의 하한을 최대화하는 것과 같은 몇 가지 단점이 있으며 이는 가능성을 명시적으로 평가하는 것만큼 좋지 않습니다. VAE에서 생성된 샘플은 GAN(Generative Adversarial Networks)에서 생성된 샘플에 비해 더 흐릿하고 품질이 낮습니다. 보다 풍부한 사후 분포를 위해 보다 유연한 근사를 사용하고 잠재 변수에 구조를 통합하는 것과 같이 VAE의 샘플 품질을 개선하는 연구가 진행 중입니다. 비디오는 또한 생성, 비지도 학습 및 잠재 공간 매개변수에 대한 이전 섹션의 주요 내용을 요약합니다.

  • 00:50:00 이 섹션에서는 생성적 적대 신경망(GAN)의 개념에 대해 설명합니다. GAN은 랜덤 노이즈와 같은 단순 분포에서 샘플링하고 트레이닝 세트에서 이미지를 생성하는 변환을 학습하여 복잡한 고차원 이미지를 생성하도록 설계되었습니다. 이 시스템은 가짜 이미지를 생성하는 생성자 네트워크와 실제 이미지와 가짜 이미지를 구별하는 판별 네트워크로 구성됩니다. 목표는 프로세스에서 적이 되는 판별자를 속여 보다 사실적인 이미지를 생성하도록 생성기를 훈련시키는 것입니다. 이 시스템은 자체 감독되므로 수동 라벨링이 필요하지 않으며 인간 평가자의 필요성을 대체합니다.

  • 00:55:00 이 섹션에서 연사는 미니맥스 게임 접근 방식을 사용하여 생성기 및 판별기 네트워크를 훈련시키는 GAN(Generative Adversarial Networks)의 개념을 설명합니다. Discriminator는 생성된 이미지가 진짜인지 가짜인지 판단하도록 훈련되고 Generator는 Discriminator가 진짜라고 믿도록 속일 수 있는 이미지를 생성하도록 훈련됩니다. 이 결합 우도 함수를 통해 두 네트워크의 가중치와 매개변수는 판별자가 실제 이미지에 대해 1점, 가짜 이미지에 대해 0점을 출력하도록 하는 목적으로 동시에 훈련됩니다. 반면 생성기는 실제 이미지와 구별할 수 없는 이미지를 생성하여 점수를 최소화하는 것을 목표로 합니다.

  • 01:00:00 이 섹션에서는 GAN(Generative Adversarial Networks)의 개념에 대해 설명합니다. 여기서 생성자와 판별자는 게임과 같은 시나리오에서 반대되는 목표를 갖습니다. 생성기는 실제 데이터를 올바르게 분류하는 방법을 학습한 판별자를 속일 가짜 데이터를 생성하려고 시도합니다. 그러나 샘플이 가짜이면 훈련이 느려지므로 판별자가 가짜 데이터에 대해 틀릴 가능성을 최대화하기 위해 생성기의 목적이 변경되는 트릭이 사용됩니다. 두 네트워크를 함께 훈련시키는 것은 어려울 수 있지만 이미지의 해상도를 점진적으로 높이면 안정성이 향상될 수 있습니다. GAN 훈련 알고리즘은 확률적 기울기를 상승시켜 판별자를 업데이트하는 것과 개선된 목적 함수를 사용하여 생성자를 업데이트하는 것 사이를 번갈아 가며 수행합니다.

  • 01:05:00 이 섹션에서는 동영상에서 GAN(Generative Adversarial Networks)의 개념과 사실적인 이미지를 만들기 위한 생성기 네트워크 구축과 관련된 교육 프로세스에 대해 설명합니다. 영상은 생성된 이미지와 실제 이미지를 구별하기 위해 Discriminator 네트워크를 훈련하는 방법과 생성된 이미지의 품질을 인간의 성능을 능가할 정도로 향상시키기 위해 Generator 네트워크를 훈련하는 방법을 설명합니다. 이 비디오는 부분적으로 줄무늬가 있는 컨볼루션을 사용하여 깊은 컨볼루션 아키텍처를 구축하고 ReLU 및 Leaky ReLU 활성화 기능을 사용하여 사실적인 이미지를 얻는 방법을 설명합니다. 이 비디오는 GAN을 사용하여 건축학적으로 그럴듯한 방을 생성할 수 있는 잠재력을 보여주고 잠재 공간 좌표 사이를 보간하여 한 방을 다른 방으로 옮기는 방법을 보여줍니다.

  • 01:10:00 이 섹션에서 연사는 GAN, VAE(Variational Autoencoders) 및 표현 학습과 같은 생성 모델에 대해 설명합니다. 이러한 모델의 목표는 실제 세계의 기본 패턴과 스타일을 학습하여 다양하고 사실적인 샘플을 생성하는 것입니다. 발표자는 이러한 모델이 업스케일링, 도메인 지식 전송 및 텍스처 합성과 같은 다양한 이미지 조작 작업을 수행할 수 있는 방법의 예를 제시합니다. 연사는 또한 고해상도 이미지를 생성할 수 있는 프로그레시브 GAN, 많은 수의 매개변수 공간을 사용하여 다른 이미지 구성 요소의 분해.

  • 01:15:00 이 섹션에서 화자는 명시적 또는 암시적 밀도 함수 모델링을 포함할 수 있는 생성 모델의 분류를 설명합니다. GAN(Generative Adversarial Networks) 모델 밀도는 커플링 생성기 및 판별 네트워크를 통해 암시적으로 기능하는 반면 VAE(Variational Autoencoders) 모델 밀도는 명시적으로 기능합니다. 딥 러닝의 힘은 표현 학습에 있으며, 연사는 젊은 분야의 많은 개방형 아키텍처와 모델로 창의성과 실험을 장려합니다. 자신을 예측하거나 누락된 패치를 채우는 것과 같은 구실 작업을 사용하면 세계의 의미 있는 잠재 표현을 학습하고 잠재 공간 매개변수의 실제 분포에서 샘플링할 수 있는 진정한 생성 모델로 이동하는 데 도움이 될 수 있습니다.

  • 01:20:00 이 섹션에서 발표자는 변형 자동 인코더(VAE)에서 의미 있는 잠재 공간 매개변수를 통해 실제 이미지의 다양성을 캡처하는 개념에 대해 논의합니다. 잠재 공간 매개변수를 직교하고 서로 구별되도록 제한함으로써 결과 이미지가 실제 사람과 구별되지 않을 수 있습니다. 또한 발표자는 생성 모델 및 표현 학습의 적용이 다양한 영역에서 무한한 가능성을 지닌 빠르게 성장하는 분야라고 언급합니다.
 

Regulatory Genomics - Deep Learning in Life Sciences - 강의 07 (2021년 봄)



Regulatory Genomics - Deep Learning in Life Sciences - 강의 07 (2021년 봄)

강의는 유전자 조절의 생물학적 기초, 조절 유전체학의 고전적 방법, 컨볼루션 신경망을 사용한 모티프 발견, 시퀀스가 유전자 조절 특성을 인코딩하는 방법을 이해하기 위한 기계 학습 모델의 사용을 포함하여 조절 유전체학 분야를 다룹니다. 발표자는 유전자 조절에서 조절 모티프의 중요성과 이러한 모티프의 파괴가 어떻게 질병으로 이어질 수 있는지 설명합니다. 그들은 시퀀싱 읽기를 게놈에 매핑하고 두 가닥의 각 염기쌍에 몇 개의 5프라임 말단이 있는지 세는 컨볼루션 신경망을 사용하여 새로운 모델을 도입했습니다. 이 모델은 서로 다른 단백질의 다중 판독에 사용할 수 있으며 멀티태스킹 모델을 사용하여 개별적으로 또는 동시에 장착할 수 있습니다. 연사는 또한 모델이 구문이 TF 협동성에 미치는 영향에 대한 생물학적 이야기를 밝히는 해석 프레임워크를 사용하여 게놈 데이터를 포함한 모든 종류의 분석을 분석할 수 있는 방법을 보여줍니다. 이 모델은 고해상도 CRISPR 실험을 통해 검증된 예측을 할 수 있습니다.

이 비디오는 딥 러닝이 신호 피크를 향상시키고 노이즈를 제거하여 낮은 커버리지 ATAC-seq 데이터의 품질을 어떻게 개선할 수 있는지 설명합니다. AttackWorks는 커버리지 데이터를 가져오고 잔여 신경망 아키텍처를 사용하여 신호 정확도를 개선하고 액세스 가능한 염색질 사이트를 식별하는 딥 러닝 모델입니다. 연사는 AttackWorks를 사용하여 낮은 품질의 데이터를 처리하고 단일 세포 염색질 접근성 연구의 해상도를 높이는 방법을 보여줍니다. 그들은 또한 계통 프라이밍과 관련된 특정 조절 요소를 식별하기 위해 ATAC-seq를 사용한 조혈 줄기 세포에 대한 특정 실험을 설명합니다. 연사는 학생들에게 인턴십이나 공동 작업을 요청하도록 권유합니다.

  • 00:00:00 이 섹션에서는 강사가 규제 유전체학 분야를 소개하고 초청 연사를 초청하여 영향력 있는 논문에 대해 토론하고 학생들에게 협업 및 인턴십 기회를 제공합니다. 이 강의는 유전자 조절에 관한 모듈 2의 시작이며 유전자 조절의 생물학적 기초, 조절 유전체학의 고전적 방법 및 컨볼루션 신경망을 사용한 모티프 발견을 다룹니다. 이 강의는 유전 코드의 복잡성을 강조하여 머리부터 발끝까지 신체의 모든 측면에 걸쳐 복잡한 상호 연결을 통해 자가 치유 유기체의 구성 및 개발을 가능하게 합니다.

  • 00:05:00 이 섹션에서는 세포의 복잡성과 문맥 정보가 없음에도 세포가 자신의 정체성을 기억하는 방법에 대해 설명합니다. 세포의 조절 회로도 강조되는데, 이는 세포가 게놈의 모든 부분의 상태를 기억할 수 있도록 하는 일련의 기본 요소와 구조를 기반으로 합니다. 구조적 및 기능적 구조 모두에서 DNA 패키징은 이 과정에 필수적이며 세포가 내부에 많은 DNA를 압축할 수 있게 합니다. 이 패키징은 4개의 히스톤 단백질로 구성된 DNA의 끈 모양의 작은 구슬인 뉴클레오솜을 통해 이루어집니다. 이러한 변형은 세포가 자신의 정체성을 기억할 수 있도록 DNA에 직접 CPG 디뉴클레오타이드와 같은 추가 후성유전체 표지와 함께 작동합니다.

  • 00:10:00 이 섹션에서 연사는 DNA 접근성, 히스톤 변형 및 DNA 메틸화와 같은 후성유전체학의 세 가지 변형 유형에 대해 논의합니다. 그는 이러한 변형이 유전자 조절과 전사 인자의 결합에 어떻게 영향을 미칠 수 있는지 설명합니다. 후성유전체학의 언어를 사용하면 DNA 압축을 프로모터 영역의 특정 서명에 맞게 조정하여 신체의 모든 세포 유형을 프로그래밍할 수 있습니다. 프로모터, 전사된 영역, 억제된 영역 및 인핸서 영역은 모두 식별하고 연구할 수 있는 서로 다른 마크 세트로 표시됩니다. 특히 인핸서는 매우 역동적이며 H3K4 모노메틸화, H3K27 아세틸화 및 DNA 접근성으로 표시됩니다.

  • 00:15:00 이 섹션에서 화자는 무엇보다도 인핸서, 프로모터, 전사 및 억제 영역에 해당하는 염색질의 다른 상태인 "염색질 상태"의 개념을 설명합니다. 다변량 숨겨진 Markov 모델은 이러한 염색질 상태를 발견하는 데 사용되며, 이는 신체의 다른 세포 유형에서 인핸서 영역, 프로모터 영역 및 전사 영역을 찾는 데 사용됩니다. 단백질이 DNA를 인식하는 방식도 설명되는데, 전사 인자는 게놈의 특정 DNA 서열을 인식하기 위해 DNA 결합 도메인을 사용합니다. 연사는 또한 DNA 염기서열의 특이성을 인식할 수 있게 해주는 DNA 모티프와 위치 가중치 매트릭스, 조절자의 결합 부위를 구별하는 정보 이론적 측정에 대해 이야기합니다.

  • 00:20:00 강의의 이 섹션에서 연사는 유전자 조절에서 조절 모티프의 중요성과 이러한 모티프가 어떻게 질병으로 이어질 수 있는지에 대해 논의합니다. 그런 다음 발표자는 유전자 조절을 조사하기 위한 세 가지 기술인 염색질 면역 침전, DNA 접근성 및 ATAC-seq에 대해 설명합니다. 이러한 기술은 모티프를 사용하고 딥 러닝 모델을 구축하여 인핸서의 위치를 매핑하고 DNA 언어를 발견하는 데 사용할 수 있습니다.

  • 00:25:00 비디오의 이 섹션에서 연사는 기계 학습 모델을 사용하여 시퀀스가 유전자 조절 속성을 인코딩하는 방법을 이해하는 방법에 대해 논의합니다. 그녀는 규제 DNA를 프로파일링하는 다양한 실험을 소개하고 특정 반응을 유도하기 위해 규제 요소의 복잡한 구문을 이해해야 할 필요성을 강조합니다. 이 문제는 각 게놈이 수천 개의 염기쌍으로 구성된 작은 청크로 분할되는 기계 학습 작업으로 모델링되며 이러한 각 염기쌍은 실험의 일부 신호와 연결됩니다.

  • 00:30:00 이 섹션에서 발표자는 다양한 기계 학습 모델을 사용하여 시퀀스를 스칼라에 매핑하여 유전 정보를 요약하는 전통적인 접근 방식에 대해 설명합니다. 그러나 이 접근 방식은 단일 뉴클레오티드 분해능의 판독 범위 프로필에 단백질 DNA 상호 작용을 반영하는 형상이 포함되어 있어 고해상도 발자국을 생성하기 때문에 정보 손실이 발생합니다. 이러한 복잡한 세부 정보는 정보를 스칼라로 요약할 때 손실됩니다. 이 문제를 해결하기 위해 연사는 가장 기본적인 해상도로 데이터를 모델링할 수 있는 새로운 모델을 구축해야 한다고 강조합니다. 이 모델은 시퀀싱 읽기를 게놈에 매핑하고 각각의 5프라임 말단 수를 세는 컨볼루션 신경망으로 수행됩니다. 두 가닥의 염기쌍이 있습니다. 그런 다음 시퀀스에서 시작하여 프로파일을 향해 이동하는 실제 값 판독값으로 변환하는 신경망을 사용하여 프로파일 모델에 대한 직선 시퀀스를 생성합니다.

  • 00:35:00 이 섹션에서 연사는 시퀀스에 떨어지는 읽기 수를 모델링하기 위한 손실 함수의 사용과 이러한 읽기가 기본 쌍에 어떻게 분포되는지 설명합니다. 그들은 각 기본 쌍에서 읽기의 정확한 분포를 위해 총 수에 대한 평균 제곱 오차와 다항 음의 로그 우도의 조합을 사용합니다. 이 모델은 서로 다른 단백질의 다중 판독에 사용할 수 있으며 멀티태스킹 모델을 사용하여 개별적으로 또는 동시에 장착할 수 있습니다. 발표자는 이 모델을 고해상도 발자국으로 칩 넥서스 실험을 사용하여 마우스 배아 줄기 세포의 4가지 유명한 다능성 전사 인자에 적용합니다.

  • 00:40:00 이 섹션에서 발표자는 노이즈 제거, 전가 및 기타 요인으로 인해 관찰된 데이터와 약간의 노이즈 또는 차이가 있음에도 불구하고 매우 정확한 게놈의 인핸서에 대한 예측을 수행할 때 모델의 정확도에 중점을 둡니다. 모델의 전체 게놈 성능을 평가하기 위해 Jensen-Shannon 발산과 복제 실험 간의 유사성이라는 두 가지 메트릭을 사용합니다. 전자는 후자보다 더 나은 성능을 보여 상한 및 하한을 제공하기 위해 계산됩니다. 그런 다음 연사는 DeepLift 알고리즘을 사용하여 레이어와 뉴클레오티드에 걸쳐 뉴런의 기여를 재귀적으로 분해하고, 시퀀스의 어떤 부분이 4개의 전사 인자 각각에 의해 결합을 구동하는지에 대한 고해상도 해석을 제공하여 조합 구문을 드러내는 해석 접근 방식을 설명합니다.

  • 00:45:00 이 섹션에서 발표자는 전체 게놈에서 모델이 학습한 패턴을 요약하는 데 사용되는 두 가지 방법에 대해 설명합니다. 첫 번째 방법인 Modisco는 관심 있는 단백질에 의해 결합된 모든 서열을 취하고 모든 서열의 각 뉴클레오티드에 대한 딥 리프트 점수를 추론합니다. 그런 다음 시퀀스는 유사성에 따라 클러스터링되고 중복되지 않는 모티프로 축소됩니다. 두 번째 방법은 신택스(syntax) 또는 협동적 결합을 유도하는 모티프의 고차 배열에 초점을 맞춥니다. 나노 모티프의 예를 사용하여 신경망은 핵심 사이트 측면에 있는 중요한 뉴클레오티드를 감지하고 10개 반 염기쌍에서 주기적인 패턴을 정확하게 식별할 수 있습니다. DNA 나선의.

  • 00:50:00 이 섹션에서 화자는 10과 1/2 염기쌍의 배수의 바람직한 간격을 통해 입증되는 DNA의 소프트 구문 선호도에 대해 논의합니다. 스피커는 모델이 게놈에서 보이는 신호의 미묘한 스파이크의 존재를 통해 이 구문을 학습하여 특정 사이트와 함께 지역화하고 바인딩을 유도하는 구문을 학습할 수 있는 방법을 보여줍니다. 발표자는 또한 구문이 서로 다른 단백질의 결합을 유도하는 방법에 대한 통찰력을 얻기 위해 silico에서 수행된 실험에 대해 설명합니다. 여기에는 두 개의 모티프가 임의의 순서로 포함되고 두 모티프 사이의 간격이 변경되어 단백질의 결합을 예측하는 합성 실험과 in silico CRISPR 실험에서 실제 인핸서가 돌연변이되고 4개의 단백질 결합 효과가 모델에 의해 예측됩니다. 화자는 구문이 모델의 상위 계층에서 학습되며 이를 제거하면 구문이 완전히 사라짐을 보여줍니다.

  • 00:55:00 이 섹션에서 화자는 특정 모티프를 삭제하는 효과를 보여주기 위해 OP4와 nano로 묶인 인핸서를 사용한 합성 실험을 설명합니다. 모델은 모티프 삭제의 효과를 예측하고 실험은 동일한 효과를 보여 모델의 예측을 검증합니다. 연사는 구문이 TF 협동성에 미치는 영향에 대한 생물학적 이야기를 밝히는 해석 프레임워크를 사용하여 게놈 데이터를 포함한 모든 종류의 분석을 분석할 수 있는 모델인 BPNet을 소개합니다. 이 모델은 고해상도 CRISPR 실험을 통해 검증된 예측을 할 수 있습니다. 연설은 연사 팀과 Bowing Rosenthal 연구소 간의 공동 작업인 ATAC-seq를 사용한 딥 러닝 기반 후성 유전학 데이터 향상에 대한 최근 논문에 대한 토론으로 끝납니다.

  • 01:00:00 이 섹션에서는 시퀀싱을 통한 염색질 접근성의 개념을 설명합니다. 커버리지 트랙의 피크는 게놈의 활성 조절 영역을 나타내므로 다양한 유형의 세포 또는 조직에서 활성 조절 요소를 식별할 수 있습니다. 운동 실조는 또한 단일 세포 수준에서 수행할 수 있어 생물학에 더 높은 해상도를 제공합니다. 그러나 시퀀싱 깊이, 샘플 준비 및 단일 셀 Ataxi 실험의 셀 수가 모두 결과에 영향을 미칠 수 있으므로 데이터 품질이 문제가 될 수 있습니다. 공격은 이러한 문제 중 일부를 해결하기 위해 개발된 딥 러닝 모델로 작동합니다.

  • 01:05:00 이 섹션에서 발표자는 시끄러운 실험에서 커버리지 트랙을 가져오고 잔여 신경망 아키텍처를 사용하여 운동 실조 신호를 제거하고 강화할 뿐만 아니라 최고점 또는 접근 가능한 위치를 식별하는 AttackWorks 도구에 대해 설명합니다. 염색질 부위. 이 모델은 1차원 컨볼루션 레이어와 확장된 컨볼루션을 사용하며 노이즈 제거된 커버리지 트랙의 정확도와 피크 위치의 분류 정확도를 측정하는 다중 부분 손실 함수를 포함합니다. 다른 모델과 달리 AttackWorks는 서로 다른 유형의 세포 간에 더 쉽게 전송할 수 있도록 게놈 시퀀스가 아닌 커버리지 데이터만 사용합니다. 발표자는 모델을 교육하는 데 사용되는 간단한 교육 전략을 설명하고 다양한 인간 세포 유형에 대한 예시 결과를 보여줍니다.

  • 01:10:00 이 섹션에서 연사는 이전에 식별하기 어려웠던 신호의 노이즈를 제거하고 피크를 향상시켜 커버리지가 낮은 ATAC-seq 데이터의 품질을 개선하기 위해 딥 러닝을 어떻게 사용할 수 있는지 설명합니다. 그들은 공격이 어떻게 작동하는지에 대한 예를 보여줍니다. 딥 러닝 모델은 주변 노이즈에서 피크를 구별하고 교육 데이터에 없는 새로운 데이터에서도 접근 가능한 염색질의 위치를 다른 세포 유형에서 정확하게 식별할 수 있습니다. 그들은 또한 공격이 작동하는 방식이 더 적은 시퀀싱으로 동일한 품질 결과를 생성하여 실험 비용을 줄일 수 있는 방법에 대해 논의합니다. 또한 공격이 어떻게 배경 잡음을 정리하고 고품질 데이터와 밀접하게 일치하는 피크를 식별하여 저품질 ATAC-seq 데이터를 처리할 수 있는지 보여줍니다. 마지막으로, 그들은 전사 시작 사이트 주변의 적용 범위 강화를 살펴봄으로써 공격 작업의 성능을 측정합니다.

  • 01:15:00 이 섹션에서 발표자는 단일 세포 운동 실조 데이터에서 작은 세포 집단을 연구하는 제한된 능력 문제를 해결하기 위해 딥 러닝을 적용하는 방법에 대해 논의합니다. 그들은 풍부한 세포 유형에서 세포의 하위 집합을 임의로 선택하고 이를 사용하여 잡음이 있는 신호를 얻을 수 있습니다. 그런 다음 공격 작동 모델을 훈련하여 몇 개의 셀에서 신호를 받고 노이즈를 제거하여 많은 셀에서 신호가 무엇인지 예측할 수 있습니다.
    처럼. 이 훈련된 모델을 갖게 되면 매우 적은 수의 세포로 이루어진 작은 집단에 적용하여 시퀀싱할 세포가 더 많았을 때 데이터가 어떻게 생겼는지 예측할 수 있습니다. 이 접근법은 단일 세포 염색질 접근성을 연구할 수 있는 분해능을 크게 증가시키고 모델이 실험, 세포 유형 및 심지어 종에 걸쳐 이전될 수 있음을 보여줍니다.

  • 01:20:00 이 섹션에서 연사는 세포의 림프계 또는 적혈구 계통으로 분화할 수 있는 조혈 줄기 세포에 대한 단일 세포 시퀀싱 실험에 대해 논의합니다. 이 실험은 단일 세포 집단에 걸쳐 이질성을 밝혀냈고 두 계통 중 하나로 분화하도록 준비된 세포의 하위 집단을 확인했습니다. 팀은 ATAC-seq를 사용하여 신호를 제거하고 계보 프라이밍 프로세스를 제어하는 특정 규제 요소를 식별했습니다. 그들은 프로젝트에 참여한 팀을 인정하고 학생들이 인턴십이나 공동 작업을 위해 연락하도록 초대합니다.