Maschinelles Lernen und neuronale Netze - Seite 22

 

Dimensionsreduktion - Vorlesung 11



Dimensionalitätsreduktion - Vorlesung 11 - Deep Learning in Life Sciences (Frühjahr 2021)

Die Videovorträge zu Deep Learning in den Biowissenschaften befassen sich mit Techniken zur Dimensionsreduktion für Clustering und Klassifikation in der Einzelzell-Datenanalyse. Die Vorlesungen unterscheiden zwischen überwachtem und unüberwachtem Lernen und untersuchen die Verwendung statistischer Hypothesentest-Frameworks zur Bewertung der differentiellen Expression von Genen. Die Vorlesung führt in das Konzept des vielfältigen Lernens unter Verwendung von Hauptkomponentenanalyse, Eigenzerlegung und Singulärwertzerlegung zur linearen Dimensionsreduktion ein und diskutiert die Methoden der t-verteilten stochastischen Nachbareinbettung und der verteilten stochastischen Nachbareinbettung für die Clustering-Datenerhaltung. Der Referent diskutiert auch die Anwendung der nicht-negativen Matrixfaktorisierung auf genomische Daten und die Integration von Einzelzell- und Multi-Omic-Datensätzen. Das ultimative Ziel dieser Techniken ist es, Zelltypen und Identität auf unvoreingenommene und quantitative Weise neu zu definieren.

Der zweite Teil behandelt mehrere Themen im Zusammenhang mit der Dimensionsreduktion, insbesondere ihre Anwendung in den Biowissenschaften. Die integrative nicht-negative Matrixfaktorisierung (iNMF) wird verwendet, um transkriptomische und epigenomische Profile zu verknüpfen, um die zelluläre Identität in verschiedenen Kontexten besser zu verstehen. Der Vortrag diskutiert auch die Vorteile der Verwendung eines Mini-Batch-Ansatzes im Deep Learning, insbesondere für größere Datensätze, und wie Online-Algorithmen genutzt werden können, um Methoden zur Dimensionsreduktion für die Analyse großer Datensätze zu verbessern. Darüber hinaus wird der Algorithmus eingeführt, um verschiedene Arten von Daten zu integrieren, wie z. B. RNA-seq- und ATAC-seq-Daten. Abschließend erklärt sich der Referent bereit, als Mentor für interessierte Studierende zu fungieren. Insgesamt war der Vortrag informativ und gut angenommen.

  • 00:00:00 In diesem Abschnitt setzen die Videovorträge die Diskussion über Einzelzelldatenanalyse fort und konzentrieren sich auf Techniken zur Dimensionsreduktion für Clustering und Klassifikation. Die Genexpressionsmatrizen, die Tausende von Genen in Tausenden von Experimenten messen, können zum Clustern von Genen oder Zellen oder zur Klassifizierung von Zelltypen anhand ihrer Genexpression verwendet werden. Die Vorlesungen unterscheiden zwischen überwachtem und unüberwachtem Lernen und untersuchen die Verwendung statistischer Hypothesentest-Frameworks zur Bewertung der Wahrscheinlichkeit unterschiedlicher Genexpressionen. Das Video erwähnt auch die Notwendigkeit, die zugrunde liegende Verteilung der Daten zu berücksichtigen und die am besten geeignete Anpassung für die beobachtete Verteilung im Datensatz zu finden.

  • 00:05:00 In diesem Abschnitt erörtert der Dozent die verschiedenen Gründe für die Dimensionsreduktion sowohl bei überwachten als auch bei nicht überwachten Lernanwendungen. Dazu gehören Datenvisualisierung, Datenreduktion, Datenklassifizierung und Reduzierung von Rauschen in Datensätzen. Der Dozent erklärt, dass die Dimensionsreduktion helfen kann, Faktoren zu verstehen, die die Variation antreiben, zwischen verschiedenen Klassen zu unterscheiden und interessante Teilmengen von Daten zu identifizieren. Darüber hinaus beschreibt der Dozent, wie die Dimensionalitätsreduktion darin besteht, hochdimensionale Daten auf eine niederdimensionale Mannigfaltigkeit abzubilden.

  • 00:10:00 In diesem Abschnitt der Vorlesung wird das Konzept des vielfältigen Lernens eingeführt, um die wahre Dimensionalität hochdimensionaler Daten zu verstehen, die eine niederdimensionale Darstellung ermöglicht. Vielfältiges Lernen beinhaltet die Aufnahme hochdimensionaler Daten und das Verständnis der wahren Dimensionalität der Daten, die möglicherweise nicht durch den Datensatz erforscht werden. Die lineare Dimensionsreduktion unter Verwendung der Hauptkomponentenanalyse (PCA) wird als eine der häufigsten Methoden zum Lernen dieser Mannigfaltigkeiten diskutiert. Bei der PCA werden die Daten in einen Satz linearer Koordinaten projiziert, was eine Transformation des ursprünglichen Raums darstellt. Die Eigenvektoren der Originaldaten werden in PCA verwendet, um die Vektoren zu finden, die gegenüber Transformationen unveränderlich sind.

  • 00:15:00 In diesem Abschnitt der Vorlesung über Deep Learning in den Biowissenschaften wird das Konzept der Eigenzerlegung eingeführt, um eine große Datenmatrix in ihre Hauptvariationsvektoren zu zerlegen. Bei symmetrischen Matrizen sind Eigenvektoren orthogonal, und bei reellen symmetrischen Matrizen sind Eigenvektoren sowohl orthogonal als auch reell. Die Eigenzerlegung erfasst die natürlichste Reduktion der linearen Dimensionalität eines Datensatzes, und die Diagonalmatrix repräsentiert die Effekte der unabhängigen Hauptkomponenten. Bei nicht symmetrischen Matrizen wird die Singulärwertzerlegung verwendet, um die Eigenvektoren der Gene und Bedingungen und ihrer Kombinationen zu finden, die die Daten am besten erklären.

  • 00:20:00 In diesem Abschnitt diskutiert der Dozent das Konzept der Singulärwertzerlegung (SVD) und wie es zur Reduktion der linearen Dimensionalität verwendet werden kann. SVD ist eine Möglichkeit, eine Matrix in eine Reihe von Operationen zu zerlegen, darunter zwei Drehungen und eine Skalierung, um die wichtigsten Variationsdimensionen in den Daten zu finden. Die resultierende Matrix kann verwendet werden, um eine optimale niederrangige Approximation der ursprünglichen Daten zu berechnen, wodurch die Darstellung der Daten in einem niedrigerdimensionalen Raum ermöglicht wird. Dies ist nützlich für die lineare Dimensionsreduktion, die in ihren Fähigkeiten begrenzt ist, aber die nichtlineare Dimensionsreduktion kann einige dieser Einschränkungen beseitigen. Die Hauptkomponentenanalyse ist eine Methode zur Reduzierung der linearen Dimensionalität, die die wichtigsten linearen Dimensionen der Variation in den Daten erfasst.

  • 00:25:00 In diesem Abschnitt wird die Methode der t-verteilten stochastischen Nachbareinbettung (t-SNE) als eine Technik zum Clustern von Daten zur Dimensionsreduktion unter Beibehaltung von Abständen in unterschiedlichen Maßstäben diskutiert. Anstatt sich auf PCA zu verlassen, das alle Entfernungen gleich behandelt, bildet t-SNE einen hochdimensionalen Raum auf eine niedrigere Dimension ab, während die Nähe ähnlicher Datenpunkte innerhalb des neuen Raums erhalten bleibt. Durch Anwenden einer bestimmten Bandbreite können einzelne Zellen mit ähnlichen Expressionsmustern in einem hochdimensionalen Raum in einem niederdimensionalen Raum nahe zueinander gebracht werden, wodurch die KL-Divergenz zwischen beiden Räumen minimiert wird. Graduelle Methoden können verwendet werden, um eine Einbettung zu finden, die die Kostenfunktion der KL-Divergenz zwischen den beiden Räumen minimiert.

  • 00:30:00 In diesem Abschnitt erörtert der Referent, wie die verteilte stochastische Nachbareinbettung (d-SNE) die lokale Ähnlichkeitsstruktur von Daten bewahrt, indem Gradienten durchsucht und die Koordinaten eines niederdimensionalen Raums optimiert werden. Der Ansatz ist eine nichtlineare Einbettung, die lokale Entfernungen statt globaler Entfernungen beibehält und bestraft, wenn Punkte auseinander liegen, nahe gelegene Punkte jedoch näher beieinander liegen. Diese Methode wird häufig für Visualisierungen von Datensätzen mit Einzelzellen verwendet, und die Anzahl der betrachteten Nachbarn und die Größe der ursprünglichen Cluster können die Qualität der Einbettung beeinflussen.

  • 00:35:00 In diesem Abschnitt erörtert der Sprecher das Konzept einer niederdimensionalen Projektion von Daten mit einem Schwerpunkt auf dem Erlernen spezifischer Cluster von Zelltypen für die Einzelzelldatenanalyse. Sie sprechen von einer Methode, die es ermöglicht, mehrere Arten von Omics-Daten gemeinsam in einen niederdimensionalen Datensatz zu projizieren, in dem sie miteinander abgeglichen werden können. Der Referent stellt mehrere von ihm entwickelte Ansätze vor, darunter den LIGER-Ansatz, der eine integrative nicht-negative Matrixfaktorisierung verwendet, und eine Methode zum Hochskalieren des INMF-Algorithmus mithilfe von Online-Lernen. Der Vortrag schließt mit der Erörterung laufender Projekte zur Integration von Datensätzen mit teilweise überlappenden Merkmalen und zur Kombination von Variations-Autoencodern und generativen kontradiktorischen Netzwerken zur Generierung von Einzelzell-RNA-Profilen.

  • 00:40:00 In diesem Abschnitt erörtert der Referent die verschiedenen Arten von Messungen, die in einzelnen Zellen durchgeführt werden können, einschließlich Genexpression, Histonmodifikation, Transkriptionsfaktorbindung, Chromatinzugänglichkeit, DNA-Methylierung und Chromatinkonformation. Sie unterstreichen auch die Bedeutung der Kenntnis räumlicher Koordinaten und der Zuordnung molekularer Informationen zurück in den Gewebekontext. Der Referent erwähnt die Herausforderung einer quantitativen Definition der zellulären Identität, bei der molekulare und andere Arten von Informationen mit Einzelzellauflösung verwendet werden, um Zelltypen unvoreingenommen neu zu definieren. Um diesen Herausforderungen zu begegnen, entwickelte der Referent ein Tool namens Liger, das auf einer integrativen nicht-negativen Matrixfaktorisierung basiert, um eine integrative Einzelzellanalyse über Datensätze verschiedener Messungen hinweg durchzuführen. Sie diskutieren auch die Vorteile des "parts based decomposition"-Ansatzes der nichtnegativen Matrixfaktorisierung.

  • 00:45:00 In diesem Abschnitt erörtert das Transkript die Anwendung der nicht-negativen Matrixfaktorisierung (NMF) auf genomische Daten, was die Interpretation von NMF-Faktoren als Metagene ermöglicht, die koexprimierte oder koregulierte Gene gruppieren. Diese Faktoren können biologische Signalwege oder zelltypspezifische Gene darstellen sowie technische Faktoren erfassen. Durch die Gruppierung von Genen in Metagene und die Zusammenfassung der Zellexpression unter Verwendung dieser Metagene ermöglicht NMF eine quantitative Definition der Zellidentität und die Identifizierung von Zelltypen und Zuständen über mehrere Datensätze hinweg. Die Interpretierbarkeit von Metagenen ermöglicht auch die Identifizierung technischer Signale und deren Dekonvolution von biologischen Signalen in den Datensätzen.

  • 00:50:00 In diesem Abschnitt erörtert der Referent, wie sie das Optimierungsproblem von Item f mathematisch gelöst und einen neuartigen Algorithmus basierend auf Blockkoordinatenabstieg abgeleitet haben, der einige signifikante Vorteile hat und eine Konvergenzgarantie bietet. Sie verwenden einen effizienten Algorithmus, um das nicht-negative Kleinste-Quadrate-Problem zu lösen, und führen nachgelagerte Schritte durch, um die Gesamtrobustheit der Analyse zu erhöhen. Der Referent gibt dann ein Beispiel dafür, wie sie Einzelzell-RNA-seq-Daten menschlicher Spender integriert haben, um die Zellen nach Zelltyp statt nach Spender zu gruppieren, die Hauptzelltypen der Substantia zu identifizieren und Erkenntnisse darüber zu gewinnen, wie die Zellen ähnlich und unterschiedlich sind menschliche Spender.

  • 00:55:00 In diesem Abschnitt diskutiert der Referent verschiedene Anwendungen der Single-Cell-Datenintegration. Ein Beispiel ist die Integration von räumlichen und Einzelzelldatensätzen, die helfen können, die räumlichen Positionen von Zelltypen innerhalb eines Gewebes zu identifizieren und Einblicke in die Gewebearchitektur zu geben. Der Referent gibt ein Beispiel, in dem ein Datensatz aus dem Gehirn einer Maus verwendet wird, um zwei Subtypen von Astrozyten mit unterschiedlichen räumlichen Positionen zu identifizieren, was einen Einblick in die Zusammenarbeit neuronaler Schaltkreise gibt. Eine weitere wichtige Anwendung ist die Integration von Multi-Omic-Datensätzen aus einzelnen Zellen, was eine Herausforderung darstellt, da die Datensätze weder Instanzen noch Merkmale gemeinsam haben. Der Referent erläutert eine Strategie zur Verknüpfung dieser Datensätze, indem die Epigenomdaten in Merkmale auf Genebene transformiert und mit der Genexpression korreliert werden.

  • 01:00:00 In diesem Abschnitt erörtert der Referent, wie die integrative nicht-negative Matrixfaktorisierung (iNMF) verwendet werden kann, um transkriptomische und epigenomische Profile zu verknüpfen, um die zelluläre Identität in verschiedenen Kontexten besser zu verstehen. Anhand von Daten aus Mauskortex und menschlichem Knochenmark demonstriert der Referent, wie die Verknüpfung von Genexpressions- und Methylierungsdaten zu einem klareren Verständnis von Zelltypen führen und sogar Zelltypen mit mehrdeutigen Bezeichnungen identifizieren kann. Darüber hinaus erklärt der Referent, wie ein Online-Lernalgorithmus verwendet werden kann, um das iNMF-Problem in immer größeren Datensätzen zu lösen, indem die Berechnungen inkrementell aktualisiert werden, wenn neue Daten in Form eines Streamings eintreffen.

  • 01:05:00 In diesem Abschnitt erörtert der Dozent die Vorteile der Verwendung eines Mini-Batch-Ansatzes beim Deep Learning, insbesondere bei großen Datensätzen. Dieser Ansatz ermöglicht eine iterative Aktualisierung der Gewichtungen und vermeidet die Speicherung des gesamten Datensatzes im Speicher, was zu einer schnelleren Konvergenz führt. Der Dozent skizziert drei Szenarien, in denen Mini-Batch besonders nützlich ist, mit dem entscheidenden Vorteil, dass neue Datensätze sofort integriert werden können, ohne vorherige Datensätze erneut analysieren zu müssen. Der Dozent erörtert auch die Informatik hinter diesem Ansatz und nutzt die vorhandene Theorie aus einem Artikel zum Lernen von Online-Wörterbüchern, um eine Ersatzfunktion zu optimieren, die hinsichtlich der Parameter asymptotisch gegen dieselbe Lösung konvergiert. Letztendlich funktioniert dieser Ansatz in der Praxis gut und konvergiert aufgrund der Redundanz jeder zusätzlichen Zelle in einem größeren Datensatz viel schneller.

  • 01:10:00 In diesem Abschnitt erörtert der Referent die Vorteile der Verwendung von Online-Algorithmen in Verfahren zur Dimensionsreduktion zur Analyse großer Datenmengen. Der Referent stellt einen Benchmark seines Ansatzes im Vergleich zu anderen weit verbreiteten Methoden vor und zeigt, dass er einen deutlich geringeren Speicherverbrauch hat und zeiteffizienter ist. Sie demonstrieren die iterative Verfeinerungsfähigkeit der Methode anhand von Daten, die vom Brain Initiative Cell Census Network generiert werden, wo sie neue Datensätze in die Faktorisierung mit dem Online-Algorithmus einbeziehen. Sie zeigen auch, wie der inmf-Algorithmus auf einen Fall erweitert werden kann, in dem sich Features teilweise überlappen, wodurch sowohl gemeinsam genutzte als auch nicht gemeinsam genutzte Features über Datensätze hinweg genutzt werden können, was ein zufriedenstellenderer Ansatz ist als zuvor verwendete Methoden, die eine Ausrichtung von Features erzwingen.

  • 01:15:00 In diesem Abschnitt erklärt der Referent, wie ein Algorithmus verwendet werden kann, um alle in einem Datensatz vorhandenen Merkmale zu nutzen, selbst wenn einige Merkmale nur in einer der Datenquellen vorhanden sind. Der Algorithmus kann verwendet werden, um verschiedene Arten von Daten zu integrieren, wie z. B. RNA-seq- und ATAC-seq-Daten, um ein vollständigeres Bild der Genexpression zu erhalten, was die Fähigkeit zur Auflösung von Clustern oder Zellprofilen verbessern kann. Der Referent stellt auch einen neuen Ansatz namens Michigan vor, der die Stärken von Variational Autoencodern (VAEs) und Generative Adversarial Networks (GANs) kombiniert, um realistische Zellprofile aus Einzelzell-Expressionsdaten zu generieren. Der Algorithmus nutzt die Entflechtungsleistung des VAE und die Erzeugungsleistung des GAN, um einen leistungsstarken Ansatz zur Manipulation und Vorhersage von Änderungen der Zellidentität zu schaffen.

  • 01:20:00 In diesem Abschnitt bekundet der Referent seine Bereitschaft, als Mentor für interessierte Studierende zu fungieren und dankt dem Publikum für den Besuch des Vortrags. Der Moderator führt eine kurze Umfrage durch, um zu überprüfen, ob die Zuhörer etwas gelernt haben, und das Publikum reagiert positiv. Insgesamt war der Vortrag gut angenommen und informativ.
 

Disease Circuitry Dissektion GWAS - Vorlesung 12


Disease Circuitry Dissektion GWAS - Vorlesung 12 - Deep Learning in Life Science (Frühjahr 2021)

Dieses Video zur GWAS zur Dissektion von Krankheitsschaltkreisen behandelt die Grundlagen der Humangenetik, die rechnerischen Herausforderungen für die Interpretation und die verschiedenen Arten genetischer Variationen, die in genomweiten Assoziationsstudien (GWAS) untersucht werden. Das Video untersucht auch Methoden wie Mendelsche Kartierung, Kopplungsanalyse und die Identifizierung von Einzelnukleotidpolymorphismen (SNPs), die mit Krankheiten assoziiert sind. Darüber hinaus erörtert der Referent die Verwendung von Chi-Quadrat-Statistiken, Manhattan-Plots und QQ-Plots zur Visualisierung genomischer Regionen, die signifikant mit Krankheitsphänotypen assoziiert sind. Das Video enthält auch eine Fallstudie zum FTO-Gen und wie es umfassend auf seine mechanistischen Auswirkungen bei Fettleibigkeit untersucht wurde. Die Herausforderungen beim Verständnis der genetischen Assoziation mit Adipositas und die Schritte zur Herangehensweise an dieses Problem werden ebenfalls diskutiert.

Der Vortrag diskutiert die Herausforderung, die Auswirkungen genomischer Variationen auf die menschliche Gesundheit zu untersuchen, und die Bedeutung des Verständnisses, wie Mutationen verschiedene Zelltypen beeinflussen. Der Referent umreißt seinen Deep-Learning-Ansatz zur Vorhersage der Wirkung von Genomsequenzen und -variationen, insbesondere in Bezug auf die Vorhersage der Bindung von Transkriptionsfaktoren und der Organisation von Chromatin. Sie beschreiben auch ihre Auswertung dieser Vorhersagen unter Verwendung tief sequenzierter genomischer Datensätze zur Vorhersage der DNA-Sensitivität und Histonmarkierungs-QTLs sowie ihre Verwendung von Deep Learning zur Vorhersage der Wirkung von Mutationen auf die Genexpression und menschliche Krankheiten wie Autismus. Abschließend diskutieren sie ihre unvoreingenommene Analyse zuvor bekannter Gensets und die Verwendung einer Deep-Learning-Sequenzmodellbibliothek.

  • 00:00:00 In diesem Abschnitt des Videos diskutiert der Sprecher die Grundlagen der Humangenetik und die rechnerischen Herausforderungen bei der Interpretation. Sie erklären, wie genetische Variationen durch genomweite Assoziationsstudien (GWAS) identifiziert und einzelne genetische Varianten gefunden werden, die zu Krankheiten beitragen. Die Vorlesung behandelt auch die genetische Gensuche und die Verwendung von Kopplung und GWAS zur Erkennung von Orten, die mit Krankheiten assoziiert sind. Die Herausforderungen der Feinkartierung, Fallstudien und maschinellen Lernwerkzeuge für die Varianteninterpretation, einschließlich Tiefvarianten und Tiefsee, werden ebenfalls diskutiert. Die Geschichte der menschlichen Genetik und Vererbungsmuster werden kurz behandelt, beginnend mit dem antiken Griechenland bis zur Entwicklung des Konzepts der Transmutation und natürlichen Selektion durch Darwin.

  • 00:05:00 In diesem Abschnitt erörtert der Referent die Vereinbarkeit zwischen der diskreten Vererbung von Mendel und der beobachteten kontinuierlichen Variation phänotypischer Merkmale. Das von Mendel eingeführte Konzept der partikulären Vererbung zeigte, dass es diskrete Vererbungseinheiten namens Gene gibt, die dominant oder rezessiv sind. Die beim Menschen beobachtete Biometrie der kontinuierlichen Variation konnte jedoch nicht durch Mendelsche Vererbung erklärt werden. Dies änderte sich mit der Arbeit von Statistikern in den frühen 1900er Jahren, die zeigten, dass kontinuierliche Variation durch mehrere Mendelsche Loci erklärt werden kann. Dies wurde zur Grundlage für die Mendelsche Merkmalskartierung, die schließlich zu dem Verständnis führte, dass Chromosomen und DNA das genetische Material tragen. Darüber hinaus erörtert der Referent, wie die Abweichung von der Regel der unabhängigen Sortierung zum Arbeitspferd der Humangenetik wurde und wie Merkmale, die im Chromosom physisch nahe beieinander liegen, dazu neigen, gemeinsam vererbt zu werden.

  • 00:10:00 In diesem Abschnitt diskutiert der Redner den traditionellen Ansatz der genetischen Kartierung, bekannt als Mendelsche Kartierung, die die Verknüpfung und die Häufigkeit der Trennung verschiedener Merkmale verwendet, um die Regionen des menschlichen Genoms aufzuspüren, in denen verschiedene Merkmale kodiert sind. Dieser Ansatz ist jedoch nur für Merkmale mit starker Wirkung wirksam. Der Redner spricht dann über die Revolution in den 2000er Jahren, die zur Fähigkeit führte, schwache Effektvariationen abzubilden, was zuvor einer Analyse mit traditionellen Verknüpfungsmethoden nicht zugänglich war. Dies wurde durch genomweite Assoziationsstudien (GWAS) erreicht, die jeden einzelnen SNP im gesamten Genom untersuchen und wie sie sich bei verschiedenen Krankheiten unterscheiden. Anschließend erläutert der Referent die Arten von Variationen, die in GWAS untersucht werden, darunter SNPs, Indels, SDRs, Strukturvarianten und Kopienzahlvarianten, und wie diese Variationen die Funktionalität des Genoms beeinflussen können.

  • 00:15:00 In diesem Abschnitt stellt der Referent das Arbeitspferd der genomweiten Assoziationsstudien (GWAS) vor, nämlich Single Nucleotide Polymorphisms (SNPs), die die häufigste Art der genetischen Variation sind. SNPs haben zwei Allele, und jede Variante wurde geclustert und in eine Datenbank namens dbSNP eingebaut. Der Redner bespricht auch andere Arten von Variationen, wie z. B. Kurzschrift und Wiederholungen, Einfügungen und Löschungen und mehr. Zusätzlich wird der Unterschied zwischen häufigen und seltenen Varianten erläutert, da seltene Varianten die Untersuchung starker Effektvariationen ermöglichen. Die Herausforderung, Krankheitsgene zu finden, wird hervorgehoben, da Menschen zwei Kopien ihres Genoms haben, die aus 23 Chromosomen, 20.000 Genen, 3 Milliarden DNA-Buchstaben und Millionen polymorpher Stellen bestehen.

  • 00:20:00 In diesem Abschnitt erklärt der Dozent den Unterschied zwischen häufigen und seltenen Varianten in der Genetik und ihre Beziehung zu genomweiten Assoziationsstudien und der Mendelschen Analyse. Seltene Varianten haben einen großen Effekt und werden meist in der Mendelschen Analyse gefunden, während häufige Varianten einen kleinen Effekt haben und durch genomweite Assoziationsstudien erfasst werden können. Darüber hinaus kann die Kopplungsanalyse helfen, die Position eines Gens zu bestimmen, das eine Störung verursacht, indem Marker auf den Chromosomen untersucht und festgestellt werden, welche mit dem Phänotyp in einer Population gemeinsam erben.

  • 00:25:00 In diesem Abschnitt stellt der Redner genomweite Assoziationsstudien vor, an denen Tausende von Personen, etwa 50 % Fälle und 50 % Kontrollen, teilnehmen, um Erkrankungen wie Schizophrenie, Fettleibigkeit oder Diabetes zu untersuchen. Diese Studien überrepräsentieren in der Regel Fälle, um an Macht zu gewinnen, und die Genotypisierungstechnologie wird aufgrund ihrer geringen Kosten im Vergleich zur Sequenzierung verwendet. Der Referent betont die Bedeutung der Qualitätskontrolle sowohl bei Proben als auch bei SNPs, um die Genauigkeit der Ergebnisse sicherzustellen. Darüber hinaus erläutert der Referent das Konzept der Bevölkerungszertifizierung und die Notwendigkeit, die Verwandtschaft zwischen Personen in der Studie zu beseitigen.

  • 00:30:00 In diesem Abschnitt erklärt der Referent, wie man eine Chi-Quadrat-Statistik und eine p-Wert-Verteilung verwendet, um tatsächliche Krankheitssignale in einer genomweiten Assoziationsstudie (GWAS) zu erkennen. Unter Verwendung einer Kontingenztabelle, die zeigt, wie viele Fälle und Kontrollen das Allel jedes SNP tragen, sucht der Sprecher nach Abweichungen in der Häufigkeit von Allelen zwischen Fällen und Kontrollen. Die Chi-Quadrat-Statistik misst die Größe der Abweichung und der p-Wert wird verwendet, um die Hypothese abzulehnen, dass das Allel keinen Einfluss auf den Phänotyp hat. Der Referent erklärt dann, wie die p-Werte in einem Manhattan-Diagramm dargestellt werden, um die genomischen Regionen zu visualisieren, die signifikant mit dem Krankheitsphänotyp assoziiert sind.

  • 00:35:00 In diesem Abschnitt erörtert der Redner die Verwendung des Manhattan-Diagramms, das den minus log 10 p-Wert der zufällig assoziierten Wahrscheinlichkeit eines SNP mit einer Krankheit anzeigt, sowie des QQ-Diagramms, das die p-Werte von vergleicht Millionen von SNPs, die getestet wurden. Darauf folgt eine Funktionsanalyse, um die Rolle der SNPs auf andere Weise zu untersuchen. Das genomweite Signifikanzniveau wird auf 5 mal 10 hoch minus 8 festgelegt, was vor 20 Jahren auf der Grundlage einer Back-of-the-Envelope-Berechnung festgelegt wurde. Die Feinkartierung kann jedoch aufgrund der begrenzten genetischen Variation in der menschlichen Bevölkerung, die nicht genug Zeit hatte, um alle SNPs unabhängig voneinander zu trennen, eine Herausforderung darstellen.

  • 00:40:00 In diesem Abschnitt erörtert der Dozent, wie Varianten in Blöcken und nicht isoliert vererbt werden, was bedeutet, dass, wenn eine Variante in einem Block ein bestimmtes Allel hat, jede Variante in diesem Block dasselbe Allel hat. Nachdem eine Assoziation in einer Region gefunden wurde, besteht der nächste Schritt darin, zu identifizieren, welcher Einzelnukleotidpolymorphismus (SNP) für die Assoziation verantwortlich ist. Eine Studie zu Morbus Crohn fand eine Region, die sowohl durch Kopplungsanalyse als auch durch genomweite Assoziationsstudien erkannt wurde, während eine andere Region nur durch letztere gefunden wurde. Der Dozent erklärt die Häufigkeit und Effektstärke des Risikoallels jeder Region.

  • 00:45:00 In diesem Abschnitt erörtert der Referent die Seltenheit schützender Allele und die Schwierigkeiten, sie durch Fallkontrolle und Kohortenstudien zu entdecken. Sie erklären, dass seltenere Allele, die das Risiko verringern, mit geringerer Wahrscheinlichkeit in Studien gefunden werden, die eine große Bereicherung für Fälle darstellen, und dass die für solche Studien erforderlichen Familienstammbäume nicht durchführbar sind. Der Referent erklärt auch den Unterschied zwischen gängigen Varianten, die GWAS erfasst, und seltenen Allelen mit starker Wirkung, die durch die Kopplungsanalyse erfasst werden. Der Abschnitt schließt mit einem kurzen Überblick über Haplotypen und Rekombinations-Hotspots, einschließlich ihrer Variation zwischen Populationen und der Bedeutung von prdm9 bei der Steuerung von Rekombinationsereignissen. Abschließend stellt der Referent eine Studie zum FTO-Gen vor, das der stärkste GWAS-Treffer für Adipositas oder Body-Mass-Index war und umfassend auf seine mechanistischen Implikationen seziert wurde.

  • 00:50:00 In diesem Abschnitt des Vortrags erörtert der Referent die Herausforderungen beim Verständnis der genetischen Assoziation mit Adipositas und skizziert die Schritte zur Herangehensweise an dieses Problem. Der erste Schritt besteht darin, den relevanten Gewebe- und Zelltyp zu identifizieren, was durch die Untersuchung epigenomischer Annotationen verschiedener Gewebe erreicht wird. Der zweite Schritt besteht darin, das nachgeschaltete Zielgen zu finden, was durch langreichweitige Verknüpfungen und Schleifen erschwert wird. Die Messung der Expression verschiedener Gene bei homozygoten Risiko- und Nicht-Risiko-Individuen, erklärt der Referent, ergebe, dass das FTO-Gen selbst keine Veränderung in der Expression zeige, sondern eher die weit von FTO entfernt liegenden Gene IRX3 und IRX5 die Zielgene seien.

  • 00:55:00 In diesem Abschnitt beschreibt der Referent, wie sie Zielgene für nicht-kodierende Loci im Zusammenhang mit Adipositas identifizieren und das kausale SNP mithilfe von regulatorischer Motivanalyse und evolutionärer Konservierung verstehen konnten. Durch die Unterbrechung des vorgeschalteten Regulators und des SNP konnten sie die Epistase zwischen den beiden zeigen und zeigen, wie sie die Repression und Derepression beeinflusst. Der Referent erklärt, dass die Störung des Motivs die Repression verringert und Enhancer überaktiviert werden, was zu einer Überaktivierung von rx3 und rx5 auf der Ebene der Genexpression führt, was zu einer Verschiebung von der Energiedissipation zur Speicherung führt. Durch den Aufbau eines Modells und die Genombearbeitung konnten sie von einer Assoziationsregion, in der sie nichts wussten, zum Verständnis des biologischen Prozesses und der Zielgene gelangen und eingreifen, um die Schaltkreise zu ändern.

  • 01:00:00 In diesem Abschnitt des Vortrags erörtert der Referent die Herausforderung, die Auswirkungen der zahlreichen Genomvariationen zu untersuchen, die bei Individuen existieren, und die Bedeutung, ein besseres Verständnis dafür zu erlangen, wie genomische Sequenzen und Mutationen verschiedene Zelltypen beeinflussen und menschliche Gesundheit. Der Referent erklärt, dass sie einen maschinellen Lernansatz verfolgen, um Genomsequenzen und große Mengen an funktionellen Genomdaten zu nutzen, um Modelle zu erstellen, die die Wirkung von Genomsequenzen und -variationen vorhersagen können. Insbesondere geht der Referent auf ihre Arbeit zur Vorhersage der Bindung einzelner Transkriptionsfaktoren und der Organisation von Chromatin auf Basis genomischer Sequenzen ein. Sie zielen darauf ab, eine systematische Methode zur Vorhersage der Auswirkungen von 120.000 Genomvariationen gleichzeitig unter Verwendung von Deep-Learning-Techniken zu entwickeln.

  • 01:05:00 In diesem Abschnitt erörtert der Redner seine Entscheidung, ein Deep Convolutional Network-Modell zu verwenden, um ein regulatorisches Sequenzmodell zu erstellen, das seine drei Anforderungen erfüllt: die Fähigkeit, große Sequenzen und den Kontext langer Sequenzen zu verwenden, die Fähigkeit, das Nichtlineare zu modellieren Interaktionen über verschiedene Regionen der Sequenz hinweg und die Möglichkeit, Sequenzfunktionen, die in all den verschiedenen Aufgaben erlernt wurden, zu teilen. Der Sprecher erklärt, dass das Modell verschiedene Ebenen von Sequenzmerkmalen auf den niedrigeren Ebenen lernt und Sequenzmuster höherer Ordnung auf den höheren Ebenen lernt. Sie betonen auch, wie wichtig es ist, die räumlichen Informationen zu erhalten, wenn positionsspezifische Vorhersagen getroffen werden. Das Modell kann verwendet werden, um die Wirkung jeder genomischen Variante vorherzusagen, indem dem Modell zwei Sequenzen gegeben werden, die sich nur durch eine Variante unterscheiden, und die Vorhersagen für jedes Allel verglichen werden.

  • 01:10:00 In diesem Abschnitt beschreibt der Referent, wie sie die Genauigkeit ihrer Vorhersagen für Varianten bewertet haben, die die DNA-Empfindlichkeit auf Chromatinebene beeinflussen. Sie analysierten tief sequenzierte genomische Datensätze und suchten nach heterozygoten Varianten, bei denen ein Allel signifikant stärker vertreten war als das andere, was auf mögliche Unterschiede in der DNA-Empfindlichkeit hinweist. Sie trainierten ein Modell, um die DNA-Empfindlichkeit sowohl für die Referenz- als auch für die alternativen Allele vorherzusagen, und verglichen die Vorhersagen mit experimentellen Ergebnissen. Sie fanden heraus, dass das Modell eine höhere Genauigkeit bei der Vorhersage von Varianten mit stärkeren Unterschieden zwischen den Referenz- und alternativen Allelen und zuverlässiger vorhergesagten Varianten hatte. Die Bewertung war robust gegenüber falsch positiven Ergebnissen, sodass sie nach den wahren positiven Ergebnissen filtern konnten. Sie wandten diesen Ansatz auch auf QTLs mit Histonmarkierungen an und stellten fest, dass sie das mit höheren Histonmarkierungen verbundene Allel vorhersagen konnten.

  • 01:15:00 In diesem Abschnitt erörtert der Referent, wie sie mithilfe von Deep Learning die Auswirkungen von Varianten auf die Genexpression auf molekularer Ebene vorhersagen können. Sie stehen vor Herausforderungen wie der Notwendigkeit, größere regulatorische Sequenzen zu berücksichtigen und weniger Trainingsmuster zur Verfügung zu haben. Sie gehen diese Herausforderungen an, indem sie einen breiten Bereich von 40 Kilobyte betrachten und ein vortrainiertes Modell anwenden, um an verschiedenen Positionen Vorhersagen zu treffen. Anschließend trainieren sie ein glattes Muster von Beiträgen jeder Genexpressionsprofilvorhersage zur Genexpression unter Verwendung eines regulierten linearen Modells. Durch diesen Ansatz können sie die Wirkung verschiedener Mutationen vorhersagen und wie sie dieselbe Krankheit durch einen ähnlichen Mechanismus verursachen könnten. Während das Problem der Vorhersage der Genexpression noch lange nicht gelöst ist, haben sie einen ersten Versuch unternommen, es anzugehen.

  • 01:20:00 In diesem Abschnitt erörtert der Referent die Verwendung von Deep Learning zur Vorhersage der Wirkung genomischer Varianten auf menschliche Krankheiten wie Autismus. Sie erklären, dass nicht-codierende Mutationen schwer zu erkennen und einer Krankheit zuzuordnen sind. Durch die Verwendung von Modellen zur Vorhersage der Auswirkungen von Mutationen auf Chromatinprofile und Proteinbindungsprofile konnten sie jedoch die Mutationen von Personen mit Autismus mit ihren nicht betroffenen Geschwistern vergleichen. Die Forscher fanden heraus, dass es bei Personen mit Autismus im Vergleich zu ihren nicht betroffenen Geschwistern eine stärkere Wirkung auf mit Autismus assoziierte Gene gab, was den Beitrag von nicht-kodierenden Mutationen zu der Krankheit bestätigte.

  • 01:25:00 In diesem Abschnitt diskutiert der Referent eine unvoreingenommene Analyse unter Verwendung zuvor bekannter Gensätze, um den Beitrag von nicht-codierenden Mutationen zu bestimmen. Sie verwenden eine netzwerknachbarschaftsbasierte Analyse, um nach stärkeren Effekten bei Problemmutationen im Vergleich zu Geschwistermutationen innerhalb eines Gennetzwerks zu suchen. Diese Analyse zeigt eine Konvergenz von Mechanismen, die durch codierende und nicht codierende Mutationen angezeigt werden, wobei Gene in Synapsen-bezogene und Chromatin-Regulations-bezogene Gruppen gruppiert sind, die zuvor in den bei Autisten entdeckten codierenden Mutationen angezeigt wurden. Der Referent erwähnt auch kurz eine Deep-Learning-Sequenzmodellbibliothek, mit der Sequenzmodelle trainiert und evaluiert werden können.
 

GWAS-Mechanismus - Vorlesung 13



GWAS-Mechanismus - Vorlesung 13 - Deep Learning in Life Sciences (Frühjahr 2021)

Der Vortrag über den GWAS-Mechanismus in der Reihe Deep Learning in Life Sciences befasst sich mit verschiedenen Methoden, um die Funktion von nicht-kodierenden genetischen Varianten zu verstehen, die an komplexen Merkmalen beteiligt sind. Der Vortrag diskutiert die Verwendung von epigenomischen Annotationen und Deep-Learning-Modellen, um globale Eigenschaften über genetisch assoziierte Regionen hinweg für eine bestimmte Krankheit zu identifizieren. Es behandelt auch Anreicherungen über verschiedene Gewebe und Enhancer und erklärt, wie diese in empirische Priors umgewandelt werden können, um das kausale SNP innerhalb eines Locus vorherzusagen. Der Vortrag diskutiert auch die Verwendung von intermediären molekularen Phänotypen wie Genexpression und Methylierung zur Untersuchung der Kausalität in genomweiten Assoziationsstudien und wie man Genotyp und persönliche Expressionskomponenten kombiniert, um die phänotypische Variable der Expression zu erklären. Schließlich untersucht die Vorlesung die Verwendung kausaler Inferenzmethoden, um die Auswirkung der Änderung einer Variablen auf Ergebnisvariablen zu bestimmen, um kausale versus antikausale Pfade zu identifizieren.

Der Dozent in diesem Video diskutiert verschiedene Techniken zur Ableitung kausaler Effekte in der Genomforschung. Sie decken das Konzept der d-Trennung ab und nutzen die natürliche Randomisierung in der Genetik als Möglichkeit, kausale Beziehungen herzustellen. Der Dozent diskutiert auch die Mendelsche Randomisierung und das Quasi-Inferenz-Modell von Rubin sowie die potenzielle Ergebnismethode für kausale Inferenzen. Sie berühren die Herausforderungen der Imputation und der Anpassung an Verzerrungen in Beobachtungsstudien. Der Redner betont auch, wie wichtig es ist, mehrere orthogonale Beweise zu verwenden, um einen robusten kausalen Algorithmus zu entwickeln. Darüber hinaus erklären sie die Verwendung von Genetik, um Genexpressionen zu stören und Netzwerke zu lernen, und führen die Invarianzbedingung ein, um kausale Strukturen in Daten zu identifizieren. Die Vorlesung gibt einen umfassenden Überblick über verschiedene Techniken und Werkzeuge, die in der Genomforschung zur kausalen Inferenz verwendet werden.

  • 00:00:00 In diesem Abschnitt konzentriert sich der Vortrag auf die Ausweitung der Diskussion aus der vorherigen Sitzung auf das Verständnis globaler Variablen wie epigenomische Anreicherungen, eQTLs und die Untersuchung von Mediation und Kausalität mit Gastdozent Professor Yong Jin Park von der University of British Columbia. Der Vortrag sieht vor, die Feinkartierung und mechanistische Dissektion von Locus kurz zu besprechen, gefolgt von verschiedenen Methoden zur globalen Anreicherungsanalyse unter Verwendung von Epigenomik, um auf Gewebe von Aktionsregulatoren, Zelltypen und Zielgenen zu schließen. Darüber hinaus befasst sich die Vorlesung mit linearen gemischten Modellen und polygenen Risikowerten, die in genomweiten Assoziationsstudien verwendet werden, um Phänotypen und Erblichkeit vorherzusagen, um zu den verbleibenden Themen der Vorlesung am Donnerstag überzugehen. Das ultimative Ziel ist es, die funktionellen Treiber und mechanistischen Grundlagen hinter jedem Peak in den Manhattan-Plots gleichzeitig über Tausende von genetischen Loci zu verstehen.

  • 00:05:00 In diesem Abschnitt der Vorlesung diskutiert der Dozent die Herausforderung, die Genetik zum Verständnis von Krankheitsmechanismen für komplexe Merkmale zu nutzen, die hauptsächlich von nicht kodierenden Varianten bestimmt werden. Um dieser Herausforderung zu begegnen, schlägt der Kursleiter vor, epigenomische Annotationen von Zellschaltkreisen und Deep-Learning-Modellen zu verwenden, um globale Eigenschaften in allen genetisch assoziierten Regionen für ein bestimmtes Merkmal zu identifizieren. Durch den Vergleich der Anreicherungsunterschiede bei verschiedenen Merkmalen wie Größe und Typ-1-Diabetes schlägt der Kursleiter vor, dass sie Eigenschaften lernen können, die sich über alle Regionen erstrecken, und sie verwenden können, um Eigenschaften einzelner Loci abzuleiten. Dieser Ansatz kann eine unvoreingenommene Sicht auf Krankheiten bieten und bei der Vorhersage von Zielgenen, Therapeutika und personalisierter Medizin helfen.

  • 00:10:00 In diesem Abschnitt erläutert der Referent den Prozess der Bewertung der Überlappung zwischen genetischen Varianten und gewebespezifischen Enhancern, um mithilfe eines hypergeometrischen oder binomialen statistischen Tests nach einer signifikanten Anreicherung zu suchen. Sie fanden heraus, dass genetische Varianten, die mit verschiedenen Merkmalen assoziiert sind, eine gewebespezifische Anreicherung über Enhancer zeigen, die in diesen Geweben aktiv sind. Beispielsweise wurden genetische Varianten, die mit der Körpergröße assoziiert sind, in embryonalen Stammzellen-Enhancern angereichert, während genetische Varianten, die mit dem Blutdruck assoziiert sind, in Enhancern angereichert wurden, die im linken Ventrikel wirken. Sie entdeckten auch, dass die Alzheimer-Krankheit nicht global mit im Gehirn aktiven Enhancern angereichert wurde, sondern mit Enhancern, die in Immunzellen des Gehirns, insbesondere CD14+-Zellen, aktiv sind. Dies veranlasste sie zu der Annahme, dass genetische Varianten, die mit Alzheimer assoziiert sind, hauptsächlich in Immunzellen des Gehirns wirken. Sie können diese Informationen nun in einem Bayes'schen Rahmen verwenden, um zu bestimmen, welche genetischen Varianten, die mit Krankheiten assoziiert sind, mit größerer Wahrscheinlichkeit funktionsfähig sind.

  • 00:15:00 In diesem Abschnitt des Vortrags diskutiert der Referent, wie die beobachteten Anreicherungen in empirische Priors umgewandelt werden können, die in GWAS verwendet werden können. Am Beispiel von Morbus Crohn und Alzheimer erklärt der Referent, dass genetische Varianten, die mit einer Krankheit assoziiert sind und in bestimmten Regionen angereichert sind, als Vorstufe verwendet werden können, um das kausale SNP innerhalb eines bestimmten Locus vorherzusagen. Anschließend erläutern sie, wie dieser Prior mit den Nachweisen aus der GWAS-Zusammenfassungsstatistik kombiniert werden kann, um eine Posterior-Wahrscheinlichkeit für jede Variante zu erstellen. Die Wirksamkeit dieser RIVIERA genannten Methode zeigt sich in der Tatsache, dass die priorisierten SNPs mit größerer Wahrscheinlichkeit evolutionär konserviert und in eQTLs und digitalen Genom-Fußabdrücken gefunden werden.

  • 00:20:00 In diesem Abschnitt des Vortrags erörtert der Referent die Verwendung angereicherter Enhancer, um hochspezifische Assoziationen zwischen genetischen Varianten und Merkmalen herzustellen. Durch Zuordnung dieser Merkmale zu den Enhancern, mit denen sie sich überschneiden, diskutiert der Redner die Aufteilung genetischer Loci in spezifische Gewebe, um die mit diesen Loci verbundenen biologischen Funktionen besser zu verstehen. Der Referent hebt hervor, wie dies verwendet werden kann, um komplexe Merkmale in einfachere Komponenten aufzuteilen und Loci basierend auf ihrer Nähe zu Enhancern in bestimmten Geweben zu priorisieren. Der Referent liefert auch mehrere Beispiele für Loci, die mit koronarer Herzkrankheit assoziiert sind und sich mit verschiedenen Geweben und Zielgenen überschneiden. Darüber hinaus erörtert der Referent, wie auch neue Loci, die keine genomweite Bedeutung erreichen, untersucht und bestimmten Geweben zugeordnet werden können.

  • 00:25:00 In diesem Abschnitt erklärt der Dozent, wie sie einen maschinellen Lernansatz verwenden, um unterschwellige Loci zu priorisieren, die weniger signifikant als die genomweite Bedeutung sind, und neue Loci durch Lernen von Merkmalen in den genomweiten signifikanten zu entdecken . Sie entdeckten viele Loci, die mit Herzrepolarisation assoziiert sind, und nutzten ihre Merkmale als Prädiktoren, um unterschwellige Varianten mit zusätzlichen Beweislinien aus experimentellen Tests zu priorisieren. Sie fanden heraus, dass die mit diesem Ansatz priorisierten Gene für verwandte Genomassoziationsstudien stark angereichert und mit sinnvollen Zielgenen verknüpft waren, mit einer starken Korrelation zu Herzleitungs- und Kontraktilitätsphänotypen. Sie diskutierten auch, wie sie quantitative Trait-Loci der Expression verwenden, um die Lücke zwischen genetischer Variation und Krankheit zu schließen, indem sie sich intermediäre molekulare Phänotypen ansehen.

  • 00:30:00 In diesem Abschnitt erörtert der Referent die Verwendung von molekularen Zwischenmerkmalen, insbesondere des Expressionsniveaus eines Gens oder des Methylierungsniveaus einer bestimmten Stelle, als Möglichkeit, die Kausalität in genomweiten Assoziationsstudien zu untersuchen. Ziel ist es, sich auf bestimmte Gewebe, genomische Mechanismen, Veränderungen der Genexpression und Endophänotypen zu konzentrieren, um zu identifizieren, welche Merkmale eine Folge der Genetik sind und welche Merkmale eine Folge der Krankheit sind. Die Grundlage der quantitativen Methylierungsmerkmalsloci und der quantitativen Expressionsmerkmalsloci besteht darin, quantitative Merkmale wie die Größe zu messen und die Anzahl alternativer Allele mit dem Methylierungsgrad oder dem Expressionsgrad eines Gens in der Nähe zu korrelieren. Dieser Ansatz hat zur Entdeckung von Zehntausenden von Methylierungs-QTLs geführt, und die Annahme dieser intermediären molekularen Phänotypen kann helfen, die Methylierung vorherzusagen und diese mit Krankheiten zu korrelieren.

  • 00:35:00 In diesem Abschnitt diskutiert das Video, wie die imputierte Methylierung für größere Kohorten verwendet werden kann, um Korrelationen zwischen genotypgesteuerter Methylierung und Phänotypen wie der Alzheimer-Krankheit zu entdecken. Die zugeschriebene Methylierung ist die genetische Komponente der Methylierung, und durch Zuschreibung können Forscher weniger Individuen verwenden und nach genotypgesteuerter Methylierung suchen, die Leistung erhöhen und die genetische Komponente speziell betrachten. Das Video zeigt auch Beispiele dafür, wie in bestimmten Fällen bei der gemeinsamen Verwendung mehrerer SNPs viele SNPs, die genomisch nicht signifikant waren, signifikant wurden, was es Forschern ermöglicht, ihre Wirkungen zu kombinieren, um die Methylierung vorherzusagen.

  • 00:40:00 In diesem Abschnitt der Vorlesung über Deep Learning in den Biowissenschaften diskutiert der Referent eine Methodik zur Identifizierung vermittelnder Faktoren des Krankheitsphänotyps durch Genetik-, Methylierungs-, Transkriptions- und Confounder-Studien. Sie erläutern den Prozess der Verwendung linearer Regressionsmodelle zur Vorhersage der Beziehung zwischen diesen verschiedenen Faktoren und der Genexpression, zur Korrektur von Variablen wie Populationseffekten und Chargeneffekten und schließlich zur Identifizierung genetischer Treiber von intermediären molekularen Phänotypen wie Methylierung und Expression. Die Methodik umfasst ein QQ-Plot zur Bewertung der Kalibrierung von Statistiken und die Verwendung von Kovariaten wie Alter, Geschlecht und Hauptkomponenten für Genotypen und Expression zur Interpretation der Ergebnisse.

  • 00:45:00 In diesem Abschnitt der Vorlesung liegt der Schwerpunkt auf der Kombination von persönlichen Genotyp- und Ausdruckskomponenten, um festzustellen, ob ein Modell, das zusätzliche Kovarianz und Genotyp enthält, die phänotypische Ausdrucksvariable besser erklären kann als nur das Basismodell. Dies ist die Grundlage einer eQTL-Studie (Expression Quantitative Trait Locus), die durch eine Allelanalyse ergänzt werden kann. Die Allelanalyse beinhaltet die Aufteilung der Reads von heterozygoten Individuen in solche, die ein Allel mit einem A enthalten, und solche, die ein anderes Allel mit einem C aus derselben Zelle derselben Person enthalten. Durch Assoziieren des A-Genotyps mit der allelspezifischen Expression dieses Allels, das eine höhere Expression als das C-Allel zu haben scheint, kann man die allelspezifische Wirkung einer bestimmten Region, die getestet wird, bei einem bestimmten SNP betrachten. Die Vorlesung behandelt auch Reaktions-QTLs und ihre Rolle bei der Bestimmung von QTLs als Reaktion auf eine bestimmte Umgebungsbedingung.

  • 00:50:00 In diesem Abschnitt erörtert der Dozent das Konzept der Expressionsquantitativen Trait Loci (eQTLs), bei denen es sich um genomische Loci handelt, die die Genexpressionsniveaus regulieren. Der Dozent erklärt, dass eQTLs entweder ständig vorhanden sein können oder nur als Reaktion auf einen bestimmten Stimulus vorhanden sind. Das Transkript geht dann zum Thema der Kausalitätsinferenz über, die der Dozent erklärt, um festzustellen, welche Loci eine kausale Rolle bei einer Krankheit spielen und welche nur mit den Krankheitsphänotypen korrelieren. Der Dozent erklärt, dass das kausale Inferenzfeld in zwei Kategorien unterteilt ist: kausale Wirkung und kausale Entdeckung. Die Vorlesung wird sich hauptsächlich auf den kausalen Effekteinfluss konzentrieren.

  • 00:55:00 In diesem Abschnitt erörtert der Sprecher die Verwendung kausaler Inferenzmethoden beim Studium der genetischen Analyse. Kausale Inferenz beinhaltet experimentelle Interventionen, um die Auswirkung der Änderung einer Variablen x auf die Ergebnisvariable y zu bestimmen. Das Ziel besteht darin sicherzustellen, dass die bedingte Wahrscheinlichkeit nahezu gleich der Interventionswahrscheinlichkeit ist. Der Referent erläutert auch die Konzepte der Erreichbarkeit, Konditionierung, Anpassung und d-Trennung. Durch die Verwendung einer kausalen grafischen Sprache können Forscher kausale Fragen stellen und kausale versus antikausale Pfade identifizieren. Das Vorhandensein eines Hintertürpfads kann die Interpretation der bedingten Wahrscheinlichkeit beeinflussen und zu dem Missverständnis führen, dass Korrelation gleich Kausalität ist.

  • 01:00:00 In diesem Abschnitt diskutiert der Dozent das Konzept, den Hintertürpfad zwischen Vektorvariablen zu blockieren, um den kausalen Effekt in der Genomforschung zu identifizieren. Sie führen die Idee der d-Trennung ein und erzeugen Collider-Muster, indem sie bestimmte Variablen konditionieren. Der Dozent erklärt, dass Forscher, wenn eine Variable einfach genug ist, Interventionen vornehmen und Variablen zufällig zuweisen können, um die Abhängigkeit zwischen Confoundern und der interessierenden Variablen aufzuheben. Der Dozent betont, dass die Genetik eine wichtige Variable in der Genomforschung ist, da sie nicht von Umweltfaktoren beeinflusst wird und das Setzen auf einen bestimmten Wert wie eine natürliche randomisierte Kontrollstudie ist.

  • 01:05:00 In diesem Abschnitt erörtert der Dozent das Konzept der Mendelschen Randomisierung und wie es verwendet werden kann, um die Beziehung zwischen Genotypen, intermediären Phänotypen und Krankheitsphänotypen zu verstehen. Die Genotypen sind wunderbar randomisiert, was es einfacher macht, den wahren kausalen Effekt abzuschätzen. Obwohl diese Methode stark auf Annahmen beruht, wurde sie erfolgreich in Gen-eQTL- und Gen-Umwelt-Interaktionsstudien angewendet. Darüber hinaus erklärt der Dozent, dass eine weitere Möglichkeit zur Schätzung des Beta-Regressionsparameters und der Mediationseffekte durch die Kombination der Regression y auf g und einer weiteren Regression x auf g besteht. Letztendlich bietet die Mendelsche Randomisierung eine einzigartige Gelegenheit, komplexe Beziehungen zwischen Variablen zu verstehen, die im wirklichen Leben schwer zu manipulieren sind.

  • 01:10:00 In diesem Abschnitt diskutiert der Dozent zwei Ansätze zur Ableitung kausaler Effekte in der Genomforschung: Mendelian Randomization (MR) und Rubin's Quasi-Inference Model. MR ist eine randomisierte Kontrollstudie, die Genotypen verwendet, um Zwischenvariablen für eine randomisierte kontrollierte Studie zu einem Krankheitsausgang zufällig zu stören. MR kann jedoch schwierig sein, wenn es um unbekannte Confounder geht oder wenn es alternative Pfade gibt. Rubins Quasi-Inferenz-Modell ist ein kontrafaktischer Denkansatz, der kausale Effekte misst, wenn die Zuordnung eine diskrete Variable ist. Dieser Ansatz schafft ein Imputationsproblem, da das potenzielle Ergebnis für eine Einheit fehlt, wenn es nicht beobachtet wurde.

  • 01:15:00 In diesem Abschnitt der Vorlesung Deep Learning in Life Sciences geht der Referent auf die Potential-Outcome-Methode zur kausalen Inferenz in genetischen Studien ein. Annahmen wie Unabhängigkeit, starke Ignorierbarkeit und Überschneidungen sind notwendig, um einzelne kausale Effekte genau abzuschätzen. Der Referent liefert auch ein Spielzeugbeispiel mit einem Alzheimer-Medikament und erörtert, wie die Anpassung einer Neigungsfunktion und die Verwendung von Neigungs-Scores dazu beitragen können, Verzerrungen auszugleichen und faire Vergleiche zwischen Behandlungs- und Kontrollgruppen zu erstellen. Die Potential-Outcome-Methode ermöglicht es Forschern, interessante Fragen zu den Auswirkungen verschiedener Behandlungen und Interventionen zu stellen.

  • 01:20:00 In diesem Abschnitt erörtert der Referent die kausale Inferenz durch das potenzielle Ergebnis-Framework und modernste kontrafaktische Inferenztechniken. Sie erklären, wie die Gewichtung der behandelten Gruppen den Unterschied in den Ergebnissen erklären kann und wie die Imputation verwendet werden kann, um potenzielle Ergebnisse abzuschätzen. Sie diskutieren auch ein aktuelles Papier, das die Verwendung einer Snip-Matrix zur Erfassung mehrerer Confounder und die Verwendung von Populations-PC zur Anpassung an diese Confounding-Effekte sowie eine Strategie zur Imputation fehlender Daten mithilfe von Bayes'schen Regressionsbäumen vorschlägt. Dadurch können individuelle kausale Effekte gemessen werden, um die Wirksamkeit von Behandlungen zu bestimmen.

  • 01:25:00 In diesem Abschnitt diskutiert der Referent den Aspekt der kausalen Entdeckung von Deep Learning in den Biowissenschaften. Sie erklären, dass das Lernen der kausalen Graphstruktur aus hochdimensionalen Datenmatrizen ein komplexes und herausforderndes Problem ist. Sie stellen jedoch fest, dass der Durchbruch in diesem Bereich durch den Einsatz von Genetik bei der Störung von Genen und der Messung der Genexpression zum Erlernen von Netzwerken erzielt wurde. Sie erklären, dass sich die Forscher nun auf die Invarianzbedingung verlassen, die ein einziges kausales Modell annimmt, das die Daten generiert, anstatt eine punktzahlbasierte Wahrscheinlichkeit zu verwenden, und diese Annahme verwenden, um die kausale Struktur der Daten zu identifizieren. Der Referent liefert auch ein Spielzeugbeispiel, das diesen Ansatz demonstriert.

  • 01:30:00 In diesem Abschnitt der Vorlesung diskutiert der Referent die Idee der Invarianzbedingung und ihre Anwendung bei der Bestimmung, ob ein Modell experimentelle Daten konsistent erklären kann. Der Referent zeigt am Beispiel von Gen-Knockout-Experimenten, wie die Einbeziehung eines falschen Prädiktors zur Ablehnung der experimentellen Ergebnisse führen kann. Auch die Idee der kausalen Triangulation wird erwähnt, um die Reproduzierbarkeit wissenschaftlicher Experimente zu verbessern. Der Redner schließt mit der Betonung der Bedeutung multipler orthogonaler Beweise für die Entwicklung eines kausalen Algorithmus.
 

Systemgenetik - Vorlesung 14



Systemgenetik - Vorlesung 14 - Deep Learning in Life Sciences (Frühjahr 2021)

In diesem Vortrag über Systemgenetik und Deep Learning behandelt der Referent mehrere Themen, darunter SNP-Erblichkeit, Partitionierung der Erblichkeit, stratifizierte LD-Score-Regression und Deep Learning in der molekularen Phänotypisierung. Sie untersuchen auch die Verwendung elektronischer Patientenakten, genomischer Assoziationsstudien und Genomik, um einen britischen Biobank-Datensatz von rund 500.000 Personen mit Tausenden von Phänotypen zu analysieren. Der Dozent diskutiert, wie Deep-Learning-Modelle für die Sequenzfunktionsvorhersage verwendet werden können, um die Verschaltung von Krankheitsloci zu verstehen, und die Verwendung von linearen gemischten Modellen für GWAS- und EQTL-Calling. Sie gehen auch auf die Verzerrungen und Verletzungen von Modellannahmen beim Deep Learning ein und betonen die Bedeutung zelltypspezifischer regulatorischer Anmerkungen beim Rückschluss auf krankheitskritische Zelltypen. Abschließend diskutiert der Dozent die Komplexität der Erkenntnisse in Bezug auf negative Selektion und kausale Effektgrößen und stellt Professor Manuel Rivas von der Stanford University vor, um die Zerlegung genetischer Assoziationen zu diskutieren.

Die Vorlesung befasst sich mit der Anwendung genetischer Daten in verschiedenen Bereichen, einschließlich der Quantifizierung der Zusammensetzung und der Beitragskomponenten von Merkmalen, der Identifizierung genetischer Varianten, die zur Adipogenese oder Lipolyse beitragen, der Identifizierung von Mutationen mit starken Auswirkungen auf die Genfunktion und einem geringeren Krankheitsrisiko sowie der Entwicklung von Risikovorhersagemodelle mit multivariater Analyse. Darüber hinaus diskutiert der Vortrag die Anwendung polygener Risiko-Score-Modelle in verschiedenen Biomarkern und betont die Notwendigkeit des Datenaustauschs zwischen verschiedenen Populationen, um die Vorhersagegenauigkeit zu verbessern, insbesondere im Fall von außereuropäischen Populationen. Die Vorlesung schließt mit der Bereitschaft, Studenten zu betreuen, die an Forschungsprojekten im Zusammenhang mit polygenen Scores und biotropen Effekten der UK Biobank interessiert sind.

  • 00:00:00 In diesem Abschnitt führt der Referent in das Thema Systemgenetik und elektronische Gesundheitsakten ein. Sie gehen kurz auf die in den vorherigen Vorlesungen behandelten Konzepte ein, einschließlich häufiger und seltener Varianten, polygener Risikobewertungen, Kopplungsungleichgewicht und Feinkartierungsvarianten. Der Referent diskutiert die Herausforderungen bei der Interpretation genomweiter Assoziationsstudien aufgrund der überwiegenden Mehrheit nicht-kodierender Assoziationen mit mehreren SNPs. Anschließend führen sie die Verwendung von Genom-, RNA- und Variationsinformationen sowie Deep-Learning-Modelle für die Sequenzfunktion ein, um Treibergene, -regionen und -zelltypen vorherzusagen, um die zugrunde liegenden Krankheitsloci zu verstehen. Der Referent stellt auch die Verwendung von linearen gemischten Modellen sowohl für GWAS- als auch für EQTL-Calling vor, die die festen und zufälligen Auswirkungen auf interessierende Phänotypen unter Verwendung von Genotypen und Kovariaten vorhersagen.

  • 00:05:00 In diesem Abschnitt erklärt der Dozent die grundlegende Grundlage für die Vorhersage des Phänotyps einer Person basierend auf ihren genetischen Varianten und der Effektgröße jedes alternativen Allels über alle SNPs im Genom und alle Individuen in der Kohorte. Das Rauschen wird über Personen mit einem zentrierten Wert bei Null und einer quadrierten Kovarianzmatrix verteilt. Zusätzlich werden Zufallseffekte berücksichtigt, indem eine Verwandtschaftsmatrix verwendet wird, die das genetische Teilen zwischen Individuen misst. Ein bayesianischer Ansatz wird verwendet, um alle Unbekannten zu integrieren und die Wahrscheinlichkeit von phänotypischen Effekten zu bestimmen, die von der Kovarianzmatrix angetrieben werden. Lineare gemischte Modelle werden erstellt, um die Gesamtvererbbarkeit eines bestimmten Merkmals zu schätzen, die auf der Infinitesimalannahme basiert und unter Verwendung eines eingeschränkten Maximum-Likelihood-Modells geschätzt wird. Dieses Zufallseffektmodell erfasst die Transformationen von Daten und funktioniert trotz des fehlenden Wissens über die tatsächliche kausale Varianz.

  • 00:10:00 In diesem Abschnitt erörtert der Referent die Verwendung von Deep Learning zur Erfassung zusätzlicher Variationen durch die Vorhersage der Wirkung von intermediären molekularen Phänotypen und der linearen Beziehung zwischen SNPs und Expression. Der Sprecher erklärt, dass dies unter Verwendung vorheriger Verteilungen erfolgen kann, die dem potenziellen Rauschen in der Umgebung der Schätzung entsprechen, wodurch auf das am meisten bevorzugte Ergebnis geschlossen werden kann. Sie erwähnen auch den Einfluss von Populationsunterschieden, wobei die stärksten Effekte, die genetische Matrizen antreiben, direkt von Populationsunterschieden herrühren. Abschließend erläutert der Referent das Konzept der Erblichkeit und wie die Aufteilung der genetischen Verwandtschaft in Teilmengen des Genoms ein leistungsfähiger Ansatz zur Berechnung der Erblichkeit sein kann, und legt nahe, dass je länger die Chromosomen sind, desto mehr Varianten erklären sie für viele komplexe Merkmale.

  • 00:15:00 In diesem Abschnitt erklärt Alkes Price von der Harvard School of Public Health das Konzept der SNP-Heritabilität, eines Parameters, der als der in der gesamten Bevölkerung erreichbare Maximalwert in Bezug auf die Beziehung zwischen Phänotyp und Genotyp definiert ist. Er diskutiert die Idee, die Vererbbarkeit auf verschiedene funktionelle Kategorien von SNPs aufzuteilen, wie z. B. codierend versus nicht codierend, und wie dies zu Schlussfolgerungen darüber führen könnte, welche SNPs für Vererbbarkeit in bestimmten Krankheiten und Geweben angereichert sind. Price stellt auch das Konzept der stratifizierten LD-Score-Regression als Werkzeug zur Untersuchung krankheitskritischer Zelltypen und zellulärer Prozesse im gesamten menschlichen Körper vor.

  • 00:20:00 In diesem Abschnitt stellt der Referent die Idee vor, zusammenfassende Assoziationsstatistiken aus großen Datensätzen in der statistischen Genetik zu analysieren. Diese Methode ist nützlich, wenn Krankheiten wie Schizophrenie, rheumatoide Arthritis und Morbus Crohn analysiert werden, bei denen große Stichprobengrößen verfügbar sind, indem zusammenfassende statistische Daten anstelle von Genotypen und Phänotypen auf individueller Ebene verwendet werden. Der Referent erläutert die Methode der stratifizierten LD-Score-Regression, die verwendet wird, um Chi-Quadrat-Assoziationsstatistiken von Krankheits-GWAS über SNPs mit LD aus verschiedenen Funktionskategorien zu regressieren. Die Methode basiert auf der Idee, dass ein durchschnittliches Chi-Quadrat größer als eins keine Verwechslung impliziert und sich auf den durchschnittlichen LD-Wert aller SNPs stützt.

  • 00:25:00 In diesem Abschnitt erläutert der Referent das Konzept des Markierungssignals und des biologisch kausalen Signals in Bezug auf SNPs (Single-Nucleotide Polymorphisms) und ihre LD-Werte (Linkage Disequilibrium). Sie diskutieren, wie die Methode der stratifizierten LD (Linkage Unequilibrium)-Score-Regression helfen kann, Confounding in diesen Scores zu erkennen, wobei ein höherer durchschnittlicher Chi-Quadrat-Score auf das Vorhandensein von Confounding hinweist. Sie berühren auch das Problem des genomischen LD (Kopplungsungleichgewicht) und wie es je nach Population und Häufigkeit von SNPs variiert. Der Referent präsentiert dann reale Daten in Form eines Schizophrenie-Datensatzes, um diese Methode weiter zu veranschaulichen.

  • 00:30:00 In diesem Abschnitt der Vorlesung wird eine Regressionsgleichung eingeführt, um die SNP-Heritabilität anhand von LD-Scores abzuschätzen. Der Schnittpunkt der Regressionsgleichung spiegelt die Verwirrung wider, während die Steigung die Korrelation zwischen der Chi-Quadrat-Statistik und dem LD-Score widerspiegelt. Diese Steigung kann verwendet werden, um die SNP-Vererbbarkeit abzuschätzen, und die jeweiligen Steigungen der multilinearen Regression können uns Aufschluss über die kausale SNP-Vererbbarkeit verschiedener funktioneller Kategorien geben. Die Mengenanreicherung kann den Prozentsatz der SNP-Heritabilität messen, der durch eine bestimmte Funktionskategorie erklärt wird, gegenüber dem Prozentsatz der SNPs, die Teil dieser Kategorie sind. Die funktionale Interpretation der Steigung hängt davon ab, ob sich die funktionalen Kategorien überschneiden oder nicht.

  • 00:35:00 In diesem Abschnitt erörtert der Referent die stratifizierte LD-Score-Regression, die verwendet wird, um die Anreicherung in verschiedenen funktionalen Anmerkungen zu bewerten. Die Methode wird auf die Codierung von SNPs, Enhancern, Histonmarkern und mehr angewendet. Der Referent merkt an, dass die Methode unverzerrte Schätzungen erzeugt, wenn die kausalen Kategorien im Modell enthalten sind, aber verzerrt wird, wenn die kausalen Kategorien nicht im Modell enthalten sind. Aber selbst wenn einige Kategorien fehlen, kann das Modell noch genügend Reichhaltigkeit bieten, um nahezu unvoreingenommene Schätzungen für die verbleibenden Kategorien zu erstellen. Der Referent betont, dass Datenmethoden auf individueller Ebene derzeit nicht dafür ausgelegt sind, auf einer großen Anzahl von sich überschneidenden oder kontinuierlich bewerteten funktionalen Kategorien zu laufen.

  • 00:40:00 In diesem Abschnitt erklärt der Redner, dass es potenzielle Verstöße gegen Modellannahmen beim Deep Learning gibt, wenn man nicht aufpasst, und nennt ein Beispiel mit top qtl in Genexpressionsdaten, das die grundlegende Modellannahme nicht erfüllt. Anschließend diskutiert der Referent die Anwendungen der Deep-Learning-Methode auf echte Chromatin- und Genexpressionsdaten. Unter Verwendung öffentlich zugänglicher zusammenfassender Statistiken von 17 Merkmalen stellte der Referent fest, dass codierende SNPs für Krankheiten und komplexe Merkmale angereichert sind, insbesondere für Autoimmunerkrankungen und Körpergröße, während konservierte SNPs bei 29 Säugetieren ebenfalls einen erheblichen Einfluss auf Krankheiten haben. Darüber hinaus wurde festgestellt, dass Phantom-Five-Enhancer eine signifikante Anreicherung für Autoimmunerkrankungen aufweisen. Die Diskussion wendet sich dann der Interpretation dieser Ergebnisse in Bezug darauf zu, wie bestimmte Merkmale eine höhere oder niedrigere Kopplung mit der Fortpflanzungsfähigkeit haben können.

  • 00:45:00 In diesem Abschnitt erklärt der Dozent die Gründe, warum bestimmte Funktionskategorien für die Heritabilität angereichert werden, die nicht auf größere kausale Effektstärken zurückzuführen sind. Gewöhnliche Snips haben aufgrund der negativen Selektion eine weiche Obergrenze für die Effektstärken, daher geht es mehr um die Anzahl der Snips in der funktionellen Kategorie, die etwas tun, wobei jede mittlere oder kleine bis mittlere kausale Effektgröße hat. Der Dozent geht auch auf die Bedeutung zelltypspezifischer regulatorischer Annotationen bei der Ableitung krankheitskritischer Zelltypen ein. Die regulatorischen Anmerkungen des Gehirns sind am stärksten für Schizophrenie angereichert, verbundene regulatorische Anpassungen des Knochens sind am stärksten für die Größe angereichert und Immunzelltypen sind am stärksten für rheumatoide Arthritis angereichert. Ein genomweiter polygener Ansatz kann größere biologische Erkenntnisse für hochgradig polygene Merkmale liefern als herkömmliche Ansätze, die sich auf genomweite signifikante Snips konzentrieren, deren Anzahl für diese Merkmale möglicherweise sehr gering ist.

  • 00:50:00 In diesem Abschnitt des Vortrags erörtert der Referent die Verwendung von Genexpressionsdaten zur Untersuchung spezifischer Gene im Zusammenhang mit bestimmten Krankheiten, einschließlich Schizophrenie und rheumatoider Arthritis. Sie erwähnen auch das Konzept der ld-abhängigen Architekturen, bei denen die Größe der kausalen Effekte vom ld-Level abhängt, und wie Snips mit niedrigeren ld-Levels größere kausale Effektgrößen in 56 verschiedenen Merkmalen haben. Der Referent erwähnt die Komplexität dieser Befunde, die mit negativer Selektion zusammenhängen, hat aber keine Zeit mehr, Einzelzell-RNA-Sequenzierungsdaten und krankheitskritische Zelltypen zu diskutieren. Anschließend stellen sie Professor Manuel Rivas von der Stanford University vor, der den Prozess der Kombination elektronischer Patientenakten, genomischer Assoziationsstudien und Genomik zur Analyse eines populationsbasierten britischen Biobank-Datensatzes von rund 500.000 Personen mit Tausenden von Phänotypen erörtert.

  • 00:55:00 In diesem Abschnitt diskutiert der Redner einen Ansatz namens Dekomposition genetischer Assoziationen, bei dem viele-zu-viele-Abbildungen in weniger Komponenten zerlegt werden, um genetische Assoziationsstudien darzustellen. Der Sprecher verwendete einen verkürzten Singularwert-Zerlegungsansatz, um eine Matrix darzustellen, die aus zusammenfassenden Daten für Tausende von Merkmalen und genetischer Varianz besteht, was zu einer niederrangigen Komponente von etwa 100 Komponenten führt, von denen jede ein Produkt orthogonaler Elemente in drei Matrizen ist . Die ersten beiden Komponenten waren durch anthropometrische Phänotypen gekennzeichnet, und der Sprecher projizierte, wie jede Variante auf die beiden Komponenten geladen wird, um zu sehen, wie sie sich auf verschiedene Phänotypen auswirken.

  • 01:00:00 In diesem Abschnitt erklärt der Referent, wie die Zusammensetzung und Beitragskomponenten für ein bestimmtes Merkmal quantifiziert werden können, wie z. B. den Body Mass Index (BMI), der sich aus einer Fettkomponente und einer fettfreien Massekomponente zusammensetzt . Zum genetischen Risiko des BMI würde neben anderen Komponenten auch eine Fettkomponente beitragen. Der Referent erklärt, dass sie daran interessiert sind, genetische Varianten zu identifizieren, die zu Adipogenese- oder Lipolyseeffekten beitragen können, anstatt nur einen fettfreien Effekt auf den Body-Mass-Index zu haben, indem sie spezifische Protein-Truncating-Varianten (PTVs) untersuchen und starke Effektgrößen identifizieren. Durch diesen Prozess identifiziert der Sprecher das Gen pde3b, das einen hohen Beitrag der cholesterinfettfreien Masse zum BMI leistet, und GPR 151, das funktionelle Konsequenzen für die Idiprogenese hat. Die genetischen Assoziationen für 2000 Phänotypen sind online unter biobank engine.com.edu verfügbar, mit der Idee, dass es ein Suchportal für jeden wird, um entweder sein Lieblingsgen, seine Lieblingsvariante oder seinen Phänotyp zu durchsuchen und die Assoziationen zu durchsuchen, die für verschiedene beliebte verfügbar sind Biobanken.

  • 01:05:00 In diesem Abschnitt erörtert der Referent die Identifizierung von Mutationen, die starke Auswirkungen auf die Genfunktion haben und das Krankheitsrisiko senken, was zu neuen therapeutischen Hypothesen führen und die Auswahl von Zielen für die Arzneimittelforschung leiten kann. Sie erklären den Prozess der Identifizierung spezifischer genetischer Varianten mit starken Auswirkungen auf die Genfunktion und den Phänotyp, indem sie zusammenfassende Daten aus mehreren Biobanken kombinieren. Durch die Schätzung genetischer Parameter wie der Vererbbarkeit der Polygenität und der Korrelation genetischer Effekte zielen sie darauf ab, die Beziehung zwischen Genetik und Merkmalen/Krankheiten zu visualisieren, um die Schlussfolgerung zu verbessern und die therapeutische Entwicklung zu steuern. Beispiele für Mutationen mit starker Wirkung und ihre Auswirkungen auf den Schutz vor Krankheiten wie Asthma und Typ-1-Diabetes werden ebenfalls bereitgestellt.

  • 01:10:00 In diesem Abschnitt diskutiert der Moderator die Anwendung genetischer Daten in Risikovorhersagemodellen. Menschen haben eine große Anzahl von genetischen Varianten, die mit Hunderten von Phänotypen verbunden sind, sodass ein Ansatz zur Erforschung dieser Verbindungen darin besteht, Millionen von univariaten Modellen anzupassen. Dieser Ansatz hat jedoch aufgrund der Korrelation zwischen genetischen Varianten schwache Eigenschaften für die Vorhersage, was es schwierig macht, die relevante Variante von anderen zu unterscheiden. Daher wird ein multivariates Modell entwickelt, indem große Regressionsmodelle mit Millionen von Variablen angepasst werden. Das für diese Modelle entwickelte Paket heißt S-LDSC. Das Modell verwendet den Lasso-Algorithmus, einen bestraften Regressionsrahmen, der eine Variablenauswahl zur Verbesserung der Vorhersageleistung ermöglicht.

  • 01:15:00 In diesem Abschnitt erörtert der Referent die Anwendung polygener Risiko-Score-Modelle für 35 Biomarker, darunter kardiovaskuläre, Nieren- und Leber-Biomarker. Die Studie erstellte einen Trainingsdatensatz von 70, einen Validierungssatz von 10 und eine Testaufteilung von 20, um die Modellleistung zu bewerten. Die Leistung von Modellen wurde in verschiedenen Populationen gemessen, und die Ergebnisse zeigten Einschränkungen im Zusammenhang mit der Übertragung dieser Vorhersagemodelle von einer Population, die kausale Varianten für Vorhersagen verwendet, auf andere Populationen. Die Studie zeigte, dass die Korrelationsstruktur in verschiedenen Populationen variierte, was sich auf die Vorhersageleistung von Modellen auswirkte. Darüber hinaus können unterschiedliche Sätze genetischer Varianten die Erblichkeit des Phänotyps erklären, und die Übertragung von Vorhersagemodellen von einer Population auf andere Populationen funktioniert möglicherweise nicht so gut, wodurch die Beziehung der Korrelationsstruktur zwischen genetischen Varianten zerstört wird. Dies erfordert die gemeinsame Nutzung von Daten über verschiedene Bevölkerungsgruppen hinweg, um die Vorhersagegenauigkeit zu verbessern.

  • 01:20:00 In diesem Abschnitt erklärt der Referent, dass bei der Untersuchung genetischer Varianten in verschiedenen Populationen das Fehlen bestimmter Varianten in außereuropäischen Populationen zu einer Heterogenität der Effektstärken beitragen kann. Wenn jedoch eine Variante in mehreren Populationen vorhanden ist, sind die Effektstärken tendenziell homogener. Das Beispiel von Lipoprotein a wird mit der Erklärung gegeben, dass genetische Varianten, die zur Varianz in der europäischen Bevölkerung beitragen, in der afrikanischen Bevölkerung nicht existieren, was zu einer schlechten Leistung in afrikanischen Populationen führt. Der Referent erklärt sich auch bereit, Studenten zu betreuen, die an Forschungsprojekten im Zusammenhang mit polygenen Scores und biotropen Effekten der UK Biobank interessiert sind.
 

Graph Neuronale Netze - Vorlesung 15



Graph Neural Networks - Vorlesung 15 - Lernen in den Lebenswissenschaften (Frühjahr 2021)

In diesem YouTube-Vortrag zu Graph Neural Networks deckt der Referent ein breites Themenspektrum ab, darunter die Grundlagen von Graphennetzwerken, Spektraldarstellungen, halbüberwachte Klassifikation und multirelationale Datenmodellierung. Ein weiterer Schwerpunkt liegt auf der Schnittmenge von Graphennetzwerken und der Verarbeitung natürlicher Sprache und der Generierung von Graphen für die Wirkstoffforschung. Der Dozent erklärt verschiedene Methoden, um Informationen über Graphen zu verbreiten, um nützliche Knoteneinbettungen zu erhalten, die für Vorhersageaufgaben verwendet werden können. Der Vortrag beleuchtet auch die Bedeutung des kontrastiven Lernens für GNNs, die potenziellen Vorteile der Kombination von Patch-basierten Repräsentationen und aufmerksamkeitsbasierten Methoden sowie die Verwendung des Transformer-Ansatzes im NLP. Die zweite Hälfte der Vorlesung konzentriert sich auf die Erörterung von Artikeln, die die praktische Verwendung von GNNs in der Arzneimittelforschung zeigen und zeigen, wie die Struktur von Molekülen mithilfe eines Verbindungsbaums codiert und entschlüsselt werden kann.

In diesem Video werden mehrere Anwendungen von Graph Neural Networks (GNNs) in den Biowissenschaften erörtert, darunter die Wirkstoffforschung und die Inferenz latenter Graphen. Der Redner hebt die Probleme und möglichen Wege in GNNs hervor, wie z. B. das Fehlen räumlicher Lokalität und fester Reihenfolge, und der betrachtete Aufbau umfasst die Vorhersage des Typs eines bestimmten Knotens, die Vorhersage einer Verbindung zwischen zwei Knoten, die Messung der Ähnlichkeit zwischen zwei Knoten oder zwei Netzwerken , und Clustern von Knoten durch Ausführen einer Community-Erkennung im Netzwerk. Der Dozent erklärt auch, wie GNNs Graphen effizient trainieren und einbetten, Informationen transformieren und aggregieren und mit Nebenwirkungen der Polypharmazie umgehen können. Darüber hinaus behandelt die Vorlesung zwei Methoden zum automatischen Lernen von Repräsentationen in den Lebenswissenschaften, wobei Meta-Lernmodelle wie MARS genutzt werden, um auf neuartige Zelltypen zu verallgemeinern. Schließlich diskutiert der Vortrag, wie GNNs latente Zellrepräsentationen über mehrere Datensätze hinweg lernen können, um die Heterogenität von Zelltypen zu erfassen.

  • 00:00:00 In diesem Abschnitt stellt der Referent das vierte Modul zu Graphen und Proteinen und die kommenden Vorlesungen zu Graphen neuronalen Netzen, Proteinstruktur und Wirkstoffdesign vor. Der Sprecher betont, wie wichtig es ist, das Material durch Hausaufgaben, Wiederholungen und Papiere zu überprüfen, um sich auf ein bevorstehendes Quiz in der Klasse vorzubereiten. Das Ziel besteht nicht darin, die Schüler zu täuschen oder zu überraschen, sondern ihnen dabei zu helfen, sich auf das Gebiet einzulassen und ein tiefes Verständnis dafür zu erlangen. Der Referent informiert die Studenten auch über eine bevorstehende Vorlesung des AlphaFold-Teams zur Proteinfaltung, die einen revolutionären Fortschritt auf diesem Gebiet darstellt.

  • 00:05:00 In diesem Abschnitt stellt der Dozent das Konzept von Netzwerken vor und wie sie in verschiedenen Aspekten der Gesellschaft, einschließlich biologischer Netzwerke, allgegenwärtig sind. Die biologischen Netzwerke umfassen regulatorische Netzwerke, Signalisierungsnetzwerke und metabolische Netzwerke, die auf verschiedenen Ebenen der Zelle wirken. Es besteht Bedarf an Methoden der Netzwerkanalyse, um die Eigenschaften dieser Netzwerke zu verstehen, die miteinander interagieren. Außerdem werden probabilistische Netzwerke erwähnt, die Knoten und Kanten verwenden, um probabilistische Objekte darzustellen. Die Matrixdarstellungen dieser Netzwerke ermöglichen ihre Zerlegung, das Lernen von Gemeinschaften und das Identifizieren von Modulen durch lineare Algebra-Ansätze.

  • 00:10:00 In diesem Abschnitt des Vortrags gibt der Referent einen Überblick über das umfangreiche Werk zur Netzwerkanalyse und deren spektrale Darstellungen. Die diskutierten Methoden umfassen die Identifizierung der Trennbarkeit von Komponenten unter Verwendung maximaler Schnitte durch Netzwerke basierend auf den ersten und zweiten Eigenwerten der Laplace-Matrix sowie die Verwendung von Diffusionskernen, um den Informationsfluss zwischen verschiedenen Kanten zu verstehen. Der Referent betont, wie wichtig es ist, diese etablierte Literatur nicht zu vergessen, da sie in Kombination mit Deep-Learning-Methoden wie Graph Neural Networks, die in der Vorlesung besprochen werden, verwendet werden kann. Der Referent stellt dann den Gastdozenten Neil Band vor, der eine Auffrischung zu graphischen neuronalen Netzen geben und Problembereiche wie halbüberwachtes Lernen, multirelationale Daten und Verarbeitung natürlicher Sprache diskutieren wird.

  • 00:15:00 In diesem Abschnitt lernen wir, wie Informationen effektiv über Graphen weitergegeben werden, um Knotenmerkmale oder viele Graphen zu berechnen und nachgelagerte Operationen mithilfe von Graph-Faltungsnetzwerken durchzuführen. Dieses Netzwerk kann die Merkmalsinformationen aggregieren und den bestimmten Knoten aktualisieren, indem es zukünftige Informationen von Nachbarn empfängt und bezieht. Das Endziel von GNNS besteht darin, einen Einbettungsvektor zu erzeugen, der verwendet werden kann, um die Eigenschaft eines gesamten Graphen oder den Typ jedes einzelnen Knotens vorherzusagen. Die Aktualisierungsregel basiert auf der Weitergabe von Informationen von der verborgenen Darstellung des Knotens und von Aktualisierungen, die aus der unmittelbaren Nachbarschaft empfangen werden. Um die Anzahl der Parameter des Modells zu reduzieren, werden außerdem dieselben Gewichtungsmatrizen mit gemeinsamen Parametern auf alle Nachbarn angewendet, anstatt unterschiedliche anzuwenden.

  • 00:20:00 In diesem Abschnitt beschreibt der Dozent den Prozess der Verwendung von graphischen neuronalen Netzen zur Durchführung einer Klassifizierungsaufgabe für Zitationsnetzwerke mit Artikeln als Knoten und Zitatverknüpfungen als Kanten. Das zweischichtige Graph-Faltungsnetzwerk wird angewendet, bei dem jeder Knoten im Graph aktualisiert wird, um Informationen aus seiner unmittelbaren Nachbarschaft zu absorbieren und dann die Ausgaben zu erhalten. Der Dozent erwähnt den potenziellen Nachteil der Überglättung mit tiefen Netzwerken und schlägt vor, Gated Recurrent Units zu verwenden, um die Erinnerung an den Anfangszustand zu bewahren. Darüber hinaus diskutiert der Dozent die Möglichkeit, aufmerksamkeitsbasierte Methoden und Patch-basierte Repräsentationen zu kombinieren, um Repräsentationen höherer Ordnung in graphischen neuronalen Netzen zu lernen.

  • 00:25:00 In diesem Abschnitt diskutiert der Dozent verschiedene Paradigmen in neuronalen Graphennetzen, einschließlich Graphenfaltungsnetzen, Aufmerksamkeitsaktualisierungen und Nachrichtenübermittlungstechniken. Sie heben die potenziellen Gedächtnisprobleme hervor, die entstehen, wenn Graphen bei der Nachrichtenübermittlung zu dicht werden, betonen aber, dass diese Paradigmen für verschiedene Arten von Lernaufgaben nützlich sind. Anschließend tauchen sie in die halbüberwachte Klassifizierung auf Graphen ein, bei der die transduktive Einstellung es den Modellen ermöglichen kann, schnell zu lernen, auch ohne explizite Knotenmerkmale. Abschließend geht der Dozent auf relationale Graphen-Faltungsnetze ein, die zur Modellierung multirelationaler Daten, beispielsweise in der Verarbeitung natürlicher Sprache, verwendet werden können.

  • 00:30:00 In diesem Abschnitt geht der Dozent auf die Verbindung zwischen grafischen Netzwerken und der Verarbeitung natürlicher Sprache ein, insbesondere auf die Verwendung des Transformer-Modells im NLP. Das Transformer-Modell wird häufig für Aufgaben wie Sprachübersetzung und das Erlernen des allgemeinen konzeptionellen Verständnisses von Wörtern verwendet. Der Transformer-Ansatz beginnt mit einem vollständig verbundenen Graphen, im Gegensatz zu biologischen Netzwerken, bei denen viele Kanten fehlen, und verwendet die Selbstaufmerksamkeit, um Knoteneinbettungen zu aktualisieren, bevor eine aktualisierte Version ausgegeben wird. Während der Transformer-Ansatz nicht unbedingt biologischen Netzwerken zugute kommt, besteht ein Potenzial für die gegenseitige Befruchtung von Strategien und die Optimierung zwischen den beiden Bereichen.

  • 00:35:00 In diesem Abschnitt lernen wir, wie man eine Wörterinbettungsaktualisierung für einen aus zwei Wörtern bestehenden Satz durchführt und wie man ein bestimmtes Wort für alle anderen Wörter nachschlägt. Graph-Aufmerksamkeitsnetzwerke verwenden dieselbe Methode, außer dass sie davon ausgehen, dass die gesamte Nachbarschaft der Graph ist und es Positionseinbettungen gibt. Der Referent erklärt, wie Informationen zur Graphkonnektivität in die Architektur integriert und Teile des Graphen ausgeblendet werden, um nur zuvor erwähnte Wörter zu verwenden. Es gibt viele Möglichkeiten, diese Methoden übergreifend anzuwenden.

  • 00:40:00 In diesem Abschnitt geht der Dozent auf das unüberwachte Lernsetting von Learning Node Embeddings für nachgelagerte Aufgaben, wie z. B. Node-Classification oder Graph-Classification, ein. Um die Fähigkeit neuronaler Netze zu verbessern, gut spezifiziert zu werden, erklärt der Dozent das Konzept der Datenaugmentation und beschreibt, wie es in kontrastiven Lernansätzen verwendet wird. Die Vorlesung behandelt auch Designparameter, wie z. B. Sampling-Strategien, verschiedene Arten von Knotendarstellungen und verschiedene Arten von Scoring-Funktionen. Ein Ansatz besteht darin, die Bewertungsfunktion zu verwenden, um die gegenseitige Information zwischen den lokalen und globalen Darstellungen einer bestimmten Klasse zu maximieren. Dies ermutigt das Netzwerk, klassenbezogene Informationen aus verschiedenen Teilmengen von Informationen aus dem Diagramm herauszuziehen, was zu robusteren Knoteneinbettungen und einer besseren Downstream-Leistung führt.

  • 00:45:00 In diesem Abschnitt erörtert der Referent die Dimensionalität von Knoteneinbettungen in Graph-Neural-Networks (GNNs) und die Verwendung von kontrastivem Lernen für GNNs. Der Referent erklärt, dass die Eigenschaften von Knoten in GNNs in der Praxis in einem hochdimensionalen Raum leben könnten, z. B. 256 oder 512 Dimensionen für einen einzelnen Knoten in einem großen Diagramm. Der Sprecher weist auch darauf hin, dass kontrastives Lernen, das die Verwendung positiver und negativer Beispiele zur Codierung der Graphstruktur beinhaltet, anstelle der Klassifizierung verwendet werden könnte, um die Codierung der Graphstruktur zu verbessern. Abschließend fasst der Referent die Takeaways von Designentscheidungen in GNNs zusammen und hebt die Wirksamkeit der nachbarschaftsbasierten Bewertung für die Verbindungsvorhersage und Knotenklassifizierung sowie die Bedeutung der Berücksichtigung sowohl der Merkmale von Knoten als auch der Struktur des Diagramms bei der Auswahl der Art der Knotendarstellung hervor .

  • 00:50:00 In diesem Abschnitt erörtert der Redner zwei Möglichkeiten zur Generierung eines Graphen, von denen der erste neue Verbindungen zwischen bekannten Entitäten vorhersagt, wobei ein standardmäßiges Graph-Neuronalnetzwerk oder Graph-Faltungsnetzwerk als Codierer und eine Funktion der Einbettungen als verwendet wird ein Decoder. Die Wahrscheinlichkeit der Existenz einer gegebenen Kante basiert auf den Knoten, die auf sie einfallen, und ist unabhängig von allen anderen Kanten. Der zweite Weg generiert einen Graphen mit einem einzelnen Einbettungsvektor für den gesamten Graphen, wobei ein bestimmter Zustand verwendet wird, der unter Verwendung eines Graph-RNN decodiert wird, der eine Reihe von Vorhersagen macht, wenn er jeden spezifischen Knoten hinzufügt. Dieses Verfahren versucht, so wenige induktive Verzerrungen wie möglich einzuführen, wie ein Graph erzeugt wird. Der letztere Ansatz wird für die Arzneimittelforschung verwendet, insbesondere in der Veröffentlichung über Junction Tree Variational Autoencoder, um De-novo-Moleküle mit hoher Wirksamkeit zu erzeugen, unabhängig davon, ob sie zuvor synthetisiert oder charakterisiert wurden.

  • 00:55:00 In diesem Abschnitt wird der Ansatz des Papiers zur Codierung und Decodierung der Struktur von Molekülen unter Verwendung von Graphen-Neuronalnetzwerken beschrieben. Der Ansatz verwendet einen feinkörnigen molekularen Graphen, um einen Zustand zu codieren, und eine Baumzerlegung, um die übergeordnete Struktur des Graphen zu decodieren. Durch die Verwendung eines Verbindungsbaums zum Entfernen von Zyklen im Diagramm können die Autoren den Decodierungsprozess vereinfachen und nur die Bezeichnung eines Knotens vorhersagen und ob ein untergeordneter Knoten hinzugefügt werden soll oder nicht, was zu einer gültigen Struktur des Moleküls auf höherer Ebene führt. Die Autoren verwenden eine geschlossene rekurrente Einheit, um den gesamten Zustand des bisher erstellten Teilbaums einzubeziehen und einen hohen Prozentsatz an Rekonstruktion in Bezug auf die molekulare Gültigkeit zu erreichen. Bayes'sche Optimierung wird verwendet, um die Navigierbarkeit des latenten Raums für die Generierung neuartiger Medikamente zu bewerten.

  • 01:00:00 In diesem Abschnitt diskutiert der Referent zwei Anwendungen von Graph Neural Networks (GNN) in den Lebenswissenschaften. Die erste Anwendung liegt im Bereich der Arzneimittelforschung, wo das GNN verwendet wird, um auf die latente Variable eines Moleküls zu schließen und seine chemische Eigenschaft vorherzusagen. Das Modell wird mit einem Encoder-Decoder-Framework trainiert und mit Bayes'scher Optimierung optimiert. Die zweite Anwendung ist die Inferenz latenter Graphen, bei der GNNs verwendet werden, um verborgene Strukturen in einem Problem zu modellieren, indem die im Laufe der Zeit auftretenden Dynamiken kodiert werden. Das Modell kann verwendet werden, um zukünftige Ergebnisse vorherzusagen, und kann zur kausalen Entdeckung angewendet werden. Der Referent präsentiert Spielzeugdaten sowie Bewegungserfassungsdaten aus der realen Welt, um die Wirksamkeit von GNNs in diesen Anwendungen zu demonstrieren.

  • 01:05:00 In diesem Abschnitt erörtert der Referent die Probleme und potenziellen Wege in Graphen-Neuronalen Netzen. Es wurden einige Probleme erwähnt, einschließlich der begrenzten Leistung und der theoretischen Beziehung zu Isomorphietests bei der Nachrichtenübermittlung und der Nachbarschaftsaggregation, die Herausforderungen von baumstrukturierten Berechnungsgraphen beim Auffinden von Zyklen in Graphen und das Problem der Überglättung. Der Referent sieht aber auch Erfolg darin, diese Netzwerke zu skalieren, auf großen Datensätzen zu lernen und multimodales und crossmodales Lernen zwischen Sequenzen und Graphen auszuprobieren. Anschließend diskutiert ein Postdoc von der Stanford University Deep Learning in biologischen Netzwerken und wie für Daten, die als Graphen dargestellt werden, breiter anwendbare Frameworks für tiefe neuronale Netzwerke benötigt werden. Es wird erklärt, dass Deep Learning zwar die Art und Weise verändert hat, wie wir heute über den Lebenszyklus des maschinellen Lernens denken, es jedoch unklar ist, wie Deep Learning für komplexe Daten, die als Diagramm dargestellt werden, verwendet und angewendet werden soll.

  • 01:10:00 In diesem Abschnitt werden die Komplexitäten des Lernens von Graphendaten diskutiert, einschließlich des Mangels an räumlicher Lokalität und fester Ordnung, der Nichtexistenz von Bezugspunkten und der dynamischen Natur von Graphen. Das Ziel des Repräsentationslernens auf Graphen besteht darin, einen Weg zu finden, eine Abbildungsfunktion zu lernen, die den Graphen als Eingabe verwendet, um die Knoten einem niedrigdimensionalen Einbettungsraum zuzuordnen. Das effiziente aufgabenunabhängige Feature-Lernen ist ein entscheidendes Ziel dieses Prozesses für maschinelles Lernen in Netzwerken. Der betrachtete Aufbau geht von einem Graphen mit einer Adjazenzmatrix und Knotenmerkmalen aus, die jedem Knoten zugeordnet sind, von denen das Ziel darin besteht, einen Typ eines bestimmten Knotens vorherzusagen, eine Verbindung zwischen zwei Knoten vorherzusagen, die Ähnlichkeit zwischen zwei Knoten oder zwei Netzwerken und Cluster zu messen Knoten, indem eine Community-Erkennung im Netzwerk durchgeführt wird. Der naivste Ansatz zur Anwendung tiefer neuronaler Netze auf Graphen wird vorgestellt, aber seine Grenzen werden hervorgehoben, einschließlich der Zunahme der Anzahl von Parametern im Netz in Abhängigkeit von der Anzahl der Knoten, der Instabilität des Trainings und der erhöhten Wahrscheinlichkeit einer Überanpassung.

  • 01:15:00 In diesem Abschnitt erklärt der Referent, wie neuronale Graphennetze effizient Graphen trainieren und einbetten können, indem Ideen verwendet werden, die von konvolutionellen neuronalen Netzen übernommen wurden. Die Nachbarschaft eines Knotens definiert die Struktur des neuronalen Netzwerks, und die Schlüsselidee besteht darin, Knoteneinbettungen basierend auf der Nachbarschaft des lokalen Netzwerks zu generieren. Der Referent veranschaulicht dieses Konzept, indem er zeigt, wie Informationen aggregiert und transformiert werden, um Nachrichtentransformations- und Aggregationsoperatoren zu erzeugen, die permutationsinvariant sind. Diese Operatoren können erlernt werden, um Knoteninformationen umzuwandeln und die interessierende Eigenschaft vorherzusagen.

  • 01:20:00 In diesem Abschnitt erläutert der Referent den Transformations- und Aggregationsprozess von Graphen-Neuronalen Netzen. Der grundlegende Ansatz besteht darin, Informationen von den Knoten zu mitteln und neuronale Netze für lineare Transformationen anzuwenden, gefolgt von Nichtlinearität. Der Referent stellt das Beispiel des GraphSAGE-Algorithmus vor, bei dem eine verallgemeinerte Aggregatorfunktion eingeführt wird, um die Merkmale der lokalen Nachbarschaft eines Knotens zu kombinieren. Differenzierbare Aggregationsfunktionen wie Mittelwert, Pooling oder LSTM-Zellen können verwendet werden, um Informationen über die Nachbarn hinweg zu aggregieren. Der Referent diskutiert auch die Verwendung von Graphen neuronalen Netzen in der Biologie und wie sie verwendet werden können, um bestimmte Verhaltensweisen oder Ergebnisse vorherzusagen.

  • 01:25:00 In diesem Abschnitt geht der Dozent auf das Konzept der Polypharmazie-Nebenwirkungen ein, das sind Nebenwirkungen, die aus der Kombination von Arzneimitteln resultieren. Der Dozent erklärt, dass das Ziel darin besteht, die Wahrscheinlichkeit von Nebenwirkungen durch die Kombination zweier Medikamente abzuschätzen, indem sie als Knoten in einem heterogenen Netzwerk modelliert werden. Der Dozent zeigt an einem Beispiel, wie Medikamente und Proteine in einem Netzwerk modelliert werden können, um die Wirkmechanismen von Medikamenten und die zugrunde liegenden biologischen Mechanismen zu erfassen. Der Dozent erklärt dann, wie Graph Neural Networks (GNNs) erweitert werden können, um heterogene Netzwerke einzubetten, bei denen die Nachbarschaft durch einen Kantentyp getrennt werden muss, und wie Informationen über den Graphen transformiert und weitergegeben werden, der durch die Netzwerknachbarschaft der Knoten in jeder Kante definiert ist Typ.

  • 01:30:00 In diesem Abschnitt geht der Dozent auf zwei Methoden zum automatischen Lernen von Repräsentationen in den Lebenswissenschaften ein. Die erste Methode basiert auf neuronalen Netzwerken mit relationalen Graphen, die verwendet werden können, um vorherzusagen, ob zwei Medikamente zu Nebenwirkungen führen, indem d-dimensionale Vektoreinbettungen für jeden Knoten im Graphen gelernt werden. Die zweite Methode ist ein Meta-Lernmodell namens MARS, das Vorwissen aus zuvor kommentierten Daten nutzt, um es auf neuartige, nie zuvor gesehene Zelltypen zu verallgemeinern. Durch die Optimierung des nicht annotierten Experiments und des Metadatensatzes kann MARS Zellen automatisch zu Zelltypen annotieren und den mühsamen manuellen Aufwand der Annotation von Zellen basierend auf ihren Genexpressionsprofilen vermeiden.

  • 01:35:00 In diesem Abschnitt des Vortrags erörtert der Referent die Verwendung von graphischen neuronalen Netzwerken, um latente Zelldarstellungen über mehrere Datensätze hinweg zu lernen, um die Heterogenität von Zelltypen zu erfassen. Der Ansatz beinhaltet die gemeinsame Projektion von Zellen aus kommentierten und nicht kommentierten Experimenten in einen niedrigdimensionalen Einbettungsraum, in dem ähnliche Zelltypen nah und unterschiedliche Zelltypen weit entfernt eingebettet sind. Um dies zu erreichen, lernt das Verfahren Zelltyp-Landmarken als Zelltyp-Repräsentanten und eine nichtlineare Abbildungsfunktion unter Verwendung tiefer neuronaler Netze. Der Ansatz wird anhand eines groß angelegten Mauszellatlasses mit über 100.000 Zellen aus mehr als 20 Geweben validiert und erzielt eine um 45 % bessere Leistung als bestehende Methoden in Bezug auf den Adjusted Rand Index.
 

AI for Drug Design - Vorlesung 16


AI for Drug Design - Vorlesung 16 - Deep Learning in den Life Sciences (Frühjahr 2021)

Dieser Vortrag diskutiert den Einsatz von Deep Learning für das Wirkstoffdesign. Es erklärt, wie Deep Learning verwendet werden kann, um neuartige Verbindungen mit Antibiotikaresistenz zu finden. Es wird auch diskutiert, wie die Deep-Learning-Modelle durch die Einbeziehung biologischen Wissens verbessert werden können.

Dieser zweite Teil der Vorlesung gibt einen Überblick darüber, wie Deep Learning im Wirkstoffdesign eingesetzt werden kann, insbesondere zur Vorhersage der antiviralen Aktivität von Wirkstoffkombinationen. Das Modell wurde in vivo mit zellbasierten Assays getestet und zwei neuartige synergistische Arzneimittelkombinationen wurden identifiziert.

  • 00:00:00 Der Referent stellt Deep Learning für das Arzneimitteldesign und seine Herausforderungen vor. Er wird den funktionellen Raum und den chemischen Raum diskutieren und erklären, wie Deep Learning verwendet werden kann, um Medikamente automatisch zu finden.

  • 00:05:00 Die drei Ansätze für das Arzneimitteldesign basieren auf Grundprinzipien, Simulation und virtuellem Screening. Die ersten beiden eignen sich gut, um Verbindungen mit bestimmten Eigenschaften zu finden, aber die letzte ist ambitionierter und versucht, die richtige Verbindung zu finden, indem sie Eigenschaften betrachtet, die voneinander unabhängig sind. Die Simulation ist oft zu langsam und das virtuelle Screening ist teuer. Denoble Drug Design ist der ehrgeizigste Ansatz und versucht, das umgekehrte Problem der Suche nach einer Verbindung zu lösen, indem eine Reihe von Kriterien betrachtet werden.

  • 00:10:00 In diesem Vortrag diskutiert der Referent zwei Methoden der Wirkstoffforschung, virtuelles Screening und edles Wirkstoffdesign. Beide Methoden haben ihre eigenen Vor- und Nachteile, wobei das virtuelle Screening schneller und billiger ist, aber eine geringere Abdeckung als herkömmliche Methoden aufweist, während das edle Arzneimitteldesign langsamer ist, aber mehr neuartige Verbindungen finden kann. Genetische Algorithmen sind ein effektiver Weg, um den chemischen Raum zu erforschen, aber es gibt noch Raum für Verbesserungen bei den Algorithmen für diese Aufgabe.

  • 00:15:00 In diesem Vortrag erklärt Professor, wie Deep Learning im Arzneimitteldesign eingesetzt wird und wie es effizienter als herkömmliche Techniken sein kann. Er erwähnt auch einen Artikel namens „Dolly“, der zeigt, wie Deep Learning verwendet werden kann, um realistische Bilder von Objekten zu erzeugen.

  • 00:20:00 In diesem Vortrag erörtert Professor die Deep-Learning-Techniken, die bei der Arzneimittelforschung verwendet werden, und gibt Beispiele dafür, wie diese Techniken Forschern geholfen haben, neue Antibiotika zu finden.

  • 00:25:00 Graph neuronale Netze sind eine Art künstlicher Intelligenz, die verwendet werden, um nach neuen Verbindungen zu suchen, die Bakterien abtöten können. Das Ziel der Verwendung dieser Art von KI ist es, Verbindungen zu finden, die mit herkömmlichen Methoden nicht entdeckt werden, da diese Methoden unbekannte antibakterielle Muster übersehen können.

  • 00:30:00 Dieser Vortrag diskutiert, wie Deep Learning verwendet werden kann, um Muster in Daten im Zusammenhang mit Antibiotikaresistenzen zu identifizieren. Das Modell kann mit einer Genauigkeit von etwa 9,0 auc vorhersagen, ob ein Molekül gegen Bakterien wirksam sein wird.

  • 00:35:00 Das Video diskutiert, wie vorhandene Antibiotika gegen einige Bakterienstämme nicht mehr wirksam sind und wie eine neue Verbindung namens „Halluzin“ sowohl neuartig als auch wirksam gegen diese Stämme ist. Es wird auch erörtert, wie die Verbindung gegen Infektionen bei Mäusen wirksam ist.

  • 00:40:00 Das Video diskutiert den Erfolg von Deep-Learning-Modellen gegenüber herkömmlichen Methoden bei der Entdeckung neuer Verbindungen mit Antibiotikaresistenz. Das Video zeigt auch, wie eine traditionelle Methode, das Handdesign, bestimmte Verbindungen mit Antibiotikaresistenz nicht entdecken kann. Die Deep-Learning-Modelle können verschiedene Teile des Raums erfassen und werden von den Modellen hoch eingestuft.

  • 00:45:00 Der Referent beschreibt Deep-Learning-Modelle, die für das Arzneimitteldesign verwendet werden, und erklärt, wie die Modelle durch die Einbeziehung biologischen Wissens verbessert werden können. Er präsentiert eine Fallstudie einer Medikamentenkombination, die sich als wirksamer als ein einzelnes Medikament erwiesen hat.

  • 00:50:00 Das Video diskutiert KI für das Arzneimitteldesign, mit besonderem Schwerpunkt auf der Verwendung von Deep Learning zur Identifizierung synergistischer Verbindungen. Ziel ist es, Medikamente zu finden, die synergistisch und weniger toxisch sind, und Erkenntnisse über den viralen Replikationszyklus in das Modell einfließen zu lassen.

  • 00:55:00 Der Vortrag diskutiert Deep-Learning-Methoden für das Arzneimitteldesign und konzentriert sich darauf, wie es verwendet werden kann, um die antivirale Aktivität eines Arzneimittels gegen eine Vielzahl von Zielen vorherzusagen. Der erste Schritt besteht in der Vorhersage der Arzneimittel-Target-Wechselwirkung unter Verwendung eines Datensatzes von Campbell und dem National Institute of Health. Dann wird ein neuronales Netzwerk verwendet, um die Darstellung der Molekülstruktur zu lernen, die für den zweiten Schritt des Arzneimitteldesignprozesses benötigt wird: die Vorhersage der antiviralen Aktivität des Arzneimittels gegen eine Vielzahl von Zielen. Durch die Verwendung einer Kombination aus Deep Learning und Matrixvervollständigung wird das Potenzial zur Verbesserung des Arzneimitteldesigns hervorgehoben.

  • 01:00:00 Dieser Vortrag diskutiert, wie Deep Learning im Arzneimitteldesign eingesetzt werden kann, insbesondere zur Vorhersage der antiviralen Aktivität von Arzneimittelkombinationen. Das Modell wurde in vivo mit zellbasierten Assays getestet und zwei neuartige synergistische Arzneimittelkombinationen wurden identifiziert.

  • 01:05:00 Dieser Vortrag konzentriert sich auf Deep Learning in den Life Sciences und seine Bedeutung für das Wirkstoffdesign. Die Vorlesung behandelt zwei frühere Ansätze zum Arzneimitteldesign, einen mit Sequenzen und einen mit rekurrenten neuronalen Netzen. Der Vortrag stellt fest, dass die Smile-Stream-Darstellung von Molekülen ziemlich spröde ist und die Techniken bei der Anwendung in der Arzneimittelforschung eine schlechte Leistung erbringen. Der Vortrag stellt fest, dass Moleküle besser mit Graphen dargestellt werden können, die mit rekurrenten neuronalen Netzen effizient erzeugt werden können.

  • 01:10:00 Der Vortrag behandelt Deep Learning in den Lebenswissenschaften, insbesondere im Hinblick auf das Arzneimitteldesign. Der Vortrag stellt fest, dass Deep Learning zur Generierung von Molekülen verwendet werden kann, dass es jedoch Probleme mit spärlichen Molekülen und niedrigen Baumwellenmotiven hat. Als Lösung wurde ein rekurrentes neuronales Netzwerk vorgeschlagen, das sich bei Molekülen mit niedrigen Baumwellenmotiven als erfolgreicher herausstellte.

  • 01:15:00 Dieser Vortrag behandelt Deep Learning in den Biowissenschaften und konzentriert sich auf einen Deep-Learning-Autoencoder, der Moleküle in einen niedrigdimensionalen Vektor codieren kann. Dies reduziert die Anzahl der erzeugbaren Motive sowie den zeitlichen Aufwand des Prozesses.

  • 01:20:00 In diesem Vortrag erklärt Professor, wie Deep Learning verwendet werden kann, um die Genauigkeit der Motivrekonstruktion im Arzneimitteldesign zu verbessern. Facettenreiche Modelle zur Generierung von Motiven sind vorteilhaft, da sie die Erfassung großer Zyklen in Molekülen ermöglichen. Die Erfolgsrate der Motivgenerierung mit einem Knoten-für-Knoten-Ansatz ist aufgrund der falschen Darstellung des Sequenzraums gering. Die Verwendung eines Motiv-für-Motiv-Ansatzes verbessert jedoch die Erfolgsquote erheblich. Dies liegt daran, dass das Modell lernen kann, bestehende Moleküle zu modifizieren, um ihre Arzneimittelähnlichkeit zu verbessern.

  • 01:25:00 Der Referent gibt einen kurzen Überblick über Deep Learning in den Biowissenschaften und beleuchtet die Herausforderungen und Chancen der einzelnen Bereiche. Sie endet mit einer Diskussion über Chemie und Wirkstoffdesign.

  • 01:30:00 In dieser Vorlesung berät der Gastdozent Studierende, die an Projekten im Bereich der künstlichen Intelligenz für das Arzneimitteldesign interessiert sind. Sie geben an, dass die Schüler auf Wunsch Mentoring von ihnen erhalten können.
 

Deep Learning for Protein Folding - Vorlesung 17



Deep Learning for Protein Folding - Vorlesung 17 - MIT Deep Learning in Life Sciences (Frühjahr 2021)

Dieses Video diskutiert die Verwendung von Deep Learning im Bereich der Proteinfaltung und insbesondere, wie geometrisches Deep Learning verwendet werden kann, um Proteinstrukturen zu untersuchen und Dinge wie Ligandenbindungsstellen und Protein-Protein-Wechselwirkungen vorherzusagen. Das Video behandelt auch schablonenbasierte vs. schablonenfreie Modellierungsmethoden, verschiedene Ansätze für die Kontaktvorhersage bei der Proteinfaltung und die Verwendung von neuronalen Restnetzen für die Bildmodellierung bei der Proteinstrukturvorhersage. Insgesamt betont der Referent das Versprechen von Deep Learning, unser Verständnis von Proteinstrukturen und deren Funktionen voranzutreiben, und liefert detaillierte Beispiele und Ergebnisse, um diese Behauptung zu untermauern.

Das Video diskutiert verschiedene Ansätze für Deep Learning zur Proteinfaltung, einschließlich der Verwendung von Co-Evolutionsvorhersagen und Vorlagen für eine genaue Modellierung, die Bedeutung der Suche nach besseren Homologen und das Potenzial von Deep Learning, vergleichbare Ergebnisse zu erzielen, ohne sich auf traditionelle physikbasierte Methoden zu verlassen Methoden. Die Referenten befassen sich auch mit der Verwendung differenzierbarer Ausgaben und der Bedeutung globaler Genauigkeit sowie mit der Entwicklung des Algorithmusraums und dem Potenzial für Deep Learning zur Vorhersage von Proteinbestätigungen auf der Grundlage von Faktoren wie genetischer Variation oder kleinen Molekülen. Insgesamt hebt das Video das aufregende Potenzial von Deep Learning hervor, um die Proteinstrukturvorhersage und ihre vielen Anwendungen zu revolutionieren.

  • 00:00:00 In diesem Abschnitt des Videos stellt Bruno Correa das Konzept des geometrischen Deep Learning vor und wie es auf die Untersuchung von Proteinstrukturen angewendet wird. Er erklärt, wie Deep Learning bei der Bildklassifizierung erfolgreich war, dass die Datensätze in der Biologie jedoch im Allgemeinen viel reichhaltiger und hochdimensionaler sind, mit verschiedenen Zeit- und anderen Dimensionen, was geometrisches Deep Learning zu einem wertvollen Ansatz macht. Correa diskutiert die Bedeutung von Proteinstrukturen in ihren Funktionen, von mechanischen und chemischen Funktionen bis hin zu Bindung und Erkennung, und präsentiert Beispiele wie Antikörper, Ionenpumpen sowie Kommunikations- und Steifigkeitsproteine. Er geht auch auf die Frage ein, ob die Arbeit zur Untersuchung von Proteinoberflächen von AlphaFold angesprochen wurde, und erklärt, dass AlphaFold Proteinstrukturen gelöst hat, aber nicht speziell die Untersuchung von Proteinoberflächen.

  • 00:05:00 In diesem Abschnitt erörtert der Referent die Herausforderungen bei der Vorhersage der Proteinfunktion anhand ihrer Struktur, was wichtig ist, um zu verstehen, wie Proteine miteinander und mit anderen Metaboliten in Zellen interagieren. Der Referent stellt verschiedene Möglichkeiten zur Darstellung von Proteinstrukturen vor, wobei der Schwerpunkt auf Oberflächendarstellungen liegt, die trotz unterschiedlicher Sequenzen und Architekturen ähnliche Funktionen haben können. In Analogie zur Untersuchung von Gesichtern argumentiert der Referent, dass die Untersuchung von Mustern in Proteinoberflächen wichtige Informationen über deren Funktionen liefern kann. Anschließend stellt der Referent einen Deep-Learning-Ansatz zur Vorhersage von Bindungsstellen für Proteinliganden mithilfe von 3D-Darstellungen von molekularen Oberflächen vor.

  • 00:10:00 In diesem Abschnitt des Videos diskutiert der Sprecher die Verwendung von geometrischem Deep Learning für das Problem der Proteinfaltung. Sie erklären, dass die prototypischen Objekte für geometrisches Deep Learning Graphen oder Oberflächen sind, und ihr Team verwendete Netzdarstellungen von Proteinen, um sie zu untersuchen. Anschließend erläutern sie die Verwendung von "Patches", bei denen es sich um Teilmengen des Netzes mit mehreren Vektormerkmalen an jedem Knoten handelt, und wie ihnen lokale Gewichtungen zugewiesen werden. Der Sprecher beschreibt die verschiedenen Arten von Merkmalen, die in jedem Knoten kodiert wurden, einschließlich Formindex, abstandsabhängiger Krümmung, Hydrophobizität und elektrostatischer Merkmale. Diese Informationen wurden dann zur weiteren Analyse in einen Vektor umfunktioniert.

  • 00:15:00 In diesem Abschnitt erörtert der Referent, wie der geometrische Deep-Learning-Ansatz die Oberfläche eines Moleküls unabhängig von seiner Sequenz codieren kann, was die Untersuchung von Mustern von Atomen und chemischen Eigenschaften ermöglicht. Der Referent weist auf die potenziellen Anwendungen dieses Ansatzes hin, wie z. B. die Klassifizierung von Proteintaschen anhand der Merkmale bestimmter Liganden und die Vorhersage der Docking-Konfigurationen zweier Proteine mithilfe von Oberflächen-Fingerabdrücken. Es wurden Ablationsstudien durchgeführt, um zu verstehen, welche Faktoren mehr zur Vorhersage der Spezifität beitragen, wobei sich Chemie und Geometrie als wichtig herausstellten. Insgesamt ist der Ansatz vielversprechend, um das Verständnis von Proteinstrukturen und ihren Funktionen voranzutreiben.

  • 00:20:00 In diesem Abschnitt beschreibt der Referent ein Netzwerk namens Massive Site, das vorhersagen kann, welche Stellen auf einer bestimmten Proteinoberfläche mit größerer Wahrscheinlichkeit mit anderen Proteinen interagieren. Sie diskutieren auch eine Technik zum Scannen von Fingerabdrücken, die zum Andocken verwendet wird, und die Erfolgsraten dieses Ansatzes im Vergleich zu anderen Andockprogrammen. Der Referent stellt die nächste Generation von Massive namens D Massive vor, die ein vollständig differenzierbares Netzwerk verwendet, um eine Punktwolke zu erstellen, die die Proteinoberfläche und die Berechnung geometrischer und chemischer Merkmale, einschließlich elektrostatischer Eigenschaften, beschreibt. Abschließend erwähnt der Referent kurz den spannenden Designaspekt des Projekts und diskutiert ein wichtiges Ziel zur Kontrolle der Aktivität von T-Zellen in der Krebsbehandlung.

  • 00:25:00 In diesem Abschnitt erläutert der Redner, wie sie mithilfe von Deep Learning Moleküle entworfen haben, die auf Proteine abzielen. Sie verwendeten Massive, um die Stelle vorherzusagen, die anfälliger für das Ziel von Designmolekülen wäre, und extrahierten den Fingerabdruck der Zieloberfläche. Anschließend dockten sie Motive an diese Stelle an und sagten Wechselwirkungen mit dem interessierenden Protein voraus. Das Ergebnis war ein neues Motiv, das zuvor in der Natur nicht bekannt war und erfolgreich mit experimentellen Strukturen mit einer mittleren quadratischen Abweichung von etwa einem Angstrom übereinstimmte, was auf einen hochaffinen Binder hinweist, der an das Protein bindet. Der Referent bietet an, Studierende, die an der Erforschung dieses Forschungsgebiets interessiert sind, potenziell zu beraten.

  • 00:30:00 In diesem Abschnitt des Vortrags diskutiert der Referent die zwei Hauptkategorien von Methoden zur Proteinstrukturvorhersage: Template-basierte Modellierung und Template-freie Modellierung. Während die vorlagenbasierte Modellierung auf der Verwendung vorhandener Proteinstrukturen in der PDB-Datenbank als Vorlagen zur Vorhersage neuer Strukturen beruht, ist die vorlagenfreie Modellierung eine neuere Methode, die Homologiesuche und maschinelles Lernen umfasst, um Strukturen vorherzusagen, ohne auf Vorlagen angewiesen zu sein. Der Referent konzentriert sich auf die letztere Methode und beschreibt einen neueren Ansatz, der Sequenzhomologiesuche, Signalprofilierung und maschinelles Lernen verwendet, um Proteinstrukturen vorherzusagen, ohne sich auf Vorlagen zu verlassen, was für viele Proteine eine bessere Genauigkeit als vorlagenbasierte Methoden gezeigt hat. Der Referent geht auch auf die Fragment-Assembly-Methode ein, einen beliebten vorlagenbasierten Modellierungsansatz, der in der Vergangenheit verwendet wurde.

  • 00:35:00 In diesem Abschnitt des Vortrags diskutiert der Referent die Pipeline, die für die templatfreie Modellierung bei der Proteinfaltung verwendet wird. Die Vorhersageinformationen über den Abstand zwischen zwei beliebigen Atomen oder Resten im Protein werden in eine Optimierungsmaschine eingespeist, um die Struktur aufzubauen. Der Referent erörtert auch verschiedene Strategien für mehrere Sequenzabgleiche, einschließlich der Verwendung eines Cutoff-Werts für die Anzahl der erforderlichen Abdeckungen oder Kohlenstoffreste. Die entscheidende Komponente dieser Modellierung ist die Vorhersage der Induktionsmatrix, die Modellierung der Interjektionsmaße unter Verwendung von Inhaltsmaßen oder Distanzmetriken. Der Referent stellt einige effektive Ideen zur Kontaktpositionsvorhersage vor, die in den letzten Jahren die Vorhersage viel einfacher und die Zusammenarbeit viel effektiver gemacht haben.

  • 00:40:00 In diesem Abschnitt diskutiert der Referent drei verschiedene Ansätze zur Kontaktvorhersage bei der Proteinfaltung. Der erste Ansatz ist ein globales statistisches Verfahren zur Koalitionsanalyse, erfordert jedoch eine große Anzahl von Sequenzhomologen, um effektiv zu sein. Der zweite Ansatz verwendet Deep Convolutional Residual Neural Networks zur Vorhersage der Kontaktentfernung, und der dritte ist ein transformatives Netzwerk zur Kontaktvorhersage, das sowohl Sequenz- als auch Strukturinformationen aus der Proteindatenbank berücksichtigt. Der Referent erläutert auch die Herausforderungen, mit denen bisherige überwachte Lernmethoden zur Kontaktvorhersage konfrontiert sind, und wie sie durch den Einsatz fortschrittlicherer maschineller Lernmodelle verbessert werden können.

  • 00:45:00 In diesem Abschnitt diskutiert der Referent die Grenzen früherer Kontaktvorhersagemethoden für die Proteinfaltung, die jeweils nur zwei Reste berücksichtigten und daher größere Beziehungen innerhalb des gesamten Proteins ignorierten. Um diese Probleme anzugehen, schlägt der Referent eine neue Methode vor, die Deep Learning nutzt, um alle Kontakte in einem Protein gleichzeitig vorherzusagen. Diese Methode basiert darauf, jedes Atompaar als Pixel in einem Bild zu behandeln, was verwendet werden kann, um das Problem als Bildsegmentierungsaufgabe zu formulieren. Durch die Verwendung eines vollständig gefalteten neuronalen Restnetzwerks zeigt der Referent, dass seine Methode die Genauigkeit der Kontaktvorhersage erheblich verbessern und die Faltung größerer und härterer Proteine ermöglichen kann. Darüber hinaus funktioniert die Methode sowohl für Einzelketten- als auch für Membranproteine gut und kann für komplexe Kontaktvorhersagen verwendet werden, ohne das Modell zu ändern.

  • 00:50:00 In diesem Abschnitt erörtert der Referent die Verwendung von neuronalen Restnetzen zur Vorhersage der Proteinstruktur durch Bildmodellierung unter Verwendung von konvolutionellen neuronalen Netzen. Sie erklären, dass die Verwendung von Restverbindungen die Verwendung viel tieferer Netzwerke ermöglicht, was zu einer besseren Präzision ohne Überanpassung führt. Der Referent zeigt einige Ergebnisse der Leistung seiner Methode in Bezug auf Ranking und Genauigkeit im Vergleich zu anderen Methoden, was den Erfolg des Deep-Learning-Ansatzes demonstriert. Die Präzision hat sich in den letzten acht Jahren verbessert und kann jetzt bis zu 80 Prozent betragen.

  • 00:55:00 In diesem Abschnitt erörtert der Referent die Fortschritte bei der Kontaktposition und der Designposition unter Verwendung von Deep-Learning-Modellen für die Proteinfaltung. Die Kontaktgenauigkeit hat sich mit einer aktuellen Genauigkeit von 80 % erheblich verbessert, was viel nützlicher ist als die vorherige Prüfung. Der Referent erläutert den Prozess der Nutzung eines digitalen Netzwerks für die Konstruktionsposition und wie es die temporär basierte Modellierung erheblich verbessern kann. Der Referent geht auch auf die Bedeutung von Code Russian Informationen ein und zeigt, dass auch für bestimmte fermentierte Proteine eine gute Vorhersage auch ohne deren Nutzung möglich ist. Die Ergebnisse legen nahe, dass Deep Learning neue Strukturen erzeugen kann und dass für genaue Vorhersagen eine kleine Anzahl von Sequenzhormonen benötigt wird.

  • 01:00:00 In diesem Abschnitt erörtern die Referenten die Verwendung von Sequenz- und Strukturinformationen zur Verbesserung der Proteinmodellierung. Sie untersuchen die Idee, vorhandene Vorhersagen als Feedback in einen Trainingssatz zu verwenden, um Koevolutionsvorhersagen zu verbessern und zu besseren sequenzbasierten Prädiktoren zu führen. Sie besprechen auch die Verwendung von Vorlageninformationen und die Bedeutung der Suche nach guten Vorlagen für eine genaue Modellierung. Darüber hinaus hinterfragen sie die Rolle der Physik bei der Proteinmodellierung und schlagen vor, dass physikalisch basierte Methoden zwar helfen können, Modelle zu verfeinern, Deep Learning aber auch ohne den Einsatz von Physik vergleichbare Ergebnisse erzielen kann.

  • 01:05:00 In diesem Abschnitt erläutert das Video, wie wirklich große Proteine ohne Verwendung von Vorlagen modelliert werden können. Das Beispielprotein hat über 13.000 Reste, was es schwierig macht, es mit traditionellen Mitteln genau zu modellieren. Durch die Kombination verschiedener Ensembling-Methoden und die Nutzung des iPhone2-Workflows wird das Protein jedoch mit hoher Genauigkeit modelliert. Das Video weist auch darauf hin, dass die Verwendung eines Transformators viel GPU-Leistung und Speicher erfordert, was die Verwendung für die meisten Menschen erschwert. Das maschinelle Lernmodell ist jedoch immer noch mit einem kleineren Satz an Trainingsdaten machbar. Darüber hinaus ist das Finden besserer Homologe als Grundlage für das Modell ein potenzieller Engpass, der durch weitere Forschung verbessert werden kann. Schließlich wird ein Fortschrittsdiagramm für herausfordernde Ziele bei der 3D-Modellierung angezeigt, wobei höhere Punktzahlen eine bessere Qualität der vorhergesagten Modelle anzeigen.

  • 01:10:00 In diesem Abschnitt spricht Muhammad Al-Qaraghuli über die Entwicklung des Algorithmusraums für die Proteinstrukturvorhersage in den letzten zwei Jahrzehnten. Er erläutert, wie sich frühere Methoden darauf konzentrierten, ein auf Physik basierendes Modell und eine Energiefunktion zu verwenden, um den niedrigsten Energiezustand eines Proteins zu erreichen, während neuere Methoden die Co-Evolution nutzten, um Informationen mithilfe verschiedener probabilistischer Inferenztechniken zu extrahieren. Al-Qaraghuli stellt fest, dass die Genauigkeit dieser Methoden ohne zusätzliche Sequenzinformationen begrenzt bleibt, und diskutiert, wie Deep Learning zu einem entscheidenden Faktor für die Vorhersage von Proteinstrukturen geworden ist, insbesondere für Membran- und Transmembranproteine.

  • 01:15:00 In diesem Abschnitt diskutiert der Referent die Entwicklung von Deep-Learning-Ansätzen für die Proteinfaltung, beginnend mit der Verwendung von unüberwachten Methoden in den frühen 2010er Jahren und der Einführung von Deep Learning durch einzigartige netzwerkbasierte Ansätze wie die Arbeit von Jim Wazoo mit RaptorX im Jahr 2016 und die Verwendung einer Restnetzwerkarchitektur durch Capital X 18. Der Referent beschreibt die Entwicklung des ersten Satzes von Ende-zu-Ende differenzierbaren Ansätzen im Jahr 2018, die nicht unbedingt konkurrenzfähig zu bestehenden Methoden waren, aber generiert werden konnten Vorhersagen viel schneller. Die neueste Entwicklung, AlphaFold 2, behandelt Multiple Sequence Alignment (MSA)-Objekte als Gesetzesobjekte, um möglicherweise Korrelationen höherer Ordnung und globale Aspekte von Sequenz und Phylogenie zu erfassen. Abschließend beschreibt die Referentin den heiligen Gral der Proteinfaltung – die Fähigkeit, aus einzelnen Proteinsequenzen so gut wie AlphaFold 2 zu arbeiten – was ihre neueste Arbeit anstrebt.

  • 01:20:00 In diesem Abschnitt diskutieren die Referenten die Fähigkeit von Proteinen, sich in vitro zu falten, und inwieweit Chaperone in der Zelle diesen Prozess steuern. Sie untersuchen auch die Informationsmenge, die in der Primärsequenz von Proteinen vorhanden ist, und ob sie ausreicht, um die Auswirkungen einer proteinverändernden Mutation vorherzusagen. Sie diskutieren die A2-Proteinvorhersagen, die zeigen, dass es immer noch möglich sein kann, aus einzelnen Sequenzen vorherzusagen, ohne dass alle physikalischen Aspekte vorhanden sein müssen. Schließlich wird der Raumalgorithmus eingeführt, der die Eingabe, einen neuronalen Netztorso und die Ausgabe umfasst, die normalerweise ein Proxy-Objekt ist, das sich auf die Struktur bezieht, und dann durch eine Nachverarbeitungspipeline gesendet wird, um das endgültige dreidimensionale zu erzeugen Struktur.

  • 01:25:00 In diesem Abschnitt erörtert der Referent die Bedeutung der Differenzierbarkeit für die von einem Deep-Learning-Modell generierte Ausgabe. Liegt der Output fern vom eigentlichen Ziel, geht Optimierungspotenzial verloren. Der Referent erörtert auch die Verwendung von Nachbearbeitung, die zu selbstinkonsistenten Vorhersagen führen kann, und wie ihre Implementierung eines Deep-Learning-Modells die endgültige Frequenzstruktur ohne die Notwendigkeit von Proxy-Größen vorhersagt. In ihrem Ansatz parametrisieren sie die lokale Geometrie unter Verwendung eines diskreten Alphabets von Torsionswinkeln und sagen eine Wahrscheinlichkeitsverteilung über dieses Alphabet voraus. Auf diese Weise können sie die Differenzierbarkeit des Motors aufrechterhalten, was eine effiziente Optimierung der endgültigen Struktur ermöglicht.

  • 01:30:00 In diesem Abschnitt erläutert der Referent seinen Ansatz zur Konstruktion der Struktur eines Proteins unter Verwendung freier Torsionswinkel an jedem Rest und eines iterativen Prozesses. Die Verlustfunktion ist hinsichtlich globaler Genauigkeit definiert, nicht nur lokaler Genauigkeit, um die Wechselwirkungen zwischen Resten beim Formen der ursprünglichen Struktur zu berücksichtigen. Der Sprecher räumt ein, dass sein Ansatz zwar begrenzt ist, er jedoch glaubt, dass es eine implizite Homogenisierung der Struktur gibt, die intern im neuronalen Netzwerk stattfindet, was im Laufe der Zeit zu besseren Vorhersagen führt. Der Referent erörtert auch, wie sie die Ausgabe mit positionsspezifischen Bewertungsmatrizen (PSSMs) und einer wiederkehrenden Architektur parametrisieren. Abschließend stellt der Sprecher einige seiner Vorhersagen vor, die mit diesem Ansatz gemacht wurden, und stellt fest, dass einige Aspekte der Struktur zwar gut vorhergesagt wurden, andere jedoch nicht.

  • 01:35:00 In diesem Abschnitt erörtert der Sprecher, wie er die Idee der Torsionsparametrisierung unter Verwendung der Frenesia-Konstruktion entwickelt hat, was die Mathematik und den Formulierungsprozess vereinfacht. Sie konzentrieren sich jetzt nur noch auf C alpha und parametrisieren mit Rotationsmatrizen, was das Problem pathologischer Sekundärstrukturen löst. Die wichtigste Änderung besteht darin, dass sie zu der Idee einer einzelnen Sequenz zurückgekehrt sind, die sie durch ein Sprachmodell füttern. Sie verwenden Transformatoren, um jeden Rest in einen latenten Raum einzubetten und verwenden diesen als Input, um Vorhersagen zu treffen, mit der zusätzlichen Herausforderung, Fragmente anzupassen und zwei verschiedene Proteine zu spleißen, um die Trainingsleistung zu verbessern. Der Referent zeigt Ergebnisse, die RGN1 und RGN2 bei der Vorhersage einer Zielwurfsequenz vergleichen, wobei RGN2 aufgrund eines Nachbearbeitungs-Verfeinerungsschritts deutlich bessere Ergebnisse erzielt. Es ist wichtig zu beachten, dass dies auf einer einzelnen Sequenzeingabe basiert, die ein Sprachmodell durchlaufen hat.

  • 01:40:00 In diesem Abschnitt des Videos diskutiert der Sprecher die Genauigkeit ihrer Methode zur Vorhersage von Proteinstrukturen. Sie zeigen Beispiele, die in Bezug auf Alpha 2 ausgerichtet sind, und obwohl die Genauigkeit nicht ganz so gut ist wie beim Stand der Technik, verwenden sie viel weniger Informationen, um die Vorhersage zu treffen. Sie zeigen auch Beispiele für Singleton-Proteine, die sich im Wesentlichen in der Dämmerungszone des Sequenzraums befinden und keine Sequenzhomologe aufweisen, bei denen ihr Ansatz einen signifikanten Unterschied im Vergleich zum öffentlich zugänglichen System nach dem Stand der Technik darstellt. Darüber hinaus diskutiert der Redner die De-novo-Proteine und entworfene Proteine, die sie systematisch gut machen, was sinnvoll ist, da diese Arten von sequenzbasierten Ansätzen beim Proteindesign nützlich wären. Abschließend erklärt der Referent, dass die signifikante Beschleunigung ihres Verfahrens für eine Vielzahl von Anwendungen nützlich sein könnte.

  • 01:45:00 In diesem Abschnitt erörtern die Referenten das Potenzial der Verwendung von Deep Learning zur Vorhersage verschiedener Proteinbestätigungen auf der Grundlage verschiedener Faktoren wie genetischer Variation oder kleiner Moleküle. Obwohl eine einzelne Signalraummethode theoretisch besser funktionieren könnte, gibt es keine Möglichkeit, dies zu wissen, bis sie tatsächlich verschiedene Versionen direkt vergleichen können, z. B. wenn Alpha 2 veröffentlicht wird. Es werden auch Verfeinerungsprobleme erwähnt, wie z. B. das Vorhersagen des allgemeinen Fehlers unter Verwendung einer MSA und das anschließende Verfeinern in die tatsächliche Struktur unter Verwendung einer anderen Stufe. Als weiterer Bereich, in dem Deep Learning nützlich sein könnte, werden sich schnell entwickelnde Viren genannt. Letztendlich bringen die Redner ihre Begeisterung über potenzielle zukünftige Möglichkeiten der Zusammenarbeit und das Privileg zum Ausdruck, mit Menschen aus verschiedenen Teilen der Welt in Kontakt zu treten.
 

Maschinelles Lernen für die Pathologie - Vorlesung 19



Maschinelles Lernen für die Pathologie - Vorlesung 19 - MIT Deep Learning in the Life Sciences (Frühjahr 2021)

Die Vorlesung behandelt verschiedene Aspekte der Anwendung von Deep Learning in der Computerpathologie, einschließlich der Herausforderungen und Grenzen der Technologie. Der Redner erörtert die Notwendigkeit, Algorithmen blind zu vertrauen, und betont, wie wichtig es ist, zu verstehen, was ein Netzwerk lernt. Der Vortrag untersucht mehrere Beispiele dafür, wie Deep Learning in der Krebsdiagnose, Prognose und Beurteilung des Behandlungserfolgs eingesetzt wird, um prognostische und prädiktive Werkzeuge für die Präzisionsmedizin zu entwickeln. Der Referent erörtert auch die Herausforderungen bei der Entwicklung von Behandlungen mit mehreren Arzneimitteln für Tuberkulose und schlägt verschiedene Laborprojekte vor, um das Problem anzugehen. Insgesamt unterstreicht der Vortrag das Potenzial von Deep Learning in der Pathologie, erkennt aber auch seine Grenzen und die Notwendigkeit eines multidisziplinären Ansatzes an, um seinen effektiven Einsatz in klinischen Umgebungen sicherzustellen.

In diesem YouTube-Video mit dem Titel „Machine Learning for Pathology – Lecture 19 – MIT Deep Learning in the Life Sciences (Spring 2021)“ erörtert der Referent die Versuche seines Teams, die Heterogenität von Charge zu Charge und von Zelle zu Zelle beim maschinellen Lernen für die Pathologie mithilfe typischer Methoden anzugehen Variationsnormalisierung (TVN) und ein k-Nächster-Nachbar-Ansatz. Sie beschreiben auch die Verwendung morphologischer Profile zur Klassifizierung von Medikamenten basierend auf ihren Wirkungen auf Bakterien und die Entwicklung eines datengesteuerten Ansatzes zum Entwerfen und Priorisieren von Kombinationen von Medikamenten unter Verwendung von überwachtem und unüberwachtem Lernen. Darüber hinaus dankt die Referentin ihren Labormitgliedern für ihre Beiträge zu Arzneimittelsynergien versus Antagonismusstudien und betont, wie wichtig es ist, den größeren Kontext für das Verständnis und die Weiterentwicklung der Forschung auf diesem Gebiet zu berücksichtigen.

  • 00:00:00 In diesem Abschnitt diskutiert Anand Madabhushi die Auswirkungen von Deep Learning auf dem Gebiet der computergestützten Pathologie, insbesondere im Hinblick auf die medizinische Bildanalyse. Während die Digitalisierung der Pathologie sie aufgrund der enormen Menge an verfügbaren Daten zu einer Brutstätte für die Anwendung von Deep Learning gemacht hat, warnt Madabhushi, dass die spezialisierten Methoden, die handwerkliche Merkmale durch jahrzehntelanges Fachwissen beinhalten, möglicherweise nicht von Deep-Learning-Methoden übertroffen wurden . Er liefert auch einige Statistiken zu Krebsdiagnosen und Sterblichkeitsraten, um die Bedeutung einer genauen Krebsdiagnose in einem frühen Stadium durch den Einsatz von Bildgebung zu unterstreichen. Madabhushi hofft, seine Erfahrungen und Gedanken darüber, wo und wie Deep Learning in diesem Bereich am nützlichsten sein kann, mit anderen zu teilen.

  • 00:05:00 In diesem Abschnitt erörtert der Redner das Problem der Überdiagnose und Überbehandlung von Krebsarten, insbesondere bei indolenten wie Prostatakrebs. Trotz Fortschritten bei Biomarkern und Therapeutika bleiben Überdiagnose und Überbehandlung problematisch und tragen zur finanziellen Toxizität für Patienten bei. Der Referent untersucht dann das Potenzial des maschinellen Lernens im Zusammenhang mit der Krebsdiagnose, Prognose und Bewertung des Ansprechens auf die Behandlung, um die Entwicklung prognostischer und prädiktiver Instrumente für die Präzisionsmedizin zu unterstützen. Obwohl es bereits Tools wie Genexpressions-basierte Assays gibt, haben sie Einschränkungen und berücksichtigen nicht die Intra-Tumor-Heterogenität. Maschinelles Lernen bietet eine Möglichkeit, diese Einschränkungen zu verbessern und Krebserkrankungen besser zu managen und zu behandeln.

  • 00:10:00 In diesem Abschnitt erörtert der Dozent die Verwendung von digitalisierten Pathologie-Objektträgern und fortschrittlicher maschineller Bildanalyse zur Identifizierung von Merkmalen und Mustern, die von Humanpathologen visuell nicht erkannt werden können. Durch die Identifizierung einzelner Zellen, Lymphozyten und Krebszellen können Datenwissenschaftler mithilfe der Netzwerktheorie die räumliche Architektur einzelner Zellen untersuchen und verschiedene quantitative Metriken aus der räumlichen Anordnung der einzelnen Zellen analysieren, um Diagnose, Prognose und Behandlungsansprechen von Patienten besser zu verstehen . Dieser Prozess ermöglicht einen nicht-invasiven und Cloud-basierten Ansatz für die Pathologieanalyse.

  • 00:15:00 In diesem Abschnitt erörtert der Referent die Auswirkungen von Deep Learning im Bereich der computergestützten Pathologie, wo die Datenmenge in pathologischen Objektträgern alle anderen Bereiche der medizinischen Bildgebung verdrängt hat. Vor sechs Jahren wurde ein neuronales Netzwerk veröffentlicht, das Anmerkungen einzelner Zellen für den gestapelten Sparse-Autoencoder verwendete, wo es auf der Grundlage der Anmerkungen der Zellen lernte, sodass das neuronale Netzwerk kleinere Details wie die Steigungen und groben elliptischen Formen der Zellen. Das Netzwerk wurde auf Patches trainiert, die Zellen und keine Zellen hatten, die von Studenten handbeschriftet wurden, indem sie das Bild in eine Reihe von Begrenzungsrahmen zerlegten. Obwohl einige Zellen übersehen wurden, konnte das Netzwerk die Nuancen der verschiedenen Zelltypen erkennen.

  • 00:20:00 In diesem Abschnitt erörtert der Referent die Grenzen des Deep Learning in der Pathologie, insbesondere in Bezug auf Färbung und Anmerkungen. Die Färbung kann einen erheblichen Einfluss auf die Genauigkeit der Segmentierungen haben, und das Netzwerk wurde aufgrund der Diskrepanz zwischen kleinen und großen Zellen nicht auf die robusteste Weise trainiert. Der Referent erörtert auch ihre Arbeit beim Trainieren eines CNN-Algorithmus, der auf der unüberwachten Generierung von Merkmalen basiert, um zwischen normalen Herzen und solchen mit einem Risiko für Herzinsuffizienz zu unterscheiden. Der CNN-Algorithmus übertraf die Leistung der Pathologen und erreichte eine AUC von 0,97 im Vergleich zu einer AUC der Pathologen von nur 0,74.

  • 00:25:00 In diesem Abschnitt diskutiert der Sprecher eine überraschende Entdeckung, die er machte, als er denselben Algorithmus an zwei Patientengruppen aus derselben Einrichtung und demselben Scanner durchführte. Obwohl es keine Unterschiede in der Pathologie der Bilder gab, fiel die AUC des zweiten Satzes aufgrund eines kleinen Software-Upgrades, das die Bildmerkmale subtil veränderte, dramatisch ab. Dies unterstrich die Notwendigkeit, Algorithmen blind zu vertrauen, selbst in scheinbar kontrollierten Umgebungen. Das Panel in f zeigte auch, dass die unüberwachte Merkmalsgenerierung mit CNNs zwar hauptsächlich Faltungen erlernte, die empfindlich auf voranalytische Variationsquellen reagierten, aber auch die Bedeutung bestimmter Zelltypen und ihrer räumlichen Anordnung hervorhob. Dies führte zu einem nachfolgenden Ansatz, der eine AUC generierte, die mit dem anfänglichen Highscore vergleichbar war, jedoch widerstandsfähiger gegenüber Variationen zwischen Standorten und Leinwänden war.

  • 00:30:00 In diesem Abschnitt erörtert der Redner, wie wichtig es ist, zu verstehen, was ein Netzwerk lernt, und vorsichtig zu sein, wenn es darum geht, Brute-Force-Algorithmen in der medizinischen Diagnose zu vertrauen. Er teilt ein Beispiel eines Netzwerks, das gelernt hat, zwischen Schlittenhunden und Wölfen zu unterscheiden, basierend auf dem Vorhandensein von Schnee im Hintergrund, was die Notwendigkeit der Vorsicht bei der Interpretation der Netzwerkergebnisse unterstreicht. Trotz dieser Einschränkungen identifiziert der Redner den Nutzen von Deep Learning bei Erkennungs- und Segmentierungsaufgaben in der Pathologie und stellt ein interaktives Tool namens Quick Annotator vor, das es Benutzern ermöglicht, einige repräsentative Beispiele zu segmentieren, ein Netzwerk im Hintergrund zu trainieren und eine Feinabstimmung vorzunehmen die Ergebnisse in einem interaktiven Lernmodus.

  • 00:35:00 In diesem Abschnitt erörtert der Referent die Herausforderungen beim Annotationsprozess für pathologische Bilder, insbesondere den Zeitmangel für Pathologen. Um dieses Problem anzugehen, erklärt der Referent, wie handgefertigte Funktionen dazu beitragen können, die Effizienz des Annotationsprozesses zu verbessern. Sie geben Beispiele für die Verwendung von Deep Learning, um verschiedene Gewebekompartimente und Zelltypen zu identifizieren, und rufen dann Graphnetzwerke auf, um räumliche Statistiken und das Zusammenspiel verschiedener Zelltypen innerhalb von Gewebekompartimenten zu untersuchen. Der Referent beschreibt auch, wie mittels Deep Learning die Kollagenfasern segmentiert und ihrer Orientierung ein Vektor zugeordnet wurde, der dann zur Bestimmung der Entropie und des prognostischen Werts für Brustkrebspatientinnen verwendet wurde. Abschließend stellt der Referent eine neue Studie zu Prostatakrebs vor, die Deep Learning zur Segmentierung von Drüsen verwendet und dann die räumliche Anordnung und Architektur der Drüsen untersucht, um vorherzusagen, bei welchen Patienten nach der Operation ein Rezidiv auftreten wird.

  • 00:40:00 In diesem Abschnitt diskutiert der Referent einen direkten Vergleich zwischen einem kommerziellen molekularen Assay zur Vorhersage von Prostatakrebs-Ergebnissen und einem bildbasierten Ansatz unter Verwendung von Deep-Learning-Algorithmen. Die Ergebnisse zeigten, dass der bildbasierte Ansatz in Kombination mit zwei einfachen klinischen Faktoren fast doppelt so gut abschneidet wie der kostspielige molekulare Assay. Darüber hinaus lieferte der bildbasierte Ansatz unter Verwendung von Deep-Learning-Algorithmen interpretierbare und validierte Merkmale, die im Vergleich zum molekularen Assay zu viel geringeren Kosten analysiert werden konnten. Der Redner betonte auch die Notwendigkeit der Interpretierbarkeit in klinischen Anwendungen von Deep Learning und betonte die Bedeutung von handgefertigtem Feature-Engineering in Verbindung mit Deep-Learning-Ansätzen.

  • 00:45:00 In diesem Abschnitt liegt der Schwerpunkt auf den Herausforderungen der Interpretierbarkeit beim maschinellen Lernen für die Pathologie, insbesondere im Zusammenhang mit der Entwicklung von Multi-Drug-Therapien für Tuberkulose (TB). Der Mangel an Interpretierbarkeit stellt eine erhebliche Herausforderung für Kliniker dar, die die den Modellen zugrunde liegenden Darstellungen verstehen müssen, um ihren Entscheidungen vertrauen zu können. Der Referent betont die Notwendigkeit, das Netzwerk ständig zu hinterfragen und nichts als selbstverständlich zu betrachten. Sie besprechen auch, wie wichtig es ist, zuerst mit der einfachsten Methodik zu beginnen und zu entscheiden, wann Deep Learning eingesetzt werden soll. Die Arbeit des Labors zu TB unterstreicht die Schwierigkeit bei der Behandlung der Krankheit, die Notwendigkeit von Therapien mit mehreren Medikamenten und die damit verbundene erhebliche Heterogenität.

  • 00:50:00 In diesem Abschnitt erörtert der Referent die Herausforderungen bei der Entwicklung von Tuberkulose-Behandlungen mit mehreren Medikamenten aufgrund der unterschiedlichen Mikroumgebungen der Bakterien in der Lunge, die unterschiedliche Medikamente erfordern, um ihre Anfälligkeit zu gewährleisten. Der Referent merkt an, dass es derzeit zwar viele Medikamente für die TB-Behandlung gibt, der riesige unerforschte Kombinationsraum es jedoch schwierig macht, jede mögliche Kombination zu testen. Der Referent schlägt zwei Laborprojekte vor, um dieses Problem anzugehen: erstens die Eingrenzung des Einzelwirkstoffraums durch Bildgebung, um den Wirkungsweg neuer Medikamente zu identifizieren, und zweitens die Verwendung von maschinellem Lernen, um systematische Kombinationsmessungen durchzuführen und Klassifikatoren zu entwickeln, um den wirksamsten vorherzusagen neuartige Kombinationen. Das Labor verwendet Zeitraffer-Bildgebung, um die Veränderungen in der Zellmorphologie der Bakterien zu erfassen, um verschiedene Behandlungsergebnisse zu bewerten.

  • 00:55:00 In diesem Abschnitt beschreibt der Sprecher ein Projekt, bei dem unüberwachtes Lernen und Clustering verwendet wurden, um ähnliche Arzneimittelprofile in E.coli zuzuordnen. Sie stellten die Hypothese auf, dass diese Medikamente einen ähnlichen Wirkmechanismus haben, wenn die Profile gleich aussehen. Sie wandten diese Idee auf TB an, aber die Zellen nahmen die Färbung nicht wie erwartet auf und die morphologischen Merkmale sahen nicht sehr unterschiedlich aus. Sie fanden jedoch in einigen Behandlungsgruppen immer noch statistisch signifikante Unterschiede zu unbehandelten Zellen. Die typische Pipeline für die zytologische Profilerstellung wurde erstellt, und sie hofften, einen Klassifizierungsversuch durchführen zu können, um herauszufinden, welche Behandlungsgruppen einander am ähnlichsten waren. Sie fanden heraus, dass die Krankheitserreger auf Medikamente ansprachen, aber in ihrem Reaktionsmechanismus unterschiedlich waren und extrem dicke Zellwände hatten, die es für Medikamente schwierig machten, einzudringen.

  • 01:00:00 In diesem Abschnitt des Vortrags diskutiert der Referent die Versuche seines Teams, die Heterogenität von Charge zu Charge und Zelle zu Zelle ihrer Experimente zum maschinellen Lernen für die Pathologie anzugehen. Sie versuchten es mit einem neuronalen Netz, was aufgrund der variablen Daten nicht funktionierte. Anschließend verwendeten sie eine Methode namens „Typical Variation Normalization“ (TVN), die von ihrem Mitarbeiter Mike Ando bei Google entwickelt wurde, um die Kovarianzmatrizen abzugleichen, die durch die Hauptkomponentenanalyse (PCA) der unbehandelten Kontrollen aus jedem Experiment erstellt wurden, um nicht-biologische Variationen zu reduzieren. Sie integrierten auch Zelle-zu-Zelle-Heterogenitätsmetriken und wechselten von der Verwendung von PCA zu einem k-nächsten-Nachbar-Ansatz, um die subtilen morphologischen Veränderungen zu erfassen. Sie verwendeten einen stochastischen Ansatz, um Fragilität zu vermeiden, und wählten für jeden Klassifizierungsversuch einen neuen Satz unbehandelter Kontrollen aus.

  • 01:05:00 In diesem Abschnitt beschreibt der Referent den Prozess der Verwendung morphologischer Profile zur Klassifizierung von Arzneimitteln auf der Grundlage ihrer Wirkung auf Bakterien. Der Prozess umfasst die Behandlung von Bakterien mit einer niedrigen und hohen Dosis eines Medikaments, das Fixieren und Färben der Bakterien, das Extrahieren von Merkmalen, das Normalisieren der Daten und das Durchführen einer stochastischen Simulation. Die resultierende Konsensus-Klassifikation ist zu etwa 75 % genau, und ein Netzwerkdiagramm wird verwendet, um die Verbindungen zwischen Arzneimitteln zu visualisieren. Der Referent stellt jedoch fest, dass ein Medikament, Bedaquilin, fälschlicherweise als Zellwandwirkstoff eingestuft wurde, was zu der Hypothese führte, dass es eine Energiekrise in den Bakterien auslöst. Diese Hypothese wurde bestätigt, indem die Bakterien auf Fettsäuren gezüchtet wurden, was zu einer anderen Klassifizierung führte.

  • 01:10:00 In diesem Teil des Vortrags geht der Referent auf den Wirkmechanismus des Medikaments Bedaquilin bei Tuberkulose und seine Abhängigkeit vom Stoffwechselzustand der Bakterien ein. Der Referent beschreibt auch die Verwendung von morphologischem Profiling zur Bestimmung proximaler Schäden und sekundärer Wirkungen von Antibiotika auf TB. Sie erklären, dass diese Methode einen zielgerichteten Ansatz bietet, um Forschern dabei zu helfen, den Pfadraum zu lenken, auf den sie sich für Sekundärstudien konzentrieren sollten. Der Referent geht auch auf die Messung von Kombinationen von Arzneimitteln mit einem Schachbrett-Assay ein, der für Kombinationen höherer Ordnung bei der TB-Behandlung traditionell ineffizient ist.

  • 01:15:00 In diesem Abschnitt erörtert der Referent die Herausforderungen im Zusammenhang mit der Messung hochrangiger Arzneimittelkombinationen bei Tuberkulose und stellt eine Lösung mit dem Namen Diamond (Diagonal Measurements of n-way Drug Interactions) vor. Diamond ist eine geometrische Optimierung des Checkerboard-Assays, die die Einheit einer Dosis-Wirkungs-Kurve beibehält und die informationsreichsten Teile des Schachbretts misst. Durch die Projektion einer Linie erklärt der Referent, wie der Grad der Arzneimittelinteraktion mit der fraktionalen Hemmkonzentration quantifiziert werden kann. Diamond wurde verwendet, um bis zu 10-Wege-Medikamentenkombinationen effizient zu messen. Der Redner erörtert einen großen Datensatz, der verwendet wurde, um die beiden Hauptprobleme bei der Entwicklung von Kombinationen mehrerer Arzneimittel mithilfe von In-vitro-Studien bei Tuberkulose anzugehen. Die Studie maß alle einzelnen, paarweisen und dreifachen Kombinationen von Medikamenten in vitro in acht verschiedenen Wachstumsumgebungen, um sie rechnerisch zusammenzuführen und zu modellieren, was in verschiedenen Tiermodellen passiert. Der Referent kommt zu dem Schluss, dass die Wechselwirkungsprofile von Arzneimitteln stark von der Wachstumsumgebung abhängen und es keine einzelne Kombination gibt, die unter allen Bedingungen synergistisch ist.

  • 01:20:00 In diesem Abschnitt erörterte der Referent seinen datengesteuerten Ansatz zum Entwerfen und Priorisieren von Arzneimittelkombinationen mithilfe von maschinellem Lernen. Sie nutzten sowohl überwachtes als auch unüberwachtes Lernen, um ihre Daten in einem Datenwürfel zusammenzustellen, und fanden ein starkes Signal, das Kombinationen darauf abgrenzt, ob sie besser als der Pflegestandard wären oder nicht. Sie fanden auch einen Weg, die Anzahl der Wachstumsbedingungen zu begrenzen, bei denen sie ihre Messungen vornehmen, indem sie verschiedene überwachte Lernmethoden wie Random Forest-Modelle verwendeten. Der Redner betonte, dass der einfachere Ansatz für sie besser funktionierte, um einen Weg zu finden, wie der Kombinationsraum am besten systematisch und effizient unter Verwendung validierter In-vitro-Modelle erforscht werden kann. Insgesamt könnte ihr Ansatz dazu beitragen, die Anzahl der In-vitro-Experimente zu reduzieren und zu den besten Kombinationen von Medikamenten zu führen.

  • 01:25:00 In diesem Abschnitt dankt die Sprecherin den Personen in ihrem Labor, die an verschiedenen schwierigen und chaotischen Projekten gearbeitet haben, darunter Studien zu Arzneimittelsynergien und -antagonismen. Diese Studien tragen letztendlich dazu bei, einen größeren Kontext für maschinelles Lernen und Deep Learning in den Biowissenschaften bereitzustellen, und betonen, dass sie ein kleiner Teil einer viel größeren Gleichung sind. Es wird betont, wie wichtig es ist, diesen größeren Kontext zu berücksichtigen, da dies nicht immer der richtige Ansatz, aber notwendig ist, um die Forschung auf diesem Gebiet zu verstehen und voranzubringen. Insgesamt war der Vortrag des Referenten sehr aufschlussreich und lieferte wertvolle Einblicke in die Schnittmenge von maschinellem Lernen und Pathologie.
 

Deep Learning for Cell Imaging Segmentation - Vorlesung 20



Deep Learning for Cell Imaging Segmentation - Vorlesung 20 - MIT ML in Life Sciences (Frühjahr 2021)

In diesem Video diskutieren die Referenten die Verwendung von Deep Learning für das Zelltracking, bei dem die Bewegung von Zellen in Zeitrafferaufnahmen bestimmt wird. Sie erklären, dass traditionelle manuelle Tracking-Methoden kostspielig und zeitaufwändig sind und dass Deep-Learning-Methoden den Prozess erheblich beschleunigen und gleichzeitig eine höhere Genauigkeit bieten können. Die Referenten diskutieren verschiedene Deep-Learning-Architekturen für die Zellverfolgung, darunter U-Net, StarDist und DeepCell. Sie stellen auch fest, dass eine der Herausforderungen bei der Zellverfolgung darin besteht, zwischen Zellen zu unterscheiden, die nahe beieinander liegen oder sich überlappen, und dass Methoden wie Multi-Objekt-Verfolgung oder graphbasierte Ansätze dabei helfen können, dieses Problem anzugehen. Die Referenten betonen die Bedeutung des Benchmarkings verschiedener Deep-Learning-Methoden für die Zellverfolgung und der Bereitstellung von Open-Access-Datensätzen für Reproduzierbarkeit und Vergleich. Sie heben auch die potenziellen Anwendungen der Zellverfolgung in verschiedenen Bereichen wie der Krebsforschung und der Arzneimittelforschung hervor.

  • 00:00:00 In diesem Abschnitt erörtert Juan Casado das Konzept der bildbasierten Phänotypisierung, einer Methode zum Verständnis biologischer Systeme durch den Einsatz von Mikroskopie und anderen bildgebenden Verfahren. Er erklärt, wie Bilder von biologischen Strukturen, wie Zellen, für verschiedene Phänotypen, einschließlich Zellgröße und DNA-Gehalt, quantifiziert und verwendet werden können, um Entscheidungen über Behandlungen und die Entdeckung von Medikamenten zu leiten. Casado gibt ein Beispiel für einen erfolgreichen Arzneimittelkandidaten für Leukämie, der durch die präzise Messung der Zellgröße anhand von Mikroskopbildern entdeckt wurde und schließlich zu seiner Zulassung durch die FDA führte. Er hebt die potenziellen Auswirkungen bildbasierter Profilerstellung im Bereich der Biologie und Arzneimittelentwicklung hervor.

  • 00:05:00 In diesem Abschnitt liegt der Schwerpunkt auf der Herausforderung, Zellpopulationen mit unterschiedlichen Merkmalen zu vergleichen und herauszufinden, welche Behandlungen wirksam sind. Dies erfordert mehr Informationen und Strategien zum Extrahieren von Informationen aus Zellbildern, und hier kommt die bildbasierte Profilerstellung ins Spiel. Dazu gehört die Erweiterung der Morphologie von Zellen oder des Zustands von Zellen mithilfe von Bildern, um quantitative Informationen für die Arzneimittelforschung und funktionelle Genomik zu extrahieren. Die beiden mit diesem Ansatz verbundenen Rechenprobleme sind die Zellsegmentierung und das Lernen der Einzelzelldarstellung, bei denen das Ziel darin besteht, zu identifizieren, wo sich einzelne Zellen in Bildern befinden, ohne Zeit und Energie aufwenden zu müssen, um Segmentierungsalgorithmen für verschiedene Bildtypen anzupassen. Letztendlich ist das Ziel, Segmentierungsalgorithmen für Zellen zu erstellen, die in natürlichen Bildern genauso funktionieren wie Phasendetektoren.

  • 00:10:00 In diesem Abschnitt spricht der Referent über die BioImage Challenge 2018, die darauf abzielte, Computer-Vision-Technologien für die Segmentierung in der Biologie nutzbar zu machen. Die Herausforderung bestand darin, einen annotierten Datensatz zu erstellen, ihn in Trainings- und Testpartitionen aufzuteilen, eine Erfolgsmetrik zu definieren und den Teilnehmern Feedback über ein Bewertungssystem zu geben, das auf Schnittmenge über Vereinigung basiert. Von den Teilnehmern wurde erwartet, dass sie ein überwachtes maschinelles Lernmodell verwenden, um die Beziehungen zwischen Eingaben und Ausgaben zu lernen und eine Segmentierungskarte des Bildes zu erstellen, das sie als Eingabe bereitgestellt haben. Die Gewinner waren diejenigen, die in der Lage waren, das endgültige Testset entsprechend der verwendeten Metrik genauer zu segmentieren.

  • 00:15:00 In diesem Abschnitt erörtert der Referent die drei besten Wettbewerber in einem Segmentierungswettbewerb für Zellbildgebung und ihre Verwendung unterschiedlicher Architekturen für ihre Modelle für maschinelles Lernen. Das drittplatzierte Team verwendete die Mask-RCNN-Architektur, die ein Bild in Regionen zerlegt und Kandidaten generiert, die von einem Netzwerk überprüft werden, um festzustellen, ob es sich um echte Objekte handelt oder nicht, bevor der genaue Begrenzungsrahmen und die Maske identifiziert werden, um das Objekt von dem zu trennen Hintergrund. Das zweitplatzierte Team verwendete ein Bildpyramidennetzwerk, das mehrere Feature-Maps berechnet, um Zwischenausgaben zu generieren, und Informationen aus allen verschiedenen Auflösungen aggregiert, um die endgültige Ausgabe zu generieren. Der Referent merkt an, dass, obwohl die Architektur eine Rolle bei der Erzielung einer hohen Genauigkeit für die Zellsegmentierung spielt, die Art und Weise, wie regelmäßige Kalibrierungs- und Kreuzvalidierungsexperimente durchgeführt werden, ebenfalls entscheidend ist.

  • 00:20:00 In diesem Abschnitt diskutiert der Referent einen neuartigen Ansatz zur Bildsegmentierung. Anstatt Binärmasken zu verwenden, um die Position von Objekten in einem Bild zu bestimmen, umfasst die Lösung die Vorhersage von Entfernungskarten oder Winkelkarten, die Entfernungen in verschiedenen Richtungen von der Mitte der Zelle messen. Die Ausgänge wurden manuell bearbeitet, um genauere Messungen der Objektposition zu ermöglichen, was zum zweiten Platz im Wettbewerb führte. Obwohl diese Idee damals neuartig war, haben spätere Arbeiten ihren Wert bewertet und sie als robust befunden, insbesondere für überfüllte Bilder mit vielen Objekten. Die verwendete Encoder-Decoder-Architektur war nicht innovativ, aber die Neuheit kam von der Replikation der exakten Architektur in 32 verschiedenen Modellen, die ein Ensemble bildeten, das ihnen half, den Wettbewerb zu gewinnen.

  • 00:25:00 In diesem Abschnitt diskutieren die Referenten die Leistung eines Ensemble-Ansatzes im Vergleich zu einfacheren Modellen für die Segmentierung von Zellbildern. Sie erklären, dass der Ensemble-Ansatz zwar rechenintensiv sein kann, einfachere Modelle jedoch in der Praxis effektiv sein können. Sie diskutieren auch die Grenzen von Wettbewerben und stellen fest, dass es hilfreich wäre, einzelne Modelle innerhalb eines Ensembles zu analysieren, um sie auf die genauesten zu reduzieren. Anschließend bewerten die Referenten die Verbesserungen, die zur Erleichterung der Biologieforschung durch Segmentierung vorgenommen werden können, und zeigen, dass die Optimierung von Algorithmen für bestimmte Bildtypen zeitaufwändig sein kann und die Genauigkeit je nach Bildtyp variieren kann. Sie weisen auch darauf hin, dass Ungleichgewichte bei Anmerkungen und Schwierigkeiten bei der Segmentierung bestimmter Bildtypen in realen Situationen zu Herausforderungen führen können.

  • 00:30:00 In diesem Abschnitt erörtert der Referent die Herausforderungen beim Analysieren verschiedener Arten von Bildgebungsverfahren, von kleinen fluoreszierenden bis hin zu rosa und violetten Bildern, die schwieriger zu segmentieren sind. Es gibt verschiedene Ansätze zur Segmentierung von Bildern, z. B. das Trainieren eines Modells pro Bildtyp oder die Verwendung klassischer Algorithmen mit angepassten Parametern. Darüber hinaus sind jetzt vortrainierte Modelle für die Zellsegmentierung verfügbar, z. B. Nucleizer, CellPose und Mesmer. Es gibt jedoch noch offene Herausforderungen bei der Segmentierung, wie z. B. das Sammeln größerer Datensätze und die Optimierung der Zeit, die Experten für die Identifizierung von Objekten aufwenden. Der Referent geht auch kurz auf die Bedeutung der Messung des Phänotyps von Zellen mit Methoden des maschinellen Lernens ein, die über klassische morphologische Messungen hinaus Merkmale lernen können.

  • 00:35:00 In diesem Abschnitt erörtert der Referent die Verwendung von Methoden des maschinellen Lernens bei der bildgebenden Segmentierung von Zellen für die Arzneimittelforschung. Störungsexperimente werden verwendet, wenn Zellen mit Verbindungen behandelt werden, aber Chargeneffekte können Rauschen verursachen und das Verständnis des Phänotyps verwirren. Da es keine Grundwahrheit gibt, wird eine schwach überwachte Lernmethode verwendet, bei der ein neuronales Netzwerk verwendet wird, um die angewendete Verbindung zu klassifizieren. Das Ziel ist es, Merkmale zu erhalten, um die Zellen sinnvoll zu organisieren, die Auskunft darüber geben können, ob Verbindungen ähnlich sind oder nicht. Die Bewertung umfasst die Beobachtung von Clustern von Verbindungen mit ähnlichen biologischen Wirkungen mit dem Ziel, den Suchraum auf nützliche Verbindungen zu reduzieren. Der Vergleich von Deep-Learning-Funktionen mit klassischen Funktionen zeigt einen signifikanten Unterschied.

  • 00:40:00 In diesem Abschnitt erörtert der Referent die Verwendung von Deep Learning für die Zellbildgebungssegmentierung, insbesondere bei der Bestimmung biologisch bedeutsamer Verbindungen zwischen Verbindungen und der Identifizierung der Auswirkungen von Mutationen bei Krebs. Durch den Vergleich des ursprünglichen Typs eines Gens mit einer Mutante können Forscher die phänotypische Ähnlichkeit zwischen ihnen messen, um festzustellen, ob die Mutante den Krebs antreibt oder nicht. Die Batch-Korrektur bleibt jedoch eine Herausforderung beim Deep Learning, da sie die aus den Bildern gelernten Merkmale beeinflussen kann. Der Referent schlägt die Verwendung einer Domänenanpassung vor, bei der ein neuronales Netzwerk mit zwei Köpfen für die Verbindungsklassifizierung und Chargenbestimmung verwendet wird. Der negative Gradient wird dann verwendet, um potenzielle Informationen zu zerstören, die mit der Charge verbunden sind, was zu einer klareren phänotypischen Bestimmung führt. Insgesamt kommt der Referent zu dem Schluss, dass Bilder eine großartige Informationsquelle für biologische Entdeckungen sind, erkennt aber auch die offenen Herausforderungen beim Repräsentationslernen und erklärbaren Modellen an.
 

Deep Learning Bildregistrierung und -analyse - Vorlesung 21



Deep Learning Image Registration and Analysis - Vorlesung 21 - MIT ML in Life Sciences (Frühjahr 2021)

Adrian Dalock geht in diesem Vortrag auf das Thema Alignment medizinischer Bilder und das dahinter stehende Optimierungsproblem ein. Er schlägt eine neuartige Methode namens Voxel-Morph vor, bei der unbeschriftete Datensätze verwendet werden, um neuronale Netze für die Bildregistrierung zu trainieren. Der Referent diskutiert auch die Herausforderung der Robustheit gegenüber neuen Daten und Sequenzen, die neuronale Netze zuvor nicht gesehen haben, und schlägt vor, verschiedene und extreme Bedingungen zu simulieren, um robuste Modelle zu trainieren. Der Sprecher vergleicht klassische Registrierungsmodelle mit Voxel-Morph- und Synthmorph-Modellen, wobei letztere bemerkenswert robust sind. Abschließend erörtert der Referent die Entwicklung einer Funktion, die Vorlagen basierend auf gewünschten Eigenschaften generiert, anstatt direkt eine Vorlage zu lernen, und die potenzielle Verwendung der Kapsel-Videoendoskopie zum Erkennen von Dickdarmanomalien.

Der Referent in diesem Vortrag diskutiert verschiedene maschinelle Lernansätze zur Überwindung des Mangels an medizinischen Daten, insbesondere im Kontext von Darmspiegelungsvideos zur Polypenerkennung. Sie führen eine Deep-Learning-Bildregistrierungs- und -analysearchitektur ein, die vortrainierte Gewichtungen und zufällige Initialisierung verwendet, um Domänenverschiebungen zu beheben und die Leistung zu verbessern. Die Vorlesung behandelt auch schwach überwachtes Lernen, selbstüberwachtes Lernen und schwach überwachte Videosegmentierung. Der Referent erkennt die Herausforderungen an, die bei der Verwendung maschineller Lernansätze in der medizinischen Datenanalyse auftreten, und ermutigt dazu, diese Ansätze in echten medizinischen Verfahren zu testen, um die Arbeitsbelastung zu reduzieren.

  • 00:00:00 In diesem Abschnitt des Vortrags erläutert Adrian Dalock die Bedeutung der Ausrichtung medizinischer Bilder und das dahinter stehende Optimierungsproblem. Er erklärt, dass das Ausrichten von Bildern an einem gemeinsamen Referenzrahmen für die Analyse medizinischer Bilder von zentraler Bedeutung ist, da es die Identifizierung von Strukturen und Krankheiten sowie den Vergleich zwischen Subjekten ermöglicht. Der traditionelle Ausrichtungsschritt war jedoch sehr zeitaufwändig und dauerte bis zu zwei Stunden pro Gehirn, was die Entwicklung anspruchsvoller Modelle behinderte. Dalock stellt eine wesentlich schnellere Methode vor, die auf einer CPU weniger als eine Minute und auf einer GPU weniger als eine Sekunde dauert und eine schnellere und effizientere Forschung auf diesem Gebiet ermöglicht. Er definiert Ausrichtung oder Registrierung als das Auffinden eines Deformationsfelds, das mit Bildern übereinstimmt, und wurde in verschiedenen Bereichen, einschließlich Computer Vision und Computerbiologie, ausgiebig erforscht.

  • 00:05:00 In diesem Abschnitt erörtert der Referent die Entwicklung von Bildregistrierungsmethoden, beginnend mit den klassischen Modellen und fortschreitend zu den lernbasierten Methoden, die vor drei Jahren aufkamen. Die letztgenannten Methoden werden jedoch, obwohl sie effektiv sind, durch das Fehlen eines Ground-Truth-Deformationsfelds behindert, das für überwachte Daten verwendet werden kann. Der Referent schlägt eine neuartige Methode vor, bei der unbeschriftete Datensätze zum Trainieren neuronaler Netze verwendet werden, was zu eleganteren und effizienteren End-to-End-Lösungen für die Bildregistrierung führt. Das Framework beinhaltet die Verwendung der Verlustfunktionen aus klassischen Modellen, um ein völlig neues neuronales Netzwerk zu optimieren, was zu höherer Genauigkeit und schnelleren Geschwindigkeiten führt.

  • 00:10:00 In diesem Abschnitt beschreibt der Referent eine Methode zur Bildregistrierung unter Verwendung von Deep-Learning-Techniken, die Anleihen bei klassischen Methoden nimmt, aber ein neuronales Netzwerk optimiert, um Deformationsfelder auszugeben, anstatt die Felder direkt zu optimieren. Das Deformationsfeld wird auf alle Bilder in einem Datensatz angewendet, und stochastische Gradiententechniken werden verwendet, um das Netzwerk zu optimieren. Der Referent erläutert, wie differenzierbare Verluste genutzt werden, um die Glätte des Deformationsfeldes sicherzustellen, und die Ergebnisse durch den Vergleich anatomischer Strukturen vor und nach dem Verwölbungsprozess sowie die Messung von Volumenüberschneidungen ausgewertet werden. Die vorgeschlagene Methode, Voxel-Morph genannt, ist in der Lage, die Ausgabe eines Optimierungsverfahrens zu schätzen und liefert eine Annäherung an probabilistische Modelle, die elegante Verbindungen zwischen Bildern, Deformationsfeldern und Unsicherheitsschätzungen bietet.

  • 00:15:00 In diesem Abschnitt erörtert der Referent seine Analyse des Trainings eines voxelmorphen neuronalen Netzwerks mit nur wenigen Bildern und zeigt, dass selbst mit nur 10 Bildern das Deformationsfeld, das vom Netzwerk ausgegeben wird, dem Stand der Technik nahe kommt . Darüber hinaus geht der Redner auf die Frage ein, bestimmte Interessengebiete wie den Hippocampus in einem Gehirn zu skizzieren und wie sie dem Netzwerk beibringen konnten, diesen Bereich zu identifizieren, ohne ihn tatsächlich zu kennzeichnen, indem er währenddessen eine „weiche Segmentierung“ durchführte Ausbildung. Abschließend diskutiert der Redner die Herausforderung unterschiedlicher medizinischer Bilder und wie Trainingsnetzwerke auf nur einer Modalität ihre Fähigkeit einschränken können, mit anderen Modalitäten zu arbeiten, und stellt ein Projekt vor, das dieses Problem löst.

  • 00:20:00 In diesem Abschnitt erörtert der Redner die Herausforderung, neuronale Netze zu entwickeln, die robust gegenüber neuen Daten und Sequenzen sind, die sie zuvor noch nicht gesehen haben. Sie schlagen vor, verschiedene und extreme Bedingungen zu simulieren, um das Netzwerk erheblichen Schwankungen auszusetzen, sodass es entscheidet, einige Ausreißer zu ignorieren, was eine bessere Verallgemeinerung auf reale Daten ermöglicht. Um dies zu erreichen, verformen sie Bilder nach dem Zufallsprinzip, fügen verschiedene Rauschmuster hinzu, füllen Werte und Intensitäten nach dem Zufallsprinzip ein und simulieren verschiedene Effekte, um Daten zu generieren. Sie experimentierten mit der Simulation verschiedener Daten für Registrierungen und Segmentierungspapiere sowie mit der Simulation zufälliger Formen, wodurch sie ein Verformungsfeld erhielten, mit dem die Qualität der Informationen getestet werden konnte.

  • 00:25:00 In diesem Abschnitt erörtert der Referent die Ergebnisse des Trainings verschiedener Modelle für die Bildregistrierung und -analyse. Sie trainierten Voxel-Morph-Modelle und zwei Versionen des Synthmorph-Modells unter Verwendung unterschiedlicher Metriken für das Training. Die klassischen Modelle funktionieren gut, aber die Voxel-Morph-Modelle mit Variabilität und Robustheit schneiden sogar noch besser ab. Die Modelle, die mit Bildern von simulierten Gehirnen oder Blobs trainiert wurden, funktionieren ungefähr genauso wie Voxel-Morph-Modelle und besser als klassische Modelle. Wenn es jedoch um die Registrierung zwischen Modalitäten geht, brechen die Modelle zusammen, die mit Metriken mit gleichem Kontrast trainiert wurden. Inzwischen sind die Synthmorph-Modelle bemerkenswert robust, sogar mit realen Bildern. Die Modellkapazität könnte jedoch zu einem Problem führen, bei dem die Merkmale echter Bilder möglicherweise nicht erfasst werden.

  • 00:30:00 In diesem Abschnitt des Vortrags diskutiert der Referent die Kapazität von Modellen für maschinelles Lernen und wie sich das Feld in Richtung der Verwendung von mehr Parametern bewegt. Sie simulieren Gehirnscans mit unterschiedlichen Modalitäten und vergleichen die Leistung klassischer Modelle, Voxel-Morph, und ihrer Methode, Synthmorph. Sie fanden heraus, dass ihre Methode robust ist, da sie in der Lage ist, den Kontrast vollständig zu ignorieren und nur die notwendige Anatomie zu extrahieren, was dadurch erreicht wird, dass man lernt, die Reaktion auf Kontrastvariationen in den Merkmalen des Netzwerks zu ignorieren. Sie stellen auch ihre neue Methode Hypermorph vor, die die Wirkung von Hyperparametern auf Registrierungsfelder lernt. Das Potenzial dieser Methode besteht darin, dass nur ein Modell trainiert und anschließend angepasst werden muss, sodass nicht mehrere Modelle trainiert werden müssen.

  • 00:35:00 In diesem Abschnitt erörtert der Referent eine Technik namens Hypernetzwerke, bei der ein kleines Netzwerk trainiert wird, das einen Hyperparameterwert als Eingabe verwendet und die Gewichtungen eines größeren Netzwerks ausgibt, das Verformungsfelder für die Bildregistrierung generiert. Durch Einstellen des Hyperparameterwerts kann das Deformationsfeld angepasst werden, ohne dass ein erneutes Training erforderlich ist, und ein einzelnes Hypermorphmodell kann einen großen Bereich von Variationen des Deformationsfelds erfassen. Diese Technik kann auf verschiedene maschinelle Lerneinstellungen über die Bildregistrierung hinaus angewendet werden und kann nützlich sein, um eine interaktive Abstimmung des Modells zu ermöglichen oder es basierend auf Validierungsdaten anzupassen. Der optimale Wert des Hyperparameters variiert unter anderem abhängig vom Datensatz, dem Alter der Patienten und der Registrierungsaufgabe.

  • 00:40:00 In diesem Abschnitt des Vortrags erörtert der Referent die Bedeutung der Auswahl unterschiedlicher Hyperparameterwerte für verschiedene Regionen des Gehirns bei der Bildregistrierung. Sie vergleichen auch ein Modell, das mit realen Daten trainiert wurde, mit einem Modell, das mit zufälligen Daten trainiert wurde, und erklären, wie das erstere in verschiedenen Regionen anfälliger für Rauschen ist. Anschließend stellen sie ein Projekt vor, das sich auf die Idee konzentriert, Daten an einem gemeinsamen Referenzrahmen auszurichten, ohne ein zentroidales Gehirn aufzubauen oder eine Vorlage zu verwenden. Stattdessen schlagen sie vor, einen Atlas gleichzeitig mit der Registrierung von Bildern zu schätzen, und das daraus resultierende Tool erweist sich als flexibel und in der Lage, viele Probleme zu lösen, die zuvor schwer zu lösen waren, wie z. B. das Erstellen separater Vorlagen für verschiedene Bevölkerungsgruppen.

  • 00:45:00 In diesem Abschnitt erörtert der Referent das Konzept der „bedingten Vorlagen“ bei der Deep-Learning-Bildregistrierung und -analyse, bei der eine Funktion erlernt wird, die eine Vorlage auf der Grundlage einer gewünschten Eigenschaft (wie Alter, Geschlecht oder genetische Eigenschaften) generiert Informationen), anstatt direkt eine Vorlage zu lernen. Durch die Eingabe von Patientendaten und Altersinformationen ist das Netzwerk in der Lage, einen reibungslosen altersabhängigen Atlas zu lernen, der bestimmte Effekte zwischen verschiedenen Gehirnen erfasst, wie z. B. Änderungen der Ventrikelgröße. Der Referent diskutiert auch das Potenzial für genetische Analysen mit ähnlichen Methoden sowie den Einsatz von Variationscodierern und anderen maschinellen Lernkonzepten in diesem Bereich.

  • 00:50:00 In diesem Abschnitt des Vortrags erörtert der Referent die Motivation hinter seiner Arbeit an der automatischen Pathologieerkennung für die Kapsel-Videoendoskopie, die eine Zusammenarbeit zwischen der norwegischen Universität für Wissenschaft und Technologie und einem Krankenhaus in Norwegen ist. Der menschliche Dickdarm ist anfällig für Krankheiten wie Darmkrebs und Colitis ulcerosa, die die Glätte der Dickdarmwände untergraben und zu Blutungen oder anderen Komplikationen führen können. Koloskopie wird von Ärzten für Personen über 50 Jahren empfohlen, wird aber von Patienten möglicherweise nicht akzeptiert. Kapsel-Videoendoskopien bieten eine alternative Möglichkeit, die Dickdarmwände zu visualisieren und Anomalien mit einer kleinen, pillengroßen Kamera zu erkennen, die fast 50.000 Bilder überträgt, um eine große Datenmenge zu erzeugen.

  • 00:55:00 In diesem Abschnitt erörtern die Referenten die Herausforderungen der Bildgebung mit Kapsel-Videoendoskopie, bei der eine einnehmbare Kapsel Bilder aufnimmt, während sie durch den Verdauungstrakt wandert. Die Kapsel muss auf nüchternen Magen eingenommen werden und kann Merkmale in den Falten des Dickdarms verpassen. Darüber hinaus kann die Kapsel stecken bleiben oder auf geometrische Hindernisse stoßen, wenn sie durch den Dünndarm wandert, was möglicherweise zu einer Operation führen kann. Die resultierende Videoqualität ist nicht so gut wie die HD-Bildqualität, mit begrenzter Farbe und fließenden Übergängen. Trotz dieser Einschränkungen kann die Kapsel-Videoendoskopie bei der Diagnose von Erkrankungen wie Divertikulitis helfen, und Ärzte suchen im Video nach Anomalien, um die Behandlung anzuleiten.

  • 01:00:00 In diesem Abschnitt des Vortrags geht der Referent auf die Herausforderungen des Einsatzes maschineller Lernansätze in der medizinischen Datenanalyse ein, insbesondere im Kontext von Darmspiegelungsvideos zur Polypenerkennung. Das Hauptproblem ist der Mangel an Daten aufgrund der teuren und langsamen Natur der medizinischen Datenerfassung und der Schwierigkeit, eine Kennzeichnung durch verschiedene Pathologen zu erhalten. Der Referent skizziert mehrere maschinelle Lernansätze zur Überwindung des Datenmangels, wie z. B. Transfer Learning und überwachtes Lernen, und erläutert aktuelle Deep-Learning-Ansätze anhand von RGB-Bildern, geometrischen Merkmalen und 3D-Falten. Abschließend stellt der Referent den Wine-it-Ansatz zur Polypenerkennung vor, bei dem die Koloskopiebilder mithilfe der Registrierung ausgerichtet und die Leistung der Polypenerkennung verbessert werden.

  • 01:05:00 In diesem Abschnitt des Vortrags erörtert der Referent eine Deep-Learning-Bildregistrierungs- und -analysearchitektur, die vortrainierte Gewichtungen und zufällige Initialisierung verwendet, um Domänenverschiebungen anzugehen und die Leistung bei der Objekterkennung und Bildsegmentierung zu verbessern. Die Architektur besteht aus zwei Encodern, von denen einer von ImageNet vortrainiert wurde und der andere mit randomisierten Gewichtungen, zusammen mit einer Erweiterung der Eingabebilder. Die Lernraten für jeden Codierer hängen von der Ebene ab, auf der sie trainieren, und es werden binäre Kreuzentropie und die Würfelverlustfunktion verwendet. Die Architektur wird an einem Datensatz von Videos getestet, die Polypen enthalten, und erreicht eine F1-Punktzahl von 85,9 unter Verwendung mehrerer Variationen derselben Eingabe. Abschließend stellt der Referent Videos vor, die die Wirksamkeit der Architektur demonstrieren.

  • 01:10:00 In diesem Abschnitt diskutiert der Dozent die Herausforderung, gekennzeichnete Daten für ein Bildregistrierungsproblem zu sammeln, und stellt das Konzept des Lernens in mehreren Instanzen mit schwacher Aufsicht vor. Die Annahme ist, dass es einen positiven Beutel mit mindestens einer Instanz der interessierenden Pathologie gibt, während der negative Beutel immer negative Instanzen enthält. Das Problem wird so formuliert, dass herausgefunden werden kann, welche Frames die Pathologie enthalten und optimiert werden können, indem der individuelle Beitrag von jedem Frame vorhergesagt und der Verlust auf dem endgültigen Videoetikett der Aggregation optimiert wird. Es wird darauf hingewiesen, dass dieses Problem aufgrund der begrenzten Kennzeichnungsdaten und des Fehlens von Daten zu einzelnen Komponenten eine Herausforderung darstellt und einen schwach überwachten Ansatz erfordert.

  • 01:15:00 In diesem Abschnitt erläutert der Redner, wie sie Resonanz-50-Merkmale aus Videos mit Pathologien und normalen Videos extrahiert und sie durch restliche LSTM-Blöcke geleitet haben, die bidirektionales LSTM mit einer Skip-Verbindung enthalten. Sie erklären, dass das Ziel darin besteht, die Alphas zu finden, die den Beitrag jedes Frames zum endgültigen Videoklassifizierungsproblem darstellen. Sie diskutieren auch die Ausnutzung von Wertrahmen mit hoher Aufmerksamkeit, um Pathologien zu identifizieren und sie von den negativen Klassen zu trennen. Die endgültige Verlustfunktion ist eine Kreuzentropie der Videoklassifizierung und der Trennung der Taschen zwischen positiven und negativen Bänken. Der Redner teilt dann mit, wie er eine Appellationsstudie durchgeführt hat, um zu bestimmen, wo man Aufmerksamkeit lernen kann, wobei die besten Ergebnisse erzielt wurden, indem man an der letzten verborgenen Darstellung teilnahm und sie auf die endgültige Ausgabe anwendete. Der Ansatz wurde im Vergleich zu anderen Methoden getestet, die metrisches Lernen verwenden.

  • 01:20:00 In diesem Abschnitt diskutiert der Referent den Einsatz von selbstüberwachtem Lernen in der medizinischen Bildgebung und die damit verbundenen Herausforderungen. Sie erwähnen, dass ein einigermaßen erfolgreicher Ansatz darin besteht, ein Puzzle-Problem zu verwenden, bei dem Bilder in Patches aufgeteilt und rekonstruiert werden. Das Problem bei der medizinischen Bildgebung besteht jedoch darin, dass es keine Rotationsinvariante gibt, was es schwierig macht, aussagekräftige Cluster zu finden. Der Redner schlägt vor, dass die Verbesserung der Lokalisierung von Videoframes durch Domänenwissen, wie z. B. das Verständnis, wie sich verschiedene Krankheiten manifestieren, ein nützlicher Ansatz zur Verbesserung der Klassifikation von Pathologien sein könnte.

  • 01:25:00 In diesem Abschnitt erörtert der Redner die schwach überwachte Videosegmentierung und die Notwendigkeit, zu erkennen, wo Frames lokalisiert sind, um bessere Erklärungen in medizinischen Umgebungen bereitzustellen. Sie erwähnen auch die Gestaltung selbstüberwachter Vortestaufgaben und kontrastives Lernen als neue und spannende Ansätze in diesem Bereich, wobei täglich neue Arbeiten veröffentlicht werden. Der Referent würdigt das icomet-Projekt und regt an, diese Ansätze in realen medizinischen Verfahren zu testen, um die Arbeitsbelastung zu reduzieren. Der Gastgeber drückt seine Wertschätzung für echte Praktiker aus, die medizinische Probleme lösen, und dankt dem Referenten für den informativen Vortrag.