Обсуждение статьи "Нейросети — это просто (Часть 80): Генеративно-состязательная модель Трансформера графов (GTGAN)"

 

Опубликована статья Нейросети — это просто (Часть 80): Генеративно-состязательная модель Трансформера графов (GTGAN):

В данной статье я предлагаю Вам познакомиться с алгоритмом GTGAN, который был представлен в январе 2024 года для решения сложных задач по созданию архитектурного макета с ограничениями на граф.

Для анализа исходного состояния окружающей среды чаще всего применяются модели, использующие сверточные слои или различные механизмы внимания. Однако сверточным архитектурам не хватает понимания долгосрочных зависимостей в исходных данных, поскольку существуют присущие им индуктивные смещения. Архитектуры на основе механизмов внимания позволяют кодировать долгосрочные или глобальные отношения и изучать весьма выразительные представления функций. С другой стороны, модели свертки графов хорошо используют корреляции локальных и соседних вершин на основе топологии графа. поэтому, имеет смысл объединить сети свертки графов и Трансформеры для моделирования локальных и глобальных взаимодействий для решения поиска оптимальных торговых стратегий.

Недавно представленный в статье "Graph Transformer GANs with Graph Masked Modeling for Architectural Layout Generation" алгоритм генеративно-состязательной модели графового трансформера (GTGAN) лаконично объединяет оба указанных подхода. Авторами алгоритма GTGAN решается задача создание реалистичного архитектурного проекта дома из входного графа. И представленная ими модель генератора состоит из трех компонентов: сверточной нейронной сети передачи сообщений (Conv-MPN), энкодера Трансформера графов (GTE) и головки генерации.

Качественные и количественные эксперименты по трем сложным генерациям архитектурного макета с графическими ограничениями с тремя наборами данных, которые были представлены в авторской статье, демонстрируют, что предлагаемый метод может давать результаты, превосходящие представленные ранее алгоритмы.




Автор: Dmitriy Gizlyk