1. DAGformer: Преобразователь направленного ациклического графа(arXiv)

Автор:Юанкай Луо

Аннотация. Во многих областях, таких как обработка естественного языка и компьютерное зрение, архитектура Transformer стала стандартом. В последнее время архитектура Transformer также вызывает растущий интерес к обучению представлению графа, поскольку она естественным образом преодолевает некоторые ограничения нейронной сети графа (GNN). В этой работе мы сосредоточимся на особом, но широко используемом классе графов — DAG. Мы предлагаем ориентированный ациклический граф Transformer, DAGformer, архитектуру Transformer, которая обрабатывает информацию в соответствии с отношением достижимости, определяемым частичным порядком. DAGformer прост и гибок, что позволяет использовать его с различными моделями на основе трансформаторов. Мы показываем, что наша архитектура обеспечивает высочайшую производительность на репрезентативных наборах данных DAG, превосходя все предыдущие подходы.

2.Расширение преобразователей графов с помощью агрегации квантовых вычислений(arXiv)

Автор:Слиман Табет, Ромен Фуйан, Лоик Анриет

Аннотация:недавно в сообществе были предприняты усилия по разработке новых графовых нейронных сетей (GNN), поскольку ограничения нейронных сетей с передачей сообщений стали более очевидными. Это привело к появлению Graph Transformers, использующих глобальные функции графа, такие как лапласовские собственные карты. В нашей статье мы представляем архитектуру GNN, в которой веса агрегации вычисляются с использованием дальних корреляций квантовой системы. Эти корреляции генерируются путем перевода топологии графа во взаимодействие набора кубитов в квантовом компьютере. Эта работа была вдохновлена ​​недавней разработкой блоков квантовой обработки, которые позволяют вычислять новое семейство функций глобального графа, которые в противном случае были бы недоступны для классического оборудования. Мы даем некоторые теоретические сведения о потенциальных преимуществах этого подхода и сравним наш алгоритм со стандартными наборами данных. Хотя наша модель не адаптирована ко всем наборам данных, она работает аналогично стандартной архитектуре GNN и прокладывает многообещающее будущее для квантово-усовершенствованных GNN.

3.Планирование последовательности сборки с помощью Graph Transformer(arXiv)

Автор:Линь Ма, Цзянтао Гун, Хао Сюй, Хао Чен, Хао Чжао, Вэньбин Хуан, Гуюэ Чжоу

Аннотация:Планирование последовательности сборки (ASP) является важным процессом для современного производства, доказано, что он является NP-полным, поэтому его эффективное и действенное решение стало проблемой для исследователей в этой области. В этой статье мы представляем основанную на графе-преобразователе структуру для задачи ASP, которая обучена и продемонстрирована на самостоятельно собранной базе данных ASP. База данных ASP содержит собранный самостоятельно набор моделей LEGO. Модель LEGO абстрагируется до структуры гетерогенного графа после тщательного анализа исходной структуры и извлечения признаков. Последовательность наземной сборки правды сначала генерируется путем поиска методом грубой силы, а затем корректируется вручную в соответствии с рациональными привычками человека. Основываясь на этом наборе данных ASP, собранном самостоятельно, мы предлагаем структуру гетерогенного графа-преобразователя для изучения скрытых правил планирования сборки. Мы оценили предложенную структуру в серии экспериментов. Результаты показывают, что сходство предсказанных и наземных последовательностей правды может достигать 0,44, что является средней корреляцией, измеренной с помощью τ Кендалла. Тем временем мы сравнили различные эффекты узловых и краевых функций и создали выполнимую и разумную последовательность сборки в качестве эталона для дальнейших исследований. Наш набор данных и код доступны на https://github.com/AIR-DISCOVER/ICRA\_AS.