Полипрагмазия – это использование комбинаций лекарственных средств для лечения сложных заболеваний. Однако иногда из-за межлекарственных взаимодействий активность одного лекарственного средства изменяется в положительную или неблагоприятную сторону при приеме с другим лекарственным средством. В этом блоге мы изучаем Декагон, который представляет собой подход к моделированию побочных эффектов полипрагмазии.

Подход Decagon строит мультимодальный график взаимодействия белок-белок, взаимодействия лекарство-белок-мишень и побочных эффектов полипрагмазии, то есть взаимодействия лекарственного средства. Каждый побочный эффект представляет собой край другого типа.

На рисунке ниже показан мультимодальный граф. На этом рисунке выделенные графы-соседи ципрофлоксацина (узел C) указывают на то, что это лекарство нацелено на четыре белка и взаимодействует с тремя другими лекарствами. На графике закодирована информация о том, что ципрофлоксацин (узел С) при совместном приеме с доксициклином (узел D) или с симвастатином (узел S) увеличивает риск развития побочного эффекта брадикардии (тип побочного эффекта r2), а его комбинация с мупироцином (М) увеличивает риск побочный эффект желудочно-кишечного кровотечения r1.

Decagon прогнозирует ассоциации между парами лекарств и побочными эффектами (показаны красным) с целью выявления побочных эффектов полипрагмазии, то есть побочных эффектов, которые нельзя отнести ни к одному из препаратов в паре.

Базовая структура сверточной сети Decagon Graph

Decagon принимает в качестве входных данных мультимодальный граф молекулярных данных и данных о пациентах и ​​обучает графовую сверточную нейронную сеть. Затем нейронную модель можно использовать для анализа, характеристики и прогнозирования побочных эффектов полипрагмазии.

Декагон состоит из двух основных компонентов:

  • кодер: сверточная сеть графа (GCN), работающая на графе и создающая вложения для узлов,
  • декодер: модель тензорной факторизации, использующая эти вложения для моделирования побочных эффектов полипрагмазии.

Давайте подробнее обсудим кодировщик и декодер.

Сверточный кодировщик графов

Сначала мы опишем модель кодировщика графа, которая принимает в качестве входных данных граф G и дополнительные векторы признаков узла и создает d-мерное вложение для каждого узла (лекарства, белка). на графике.

В каждом слое Decagon распространяет информацию о скрытых функциях узлов по ребрам графа, принимая во внимание тип (отношение) ребра.

Один слой этой модели нейронной сети принимает следующую форму:

где h (k) i ∈ Rd(k) — скрытое состояние узла vi в k-м слое нейронной сети с d (k) — размерность представления этого слоя, r — тип отношения, а матрица W(k) r — отношение- введите конкретную матрицу параметров. Здесь φ обозначает нелинейную поэлементную функцию активации (т. е. выпрямленную линейную единицу), которая преобразует представления, используемые на уровне нейронной модели, c ij r и c i r — константы нормализации, которые мы выбираем симметричными.

Более глубокая модель может быть построена путем объединения нескольких (например, K) этих слоев с соответствующими функциями активации. Мы складываем K слоев таким образом, чтобы выходные данные предыдущего слоя становились входными данными для следующего слоя. Входными данными для первого слоя являются векторы признаков узлов или уникальные горячие векторы для каждого узла в графе, если признаков нет.

Декодер тензорной факторизации

Цель декодера — реконструировать помеченные ребра в G, полагаясь на изученные вложения узлов и обрабатывая каждую метку (тип ребра) по-разному. В частности, декодер оценивает (vi, r, vj)-тройку с помощью функции g, целью которой является присвоение оценкиg(vi ,r, vj )отображает вероятность того, что лекарства vi и vj взаимодействуют через отношение/побочный эффект типа r (рис. 3B). ). Использование вложений для узлов i и j, возвращаемых кодировщиком Decagon (раздел 4.1) zi и zj, декодер предсказывает ребро-кандидат (vi, r, vj) с помощью факторизованной операции:

с последующим применением сигмовидной функции σ для вычисления вероятности ребра (vi, r, vj ):

Обучение модели Decagon

Во время обучения модели мы оптимизируем параметры модели, используя потери кросс-энтропии:

чтобы модель назначала более высокие вероятности наблюдаемым ребрам (vi, r, vj ), чем случайным неребрам. Мы оцениваем модель через отрицательную выборку. Для каждого ребра между наркотиками (vi, r, vj ) (т. е. положительного примера) в графе мы выбираем случайное ребро (vi, r, vn) (т. е. отрицательный пример) путем случайного выбора узла vn. Это достигается путем замены узла vj в ребре (vi, r, vj ) узлом vn, который выбирается случайным образом в соответствии с распределением выборки Пр. С учетом всех ребер окончательная функция потерь в Decagon:

Экспериментальная установка

Давайте теперь узнаем больше о наборе данных, экспериментальной установке и результатах из видео ниже.