input
stringclasses
1 value
context
stringlengths
4.28k
71.5k
answers
stringlengths
353
1.93k
length
int64
639
12.6k
dataset
stringclasses
1 value
language
stringclasses
1 value
all_classes
stringclasses
1 value
_id
stringclasses
1 value
Напиши аннотацию по статье
Экстремальное сжатие языковой модели с оптимальными подсловами и общими проекциями. Недавно контекстно-зависимые языковые модели, такие как ELMo BIBREF0, GPT BIBREF1, BERT BIBREF2 и XLNet BIBREF3, показали, что они значительно превосходят традиционные модели внедрения слов, включая Word2Vec BIBREF4 и GloVe BIBREF5, в различных задачах НЛП.Эти предварительно обученные языковые модели после точной настройки на последующие задачи понимания языка, такие как классификация настроений BIBREF6, вывод на естественном языке BIBREF7 и понимание прочитанного BIBREF8, BIBREF9, достигли высочайшего уровня производительности.Однако большое количество параметров в этих моделях, часто превышающее сотни миллионов, делает невозможным их размещение для задач с ограниченными ресурсами, таких как выполнение выводов в реальном времени на мобильных и периферийных устройствах.Помимо использования методов квантования модели BIBREF10, BIBREF11, целью которых является снижение точности параметров с плавающей запятой, значительные недавние исследования были сосредоточены на методах дистилляции знаний BIBREF12, BIBREF13.Здесь цель состоит в том, чтобы обучить модель небольшого ученика, заимствуя знания, например, посредством мягко прогнозируемого распределения меток, из более крупной модели предварительно обученного учителя.Однако существенным узким местом, которое упускалось из виду в предыдущих попытках, является размер входного словаря и соответствующая ему матрица встраивания слов, на которую часто приходится значительная часть всех параметров модели.Например, таблица внедрения модели BERTBASE, содержащая более 30 тысяч токенов WordPiece BIBREF14, занимает более $21\%$ размера модели.Несмотря на то, что уже ведется работа по уменьшению размеров словаря модели НЛП (BIBREF15), методы дистилляции не могут использовать их, поскольку они требуют, чтобы модели ученика и учителя использовали один и тот же словарный запас и пространство вывода.Это глубоко ограничивает их потенциал по дальнейшему уменьшению размеров моделей.Мы представляем две новые идеи по повышению эффективности фильтрации знаний, в частности для BERT, с упором на уменьшение размеров моделей до нескольких мегабайт.Наша модель является одной из первых, кто предлагает использовать значительно меньший словарный запас для модели студента, изучаемой в ходе дистилляции.Кроме того, вместо того, чтобы анализировать только выходные данные последнего слоя модели учителя, наша модель использует параметры послойной модели учителя для непосредственной оптимизации параметров соответствующих слоев в модели ученика.В частности, наш вклад заключается в следующем:[leftmargin=*]Двойное обучение: наши модели учителей и учеников имеют разные словари и несовместимые токенизации для одной и той же последовательности.Чтобы решить эту проблему во время дистилляции, мы загружаем модель учителя смесью слов, обозначенных словарным запасом учителя, и слов, обозначенных словарным запасом учащихся, в одной последовательности.В сочетании с задачей моделирования языка в маске это способствует неявному выравниванию вложений WordPiece учителя и ученика, поскольку встраивание словаря ученика может использоваться в качестве контекста для прогнозирования слова, маркированного словарем учителя, и наоборот.Проекции общих переменных. Чтобы свести к минимуму потерю информации из-за уменьшения измерения скрытого состояния, мы вводим отдельные потери для согласования обучаемых переменных моделей учителя и ученика.Это позволяет более напрямую послойно передавать знания в модель ученика.Используя комбинацию двойного обучения и проекций общих переменных, мы обучаем 12-слойную сильно сжатую модель BERT ученика, достигая максимальной степени сжатия $\sim $61,94x (с размером измерения 48) по сравнению с моделью учителя BERTBASE.Мы проводим эксперименты для измерения как обобщенной перспективы моделирования языка, так и последующих задач, демонстрируя конкурентоспособную производительность с высокими коэффициентами сжатия для обоих семейств задач.Исследования в области сжатия моделей нейронных сетей сопровождались ростом популярности самих нейронных сетей, поскольку эти модели часто требовали большого объема памяти для оборудования своего времени.Работа по сжатию моделей для приложений НЛП в целом делится на четыре категории: матричная аппроксимация, сокращение/совместное использование параметров, весовое квантование и дистилляция знаний.Семейство подходов BIBREF16, BIBREF17 направлено на сжатие матричных параметров моделей посредством аппроксимации низкого ранга, т.е. параметр матрицы полного ранга аппроксимируется с использованием нескольких матриц низкого ранга, тем самым уменьшая эффективное количество параметров модели.Другое направление работы исследует методы сокращения параметров и совместного использования BIBREF18, BIBREF19, BIBREF20, BIBREF21, которые исследуют избыточность в параметрах модели и пытаются удалить избыточные веса, а также нейроны, для различных архитектур нейронных сетей.Методы квантования веса модели BIBREF22, BIBREF23, BIBREF24, BIBREF25 фокусируются на сопоставлении весов модели с целыми числами низкой точности и числами с плавающей запятой.Они могут быть особенно эффективны с оборудованием, поддерживающим эффективные вычисления с низкой точностью.Совсем недавно BIBREF26 применил квантование к моделям трансформаторов на основе BERT.Фильтрация знаний BIBREF12, BIBREF13 отличается от других обсуждавшихся подходов: меньшая модель ученика может быть параметризована иначе, чем большая модель учителя, что дает больше свободы моделирования.Обучение модели ученика сопоставлению распределений мягких выходных меток из более крупной модели наряду с точным распределением достоверных данных хорошо работает для многих задач, таких как машинный перевод BIBREF27 и языковое моделирование BIBREF28. Некоторые подходы не ограничиваются выходными данными модели учителя, некоторые подходы обеспечивают знание. дистилляция посредством передачи внимания BIBREF29 или через карты признаков или выходные данные промежуточной модели BIBREF30, BIBREF31, BIBREF32.Более актуальные для текущей работы BIBREF33 и BIBREF34 используют варианты этих методов для сжатия модели BERT за счет уменьшения количества слоев преобразователя.Однако, как объяснялось ранее, эти подходы не могут быть немедленно применимы к нашим условиям из-за несовместимости словарей моделей учителя и ученика и не уделяют достаточного внимания размеру матрицы внедрения BIBREF35. Наш подход к дистилляции знаний сосредоточен на уменьшении количества токенов WordPiece в Модельный словарь.В этом разделе мы сначала обсудим обоснование этого сокращения и проблемы, которые оно создает, а затем рассмотрим наши методы, а именно двойное обучение и совместное проецирование.Мы следуем общей парадигме дистилляции знаний, заключающейся в обучении модели маленького ученика на основе модели большого учителя.Наша модель учителя представляет собой 12-слойную BERTBASE без корпуса, обученную с использованием 30522 токенов WordPiece и 768-мерных вложений и скрытых состояний.Обозначим параметры модели учителя через $\theta _{t}$. Наша модель студента состоит из равного количества слоев преобразователя с параметрами, обозначенными $\theta _{s}$, но с меньшим словарным запасом, а также встроенными/скрытыми измерениями, как показано на рисунке FigREF4.Используя тот же алгоритм WordPiece и обучающий корпус, что и BERT, мы получаем словарь из 4928 WordPiece, который мы используем для модели студента.Токены WordPiece BIBREF14 представляют собой единицы подслов, полученные путем применения жадного алгоритма сегментации к обучающему корпусу: желаемое количество (скажем, $D$) WordPieces выбирается таким образом, чтобы сегментированный корпус был минимальным по количеству используемых WordPiece.Беглый взгляд на оба словаря показывает, что $93,9\%$ WordPiece в словаре ученика также существуют в словаре учителя, что предполагает возможность сокращения размера словаря WordPiece с 30 000 токенов.Поскольку мы стремимся обучить языковую модель ученика общего назначения, мы решили повторно использовать исходную цель обучения модели учителя для оптимизации модели ученика, т. е. моделирования языка в маске и прогнозирования следующего предложения, прежде чем выполнять тонкую настройку.В первой задаче слова в контексте маскируются случайным образом, и языковая модель должна предсказать эти слова с учетом маскированного контекста.В последней задаче языковая модель по паре предложений предсказывает, является ли пара согласованной.Однако, поскольку словарный запас учащихся не является полным подмножеством словарного запаса учителя, два словаря могут обозначать одни и те же слова по-разному.В результате выходные данные модели учителя и ученика для задачи моделирования замаскированного языка могут не совпадать.Даже при большом перекрытии двух словарей необходимость обучения студентов внедрению с нуля и изменение измерения внедрения исключают существующие методы дистилляции знаний, которые полагаются на выравнивание выходных пространств обеих моделей.В результате мы исследуем два альтернативных подхода, которые позволяют неявно передавать знания в модель студента, которые мы описываем ниже.В ходе дистилляции для заданной обучающей последовательности, входной в модель учителя, мы предлагаем смешать словари учителя и ученика путем случайного выбора (с вероятностью $p_{DT}$, гиперпараметра) токенов из последовательности для сегментации с использованием словаря ученика. , а остальные токены сегментированы с использованием словаря учителя.Как показано на рисунке FigREF4, с учетом входного контекста [`I', `like', `machine', `learning'], слова `I' и `machine' сегментируются с использованием словаря учителя (зеленым цветом), а ` «нравится» и «обучение» сегментированы с использованием словарного запаса учащихся (синим цветом).Подобно межъязыковому обучению в BIBREF36, это способствует выравниванию представлений одного и того же слова в словарях учителя и ученика.Это достигается с помощью задачи моделирования замаскированного языка: теперь модели необходимо научиться предсказывать слова из словаря ученика, используя контекстные слова, сегментированные с использованием словаря учителя, и наоборот.Ожидается, что таким образом вложения учащихся можно будет эффективно изучить на основе вложений учителя, а также параметров модели $\theta _{t}$. Обратите внимание, что мы выполняем двойное обучение только для входных данных модели учителя: модель ученика получает слова, сегментированные исключительно с использованием словарного запаса ученика.Кроме того, во время моделирования языка в масках модель использует разные слои softmax для словарей учителя и ученика в зависимости от того, какой из них использовался для сегментации рассматриваемого слова.Полагаясь исключительно на результаты модели учителя для обучения модели ученика, возможно, не удастся обобщить BIBREF34.Поэтому некоторые подходы используют и пытаются согласовать промежуточные прогнозы модели ученика с прогнозами учителя BIBREF30.Однако в наших условиях, поскольку выходные пространства моделей учащихся и учителей не идентичны, промежуточные выходные данные модели могут оказаться трудными для согласования.Вместо этого мы стремимся напрямую минимизировать потерю информации от параметров модели учителя $\theta _{t}$ к параметрам ученика $\theta _{s}$ с меньшими размерностями.Мы достигаем этого, проецируя параметры модели в одно и то же пространство, чтобы обеспечить выравнивание.Более конкретно, как на рисунке FigREF4, мы проецируем каждую обучаемую переменную в $\theta _{t}$ в ту же форму, что и соответствующая переменная в $\theta _{s}$. Например, для всех обучаемых переменных $\theta _{t}$ формы $768\times 768$ мы изучаем две матрицы проекций $\mathbf {U}\in \mathbb {R}^{d\times 768}$ и $\mathbf {V}\in \mathbb {R}^{768\times d}$, чтобы спроецировать их в соответствующее пространство переменной модели студента $\theta _{t}^\prime $, где $d$ — это скрытое измерение модели студента.$\mathbf {U}$ и $\mathbf {V}$ являются общими для всех параметров модели BERT этой размерности; кроме того, $\mathbf {U}$ и $\mathbf {V}$ не нужны для точной настройки или вывода после дистилляции.Чтобы совместить переменную ученика и проекцию переменной учителя, мы вводим отдельные потери среднеквадратической ошибки, определенные в уравнении DISPLAY_FORM7, где $\downarrow $ означает проекцию вниз (поскольку проекция относится к нижнему измерению). Вышеупомянутая функция потерь выравнивает обучаемые переменные в пространстве ученика.В качестве альтернативы мы можем спроецировать обучаемые переменные в $\theta _{s}$ в ту же форму, что и в $\theta _{t}$. Таким образом, функция потерь в уравнении DISPLAY_FORM8 ($parrow $ обозначает проекцию вверх) может сравнивать обучаемые переменные в пространстве учителя.Наша окончательная функция потерь включает в себя, в дополнение к необязательным потерям проекции, маскируемый язык, моделирующий перекрестные энтропийные потери для моделей ученика и учителя, поскольку модель учителя обучается с использованием входных данных с двойным словарем и не является статической.$P(y_i=c|\theta _{s})$ и $P(y_i=c|\theta _{t})$ обозначают вероятности прогнозирования модели ученика и учителя для класса c соответственно, а $\mathbb {1 }$ обозначает индикаторную функцию.Уравнения DISPLAY_FORM10 и ниже определяют окончательные потери $L_{final}$, где $\epsilon $ — гиперпараметр.Чтобы оценить наш подход к дистилляции знаний, мы разработали два класса экспериментов.Сначала мы оцениваем очищенные языковые модели учащихся, используя задачу прогнозирования замаскированных слов на невидимом корпусе оценок для явной оценки языковой модели.Во-вторых, мы настраиваем языковую модель, добавляя аффинный слой для конкретной задачи поверх выходных данных языковой модели учащегося для набора последующих задач классификации предложений и пар предложений.Предполагается, что это неявная оценка качества представлений, изученных языковой моделью учащегося.Ниже мы описываем эти эксперименты, а также подробную информацию об обучении, реализации и наших базовых показателях.Во время дистилляции модели BERT учителя для обучения языковой модели BERT ученика мы используем тот же корпус, который использовался для обучения учителя, то есть BooksCorpus BIBREF37 и английскую Википедию, с использованием пробелов, которые преобразуют текст в слова.Мы используем задачу моделирования языка в масках только для расчета общих потерь при дистилляции из раздела SECREF6, поскольку потеря прогнозирования следующего предложения незначительно снижает производительность.Двойное обучение включено для входных данных модели учителя, при этом $p_{DT}$, вероятность сегментации входного слова модели учителя с использованием словаря ученика, установлена ​​на 0,5.Для экспериментов, включающих совместное проецирование, матрицы проекций $\mathbf {U}$ и $\mathbf {V}$ использовали инициализацию Ксавье BIBREF38.Коэффициент потери веса $\epsilon$ после настройки устанавливается равным 1.Стоит отметить, что в отличие от ряда существующих подходов мы напрямую перерабатываем языковую модель учителя BERT, еще не настроенную на последующую задачу, чтобы получить языковую модель ученика, которая не зависит от задачи.Для последующих задач мы настраиваем эту дистиллированную языковую модель ученика.Дистилляция осуществляется на Cloud TPU в конфигурации модулей 4x4 (всего 32 ядра TPU).Мы оптимизировали потери с помощью LAMB BIBREF39 для 250 тыс. шагов со скоростью обучения 0,00125 и размером пакета 4096.В зависимости от размера модели студента обучение занимало от 2 до 4 дней.Мы оцениваем три варианта наших дистиллированных моделей учеников: только с двойным обучением словарного запаса учителя и ученика (DualTrain) и с двойным обучением вместе с проекцией вниз (DualTrain + SharedProjDown) или восходящей проекцией (DualTrain + SharedProjUp) модели учителя. параметры.Для каждой из этих конфигураций мы обучаем модели учащихся с встраиванием и скрытыми измерениями 48, 96 и 192, всего 9 вариантов, каждый из которых использует компактный словарь объемом 5 тыс. слов.В таблице TABREF14 представлены некоторые статистические данные о размерах этих моделей: наша самая маленькая модель содержит на два порядка меньше параметров и требует всего 1% операций с плавающей запятой по сравнению с моделью BERTBASE.Для оценки языкового моделирования мы также оцениваем базовый уровень без дистилляции знаний (называемый NoKD) с моделью, параметризованной идентично дистиллированным моделям учащихся, но обученной непосредственно с целью модели учителя с нуля.Для последующих задач мы сравниваем с NoKD, а также с анализом знаний пациентов (PKD) от BIBREF34, которые разделяют 12-слойную модель BERTBASE на 3- и 6-слойные модели BERT, используя скрытые состояния модели учителя.Для явной оценки обобщенной языковой точки зрения дистиллированных моделей языка учащихся мы используем набор данных Reddit BIBREF40 для измерения точности прогнозирования по маске слов для моделей учащихся, поскольку язык, используемый в Reddit, отличается от языка в учебных корпусах.Набор данных предварительно обрабатывается аналогично обучающим корпусам, за исключением того, что нам не нужно токенизировать его с использованием словаря учителя, поскольку мы только запускаем и оцениваем модели учащихся.Для неявной оценки последующих задач по пониманию языка мы настраиваем и оцениваем дистиллированные модели учащихся по трем задачам из теста GLUE BIBREF41:[leftmargin=*,topsep=0pt]Stanford Sentiment Treebank (SST-2) BIBREF6, двух- задача классификации тональности предложений с 67 тыс. обучающих экземпляров, Microsoft Research Paraphrase Corpus (MRPC) BIBREF42, двусторонняя задача классификации пар предложений для идентификации парафразов, с 3,7 тыс. обучающих экземпляров и многожанровый вывод естественного языка (MNLI) BIBREF7, трехмерный Задача классификации пар предложений с 393 тысячами обучающих примеров для выявления отношений предпосылка-гипотеза.Существуют отдельные наборы для разработки и тестирования для пар предпосылка-гипотеза, соответствующих и несовпадающих по жанру; мы настраиваем наши модели исключительно на наборе разработки, соответствующем жанру.Для всех последующих оценок задач мы настраиваем 10 эпох, используя LAMB со скоростью обучения 0,0002 и размером пакета 32.Поскольку наши языковые модели обучаются с максимальной длиной последовательности 128 токенов, мы не оцениваем наборы данных понимания прочитанного, такие как SQuAD BIBREF8 или RACE BIBREF9, для которых требуются модели, поддерживающие более длинные последовательности.Таблица TABREF20 содержит показатели точности предсказания замаскированных слов для различных моделей и базового уровня NoKD.Мы наблюдаем, что двойное обучение значительно улучшается по сравнению с базовым уровнем для всех измерений модели, и что обе общие проекционные потери, добавленные к двойному обучению, еще больше повышают точность предсказания слов.Интересно отметить, что для всех измерений модели проецирование SharedProjUp в пространство учителя превосходит SharedProjDown, особенно для измерения 48.Как и ожидалось, наблюдается заметное падение производительности при переходе от 192 к 96 и к 48-мерным моделям скрытого состояния.Обратите внимание, что из-за различий в словарях моделей учителя и ученика точность предсказания замаскированных слов для модели BERTBASE учителя не может напрямую сравниваться с моделями учеников.В таблице TABREF21 показаны результаты последующих задач по пониманию языка, а также размеры моделей для наших подходов, модели учителя BERTBASE и базовых показателей PKD и NoKD.Мы отмечаем, что модели, обученные с использованием предложенных нами подходов, работают значительно и последовательно лучше по сравнению с одинаково параметризованными базовыми показателями NoKD, что указывает на то, что методы двойного обучения и совместного проецирования эффективны, не неся при этом существенных потерь по сравнению с моделью учителя BERTBASE.По сравнению с базовым уровнем ДОК, наши 192-мерные модели, достигающие более высокой степени сжатия, чем любая из моделей ДОК, работают лучше, чем трехслойный базовый уровень ДОК, и конкурируют с более крупными 6-слойными базовыми моделями по точности выполнения задач, будучи при этом почти 5. раз меньше.Еще одно наше наблюдение: падение производительности при переходе от 192-мерных к 96-мерным моделям минимально (менее 2% для большинства задач).Фактически, для задачи MRPC 96-мерная модель, обученная с помощью двойного обучения, достигает точности 80,5%, что выше, чем даже 6-слойная базовая линия PKD с почти в 12 раз большим количеством параметров.Наконец, наши сильно сжатые 48-мерные модели также работают достойно: лучшие 48-мерные модели находятся в том же диапазоне производительности, что и 3-слойная модель PKD, модель, занимающая в 25 раз больше памяти.Общие прогнозы и производительность модели. Мы видим, что для выполнения последующих задач двойное обучение по-прежнему последовательно улучшает подход прямой точной настройки практически для всех экспериментов.Однако эффект проекции общих переменных менее выражен: последовательные улучшения видны только для MRPC и для 48-мерных моделей, то есть для наименьшего набора данных и моделей соответственно в наших экспериментах.Это согласуется с нашим представлением о проекции переменных как о более прямом способе предоставления обучающего сигнала от внутренних компонентов модели учителя, что может приобретать большее значение для сценария с небольшим объемом данных или небольшой модели.Однако для более крупных моделей и большего количества данных линейное проецирование параметров может уменьшать степени свободы, доступные модели, поскольку линейное проецирование — это довольно простая функция для выравнивания пространств параметров учителя и ученика.Представляет интерес сравнение между восходящим и нисходящим проецированием переменных модели: мы отмечаем, что восходящая проекция заметно лучше справляется с задачей моделирования языка и немного лучше с нисходящими задачами.Параметры хорошо обученной модели учителя представляют собой высококачественный локальный минимум в пространстве учителя, который, возможно, будет легче найти во время проекции вверх.Компромиссы размера словаря. Проблемы с размером входного словаря характерны для проблем обработки естественного языка: они не всегда применимы к другим областям, таким как компьютерное зрение, где небольшое фиксированное количество символов может закодировать большую часть входных данных.Была проведена некоторая работа по уменьшению размеров входного словаря для НЛП, но обычно она не нацелена на сжатие моделей.Одна из проблем, связанных с сокращением словаря моделей НЛП, заключается в том, что это приводит к увеличению средней длины токенизированной последовательности, что усложняет обучение модели.Однако в этой работе мы рассматриваем задачи классификации на более коротких текстах, на которые длина входной последовательности не влияет так сильно, как, скажем, на такие задачи, как машинный перевод.Более того, многие реальные приложения основаны на вводе коротких текстовых данных, поэтому для таких приложений может быть целесообразным найти лучший компромисс между размером словаря и длиной последовательности.Порядок дистилляции и тонкой настройки. Большая часть существующих работ по дистилляции языковых моделей, таких как BERT, и отчетности о результатах последующих задач, включая некоторые базовые показатели в этой работе, сначала настраивает модель учителя для последующих задач, а затем перегнать эту модель.Наша цель в этой работе, однако, состоит в том, чтобы изучить пределы возможностей моделирования языка BERT и насколько они обусловлены его большим словарем WordPiece.Мы оставляем эксперименты по выявлению точно настроенных моделей учителей, потенциально дающих лучшие результаты в последующих задачах, для будущей работы.Мы предложили две новые идеи по повышению эффективности фильтрации знаний для BERT, сосредоточив внимание на использовании значительно меньшего словарного запаса, а также меньших вложений и скрытых измерений для языковых моделей BERT учащихся.Наш механизм двойного обучения способствует неявному согласованию вложений WordPiece учителя и ученика, а проекция общих переменных обеспечивает более быструю и прямую послойную передачу знаний в модель BERT ученика.Объединив эти два метода, мы обучили серию сильно сжатых 12-слойных моделей BERT студентов.Эксперименты с этими моделями для оценки как обобщенной языковой точки зрения, так и четырех стандартизированных последующих задач демонстрируют эффективность предложенных нами методов как с точки зрения точности модели, так и с точки зрения эффективности сжатия.Одним из будущих направлений интересов является объединение нашего подхода с существующей работой по уменьшению количества слоев в моделях учащихся и изучение других подходов, таких как матричная факторизация низкого ранга, для передачи параметров модели из пространства учителя в пространство учащихся.Кроме того, учет частотного распределения токенов WordPiece при обучении внедрений может помочь в дальнейшей оптимизации размера модели.
Предварительно обученные языковые модели глубоких нейронных сетей, такие как ELMo, GPT, BERT и XLNet, недавно достигли высочайшего уровня производительности в различных задачах понимания языка. Однако их размер делает их непрактичными для ряда сценариев, особенно на мобильных и периферийных устройствах. В частности, матрица внедрения входного слова занимает значительную часть объема памяти модели из-за большого входного словаря и размеров внедрения. Методы дистилляции знаний успешно сжимают большие модели нейронных сетей, но они неэффективны при создании моделей учащихся со словарями, отличными от исходных моделей учителей. Мы представляем новую технику дистилляции знаний для обучения модели студента со значительно меньшим словарным запасом, а также меньшими размерностями внедрения и скрытого состояния. В частности, мы используем механизм двойного обучения, который одновременно обучает модели учителя и ученика для получения оптимальных вложений слов для словарного запаса учащихся. Мы сочетаем этот подход с изучением общих проекционных матриц, которые послойно переносят знания из модели учителя в модель ученика. Наш метод способен сжимать модель BERT_BASE более чем в 60 раз с лишь незначительным снижением показателей последующих задач, в результате чего языковая модель занимает менее 7 МБ. Экспериментальные результаты также демонстрируют более высокую эффективность и точность сжатия по сравнению с другими современными методами сжатия.
3,835
QasperSumInstruct
ru
Напиши аннотацию по статье
Использование внешних знаний для ответа на визуальные вопросы в открытой области с помощью сетей динамической памяти. Визуальный ответ на вопросы (VQA) — это лестница к лучшему пониманию визуального мира, которая расширяет границы как компьютерного зрения, так и обработки естественного языка.Системе в задачах VQA задается текстовый вопрос об изображении, который, как ожидается, приведет к правильному ответу, соответствующему вопросу.В общем, VQA — это своего рода визуальный тест Тьюринга, который строго оценивает, способна ли система выполнить семантический анализ изображений BIBREF0, BIBREF1 на уровне человека.Система могла бы решить большинство задач в области компьютерного зрения, если бы она работала так же или лучше, чем люди в VQA.В этом случае он привлекает все большее внимание благодаря своим многочисленным потенциальным приложениям BIBREF2, таким как обеспечение более естественного способа улучшения взаимодействия человека с компьютером, предоставление людям с нарушениями зрения возможности получать информацию об изображениях и т. д. Для выполнения задач VQA он привлекает все большее внимание. Требуется дать отвечающему возможность понять суть вопроса, рассуждать о визуальных элементах изображения, а иногда и иметь общие знания о мире.Большинство существующих методов решают VQA путем совместного изучения взаимодействий и выполнения вывода по содержанию вопросов и изображений на основе недавнего успеха глубокого обучения BIBREF3, BIBREF2, BIBREF4, BIBREF5, BIBREF6, которые можно дополнительно улучшить путем введения механизмов внимания BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11, BIBREF12.Однако большинство вопросов в текущем наборе данных VQA довольно простые, на которые можно ответить, проанализировав только вопрос и изображение BIBREF2 , BIBREF13 .Можно спорить о том, может ли система отвечать на вопросы, требующие предварительных знаний, начиная от здравого смысла и заканчивая знаниями по конкретным предметам и даже знаниями экспертного уровня.Привлекательно разрабатывать методы, которые способны к более глубокому пониманию изображений путем ответа на вопросы открытой области BIBREF13, что требует от системы наличия механизмов связи VQA со структурированными знаниями, как показано на рис. 1.В этом направлении были предприняты некоторые усилия, но большинство из них могут обрабатывать только ограниченное количество заранее определенных типов вопросов BIBREF14 , BIBREF15 . В отличие от задачи контроля качества на основе текста, проводить VQA в открытом домене на основе рассуждения, основанные на знаниях, поскольку описание изображения с помощью структурированных форм BIBREF16 неизбежно является неполным.Недавняя доступность больших наборов обучающих данных BIBREF13 делает возможным сквозное обучение сложной модели за счет использования последних достижений в области глубоких нейронных сетей (DNN) BIBREF2, BIBREF5, BIBREF7, BIBREF10, BIBREF12.Тем не менее, интегрировать знания в методы на основе DNN непросто, поскольку знания обычно представляются в виде символов или графов (например, Freebase BIBREF17, DBPedia BIBREF18), что существенно отличается от DNN-методов. основанные особенности.В этом направлении BIBREF19 предпринято несколько попыток, но оно может включать много нерелевантной информации и не позволяет реализовать многошаговое рассуждение на основе нескольких фактов.Сети памяти BIBREF20, BIBREF21, BIBREF22 предлагают возможность решить эти проблемы путем чтения и записи во внешний модуль памяти, который моделируется действиями нейронных сетей.Недавно он продемонстрировал самые современные характеристики в многочисленных приложениях НЛП, включая понимание прочитанного BIBREF23 и ответы на текстовые вопросы BIBREF24, BIBREF22.Также предпринимаются некоторые плодотворные усилия по реализации VQA на основе сетей динамической памяти BIBREF25, но они не включают в себя механизм включения внешних знаний, что делает их неспособными отвечать на визуальные вопросы в открытой области.Тем не менее, привлекательные характеристики побуждают нас использовать структуры памяти для кодирования крупномасштабных структурированных знаний и объединения их с особенностями изображения, что предлагает подход к ответу на визуальные вопросы открытой области.Для решения вышеупомянутых проблем мы предлагаем новую структуру сети динамической памяти, основанную на знаниях (KDMN), которая позволяет использовать огромные внешние знания для ответа на визуальные вопросы в открытой области, используя сеть динамической памяти.Это наделяет систему способностью отвечать на широкий класс вопросов открытой области, рассуждая о содержании изображения, включающем в себя огромные знания, которые хранятся в структурах памяти.В отличие от большинства существующих методов, которые фокусируются на ответах на визуальные вопросы исключительно по содержанию изображения, мы предлагаем рассмотреть более сложный сценарий, который требует реализации рассуждений, выходящих за рамки содержания изображения.Таким образом, подходы на основе DNN BIBREF2, BIBREF5, BIBREF7 недостаточны, поскольку они могут захватывать только информацию, присутствующую в обучающих изображениях.Недавние достижения свидетельствуют о нескольких попытках связать знания с методами VQA BIBREF14, BIBREF15, которые используют структурированные графы знаний и рассуждают об изображении на основе подтверждающих фактов.Большинство этих алгоритмов сначала извлекают визуальные концепции из данного изображения и явно реализуют рассуждения на основе структурированных баз знаний.Однако выделить достаточные визуальные атрибуты непросто, поскольку изображению не хватает структуры и грамматических правил, как языку.Чтобы решить эту проблему, мы предлагаем получить набор знаний-кандидатов, соответствующий данному изображению и связанным с ним вопросам, и неявно передать их в глубокую нейронную сеть.Предлагаемый подход обеспечивает общий конвейер, который одновременно сохраняет преимущества подходов на основе DNN BIBREF2, BIBREF5, BIBREF7 и методов, основанных на знаниях BIBREF14, BIBREF15.В целом, основная символическая природа Графа Знаний (KG) затрудняет интеграцию с DNN.Обычные модели внедрения графа знаний, такие как TransE BIBREF26, ориентированы на прогнозирование связей, что отличается от задачи VQA, направленной на объединение знаний.Чтобы решить эту проблему, мы предлагаем встроить сущности и отношения КГ в непрерывное векторное пространство, чтобы фактические знания можно было использовать более простым способом.Каждая тройка знаний рассматривается как фраза SVO из трех слов $(субъект, глагол, объект)$ и встраивается в пространство признаков путем встраивания слов через архитектуру RNN.В этом случае предлагаемая функция внедрения знаний имеет общее пространство с другими текстовыми элементами (вопросами и ответами), что дает дополнительное преимущество для более легкой их интеграции.После того как массивные внешние знания интегрированы в модель, необходимо обеспечить гибкий механизм для хранения более обширного представления.Сеть памяти, которая содержит масштабируемую память с компонентом обучения для чтения и записи в нее, позволяет выполнять сложные рассуждения путем моделирования взаимодействия между несколькими частями данных BIBREF20, BIBREF25.В этой статье мы используем новейшую разработку улучшенных сетей динамической памяти (DMN+) BIBREF25 для реализации сложных рассуждений на основе нескольких фактов.Наша модель предоставляет механизм, позволяющий итеративным образом внедрять знания-кандидаты и объединять их с мультимодальными данными, включая изображения, текст и тройки знаний, в компоненте памяти.Таким образом, вектор памяти запоминает полезные знания, чтобы облегчить предсказание окончательного ответа.По сравнению с DMN+ BIBREF25 мы вводим внешние знания в сеть памяти и даем системе возможность соответствующим образом отвечать на вопросы открытой области.Подводя итог, можно сказать, что наша структура способна проводить мультимодальный анализ данных, включая содержимое изображения и внешние знания, так что система наделена более общей способностью интерпретации изображений.Наш основной вклад заключается в следующем: Насколько нам известно, это первая попытка интеграции внешних знаний и представления изображений с механизмом памяти, так что визуальный ответ на вопросы в открытой области может эффективно проводиться с использованием соответствующих обширных знаний; Мы предлагаем новый метод с сохранением структуры для встраивания троек знаний в общее пространство с другими текстовыми данными, что делает его гибким для неявной интеграции различных модальностей данных, таких как тройки изображений, текста и знаний. Мы предлагаем использовать динамическую сеть памяти для реализации многошаговых рассуждений, которая имеет возможность автоматически извлекать соответствующую информацию из баз знаний и соответствующим образом выводить наиболее вероятные ответы.В этом разделе мы описываем нашу модель для реализации визуального ответа на вопросы в открытой области.Чтобы выполнить задачу, мы предлагаем объединить содержимое изображения и внешние знания, используя новейшую разработку сети динамической памяти BIBREF22, BIBREF25, что дает три основных модуля на рис.2.Таким образом, система наделена способностью отвечать на произвольные вопросы, соответствующие конкретному изображению.Учитывая тот факт, что большинство существующих наборов данных VQA включают меньшинство вопросов, требующих предварительных знаний, производительность не может отражать конкретные возможности.Мы автоматически создаем коллекцию более сложных пар вопрос-ответ, которые требуют сложных рассуждений, выходящих за рамки содержания изображения, за счет включения внешних знаний.Мы надеемся, что он сможет послужить эталоном для оценки возможностей различных моделей VQA в сценариях открытого домена.изображения, мы применяем Fast-RCNN BIBREF27 для обнаружения визуальных объектов входного изображения и извлекаем ключевые слова соответствующих вопросов с помощью синтаксического анализа.На основе этой информации мы предлагаем изучить механизм извлечения знаний-кандидатов путем запроса крупномасштабного графа знаний, получая подграф соответствующих знаний для облегчения ответа на вопрос.За последние годы было разработано значительное количество крупномасштабных баз знаний, которые хранят здравый смысл и фактические знания в машиночитаемой форме.В общем, каждая часть структурированного знания представлена ​​как тройка $(субъект, rel, объект)$, где $subject$ и $object$ представляют собой две сущности или понятия, а $rel$ соответствует конкретным отношениям между ними.В этой статье мы используем внешние знания, полученные из ConceptNet BIBREF28, открытого многоязычного графа знаний, содержащего взаимосвязи здравого смысла между повседневными словами, чтобы помочь в обосновании VQA в открытой области. Наша модель VQA обеспечивает новый механизм для интеграции информации об изображении с этим извлеченные из ConceptNet в сети динамической памяти.В общем, интегрировать структурированные знания с функциями DNN непросто из-за их разных модальностей.Чтобы решить эту проблему, мы встраиваем сущности и отношения подграфа в непрерывное векторное пространство, которое сохраняет внутреннюю структуру KG.Встраивание функций обеспечивает удобство объединения с представлением изображения в сети динамической памяти, которая основана на механизме внимания и механизме обновления памяти.Механизм внимания отвечает за создание контекстуального вектора с релевантностью, определяемой вопросом и предыдущим состоянием памяти.Затем механизм обновления памяти обновляет состояние памяти на основе контекстного вектора, который может запомнить полезную информацию для прогнозирования окончательного ответа.Новизна заключается в том, что эти разрозненные формы информации встроены в общее пространство на основе сети памяти, что обеспечивает возможность последующего рассуждения ответа.Наконец, мы генерируем прогнозируемый ответ, рассуждая о фактах, хранящихся в памяти, а также о содержимом изображения.В этой статье мы фокусируемся на задаче настройки множественного выбора, где предоставляется несколько вариантов ответов с множественным выбором вместе с вопросом и соответствующим изображением.Для каждого вопроса мы рассматриваем каждый ответ с несколькими вариантами ответов как входные данные и прогнозируем, является ли тройка изображение-вопрос-ответ правильной.Предлагаемая модель пытается выбрать один вариант ответа с наибольшей вероятностью, делая вывод об ошибке перекрестной энтропии ответов во всей сети.В этом разделе мы подробно рассмотрим детали и формулировки предлагаемой нами модели для ответа на визуальные вопросы в открытой области.Сначала мы извлекаем необходимый объем знаний кандидата из крупномасштабной сети ConceptNet путем анализа содержания изображения и соответствующих вопросов; после этого мы предлагаем новую структуру, основанную на динамической сети памяти, для встраивания этих символических троек знаний в непрерывное векторное пространство и хранения их в банке памяти; наконец, мы используем эту информацию для реализации VQA в открытой области, объединяя знания с представлением изображений.Чтобы ответить на визуальные вопросы открытого домена, нам иногда нужно получить доступ к информации, отсутствующей на изображении, путем извлечения потенциальных знаний из баз знаний.Желательный поиск знаний должен включать большую часть полезной информации, игнорируя при этом ненужную, что важно для того, чтобы избежать введения модели в заблуждение и снизить затраты на вычисления.С этой целью мы принимаем во внимание следующие три принципа: (1) объекты, появляющиеся в изображениях и вопросах (ключевые объекты), имеют решающее значение; (2) важность объектов, которые имеют прямые или косвенные связи с ключевыми объектами, снижается по мере увеличения количества переходов по ссылке; (3) границы между этими объектами представляют собой потенциально полезные знания.Следуя этим принципам, мы предлагаем трехэтапную процедуру для извлечения тех знаний-кандидатов, которые имеют отношение к контексту изображений и вопросов.Процедура поиска уделяет больше внимания узлам графа, связанным с семантическими объектами, что также учитывает структуру графа для измерения важности ребер.Чтобы получить наиболее информативные знания, мы сначала извлекаем узлы-кандидаты в ConceptNet, анализируя заметные визуальные объекты на изображениях с помощью Fast-RCNN BIBREF27 и текстовые ключевые слова с помощью Natural Language Toolkit BIBREF29.Оба они затем связываются с соответствующими семантическими объектами в ConceptNet BIBREF28 путем сопоставления всех возможных n-грамм слов.После этого мы извлекаем подграф первого порядка, используя эти выбранные узлы из ConceptNet BIBREF28, который включает в себя все ребра, соединяющиеся хотя бы с одним узлом-кандидатом.Предполагается, что результирующий подграф содержит наиболее релевантную информацию, достаточную для ответа на вопросы за счет уменьшения избыточности.Результирующий подграф знаний первого порядка обозначается как $G$. Наконец, мы сжимаем подграф $G$, оценивая и ранжируя важность ребер в $G$ с помощью разработанной оценочной функции, и тщательно выбираем верхние $N$. ребра вместе с узлами для последующей задачи.В частности, мы сначала назначаем начальные веса $w_{i}$ для каждого узла подграфа, например, начальные веса для визуального объекта могут быть пропорциональны соответствующей площади ограничивающего прямоугольника, так что доминирующие объекты получают больше внимания, обрабатываются текстовые ключевые слова. в равной степени.Затем мы вычисляем оценку важности каждого узла в $G$, проходя каждое ребро и передавая веса узлов их соседям с коэффициентом затухания $r\in (0,1)$ как $$score(i)=w_{i }+\sum _{j \in G \backslash i} r ^n w_{j},$$ (уравнение 8), где $n$ — количество переходов по ссылке между объектами $i$ и $j$ .Для простоты мы игнорируем направление ребра и тип ребра (тип отношения) и определяем важность ребра $w_{i,j}$ как сумму весов двух связанных узлов как $$w_{i,j}=score( i)+score(j), \quad \forall (i,j) \in G.$$ (уравнение 9)В этой статье мы берем верхние $N$ ребра, ранжированные $w_{i,j}$, в качестве окончательного кандидата на знание для данного контекста, обозначаемого как $G^\ast $ . Кандидатом на знание, который мы извлекли, является представлены в символьном тройном формате, который по своей сути несовместим с DNN.Этот факт побуждает нас встраивать сущности и отношения троек знаний в непрерывное векторное пространство.Более того, мы рассматриваем каждую тройку сущность-отношение-сущность как одну единицу знания, поскольку каждая тройка естественным образом представляет собой один фрагмент факта.Единицы знаний могут храниться в слотах памяти для чтения и записи и использоваться с помощью механизма внимания для последующих задач.Чтобы встроить символические тройки знаний в векторные слоты памяти, мы рассматриваем сущности и отношения как слова и отображаем их в непрерывное векторное пространство, используя встраивание слов BIBREF30.После этого встроенные знания кодируются в вектор фиксированного размера путем передачи его в рекуррентную нейронную сеть (RNN).В частности, мы инициализируем матрицу встраивания слов с помощью предварительно обученного встраивания слов GloVe BIBREF30 и уточняем ее одновременно с остальной процедурой встраивания вопросов и возможных ответов.В этом случае сущности и отношения имеют общее пространство внедрения с другими текстовыми элементами (вопросами и ответами), что делает их гораздо более гибкими для последующего объединения.После этого тройки знаний обрабатываются как фразы SVO $(subject, verb, object)$ и передаются в стандартный двухслойный сложенный LSTM как $$&C^{(t)}_{i} = \text{ LSTM}\left(\mathbf {L}[w^{t}_{i}], C^{(t-1)}_{i}\right), \\ & t=\lbrace 1,2,3\rbrace , \text{ и } i=1, \cdots , N,\nonumber $$ (уравнение 11), где $w^{t}_{i}$ — это $t_{\text{th}}$ слово фразы $i_{\text{th}}$ SVO, $(w^{1}_{i},w^{2}_{i},w^ {3}_{i}) \in G^\ast $ , $\mathbf {L}$ — матрица встраивания слов BIBREF30, а $C_{i}$ — внутреннее состояние ячейки LSTM при пересылке $i_{ \text{th}}$ Фраза SVO.Обоснование заключается в том, что LSTM может эффективно улавливать семантические значения, когда тройки знаний рассматриваются как фразы SVO.Для каждого контекста ответа на вопросы мы принимаем внутренние состояния LSTM соответствующих троек знаний в качестве векторов памяти, получая встроенные знания, хранящиеся в слотах памяти, как $$\mathbf {M}=\left[C^{(3)}_ {i}\right],$$ (уравнение 12) где $\mathbf {M}(i)$ — это $i_{\text{th}}$ слот памяти, соответствующий $i_{\text{th} }$ тройки знаний, которые можно использовать для дальнейшего вывода ответов.Обратите внимание, что этот метод отличается от обычных моделей внедрения графа знаний, поскольку наша модель направлена ​​на объединение знаний со скрытыми характеристиками изображений и текста, тогда как альтернативные модели, такие как TransE BIBREF26, фокусируются на задаче прогнозирования ссылок.Мы сохранили $N$ соответствующих внедрений знаний в слотах памяти для данного контекста вопросов и ответов, что позволяет включать огромные знания, когда $N$ велико.Внешние знания превосходят по количеству другую контекстную информацию, поэтому необходимо выделить полезную информацию из знаний кандидата.Сеть динамической памяти (DMN) BIBREF22, BIBREF25 предоставляет механизм решения проблемы путем моделирования взаимодействия между несколькими каналами данных.В модуле DMN в ходе итеративного процесса внимания формируется и обновляется вектор эпизодической памяти, который запоминает наиболее полезную информацию для ответа на вопрос.Более того, итерационный процесс дает потенциальную возможность многошагового рассуждения.Этот DMN состоит из компонента внимания, который генерирует контекстный вектор с использованием предыдущего вектора памяти, и компонента эпизодического обновления памяти, который обновляется на основе контекстного вектора.В частности, мы предлагаем новый метод генерации вектора запроса $\mathbf {q}$ путем подачи визуальных и текстовых функций на нелинейный полносвязный слой для сбора контекстной информации вопрос-ответ в виде $$\mathbf {q} = \tanh \left(\mathbf {W}_{1} \left[\mathbf {f}^{(I)};\mathbf {f}^{(Q)};\mathbf {f}^{(A)}\right]+\mathbf {b}_{1 }\right),$$ (уравнение 14) где $\mathbf {W}_1$ и $\mathbf {b}_{1}$ — весовая матрица и вектор смещения соответственно; и $\mathbf {f}^{(I)}$ , $\mathbf {f}^{(Q)}$ и $\mathbf {f}^{(A)}$ обозначаются как функции DNN, соответствующие изображения, вопросы и ответы с несколькими вариантами ответов соответственно.Вектор запроса $\mathbf {q}$ собирает информацию из контекста вопрос-ответ.В процессе обучения вектор запроса $\mathbf {q}$ инициализирует вектор эпизодической памяти $\mathbf {m}^{(0)}$ как $\mathbf {m}^{(0)}=\mathbf { q}$ .Затем запускается итерационный процесс внимания, который постепенно уточняет эпизодическую память $\mathbf {m}$ до тех пор, пока не будет достигнуто максимальное количество шагов итерации $\mathbf {b}_{1}$0.С помощью итерации $\mathbf {b}_{1}$1 эпизодическая память $\mathbf {b}_{1}$2 запомнит полезную визуальную и внешнюю информацию для ответа на вопрос.Компонент внимания.На итерации $\mathbf {b}_{1}$3 мы объединяем каждое знание, встраивающее $\mathbf {b}_{1}$4, с эпизодической памятью последней итерации $\mathbf {b}_{1}$5 и вектором запроса. $\mathbf {b}_{1}$6 , затем примените базовую процедуру мягкого внимания, чтобы получить вектор контекста $\mathbf {b}_{1}$7 $\mathbf {b}_{1}$8 как $$\ mathbf {z}_{i}^{(t)} &= \left[\mathbf {M}_{i};\mathbf {m}^{(t-1)};\mathbf {q}\right ] \\ \alpha ^{(t)} &= softmax\left(\mathbf {w}\tanh \left(\mathbf {W}_{2}\mathbf {z}_{i}^{(t)}+\ mathbf {b}_{2}\right) \right) \\ \mathbf {c}^{(t)}&=\sum _{i=1}^{N}\alpha _{i}^{(t)}\mathbf {M}_{i} \quad t= 1, \cdots , T,$$ (уравнение 15) где $\mathbf {z}_{i}^{(t)}$ — объединенный вектор для памяти-кандидата $i_{\text{th}}$ на итерации $t_{\text{th}}$; $\alpha _{i}^{(t)}$ — это $i_{\text{th}}$ элемент $\alpha ^{(t)}$, представляющий нормализованный вес внимания для $\mathbf {M} _{i}$ на итерации $t_{\text{th}}$; и $\mathbf {w}$ , $\mathbf {W}_{2}$ и $i_{\text{th}}$0 — параметры, подлежащие оптимизации в глубоких нейронных сетях.Таким образом, мы получаем контекстуальный вектор $\mathbf {c}^{(t)}$ , который содержит полезные внешние знания для обновления эпизодической памяти $\mathbf {m}^{(t-1)}$ и предоставления подтверждающих фактов. чтобы ответить на открытые вопросы.Компонент эпизодического обновления памяти.Мы применяем механизм обновления памяти BIBREF21, BIBREF25 как $$\mathbf {m}^{(t)}=ReLU\left(\mathbf {W}_{3} \left[\mathbf {m}^{(t-1)};\mathbf {c}^{(t)};\mathbf {q}\right]+\mathbf {b}_{3}\right) ,$$ (уравнение 16), где $\mathbf {W}_{3}$ и $\mathbf {b}_{3}$ — параметры, подлежащие оптимизации.После итерации эпизодическая память $\mathbf {m}^{(T)}$ запоминает полезную информацию для ответа на вопрос открытой области.По сравнению с моделью DMN+, реализованной в BIBREF25, мы позволяем сети динамической памяти включать огромные внешние знания в процедуру рассуждения VQA.Это наделяет систему способностью отвечать на более общие визуальные вопросы, имеющие отношение к содержанию изображения, что более привлекательно в практических приложениях.Слияние с эпизодической памятью и умозаключением.Наконец, мы встраиваем визуальные функции $\mathbf {f}^{(I)}$ вместе с текстовыми функциями $\mathbf {f}^{(Q)}$ и $\mathbf {f}^{(A)}. $ в общее пространство и объединить их вместе, используя произведение Адамара (поэлементное умножение) как $$&\mathbf {e}^{(k)}=\tanh \left(\mathbf {W}^{(k) }\mathbf {f}^{(k)}+\mathbf {b}^{(k)}\right), k \in \lbrace I, Q, A\rbrace \\ &\mathbf {h} =\mathbf {e}^{(I)}\odot \mathbf {e}^{(Q)}\odot \mathbf {e}^{(A)},$$ (уравнение 17) где $\mathbf {e}^{(I)}$ , $\mathbf {e}^{(Q)}$ и $\mathbf {e}^{(A)}$ — встроенные функции для изображения, вопроса и ответа соответственно; $\mathbf {h}$ — объединенный объект в этом общем пространстве; и $\mathbf {W}^{(I)}$ , $\mathbf {W}^{(Q)}$ и $\mathbf {W}^{(A)}$ соответствуют параметрам нейронной сети.Окончательная эпизодическая память $\mathbf {m}^{(T)}$ объединяется с объединенным признаком $\mathbf {h}$, чтобы предсказать вероятность того, что ответ кандидата с несколькими вариантами ответов правильный, как $$ans^* = \operatornamewithlimits{arg\,max}_{ans \in \lbrace 1,2,3,4\rbrace } softmax\left(\mathbf {W}_{4}\left[\mathbf {h}_{ans};\mathbf {m}^{(T)}_{ans}\right]+\mathbf {b} _{4}\right),$$ (уравнение 18), где $ans$ представляет собой индекс ответов кандидата с несколькими вариантами ответов; поддерживаемые тройки знаний хранятся в $\mathbf {m}^{(T)}_{ans}$ ; и $\mathbf {W}_{4}$ и $\mathbf {b}_{4}$ — параметры, подлежащие оптимизации в DNN.Окончательный выбор получается последовательно, когда у нас есть $ans^\ast $ . Наша цель обучения — изучить параметры, основанные на функции перекрестных энтропийных потерь как $$\mathcal {L} = -\frac{1}{D}\ sum _{i}^{D}\big (y_{i}\log \hat{y_{i}}+(1-y_{i})\log (1-\hat{y_{i}})\ big ),$$ (уравнение 19), где $\hat{y_{i}}=p_{i}(A^{(i)}|I^{(i)},Q^{(i)}, K^{(i)};\theta )$ представляет вероятность предсказания ответа $A^{(i)}$ , учитывая $i_{\text{th}}$ изображение $I^{(i)} $ , вопрос $Q^{(i)}$ и внешние знания $K^{(i)}$ ; $\theta$ представляет параметры модели; $D$ — количество обучающих выборок; а $y_{i}$ — метка образца $i_{\text{th}}$.Модель можно обучать сквозным образом, как только мы получим тройки-кандидаты знаний, извлеченные из исходного графа знаний.В этом разделе мы проводим обширные эксперименты, чтобы оценить эффективность предлагаемой нами модели и сравнить ее с ее вариантами и альтернативными методами.Мы специально реализуем оценку на общедоступном наборе эталонных данных (Visual7W) BIBREF7 для задачи VQA в закрытой области, а также автоматически генерируем множество произвольных пар вопросов-ответов для оценки производительности в VQA в открытой области.В этом разделе мы сначала кратко рассмотрим набор данных и детали реализации, а затем сообщим о производительности предлагаемого нами метода в сравнении с несколькими базовыми моделями для задач VQA как в закрытой, так и в открытой области.Мы обучаем и оцениваем нашу модель на общедоступных крупномасштабных наборах данных визуальных ответов на вопросы, наборе данных Visual7W BIBREF7, из-за разнообразия типов вопросов.Кроме того, поскольку в настоящее время нет общедоступного набора данных VQA в открытом домене для оценки, мы автоматически создаем коллекцию пар визуальных вопросов и ответов в открытом домене, чтобы изучить потенциал нашей модели для ответа на визуальные вопросы в открытом домене.Набор данных Visual7W BIBREF7 построен на основе подмножества изображений из Visual Genome BIBREF31, которое включает в себя вопросы (что, где, когда, кто, почему, что и как) вместе с соответствующими ответами в формате с несколькими вариантами ответов.Как и в случае с BIBREF7, мы разделяем набор данных на обучающее, проверочное и тестовое подмножества, всего 327 939 пар вопросов-ответов на 47 300 изображениях.По сравнению с альтернативным набором данных, Visual7W имеет разнообразный тип вопросов-ответов и графический контент BIBREF13, который предоставляет больше возможностей для оценки человеческих возможностей системы в открытом домене VQA. В этой статье мы автоматически генерируем многочисленные вопросы. -пары ответов, учитывая содержание изображения и соответствующие базовые знания, что обеспечивает испытательный стенд для оценки более реалистичной задачи VQA.В частности, мы автоматически генерируем коллекцию на основе тестового изображения в Visual7W путем заполнения набора шаблонов вопросов-ответов, а это означает, что информация отсутствует на этапе обучения.Чтобы усложнить задачу, мы выборочно выбираем пары вопрос-ответ, которые необходимы для рассуждения как о визуальной концепции изображения, так и о внешних знаниях, что делает ее похожей на сценарий визуального ответа на вопрос в открытой области.В этой статье мы генерируем 16 850 пар вопрос-ответ в открытом домене на изображениях в тестовом разделении Visual7W.Более подробную информацию о проведении контроля качества и соответствующую информацию можно найти в дополнительных материалах.В наших экспериментах мы фиксируем размерность общего пространства совместного встраивания как 1024, размерность встраивания слов как 300 и размерность внутренних состояний LSTM как 512.Мы используем предварительно обученную модель ResNet-101 BIBREF32 для извлечения признаков изображения и в ходе экспериментов выбираем 20 троек знаний-кандидатов для каждой пары QA.Эмпирическое исследование показывает, что этого достаточно для нашей задачи, хотя допускается и большее количество троек знаний.Номер итерации обновления сети динамической памяти установлен равным 2, а размер эпизодической памяти установлен равным 2048, что соответствует размеру слотов памяти.В этой статье мы объединяем пару-кандидат вопрос-ответ для генерации гипотезы и формулируем проблему VQA с множественным выбором как задачу классификации.Правильный ответ можно определить, выбрав тот, который имеет наибольшую вероятность.На каждой итерации мы случайным образом отбираем партию из 500 пар QA и применяем алгоритм стохастического градиентного спуска с базовой скоростью обучения 0,0001 для настройки параметров модели.Сначала извлекаются знания кандидата, а другие модули обучаются сквозным образом.Чтобы проанализировать вклад каждого компонента в нашу модель, основанную на знаниях и памяти, мы удаляем нашу полную модель следующим образом: KDMN-NoKG: базовая версия нашей модели.В этой модели не используются никакие внешние знания.Остальные параметры устанавливаются так же, как и в полной модели.KDMN-NoMem: версия без сети памяти.Тройки внешних знаний используются однопроходным мягким вниманием.KDMN: наша полная модель.Тройки внешних знаний включены в сеть динамической памяти.Мы также сравниваем наш метод с несколькими альтернативными методами VQA, включая (1) LSTM-Att BIBREF7, модель LSTM с пространственным вниманием; (2) MemAUG BIBREF33: модель с расширенной памятью для VQA; (3) MCB+Att BIBREF6: модель, сочетающая мультимодальные функции посредством мультимодального компактного билинейного объединения; (4) MLAN BIBREF11: усовершенствованная многоуровневая модель внимания.В этом разделе мы сообщаем о количественной оценке вместе с репрезентативными образцами нашего метода по сравнению с нашими абляционными моделями и современным методом как для традиционной (закрытой) задачи VQA, так и для VQA в открытой области. В этом разделе мы сообщаем о количественной точности в Таблице 1, а также о результатах выборки в Таблице 3.Общие результаты показывают, что наш алгоритм получает различные улучшения по сравнению с конкурентами по различным типам вопросов, например, значительные улучшения по вопросам «Кто» ($5,9\%$) и «Что» ($4,9\%$) и небольшой прирост по вопросам вопросы «Когда» ($1,4\%$) и «Как» ($2,0\%$).Изучив случаи успеха и неудачи, мы обнаружили, что вопросы «Кто» и «Что» имеют большее разнообразие вопросов и ответов с несколькими вариантами ответов по сравнению с другими типами, поэтому больше выигрывают от внешних фоновых знаний.Обратите внимание, что по сравнению с методом MemAUG BIBREF33, в котором также используется механизм памяти, наш алгоритм все же значительно улучшился, что еще раз подтверждает нашу уверенность в том, что базовые знания обеспечивают критически важную поддержку.Далее мы проводим всестороннее сравнение наших абляционных моделей.Справедливости ради отметим, что все эксперименты реализованы в одной и той же базовой сетевой структуре и имеют одни и те же гиперпараметры.В целом наша модель KDMN в среднем выигрывает на $1,6\%$ по сравнению с моделью KDMN-NoMem и на $4,0\%$ по сравнению с моделью KDMN-NoKG, что дополнительно подразумевает эффективность сетей динамической памяти при использовании внешних знаний.Посредством итеративных процессов внимания вектор эпизодической памяти фиксирует фоновые знания, полученные из внешних внедрений знаний.Модель KDMN-NoMem выигрывает на $2,4\%$ по сравнению с моделью KDMN-NoKG, что означает, что включенные внешние знания приносят дополнительные преимущества и служат дополнительной информацией для прогнозирования окончательного ответа.Показательные примеры на рис. 3 также демонстрируют влияние внешних знаний, например, 4-й пример «Почему свет красный?».Было бы полезно, если бы мы могли эффективно извлечь функцию светофора из внешних знаний.В этом разделе мы сообщаем о количественных характеристиках VQA в открытой области в таблице 2, а также о результатах выборки на рис. 4.Поскольку большинство альтернативных методов не дают результатов в сценарии с открытой областью, мы проводим всестороннее сравнение с нашими абляционными моделями.Как и ожидалось, мы наблюдаем значительное улучшение ($12,7\%$) нашей полной модели KDMN по сравнению с моделью KDMN-NoKG, где $6,8\%$ связано с привлечением внешних знаний, а $5,9\%$ связано с использованием памяти. сеть.Примеры на рис. 4 дополнительно обеспечивают интуитивное понимание нашего алгоритма.Системе сложно или даже невозможно ответить на вопрос открытой области, когда требуются комплексные рассуждения, выходящие за рамки содержания изображения, например, базовые знания о ценах на вещи необходимы для машины при выводе о том, какие из них дорогие.Значительное улучшение производительности набора данных открытого домена подтверждает наше убеждение в том, что базовые знания необходимы для ответа на общие визуальные вопросы.Обратите внимание, что исполнение можно еще улучшить, если разрешить технику ансамбля.Мы объединили результаты нескольких моделей KDMN, обученных с помощью разных инициализаций.Эксперименты показывают, что мы можем дополнительно получить улучшение примерно на $3,1\%$.В этой статье мы предложили новую структуру под названием «Сеть динамической памяти, содержащая знания» (KDMN), чтобы отвечать на визуальные вопросы в открытой области путем использования огромных внешних знаний в сети динамической памяти.Тройки внешних знаний, соответствующие контексту, извлекаются и встраиваются в ячейки памяти, а затем фильтруются через сеть динамической памяти для совместного вывода окончательного ответа с помощью визуальных функций.Предлагаемый конвейер не только сохраняет превосходство методов, основанных на DNN, но также приобретает возможность использовать внешние знания для ответа на визуальные вопросы в открытой области.Обширные эксперименты показывают, что наш метод дает конкурентоспособные результаты в общедоступных крупномасштабных наборах данных и значительно улучшает наш сгенерированный набор данных в открытом домене.При создании открытого набора данных VQA для оценки мы соблюдаем несколько принципов: (1) пары вопрос-ответ должны генерироваться автоматически; (2) При ответе на эти сгенерированные визуальные вопросы открытой области должны потребоваться как визуальная информация, так и внешние знания; (3) Набор данных должен иметь несколько вариантов выбора в соответствии с набором данных Visual7W для справедливого сравнения.Пары вопрос-ответ в открытом домене генерируются на основе подмножества изображений в стандартном разделении тестов Visual7W BIBREF7, поэтому тестовые изображения не присутствуют на этапе обучения.Для одного конкретного изображения, для которого нам нужно сгенерировать пары вопросов и ответов в открытой области, мы сначала извлекаем несколько заметных визуальных объектов и случайным образом выбираем один визуальный объект.После связи с семантическим объектом в ConceptNet BIBREF28 визуальный объект соединяет другие объекты в ConceptNet посредством различных отношений, например. UsedFor, CapableOf и формирует тройку знаний $(head, Relations, Tail)$ , где либо $head$, либо $tail$ является визуальным объектом.Опять же, мы случайным образом выбираем одну тройку знаний и заполняем шаблон вопросов-ответов, связанных с $relation$, чтобы получить пару вопрос-ответ.Эти шаблоны предполагают, что правильный ответ удовлетворяет требованиям к знаниям, а также отображается на изображении, как показано в таблице 3. Для каждой пары вопрос-ответ в открытой области мы генерируем три дополнительных сбивающих с толку элемента в качестве возможных ответов.Эти варианты ответов случайным образом выбираются из набора ответов, который состоит из ответов из других пар вопрос-ответ, принадлежащих к тому же типу $relation$.Чтобы сделать набор данных открытого домена более сложным, мы выборочно выбираем запутанные ответы, которые либо удовлетворяют требованиям к знаниям, либо появляются на изображении, но не удовлетворяют оба из них, как это делают ответы на основе истины.В частности, один из запутанных ответов удовлетворяет требованию знаний, но не появляется на изображении, поэтому модель должна уделять внимание визуальным объектам на изображении; Еще один из запутанных ответов появляется на изображении, но не удовлетворяет требованию знаний, поэтому модель должна опираться на внешние знания, чтобы ответить на эти вопросы открытой области.См. примеры на рисунке 5.Всего мы сгенерировали 16 850 пар вопросов и ответов в открытом домене на основе 8 425 изображений в тестовом разделении Visual7W.
Визуальный ответ на вопросы (VQA) привлек большое внимание, поскольку он позволяет понять взаимосвязь между мультимодальным анализом изображений и естественным языком. Большинство нынешних алгоритмов не способны отвечать на вопросы открытой области, требующие рассуждений, выходящих за рамки содержимого изображения. Чтобы решить эту проблему, мы предлагаем новую структуру, которая наделяет модель возможностями отвечать на более сложные вопросы за счет использования огромных внешних знаний с динамическими сетями памяти. В частности, вопросы вместе с соответствующими изображениями запускают процесс извлечения соответствующей информации из внешних баз знаний, которые встроены в непрерывное векторное пространство за счет сохранения структур «сущность-связь». После этого мы используем сети динамической памяти для обработки большого количества фактов в графе знаний и изображениях, а затем проводим рассуждения над этими фактами для получения соответствующих ответов. Обширные эксперименты показывают, что наша модель не только обеспечивает современную производительность в задаче визуального ответа на вопросы, но также может эффективно отвечать на вопросы открытой области, используя внешние знания.
6,623
QasperSumInstruct
ru
Напиши аннотацию по статье
Двоичные векторы абзацев. Одной из серьезных проблем современной обработки информации является огромный объем доступных данных.BIBREF0, например, утверждает, что объём цифровых данных в мире удваивается каждые два года.Эта тенденция лежит в основе усилий по разработке алгоритмов, которые могут эффективно искать соответствующую информацию в огромных наборах данных.Один класс таких алгоритмов, представленный, например, локально-чувствительным хэшированием BIBREF1, основан на хешировании данных в короткие, сохраняющие локальность двоичные коды BIBREF2.Затем коды можно использовать для группировки данных в сегменты, тем самым обеспечивая сублинейный поиск соответствующей информации или быстрое сравнение элементов данных.Большинство алгоритмов этого семейства не обращают внимания на данные, т. е. могут генерировать хэши для любого типа данных.Тем не менее, некоторые методы нацелены на определенный тип входных данных, например текст или изображение.В этой работе мы сосредоточимся на изучении двоичных кодов текстовых документов.Важная работа в этом направлении была представлена ​​BIBREF3.Их семантическое хеширование использует автокодировщики с сигмовидным узким местом для изучения двоичных кодов из представления мешка слов (BOW) с количеством слов.Салахутдинов и Хинтон сообщают, что двоичные коды позволяют повысить скорость ранжирования документов до 20 раз по сравнению с действительным представлением той же размерности.Более того, они демонстрируют, что семантические хеш-коды, используемые в качестве исходного фильтра документов, могут повысить точность поиска на основе TF-IDF.Однако изучение двоичного представления с помощью BOW имеет свои недостатки.Во-первых, представление количества слов и, в свою очередь, изученные коды сами по себе не более надежны, чем TF-IDF.Во-вторых, BOW — неэффективное представление: даже для словарей среднего размера векторы BOW могут иметь тысячи измерений.Изучение полносвязных автоэнкодеров для таких многомерных векторов непрактично.Салахутдинов и Хинтон в своих экспериментах ограничили словарный запас BOW 2000 наиболее часто встречающимися словами.Двоичные коды также применялись для кросс-модального поиска, где текст является одной из модальностей.В частности, BIBREF4 включал информацию тегов, которая часто сопровождает текстовые документы, тогда как BIBREF5 использовал сиамские нейронные сети для изучения единого двоичного представления данных текста и изображений.Недавно в нескольких работах исследовались простые нейронные модели для неконтролируемого обучения распределенных представлений слов, предложений и документов.BIBREF6 предложил лог-линейные модели, которые изучают распределенные представления слов путем прогнозирования центрального слова из его контекста (модель CBOW) или путем прогнозирования контекстных слов с учетом центрального слова (модель пропуска граммы).Затем модель CBOW была расширена BIBREF7 для изучения распределенных представлений документов.В частности, они предложили модель распределенной памяти вектора абзаца (PV-DM), в которой центральное слово прогнозируется с учетом слов контекста и вектора документа.Во время обучения PV-DM изучает встраивания слов и параметры softmax, который моделирует условное распределение вероятностей для центральных слов.Во время вывода встраивание слов и веса softmax фиксированы, но градиенты передаются обратно в выведенный вектор документа.Помимо PV-DM, Ле и Миколов изучали также более простую модель, а именно распределенный пакет слов с вектором абзаца (PV-DBOW).Эта модель предсказывает слова в документе, учитывая только вектор документа.Поэтому он игнорирует контекст, окружающий предсказанное слово, и не изучает встраивания слов.Ле и Миколов продемонстрировали, что векторы абзацев превосходят BOW и пакеты биграмм в задаче поиска информации, используя при этом всего несколько сотен измерений.Эти модели также пригодны для обучения и вывода на основе больших словарей.Исходная сеть CBOW использовала иерархический softmax для моделирования распределения вероятностей центрального слова.Можно также использовать оценку контрастности шума BIBREF8 или выборку важности BIBREF9 для аппроксимации градиентов относительно логитов softmax.Альтернативный подход к обучению представлению фрагментов текста был недавно описан BIBREF10.Предложенные там сети, вдохновленные моделью Skip-gram, учатся предсказывать окружающие предложения по центральному предложению.С этой целью центральное предложение кодируется сетью кодеров, а окружающие предложения прогнозируются сетью декодеров, зависящей от кода центрального предложения.После обучения эти модели могут кодировать предложения, не прибегая к выводу обратного распространения ошибки.Однако они изучают представления на уровне предложения, а не на уровне документа.В этой работе мы представляем модели двоичного вектора абзаца, расширения PV-DBOW и PV-DM, которые изучают короткие двоичные коды для текстовых документов.Одним из источников вдохновения для создания двоичных векторов абзацев послужила недавняя работа BIBREF11 по изучению двоичных кодов изображений.В частности, мы вводим сигмовидный слой в модели вектора абзаца и обучаем его таким образом, чтобы поощрять двоичные активации.Мы демонстрируем, что полученные в результате двоичные векторы абзацев значительно превосходят коды семантического хеширования.Мы также оцениваем бинарные векторы абзацев в условиях трансферного обучения, где обучение и вывод выполняются на несвязанных между собой текстовых корпусах.Наконец, мы изучаем модели, которые одновременно изучают короткие двоичные коды для фильтрации документов и более длинные вещественные представления для ранжирования.В то время как BIBREF11 использовал контролируемый критерий для изучения кодов изображений, двоичные векторы абзацев остаются неконтролируемыми моделями: они учатся предсказывать слова в документах.Основная идея в моделях двоичных векторов абзацев состоит в том, чтобы ввести сигмовидную нелинейность перед softmax, которая моделирует условную вероятность слов с учетом контекста.Если мы затем осуществим двоичную или почти двоичную активацию в этой нелинейности, распределение вероятностей по словам будет зависеть от бит-векторного контекста, а не от действительнозначного представления.Вывод в модели происходит так же, как в Paragraph Vector, за исключением того, что код документа создается на основе активаций сигмовидной кишки.После округления этот код можно рассматривать как распределенное двоичное представление документа.В простейшей двоичной модели PV-DBOW (рис. РИС. 1) размерность вложений действительнозначных документов равна длине двоичных кодов.Несмотря на такое низкоразмерное представление (полезный двоичный хэш обычно имеет 128 или меньше битов), эта модель показала себя на удивление хорошо в наших экспериментах.Обратите внимание, что мы не можем просто увеличить размерность встраивания в двоичный PV-DBOW, чтобы лучше изучить коды: двоичные векторы, полученные таким способом, будут слишком длинными, чтобы их можно было использовать при хешировании документов.Однако производительность поиска можно повысить, используя двоичные коды для первоначальной фильтрации документов, а затем используя представление с более высокой емкостью для ранжирования оставшихся документов по их сходству с запросом.BIBREF3, например, использовал семантические хэш-коды для начальной фильтрации и TF-IDF для ранжирования.Аналогичную стратегию поиска документов можно реализовать с помощью двоичных векторов абзацев.Кроме того, мы можем расширить двоичную модель PV-DBOW, чтобы одновременно изучать короткие двоичные коды и многомерные вещественные представления.В частности, в модели Real-Binary PV-DBOW (рис. FigREF2) мы вводим линейную проекцию между матрицей внедрения документа и сигмовидной нелинейностью.Во время обучения мы изучаем параметры softmax и матрицу проекции.Во время вывода веса softmax и матрица проекции фиксируются.Таким образом, мы одновременно получаем представление документа высокой емкости в матрице внедрения, например. 300-мерный вектор с действительным знаком и короткое двоичное представление активаций сигмовидной кишки.Одним из преимуществ использования модели Real-Binary PV-DBOW в двух отдельных сетях является то, что нам нужно хранить в памяти только один набор параметров softmax (и небольшую матрицу проекции) вместо двух больших весовых матриц.Кроме того, необходимо обучать только одну модель, а не две отдельные сети.Коды двоичных документов также можно изучить путем расширения моделей распределенной памяти.BIBREF7 предполагают, что в PV-DM контекст центрального слова может быть создан путем объединения или усреднения вектора документа и вложений окружающих слов.Однако в двоичном PV-DM (рис. FigREF3) мы всегда создаем контекст путем объединения соответствующих векторов перед применением сигмовидной нелинейности.Таким образом, длина двоичных кодов не привязана к размерности вложений слов.Слои Softmax в описанных выше моделях должны быть обучены предсказывать слова в документах с учетом векторов двоичного контекста.Таким образом, обучение должно стимулировать бинарную активацию в предшествующих слоях сигмовидной кишки.Это можно сделать несколькими способами.В автокодировщиках семантического хеширования BIBREF3 добавлял шум к сигмовидному слою кодирования.Затем обратное распространение ошибки противодействовало шуму, заставляя активации быть близкими к 0 или 1.Другой подход использовался BIBREF12 в автокодировщиках, изучающих двоичные коды для небольших изображений.Во время прямого прохода активации на уровне кодирования округлялись до 0 или 1.Исходные (т.е. не округленные) активации использовались при обратном распространении ошибок.В качестве альтернативы можно смоделировать коды документов с помощью стохастических бинарных нейронов.Обучение в этом случае все равно может продолжаться с обратным распространением ошибки при условии, что наряду со стохастическими активациями используется подходящая программа оценки градиента.Мы экспериментировали с методами, используемыми в семантическом хешировании и автокодировщиках Крижевского, а также с двумя оценками смещенного градиента для стохастических бинарных нейронов, обсуждаемыми BIBREF13.Мы также исследовали трюк с наклонным отжигом BIBREF14.при обучении сетей со стохастическими бинарными активациями.По нашему опыту, модели двоичных векторов абзацев с округленными активациями легче обучать и лучше усваивать коды, чем модели с бинаризацией на основе шума или стохастическими нейронами.Поэтому в наших моделях мы используем бинаризацию Крижевского.Чтобы оценить производительность бинарных векторов абзацев, мы провели эксперименты на трех наборах данных: 20 групп новостей, очищенной версии (также называемой v2) Reuters Corpus Volume 1 (RCV1) и английской Википедии.Поскольку векторы абзацев можно обучать с использованием относительно больших словарей, мы не выполняли стемминг исходного текста.Однако мы удалили стоп-слова, а также слова короче двух символов и длиннее 15 символов.Результаты, представленные BIBREF15, показывают, что производительность PV-DBOW можно улучшить, включив в модель n-граммы.Поэтому мы оценили два варианта Binary PV-DBOW:один предсказывает слова в документах, а другой предсказывает слова и биграммы.Поскольку 20 групп новостей — это относительно небольшой набор данных, мы использовали все слова и биграммы из его документов.Это составляет словарь, насчитывающий чуть более миллиона элементов.Для набора данных RCV1 мы использовали слова и биграммы, встречающиеся в тексте не менее 10 раз, что дает словарный запас примерно из 800 тысяч элементов.В случае англоязычной Википедии мы использовали слова и биграммы, встречающиеся не менее 100 раз, что дает словарь примерно из 1,5 миллионов элементов.Набор данных «20 ​​групп новостей» включает в себя справочные наборы поездов/тестов.В случае RCV1 мы использовали половину документов для обучения, а другую половину — для оценки.В случае с англоязычной Википедией мы отдали на тестирование случайно выбранные 10% документов.Мы выполняем поиск документов, выбирая запросы из тестового набора и упорядочивая другие тестовые документы по сходству выведенных кодов.Мы используем расстояние Хэмминга для двоичных кодов и косинусное сходство для действительных представлений.Результаты усредняются по запросам.Мы оцениваем производительность наших моделей с помощью кривых точности отзыва и двух популярных показателей поиска информации, а именно средней средней точности (MAP) и нормализованного дисконтированного совокупного выигрыша при 10-м результате (NDCG@10) BIBREF16.Результаты, конечно, зависят от выбранного показателя релевантности документа.Мера релевантности для набора данных «20 ​​групп новостей» проста: полученный документ соответствует запросу, если они оба принадлежат к одной группе новостей.В RCV1 каждый документ принадлежит к иерархии тем, что делает определение релевантности менее очевидным.В этом случае мы приняли меру релевантности, используемую BIBREF3.То есть релевантность рассчитывается как доля перекрывающихся меток в полученном документе и документе запроса.В целом, наш выбор наборов тестовых данных и показателей релевантности для 20 групп новостей и RCV1 соответствует BIBREF3, что позволяет проводить сравнение с семантическим хеш-кодами.Чтобы оценить релевантность статей в английской Википедии, мы можем использовать присвоенные им категории.Однако, в отличие от RCV1, категории Википедии могут иметь несколько родительских категорий и циклические зависимости.Поэтому для этого набора данных мы приняли упрощенную меру релевантности: две статьи являются релевантными, если они относятся хотя бы к одной категории.Мы также удалили из тестового набора категории, содержащие менее 20 документов, а также документы, которые остались без категорий.В целом релевантность измеряется более чем по категориям INLINEFORM0, что делает английскую Википедию сложнее, чем два других теста.Мы используем AdaGrad BIBREF17 для обучения и вывода во всех экспериментах, описанных в этой работе.Во время обучения мы используем отсев BIBREF18 на уровне внедрения.Чтобы облегчить модели с большими словарями, мы аппроксимируем градиенты относительно логитов softmax, используя метод, описанный BIBREF9.Двоичные сети PV-DM используют одинаковое количество измерений для кодов документов и встраивания слов.Характеристики 128- и 32-битных двоичных векторных кодов абзацев представлены в таблице TABREF8 и на рисунке FigREF7.Для сравнения мы также сообщаем о производительности векторов абзацев с действительными значениями.Обратите внимание, что двоичные коды работают очень хорошо, несмотря на их гораздо меньшую емкость: в 20 группах новостей и RCV1 128-битный двоичный PV-DBOW, обученный с помощью биграмм, приближается к производительности векторов абзацев с действительным знаком, тогда как в английской Википедии его производительность немного ниже. ниже.Более того, двоичный PV-DBOW с биграммами превосходит коды семантического хеширования: сравнение кривых точности отзыва на рисунках FigREF7 a и FigREF7 b с BIBREF3 показывает, что 128-битные коды, изученные с помощью этой модели, превосходят 128-битные коды семантического хеширования на 20 группах новостей и RCV1. .Более того, 32-битные коды из этой модели превосходят 128-битные коды семантического хеширования в наборе данных RCV1, а в наборе данных 20 групп новостей дают аналогичную точность примерно до 3% полноты и более высокую точность для более высоких уровней полноты.Обратите внимание, что разница в этом случае заключается не только в точности поиска: короткие 32-битные двоичные коды PV-DBOW более эффективны для индексации, чем длинные 128-битные коды семантического хеширования.Мы также сравнили двоичные векторы абзацев с кодами, созданными путем сначала определения коротких векторов абзацев с действительными значениями, а затем использования отдельного алгоритма хеширования для бинаризации.Когда размерность векторов абзацев равна размеру двоичных кодов, количество сетевых параметров в этом подходе аналогично количеству двоичных моделей PV.Мы экспериментировали с двумя стандартными алгоритмами хеширования, а именно с проекцией случайной гиперплоскости BIBREF19 и итеративным квантованием BIBREF20.Векторы абзацев в этих экспериментах были выведены с использованием PV-DBOW с биграммами.Результаты, представленные в таблице TABREF9, не показывают преимуществ использования отдельного алгоритма бинаризации.На 20 наборах данных групп новостей и RCV1 двоичный PV-DBOW дал более высокий MAP, чем два базовых подхода.В английской Википедии итеративное квантование позволило достичь MAP, равного двоичному PV-DBOW, тогда как случайная проекция гиперплоскости дала более низкое MAP.Некоторый выигрыш в точности верхних совпадений можно наблюдать при итеративном квантовании, на что указывает NDCG@10.Однако точность лучших результатов также можно повысить, выполняя запросы с использованием модели Real-Binary PV-DBOW (раздел SECREF15).Также стоит отметить, что сквозной вывод в двоичных фотоэлектрических моделях более удобен, чем вывод векторов с действительным знаком и последующее использование другого алгоритма для хеширования.BIBREF15 утверждает, что PV-DBOW превосходит PV-DM в задаче классификации настроений, и демонстрирует, что производительность PV-DBOW можно улучшить, включив в словарь биграммы.Мы наблюдали аналогичные результаты с моделями бинарных фотоэлектрических систем.То есть включение биграмм в словарь обычно повышает точность поиска.Кроме того, коды, изученные с помощью двоичных кодов PV-DBOW, обеспечивают более высокую точность поиска, чем двоичные коды PV-DM.Кроме того, чтобы выбрать размер контекста для бинарных моделей PV-DM, мы оценили несколько сетей на проверочных наборах, взятых из обучающих данных.Наилучшие результаты были получены с минимальным односторонним контекстным окном, состоящим из одного слова.Это архитектура распределенной памяти, наиболее похожая на модель Binary PV-DBOW.В экспериментах, представленных до сих пор, в нашем распоряжении были обучающие наборы с документами, аналогичными документам, для которых мы вывели двоичные коды.Можно задать вопрос, можно ли использовать двоичные векторы абзацев, не собирая специфичный для предметной области обучающий набор?Например, что, если нам нужно хешировать документы, которые не связаны ни с одним доступным корпусом предметной области?Одним из решений может быть обучение модели с помощью большого общего текстового корпуса, охватывающего широкий спектр областей.BIBREF21 оценил этот подход для векторов абзацев с действительными значениями и дал многообещающие результаты.Однако не очевидно, будут ли короткие двоичные коды также хорошо работать в аналогичных условиях.Чтобы пролить свет на этот вопрос, мы обучили двоичный PV-DBOW с помощью биграмм в английской Википедии, а затем вывели двоичные коды для тестовых частей 20 групп новостей и наборов данных RCV1.Результаты представлены в таблице TABREF14.и на рисунке FigREF11.Модель, обученная на несвязанном текстовом корпусе, дает меньшую точность поиска, чем модели с обучающими наборами, специфичными для предметной области, что неудивительно.Тем не менее, он по-прежнему работает на удивление хорошо, что указывает на то, что собранная им семантика может быть полезна для различных коллекций текста.Важно отметить, что эти результаты были получены без тонкой настройки для конкретной предметной области.Как указывает BIBREF3, при работе с большими текстовыми коллекциями можно использовать короткие двоичные коды для индексации и представление с большей емкостью для ранжирования.Следуя этой идее, мы предложили модель Real-Binary PV-DBOW (раздел SECREF2), которая может одновременно изучать короткие двоичные коды и многомерные вещественные представления.Мы начинаем оценку этой модели со сравнения точности поиска действительных и двоичных представлений, полученных с ее помощью.С этой целью мы обучили Real-Binary PV-DBOW модель с 28-битными двоичными кодами и 300-мерными вещественными представлениями на 20 группах новостей и наборах данных RCV1.Результаты представлены на фигуре FigREF16.Представления с действительными значениями, полученные с помощью этой модели, дают меньшую точность, чем векторы PV-DBOW, но, что важно, повышают точность по сравнению с двоичными кодами для документов с самым высоким рейтингом.Это оправдывает их использование наряду с двоичными кодами.Использование коротких двоичных кодов для первоначальной фильтрации документов требует компромисса между производительностью поиска и уровнем отзыва.Например, можно выбрать небольшое подмножество похожих документов, используя 28–32-битные коды и извлекая документы на небольшом расстоянии Хэмминга от запроса.Это улучшит производительность поиска и, возможно, точность за счет отзыва.И наоборот, короткие коды обеспечивают менее детальное хеширование и могут использоваться для индексации документов на большем расстоянии Хэмминга от запроса.Поэтому их можно использовать для улучшения отзыва за счет производительности поиска и, возможно, также точности.По этим причинам мы оценили модели Real-Binary PV-DBOW с разными размерами кода и с разными ограничениями на расстояние Хэмминга до запроса.В целом, мы не можем ожидать, что эти модели достигнут 100% отзыва при тестовых настройках.Кроме того, отзыв будет варьироваться в зависимости от запроса.Поэтому мы решили сосредоточиться на метрике NDCG@10 в этой оценке, поскольку она подходит для измерения эффективности модели, когда требуется короткий список соответствующих документов, а уровень отзыва неизвестен.Кривые MAP и точного отзыва в этих настройках неприменимы.Результаты поиска информации для Real-Binary PV-DBOW суммированы в таблице TABREF19.Модель дает более высокий NDCG@10, чем 32-битные двоичные коды PV-DBOW (таблица TABREF8).Разница велика, когда первоначальная фильтрация является ограничительной, например при использовании 28-битных кодов и 1-2-битного ограничения расстояния Хэмминга.Таким образом, Real-Binary PV-DBOW может быть полезен, когда необходимо быстро найти краткий список соответствующих документов в большой коллекции текстов, а уровень отзыва не имеет первостепенного значения.При необходимости точность можно повысить, используя простые двоичные коды PV-DBOW для фильтрации и стандартное представление DBOW для сортировки (таблица TABREF19, столбец B).Однако обратите внимание, что модель PV-DBOW будет использовать примерно в 10 раз больше параметров, чем Real-Binary PV-DBOW. В этой статье мы представили простые нейронные сети, которые изучают короткие двоичные коды для текстовых документов.Наши сети расширяют Paragraph Vector, вводя сигмовидную нелинейность перед softmax, который предсказывает слова в документах.Двоичные коды, полученные с помощью предложенных сетей, достигают более высокой точности поиска, чем коды семантического хеширования в двух популярных тестах поиска информации.Они также сохраняют большую часть своей точности при обучении на несвязанном текстовом корпусе.Наконец, мы представили сеть, которая одновременно изучает короткие двоичные коды и более длинные вещественные представления.Лучшие коды в наших экспериментах были получены с использованием двоичных сетей PV-DBOW.Бинарная модель PV-DM показала себя не так хорошо.BIBREF15 сделал аналогичные наблюдения для моделей вектора абзаца и утверждает, что в модели распределенной памяти контекст слова берет на себя большую часть бремени прогнозирования центрального слова из кода документа.Поэтому интересное направление будущих исследований может быть сосредоточено на моделях, которые учитывают порядок слов, одновременно изучая хорошие двоичные коды.Также стоит отметить, что BIBREF7 создавал векторы абзацев путем объединения представлений DM и DBOW.Эта стратегия может оказаться полезной и для двоичных кодов, когда она используется с алгоритмами хеширования, разработанными для более длинных кодов, например с мультииндексным хешированием BIBREF22.Это исследование поддерживается Национальным научным центром Польши, грант №.2013/09/B/ST6/01549 «Интерактивная визуальная аналитика текста (IVTA): Разработка новых, управляемых пользователем методов анализа и визуализации текста для исследования больших текстовых корпусов».Исследование выполнено при поддержке проекта «Инфраструктура высокопроизводительных вычислений для решения больших задач науки и техники», софинансируемого Европейским фондом регионального развития в рамках Операционной программы инновационной экономики.Это исследование было частично поддержано PL-Grid Infrastructure.Для дополнительного сравнения с семантическим хешированием мы использовали t-распределенное стохастическое встраивание соседей BIBREF23 для построения двумерных визуализаций кодов, изученных с помощью двоичного PV-DBOW, с биграммами.Мы использовали те же подмножества телеконференций и тем RCV1, что и BIBREF3.Коды, полученные с помощью двоичного PV-DBOW (рис. FigREF20), выглядят немного более кластеризованными.
Недавно Ле и Миколов описали две лог-линейные модели, называемые «Вектор абзаца», которые можно использовать для изучения современных распределенных представлений документов. Вдохновленные этой работой, мы представляем модели двоичного вектора абзаца: простые нейронные сети, которые изучают короткие двоичные коды для быстрого поиска информации. Мы показываем, что двоичные векторы абзацев превосходят двоичные коды на основе автокодировщика, несмотря на то, что используют меньшее количество битов. Мы также оцениваем их точность в настройках трансферного обучения, где двоичные коды выводятся для документов, не связанных с обучающим корпусом. Результаты этих экспериментов показывают, что двоичные векторы абзацев могут улавливать семантику, релевантную для различных документов, специфичных для конкретной предметной области. Наконец, мы представляем модель, которая одновременно изучает короткие двоичные коды и более длинные вещественные представления. Эту модель можно использовать для быстрого получения короткого списка наиболее релевантных документов из большой коллекции документов.
3,632
QasperSumInstruct
ru
Напиши аннотацию по статье
Автоматическое аргументативное зонирование с использованием Word2vec. Одной из важнейших задач исследователей при проведении научных исследований является выявление существующих идей, связанных с темами их исследований.Исследовательские идеи обычно документируются в научных публикациях.Обычно в аннотации излагается одна основная идея, четко отражающая цель статьи.Есть и другие подидеи, распределенные по всей статье.Поскольку темпы роста научных публикаций резко растут, исследователи перегружены взрывоопасной информацией.Практически невозможно переварить идеи, содержащиеся в документах, появляющихся каждый день.Таким образом, ожидается, что компьютерные технологии, такие как обобщение документов, будут играть роль в сжатии информации и предоставлении читателям более релевантных коротких текстов.В отличие от реферирования документов из новостных кругов, где задача состоит в том, чтобы идентифицировать центроидные предложения BIBREF0 или извлечь первые несколько предложений абзацев BIBREF1 , реферирование научных статей включает в себя дополнительный этап обработки текста BIBREF2 .После извлечения текстов с самым высоким рейтингом для выбранных предложений будет проведен анализ риторического статуса.Классификация риторических предложений, также известная как аргументативное зонирование (AZ) BIBREF3, представляет собой процесс присвоения риторического статуса извлеченным предложениям.Результаты AZ предоставляют читателям общий контекст дискурса, из которого можно было бы лучше связывать, сравнивать и анализировать научные идеи.Например, при задании конкретной задачи, какие предложения следует показать читателю, зависит от особенностей предложений.Чтобы определить уникальный вклад статьи, предложения, выражающие исследовательскую цель, должны быть извлечены с более высоким приоритетом.Для сравнения идей более полезными были бы сравнения с другими работами.Тойфель и др.ал. BIBREF2 представил свою схему риторических аннотаций, которая учитывает аспекты аргументации, метадискурса и связи с другими работами.Их схема привела к семи категориям риторического статуса, и эти категории присвоены полным предложениям.Примеры аннотированных человеком предложений с их риторическим статусом показаны в Table.TABREF2.Семью категориями являются цель, контраст, собственное, фон, другое, основа и текст.Анализ риторического статуса предложений вручную требует огромных усилий, особенно при структурировании информации из нескольких документов.К счастью, для решения этой проблемы были введены компьютерные алгоритмы.С развитием искусственного интеллекта, машинного обучения и компьютерной лингвистики обработка естественного языка (NLP) стала популярной областью исследований BIBREF4, BIBREF5.НЛП охватывает приложения: от поиска документов, категоризации текста BIBREF6, обобщения документов BIBREF7 до анализа настроений BIBREF8, BIBREF9.Эти приложения ориентированы на различные типы текстовых ресурсов, таких как статьи из социальных сетей BIBREF10 и научные публикации BIBREF2.Существует несколько подходов к решению этих задач.С точки зрения машинного обучения текст можно анализировать с помощью контролируемых алгоритмов BIBREF2, полуконтролируемого BIBREF11 и неконтролируемого BIBREF12.Обобщению документов в социальных сетях и новостных кругах в последние десятилетия уделялось большое внимание.Эти проблемы решались с разных точек зрения, одним из которых является извлечение и представление признаков.На раннем этапе обобщения документа функции обычно разрабатываются вручную.Хотя созданные вручную функции продемонстрировали способность к обобщению документов и анализу настроений BIBREF13, BIBREF9, эффективных функций для выявления семантических отношений между словами, фразами и предложениями недостаточно.Более того, создать достаточный набор функций вручную сложно, поскольку это требует экспертных знаний и отнимает много времени.ал. BIBREF2 создал пул функций из шестнадцати типов функций для классификации предложений, таких как положение предложения, длина предложения и время.Видьянторо и др.ал. использовали функции контента, уточняющие прилагательные и функции метадискурса BIBREF14 для исследования задачи AZ.Разработка этих функций потребовала усилий, а также времени на оптимизацию комбинации всех функций.С появлением нейронных сетей BIBREF15 компьютеры могут автоматически изучать представления объектов.В последнее время в сообществе НЛП широко используется техника встраивания слов BIBREF16.Существует множество случаев, когда встраивание слов и представление предложений применялись для классификации короткого текста BIBREF17 и обнаружения перефразирования BIBREF18.Однако эффективность этого метода при АЗ требует дальнейшего изучения.Вопрос исследования заключается в том, можно ли извлечь встраивания слов в качестве признаков для классификации предложений по семи категориям, упомянутым выше, с использованием подхода контролируемого машинного обучения? Инструмент word2vec, предложенный Миколовым и др. В последнее время BIBREF16 привлек к себе большое внимание.С помощью инструмента word2vec встраивание слов можно изучить на основе большого объема текстового корпуса, а семантические отношения между словами можно измерить с помощью косинусных расстояний между векторами.Идея встраивания слов заключается в использовании распределенного представления BIBREF19 для отображения каждого слова в вектор k-размерности.Как эти векторы генерируются с помощью инструмента word2vec?Распространенный метод получения векторов — использование нейровероятностной языковой модели BIBREF20.Базовые представления слов для каждого слова получаются в ходе обучения языковой модели.Подобно механизму в языковой модели, Миколов и др. BIBREF16 представил две архитектуры: модель пропуска граммы и модель непрерывного набора слов (CBOW).Каждая модель имеет две разные стратегии обучения, такие как иерархический softmax и отрицательная выборка.Обе эти две модели имеют три слоя: входной, проекционный и выходной.Векторы слов получаются после оптимизации моделей.Обычно этот процесс оптимизации выполняется с использованием метода стохастического градиентного спуска.При обучении моделей не нужны метки, что делает алгоритм word2vec более ценным по сравнению с традиционными методами контролируемого машинного обучения, которые требуют большого количества аннотированных данных.При наличии достаточного объема текста word2vec может генерировать значимые представления.Word2vec применялся для анализа настроений BIBREF21, BIBREF22, BIBREF23 и классификации текста BIBREF24.Садегян и Шарафат BIBREF25 исследовали усреднение векторов слов в обзоре настроений.Их результаты показали, что модели word2vec значительно превосходят стандартную модель «мешка слов».Среди моделей на основе word2vec softmax обеспечивает лучшую форму классификации.Тан и др. BIBREF21 использовал объединение векторов, полученных из разных сверточных слоев, для анализа высказываний о настроениях.Они также обучили встраиванию слов, специфичных для конкретных настроений, чтобы улучшить результаты классификации настроений в Твиттере.Эта работа направлена ​​на изучение вложений слов для задачи AZ.Результаты сравнивались по трем аспектам: влияние обучающего корпуса, эффективность конкретных вложений слов и различные способы построения представлений предложений на основе изученных векторов слов.Ле и Миколов BIBREF26 формально представили концепцию векторного представления слов: Учитывая последовательность обучающих слов INLINEFORM0, цель модели word2vec — максимизировать среднюю логарифмическую вероятность: INLINEFORM0 INLINEFORM1 INLINEFORM2 p INLINEFORM3 (1) Используя технику softmax, прогноз можно формализовать как: p INLINEFORM0 = INLINEFORM1 (2) Каждый из INLINEFORM0 представляет собой ненормализованную логарифмическую вероятность для каждого выходного слова INLINEFORM1 : INLINEFORM0 (3) В этом исследовании встраивания предложений были изучены из большого корпуса текста как функции для классификации предложений. на семь категорий в задаче АЗ.Для получения векторов предложений были исследованы три модели: усреднение векторов слов в одном предложении, векторы абзацев и векторы конкретных слов.Первая модель, усреднение векторов слов ( INLINEFORM0 ), заключается в усреднении векторов в последовательности слов INLINEFORM1 .Основной процесс в этой модели — изучение матрицы встраивания слов INLINEFORM2:INLINEFORM0 INLINEFORM1 INLINEFORM2 INLINEFORM3 (4)где INLINEFORM0 — это встраивание слова для слова INLINEFORM1, которое изучается с помощью классического алгоритма word2vec BIBREF16. Вторая модель, INLINEFORM0, предназначена для обучения векторов абзацев.Ее также называют моделью векторов абзацев с распределенной памятью (PV-DM) BIBREF26, которая является расширением word2vec.По сравнению со структурой word2vec единственное изменение в PV-DM заключается в уравнении (3), где INLINEFORM1 создан из INLINEFORM2 и INLINEFORM3, где матрица INLINEFORM4 — это вектор слов, а INLINEFORM5 содержит векторы абзацев таким образом, что каждый абзац сопоставляется с уникальным вектором, представленным столбцом в матрице INLINEFORM6. Третья модель построена с целью улучшения результатов классификации для определенной категории.В частности, в этом исследовании задача оптимизации была сосредоточена на определении категории INLINEFORM0.В этом исследовании были обучены специальные встраивания слов INLINEFORM1 (INLINEFORM2), вдохновленные Tang et al.Модель BIBREF21: Встраивание слов с учетом тональности (унифицированная модель: INLINEFORM3).После получения векторов слов через INLINEFORM4 для усреднения векторов в одном предложении использовалась та же схема, что и в модели INLINEFORM5. Изученные встраивания слов вводятся в классификатор как функции в рамках контролируемой структуры машинного обучения.Подобно классификации настроений с использованием встраивания слов BIBREF21, где они пытаются предсказать, будет ли каждый твит положительным или отрицательным, в задаче AZ встраивания используются для классификации каждого предложения в одну из семи категорий.Для оценки эффективности классификации были рассчитаны точность, полнота и F-мера.Коллекция INLINEFORM0.Справочный корпус антологии ACL содержит 10 921 каноническую статью по компьютерной лингвистике, из которых 622 144 предложения были сгенерированы после фильтрации предложений более низкого качества.Коллекция INLINEFORM0 содержит 6778 предложений, извлеченных из заголовков и аннотаций публикаций, предоставленных WEB OF SCIENCE.Корпус зонирования (корпус INLINEFORM0) состоит из 80 AZ INLINEFORM1 аннотированных статей конференций по компьютерной лингвистике, первоначально взятых из Cmplg arXiv. .После объединения подпредложений было получено 7347 помеченных предложений.Чтобы сравнить эффективность трех моделей в задаче AZ, были обучены три модели на одном и том же наборе данных ACL (представленном в разделе «Набор данных»).Word2vec также обучался с использованием различных параметров, таких как различная размерность функций.Чтобы оценить влияние разных областей, первая модель была обучена на другом корпусе.Характеристики встраивания слов на основе различных моделей и наборов данных перечислены в таблице TABREF12..Вдохновленные работой Садегяна и Шарафата BIBREF25, функции преобразования слов в вектор были настроены следующим образом: Минимальное количество слов — 40; Количество параллельных потоков равно 4, а контекстное окно — 10. В несбалансированных наборах данных некоторые классы значительно превосходят по численности другие классы BIBREF27, что влияет на результаты классификации.В этом эксперименте тестовый набор данных представляет собой несбалансированный набор данных. Таблица.TABREF16 показывает распределение риторических категорий из тестового набора данных INLINEFORM0.Категории OWN и OTH значительно превосходят по численности другие категории.Чтобы решить проблему классификации несбалансированных данных, к исходному набору данных был применен синтетический метод избыточной выборки меньшинства (SMOTE) BIBREF28.Была принята 10-кратная схема перекрестной проверки, а результаты усреднены по 10 итерациям. Таблица.TABREF19 и TABREF20 демонстрируют эффективность классификации различных методов.Результаты были проверены со следующих точек зрения: когда размерность объекта установлена ​​на 100, а обучающим корпусом является ACL, результаты, полученные с помощью различных моделей, сравнивались (AVGWVEC, PARAVEC и AVGWVEC+BSWE только для категории BAS).Что касается F-меры, AVGWVEC работает лучше, чем PARAVEC, но PARAVEC дал более точные результаты по нескольким категориям, таким как AIM, CTR, TXT и OWN.Результаты показали, что модель PARAVEC не является надежной, например, она плохо работает для категории BAS.Для классификации конкретных категорий возьмем, к примеру, категорию BAS: модель BSWE превосходит другие с точки зрения F-меры.Когда модель привязана к AVGWVEC, а обучающий корпус — ACL, исследовалось влияние размера объекта (300 и 100 измерений).Из F-меры видно, что для некоторых категорий 300-мерные функции работают лучше, чем 100-мерные, например CTR и BKG, но для некоторых категорий они не так хороши, как 100-мерные функции. например, BAS. Когда для модели установлено значение AVGWVEC, а размерность признака равна 100, результаты, вычисленные из разных обучающих корпусов, сравнивались (ACL+AZ, MixedAbs и корпус Брауна).ACL+AZ превосходит другие, а коричневый корпус лучше, чем MixedAbs для большинства категорий, но коричневый корпус не так хорош, как MixedAbs для категории OWN. Наконец, результаты сравнивались между встраиванием слов и методами ключевых слов, Teufel 2002. и базовый уровень.Для оценки встраивания слов в AZ для сравнения использовалась модель AVGWVEC, обученная на ACL+AZ.Это видно из таблицы.TABREF19, модель встраивания слов лучше, чем метод, использующий сопоставление ключевых слов.Он также превосходит Teufel 2002 в большинстве случаев, за исключением AIM, BAS и OWN.Он выиграл базовый уровень по большинству категорий, кроме OWN. Результаты классификации показали, что тип встраивания слов и обучающий корпус влияют на производительность AZ.В качестве простой модели INLINEFORM0 работает лучше, чем другие, что указывает на то, что усреднение векторов слов в предложении может уловить семантические свойства утверждений.Обучая встраивания конкретных слов аргументации, можно повысить производительность, что можно увидеть на примере определения статуса BAS с использованием модели INLINEFORM1.Размерность функции не доминирует в результатах.Нет существенной разницы между результатами, полученными с помощью 300-мерных объектов и 100-мерных объектов.Тренировочный корпус влияет на результаты.Превосходство ACL+AZ над другими указывает на то, что темы учебного корпуса являются важными факторами в аргументативном зонировании.Хотя корпус Брауна имеет больше словарей, он не выигрывает ACL+AZ. В целом, эффективность классификации вложений слов является конкурентоспособной с точки зрения F-меры для большинства категорий.Но для классификации категорий AIM, BAS и OWN используются вручную созданные функции, предложенные Teufel et al.BIBREF2 дал лучшие результаты.В этой статье сравнивались различные модели встраивания слов в задаче аргументативного зонирования.Результаты показали, что встраивание слов эффективно при классификации предложений из научных статей.Вложения слов, обученные на соответствующем корпусе, могут отражать семантические особенности утверждений, и их легче получить, чем функции, спроектированные вручную.Чтобы улучшить классификацию предложений для определенной категории, помогает интеграция стратегии встраивания конкретных слов.Размер пула функций не имеет большого значения для результатов, равно как и размер словаря.Для сравнения, область обучающего корпуса влияет на эффективность классификации.
По сравнению с обобщением документов по статьям из социальных сетей и лент новостей, аргументативное зонирование (АЗ) является важной задачей анализа научных работ. Традиционная методология решения этой задачи опирается на разработку функций на разных уровнях. В этой статье были исследованы и сравнены три модели генерации векторов предложений для задачи классификации предложений. Предлагаемый подход строит представления предложений с использованием изученных вложений на основе нейронной сети. Выученные вложения слов сформировали пространство признаков, в которое отображается исследуемое предложение. Эти функции вводятся в классификаторы для контролируемой классификации. Используя схему 10-перекрестной проверки, оценка проводилась на аннотированных статьях с аргументативным зонированием (AZ). Результаты показали, что простое усреднение векторов слов в предложении работает лучше, чем алгоритм преобразования абзаца в вектор, а интеграция конкретных ключевых слов в функцию потерь нейронной сети может улучшить производительность классификации. По сравнению с фичами, созданными вручную, метод word2vec победил по большинству категорий. Тем не менее, созданные вручную функции показали свою силу при классификации некоторых категорий.
2,241
QasperSumInstruct
ru
Напиши аннотацию по статье
Идентификация важных атрибутов в сети знаний. Граф знаний (KG) предлагался уже несколько лет, и его наиболее известное применение находится в веб-поиске, например, поиск Google запускает определенную карточку объекта, когда запрос пользователя соответствует или упоминает объект на основе некоторой статистической модели.Основной потенциал графа знаний заключается в его способности рассуждать и делать выводы, и мы еще не видели революционного прорыва в таких областях.Одним из основных препятствий, очевидно, является отсутствие достаточных данных графа знаний, включая сущности, описания сущностей, атрибуты сущностей и отношения между сущностями.Полнофункциональный граф знаний, поддерживающий общие рассуждения и выводы, может потребовать от сообщества долгих лет инноваций и упорной работы.С другой стороны, многие менее требовательные приложения имеют большой потенциал, извлекая выгоду из доступности информации из графа знаний, например понимание запросов и понимание документов в системах поиска/поиска информации, простой вывод в системах ответов на вопросы и простое рассуждение в предметной области. ограниченные инструменты поддержки принятия решений.Не только научные учреждения, но и отраслевые компании вкладывают значительные средства в графы знаний, такие как граф знаний Google, граф продуктов Amazon, API-интерфейс Facebook Graph, Watson IBM, Satori Microsoft и т. д.В существующем графе знаний, таком как Wikidata и DBpedia, атрибуты обычно не имеют порядка или приоритетов, и мы не знаем, какие атрибуты более важны и представляют больший интерес для пользователей.Такая оценка важности атрибутов является важной частью информации во многих приложениях графа знаний.Наиболее важным применением является активируемая карточка объекта в поисковой системе, когда запрос клиента попадает в объект.Сущность обычно имеет большое количество атрибутов, но карточка сущности имеет ограниченное пространство и может отображать только самую важную информацию; Наличие важности атрибута может облегчить реализацию отображения карты объекта.Важность атрибута также имеет большой потенциал для того, чтобы сыграть значительную роль в поисковой системе при определении степени соответствия между запросом и значениями атрибута.Если запрос соответствует очень важному атрибуту, то релевантность такого совпадения должна быть выше, чем сопоставление игнорируемого атрибута.Другое приложение связано с коммуникациями в электронной коммерции, и один покупатель инициирует цикл общения с продавцом, отправляя запрос на продукт.Написание запроса на мобильном телефоне неудобно, а помощь в автоматическом составлении имеет большой потенциал для улучшения качества обслуживания клиентов за счет облегчения бремени написания.При запросе продукта клиентам необходимо указать свои требования и задать вопросы о продуктах, а их требования и вопросы обычно касаются наиболее важных свойств продуктов.Если мы сможем определить важные характеристики продуктов, мы сможем помочь клиентам автоматически составить запрос, чтобы сократить время ввода.Многие предлагаемые подходы формулируют проблему ранжирования атрибутов объекта как этап постобработки автоматического извлечения значений атрибутов.В BIBREF0, BIBREF1, BIBREF2, Pasca et al. сначала извлеките потенциальные пары класс-атрибут, используя лингвистически мотивированные шаблоны из неструктурированного текста, включая журналы запросов и сеансы запросов, а затем оцените атрибуты с помощью модели Байеса.В BIBREF3 Рахул Рай предложил определять атрибуты продукта на основе онлайн-обзоров клиентов, используя шаблоны тегов части речи (POS), и оценивать их важность с помощью нескольких различных показателей частоты.В BIBREF4 Lee et al. разработала систему для извлечения пар понятия-атрибута из нескольких источников данных, таких как Probase, общие веб-документы, журналы запросов и внешнюю базу знаний, а также агрегирования весов из разных источников в один последовательный показатель типичности с использованием модели ранжирования SVM.Эти подходы обычно страдают от низкого качества шаблонных правил, и процесс ранжирования используется для идентификации относительно более точных атрибутов среди всех кандидатов на атрибуты.Что касается уже существующего графа знаний, в литературе имеется множество работ, посвященных ранжированию объектов по релевантности без запроса или с ним.В BIBREF5 Li et al. представил алгоритм OntoRank для ранжирования важности объектов семантической сети на трех уровнях детализации: документ, термины и графики RDF.Алгоритм основан на модели рационального серфера, успешно используемой в поисковой системе семантической сети Swoogle.В BIBREF6 Hogan et al. представил подход, который адаптировал известные алгоритмы PageRank/HITS к семантическим веб-данным, который использовал значения свойств для ранжирования объектов.В BIBREF7, BIBREF8 авторы также сосредоточились на ранжировании объектов, сортировке семантических веб-ресурсов на основе важности, релевантности и длины запроса, а также агрегировании функций вместе с общей моделью ранжирования.Лишь несколько работ были посвящены конкретному решению проблемы вычисления ранжирования атрибутов в заданной графе знаний.Ibminer BIBREF9 представил инструмент для предложения шаблонов инфобоксов (псевдоним карты объекта), который собирал атрибуты из разных источников, а затем сортировал их по популярности на основе их совместного появления в наборе данных.В BIBREF10 с использованием структурированной базы знаний вычислялись промежуточные характеристики, включая важность или популярность каждого типа объекта, вычисление IDF для каждого атрибута на глобальной основе, вычисление IDF для типов объектов и т. д., а затем функции агрегировались для обучения. классификатор.Кроме того, аналогичный подход в BIBREF11 был разработан с использованием дополнительных функций, извлеченных из данных GoogleSuggestChars.В BIBREF12 Али и др. представил новый набор функций, который использует семантическую информацию об объектах, а также информацию из документов с самым высоким рейтингом из общей поисковой системы.Чтобы поэкспериментировать со своим подходом, они собрали набор данных, используя информационные блоки Википедии, порядок атрибутов которых отражает совместные усилия большого сообщества пользователей, что может быть неточным.Были проведены обширные исследования по обнаружению сущностей, извлечению связей, а также прогнозированию отсутствующих связей.Например: BIBREF13, BIBREF14 и BIBREF15 объясняют, как построить граф знаний и как выполнить обучение представлению на графах знаний.Некоторые исследования были проведены по извлечению атрибутов, например BIBREF16 и BIBREF4; последний весьма особенный: он также одновременно вычисляет важность атрибута.Что касается моделирования важности атрибута для существующего графа знаний, в котором завершено извлечение атрибутов, мы обнаружили лишь несколько существующих исследований, все из которых использовали простые совпадения для ранжирования атрибутов сущности.В действительности многие графы знаний не содержат информации о важности атрибутов, например, в самых известных Викиданных большое количество объектов имеет множество атрибутов, и трудно понять, какие атрибуты являются значимыми и заслуживают большего внимания.В этом исследовании мы фокусируемся на выявлении важных атрибутов в существующих графах знаний.В частности, мы предлагаем новый метод использования дополнительного источника данных, созданного пользователем, для оценки важности атрибута, и мы используем недавно предложенные современные методы встраивания слов/подслов, чтобы сопоставить внешние данные с определением атрибута и значения от сущностей в графах знаний.А затем мы используем статистику, полученную в результате сопоставления, для сравнения важности атрибута.Наш метод имеет общую расширяемость на любой граф знаний без важности атрибута.Когда есть возможность найти внешний источник текстовых данных, предлагаемый нами метод будет работать, даже если внешние данные не совсем соответствуют текстовым данным атрибута, поскольку векторное встраивание выполняет семантическое сопоставление и не требует точного сопоставления строк.Оставшаяся часть документа организована следующим образом: Раздел SECREF2 подробно объясняет предлагаемый нами метод, в том числе, какие внешние данные требуются и как их обрабатывать, а также как выполнять семантическое сопоставление и как ранжировать атрибуты. по статистике.В разделе SECREF3 представлены наши эксперименты, включая нашу экспериментальную установку, введение данных и результаты экспериментов по сравнению с другими методами, которые мы не используем.В разделе SECREF3 также кратко описывается наш реальный сценарий применения в сфере электронной коммерции.В разделе SECREF4 подводятся итоги наших экспериментов и анализа, а также указываются перспективные направления будущих исследований.В этом разделе мы подробно представим предлагаемый нами метод.Мы используем наш сценарий приложения, чтобы объяснить логику метода, но область его применения не ограничивается нашим вариантом использования, и его можно распространить на любой существующий граф знаний без информации о важности атрибутов. В настоящее время Alibaba.com является крупнейшим в мире перекрестным сервисом. Платформа электронной коммерции для бизнеса (B2B), поддерживающая 17 языков для клиентов со всего мира.На сайте доминирует английский язык, на него приходится около 50% трафика.На веб-сайте уже накоплен очень большой граф знаний о продуктах, и сущностью здесь является продукт или категория продукта; и каждый объект имеет много информации, такой как имя объекта, изображения и множество атрибутов, без упорядочения информации.Объекты также связаны структурой таксономии, и аналогичные продукты обычно относятся к одной и той же категории/подкатегории.Поскольку закупки B2B обычно связаны с большими суммами денег, бизнес будет длительным процессом, который начинается с запроса на продукт.Вообще говоря, когда клиенты заинтересованы в каком-либо продукте, они начинают цикл общения с продавцом, отправляя продавцу запрос на продукт.В запросе о продукте клиенты будут указывать свои требования и задавать вопросы о продукте.Их требования и вопросы обычно относятся к наиболее важным характеристикам продукта. Рис.FigREF5 показывает пример запроса.Alibaba.com накопила десятки миллионов запросов на продукты, и мы хотели бы использовать эту информацию в сочетании с имеющимся у нас графиком знаний о продуктах, чтобы определить наиболее важные атрибуты для каждой категории продуктов.В нашем сценарии приложения граф знаний о продукте — это существующий граф знаний, а данные запроса — это внешний источник текстовых данных.С этого момента мы будем использовать сценарий нашего приложения для объяснения деталей предлагаемого нами алгоритма.Мы предлагаем систему обучения без учителя для извлечения важных атрибутов продукта из запросов на продукт.Вычисляя семантическое сходство между каждым предложением запроса и каждым атрибутом продукта, которому соответствует запрос, мы определяем атрибуты продукта, которые больше всего волнуют клиента.Атрибуты, описанные в запросе, могут содержать имена атрибутов или значения атрибутов или другие выражения, например, упоминается либо слово «цвет», либо слово экземпляра цвета «фиолетовый».Следовательно, при вычислении семантического сходства между предложениями-запросами и атрибутами продукта нам нужны как имена атрибутов, так и значения атрибутов.Как и любой другой граф знаний, атрибуты продукта в нашем графе знаний, который мы используем, содержат помехи и ошибки.Нам необходимо очистить и нормализовать данные атрибутов перед их использованием.Мы представим подробности нашего процесса очистки данных в разделе SECREF14..FastText — это библиотека, созданная Facebook Research для эффективного изучения представлений слов и классификации предложений.Здесь мы просто используем функциональность представления слов.FastText моделирует морфологию, рассматривая единицы подслова и представляя слова суммой его символьных n-грамм BIBREF17 .В исходной модели авторы решили использовать двоичные логистические потери, и потери для одного экземпляра записываются следующим образом: INLINEFORM0 Обозначая функцию логистических потерь INLINEFORM0, потери в предложении равны: INLINEFORM1 Функция оценки между словом INLINEFORM0 и контекстное слово INLINEFORM1: INLINEFORM2В приведенных выше функциях INLINEFORM0 — это набор отрицательных примеров, выбранных из словаря, INLINEFORM1 — это набор индексов слов, окружающих слово INLINEFORM2, INLINEFORM3 — это набор n-грамм, встречающихся в слове INLINEFORM4, INLINEFORM5 — размер словаря, который мы используем. Для n-грамм INLINEFORM6 представляет собой векторное представление каждой n-граммы. INLINEFORM7. По сравнению с word2vec или glove, FastText имеет следующие преимущества: Он способен охватывать редкие слова и слова, выходящие за пределы словарного запаса (OOV).Поскольку основными единицами моделирования в FastText являются нграммы, и как редкие слова, так и OOV, можно получить эффективные представления слов из составляющих их нграмм.Word2vec и Glove не могут обеспечить точное векторное представление этих слов.В нашем приложении данные обучения пишутся конечными пользователями, и существует множество ошибок в написании, которые легко превращаются в слова OOV.Вложения символов в n-граммы, как правило, работают лучше, чем word2vec и перчатки на небольших наборах данных.FastText более эффективен, и его обучение происходит относительно быстро.В этом разделе подробно объясняется, как вычислить соответствие между предложением запроса и атрибутом продукта.Наше объяснение здесь относится к определенной категории продуктов, остальные категории такие же.Как вы можете видеть на рис.Фиг.12: каждое предложение сравнивается с каждым атрибутом категории продукта, к которой принадлежит продукт.Теперь мы получаем оценку между предложением INLINEFORM0 и атрибутом INLINEFORM1, INLINEFORM2 INLINEFORM3, где INLINEFORM0 — все возможные значения для этого INLINEFORM1, INLINEFORM2 — вектор слов для INLINEFORM3.Согласно этой формуле, мы можем получить два верхних атрибута, чьи оценки превышают пороговое значение INLINEFORM4 для каждого предложения.Мы выбираем два атрибута вместо одного, поскольку в каждом предложении может быть более одного атрибута.Кроме того, некоторые предложения представляют собой приветствия или самопрезентацию и не содержат атрибутивной информации о продукте, поэтому мы требуем, чтобы оценка была выше определенного порога.Для наших данных графа знаний атрибуты сущности (продукта) можно грубо разделить на кластеры, специфичные для заказа транзакции, и атрибуты, специфичные для продукта. В этой статье мы выбираем атрибуты, специфичные для продукта, для дальнейшего изучения.Нам также необходимо отметить, что мы ориентируемся только на рекомендуемый язык общения на платформе Alibaba.com, а именно английский.Чтобы построить набор оценочных данных, сначала выбираются 14 основных категорий на основе их особенностей продвижения бизнеса, а затем выбираются 3 миллиона типичных продуктов в каждой категории для формирования кандидатов на атрибуты.После предварительной обработки и базовой фильтрации основные характеристики продукта из 14 различных категорий выбираются для ручной маркировки нашими аннотаторами.Для каждой категории аннотаторам предлагается выбрать не более 10 важных атрибутов с точки зрения покупателей.После того, как все аннотаторы завершат свои аннотации, атрибуты сортируются в соответствии с суммой голосов.В итоге 111 важных атрибутов из 14 категорий сохраняются для окончательной оценки.Помимо оценки, описанной в этой статье, мы фактически выполнили сопоставление по более чем 4000 категориям, охватывающим более 100 миллионов продуктов и более 20 миллионов запросов.Из-за ограниченности ресурсов аннотаций мы можем выбрать только небольшие пронумерованные категории (14 здесь), чтобы оценить предлагаемый здесь алгоритм.Предварительная обработка запросов товаров и атрибутов представлена ​​в алгоритме 1.АлгоритмАлгоритм Алгоритм предварительной обработки данных [1] INLINEFORM0 INLINEFORM1 : INLINEFORM2 INLINEFORM3 INLINEFORM4 : INLINEFORM5 Неверный фильтр INLINEFORM6 INLINEFORM7 Разбить INLINEFORM8 на предложения INLINEFORM9 в INLINEFORM10 INLINEFORM11INLINEFORM12 возврат INLINEFORM13Во-первых, для каждого запроса на продукт мы конвертируем исходные текстовые данные в формате HTML в обычный текст.Во-вторых, мы отфильтровываем бесполезные запросы, такие как запросы не на английском языке и спам.Регулярные выражения и обнаружение спама используются для обнаружения запросов и спама на неанглоязычном языке соответственно.В-третьих, мы получаем список предложений INLINEFORM0 с разделением каждого запроса на предложения, как описано в разделе 2.2.Затем для каждого предложения INLINEFORM1 в INLINEFORM2 нам нужно выполнить три дополнительных процесса: а) исправление орфографии. б) обычное.Меры и числа.в) Не позволяйте словам выпадать.Орфографическая коррекция.Поскольку довольно много запросов к продуктам и самостоятельно заполненных атрибутов были написаны с ошибками, мы заменили точные слова нечетким поиском с использованием расстояния Левенштейна.Метод использует нечеткий поиск только в том случае, если точное совпадение не найдено.Некоторые атрибуты на самом деле одинаковы, например «тип» и «тип продукта». Мы объединяем эти атрибуты, оценивая, содержатся ли атрибуты.Регулярные меры и числа.Атрибуты числового типа имеют значения, состоящие из чисел и единиц измерения, например INLINEFORM0, INLINEFORM1, INLINEFORM2, INLINEFORM3 и т. д.Мы заменяем все числа (в любой записи, например, с плавающей запятой, научными, арифметическими выражениями и т. д.) уникальным токеном (INLINEFORM4).По этой же причине каждая единица измерения заменяется соответствующим токеном, например, INLINEFORM5 заменяется площадью в сантиметр.Остановите выпадение слов.Стоп-слова, по-видимому, не имеют большого значения в предлагаемом алгоритме сопоставления.Удалив стоп-слова, мы можем вместо этого сосредоточиться на важных словах.В нашем бизнес-сценарии мы создали список стоп-слов для электронной коммерции внешней торговли.Наконец, мы получаем допустимые предложения INLINEFORM0. Существующие методы совместного появления совершенно не подходят для сценария нашего приложения, поскольку точное совпадение строк является слишком строгим требованием, и первоначальные испытания показали его неэффективность.Вместо этого мы реализовали улучшенную версию их метода, основанную на TextRank в качестве базовой линии.Кроме того, мы также протестировали несколько алгоритмов семантического сопоставления для сравнения с выбранным нами методом. TextRank:TextRank — это графическая модель ранжирования для обработки текста.BIBREF18Это неконтролируемый алгоритм извлечения ключевых слов.Поскольку атрибуты продукта обычно являются ключевыми словами в запросах, мы можем сравнить эти ключевые слова с атрибутами категории и найти наиболее важные атрибуты.Этот метод состоит из трех шагов.Первый шаг — объединить все запросы в одну категорию в одну статью.Второй шаг — извлечь 50 лучших ключевых слов для каждой категории.Третий шаг — найти наиболее важные атрибуты путем сравнения наиболее популярных ключевых слов с атрибутами категории.Word2vec BIBREF19: Мы используем вектор слов, обученный BIBREF19, в качестве распределенного представления слов.Затем мы получаем представление запроса и представление атрибута категории.Наконец, мы собираем статистику о совпавших атрибутах каждой категории и выбираем наиболее часто встречающиеся атрибуты в той же категории.ПЕРЧАТКИ BIBREF20 :GloVe — это глобальная лог-билинейная регрессионная модель для неконтролируемого обучения представлению слов, в которой используются отношения вероятностей совместного появления слов.Мы используем метод GloVe для обучения распределенному представлению слов.Процедура выбора атрибута такая же, как и в word2vec.Предлагаемый метод: детали предложенного нами алгоритма подробно объяснены в разделе SECREF2.Есть несколько пороговых значений, которые нам нужно выбрать в ходе эксперимента.На основе анализа проб и ошибок мы выбираем 0,75 в качестве порога сходства предложений и атрибутов, который относительно хорошо уравновешивает точность и запоминаемость.В нашем приложении из-за ограничения длины запроса на продукт покупатели обычно не ссылаются на более чем пять атрибутов при первоначальном обращении к продавцу, мы решили сохранить 5 наиболее важных атрибутов для каждой категории.Оценка проводится путем сравнения результатов систем с ответами, аннотированными вручную, и мы рассчитываем точность и коэффициент полноты.INLINEFORM0 INLINEFORM1, где INLINEFORM0 — атрибуты, помеченные вручную, INLINEFORM1 — обнаруженные важные атрибуты.В таблице 1 показана производительность алгоритма для каждой категории и общие средние показатели среди всех категорий для нашего подхода и других методов.Можно заметить, что предложенный нами метод обеспечивает наилучшую производительность.Среднее значение показателя F1 нашего подхода составляет 0,47, тогда как средние значения показателя F1 «GloVe», «word2vect» и «TextRank» составляют 0,46, 0,42 и 0,20 соответственно.Во всех наших экспериментах мы обнаружили, что метод FastText превосходит другие методы.Анализируя все результаты, мы видим, что методы, основанные на семантическом сходстве, более эффективны, чем предыдущий метод, который мы реализовали на основе TextRank.Этот вывод понятен, поскольку во многих запросах не просто упоминаются именно слова-атрибуты, но также используются некоторые семантически связанные слова.Оценивая FastText, GloVe и word2vec, мы показываем, что по сравнению с другими алгоритмами обучения представлению слов FastText работает лучше всего.Мы отбираем и анализируем атрибуты категорий и обнаруживаем, что многие самостоятельно заполненные атрибуты содержат орфографические ошибки.Алгоритм FastText представляет слова как сумму его n-грамм символов и очень устойчив к таким проблемам, как орфографические ошибки.Таким образом, FastText имеет большие преимущества при работе с корпусом естественного языка, обычно содержащим орфографические ошибки.Мы также применили обнаруженные атрибуты в задаче автоматического создания запросов и получили значительно более качественные запросы по сравнению с предыдущими жесткими шаблонами.Из-за ограниченности места мы опускаем объяснение и оставляем его для будущих публикаций.В этой статье мы предложили новый общий метод определения важных атрибутов сущностей из графа знаний.Это относительно новая задача, и предложенный нами метод использования внешних текстовых данных и выполнения семантического сопоставления посредством встраивания слов/подслов дал лучший результат по сравнению с другими работами по использованию наивного сопоставления и подсчета строк.Кроме того, мы также успешно применили обнаруженные важные атрибуты в нашем реальном приложении умной композиции.Таким образом, метод расширяем до любого графа знаний без информации о важности атрибутов и превосходит предыдущий метод.В будущей работе есть два основных направления, которые потенциально могут улучшить точность обнаружения.Первый из них касается разделения предложений.Мы пытаемся получить семантическую связную единицу, которую можно использовать для сопоставления атрибута, и может существовать более комплексный метод, чем простое разделение по знакам препинания в конце предложения.Второй — об улучшении качества встраивания слов.Мы внедрили собственную улучшенную версию Fasttext, адаптированную к нашему источнику данных.Вполне возможно использовать улучшенное встраивание слов с целью получения более высокой точности семантического соответствия.Что касается приложения, мы постараемся использовать больше статистических моделей в части генерации естественного языка в рамках умной композиции, использующей обнаруженные важные атрибуты.
Граф знаний (KG), состоящий из сущностей с их описаниями и атрибутами, а также взаимосвязями между сущностями, находит все больше и больше сценариев применения в различных задачах обработки естественного языка. В типичном графе знаний, таком как Викиданные, сущности обычно имеют большое количество атрибутов, но трудно определить, какие из них важны. Важность атрибутов может быть ценной информацией в различных приложениях, от поиска информации до генерации естественного языка. В этой статье мы предлагаем общий метод использования внешних текстовых данных, созданных пользователем, для оценки относительной важности атрибутов объекта. Чтобы быть более конкретным, мы используем методы встраивания слов/подслов, чтобы сопоставить внешние текстовые данные с именем и значениями атрибутов объектов и ранжировать атрибуты по их связности соответствия. Насколько нам известно, это первая работа по применению векторного семантического сопоставления для идентификации важных атрибутов, и наш метод превосходит предыдущие традиционные методы. Мы также применяем результаты обнаруженных важных атрибутов к задаче генерации языка; по сравнению с ранее сгенерированным текстом, новый метод генерирует гораздо более персонализированные и информативные сообщения.
3,453
QasperSumInstruct
ru
Напиши аннотацию по статье
Медицинский писец: разработка корпуса и анализ производительности модели. Медицинские работники в Соединенных Штатах обязаны документировать клинические посещения в электронных медицинских картах.Потребность в документации отнимает у них непропорционально много времени и внимания, что приводит к выгоранию поставщика услуг BIBREF0, BIBREF1.Одно исследование показало, что врачи первичной медико-санитарной помощи, работающие полный рабочий день, тратили около 4,5 часов из 11-часового рабочего дня на взаимодействие с системами клинической документации, но все еще не могли закончить свою документацию и были вынуждены тратить дополнительно 1,4 часа после обычных клинических часов BIBREF2.Речь и обработка естественного языка в настоящее время достаточно развиты, поэтому существует значительный интерес, как в научных кругах, так и в промышленности, к исследованию того, как эти технологии могут быть использованы для упрощения задачи документирования и предоставления поставщикам возможности уделять больше времени пациентам.Хотя специализированные системы автоматического распознавания речи (ASR), которые позволяют поставщикам медицинских услуг диктовать заметки, существуют уже некоторое время, недавние работы начали решать проблемы, связанные с созданием клинических заметок непосредственно из записей речи.Это включает в себя определение структуры темы на основе данных разговора, извлечение соответствующей информации и создание клинического резюме BIBREF3.В одной из недавних работ авторы описали сквозную систему; однако детали были скудны без эмпирических оценок их строительных блоков BIBREF4.Один из упрощенных подходов использует созданную вручную грамматику на основе конечного автомата для поиска клинических объектов в транскриптах ASR и сопоставления их с каноническими клиническими терминами BIBREF5.Кажется, это хорошо работает в узкой задаче.Более амбициозный подход сопоставил транскрипты ASR с клиническими записями, приняв подход машинного перевода BIBREF6.Однако это сработало плохо.Чтобы решить проблему доступа к клиническим данным, исследователи экспериментировали с синтетическими данными, чтобы разработать систему документирования телефонных разговоров, инициированных медсестрами, для пациентов с застойной сердечной недостаточностью, которые проходят телемониторинг после выписки из больницы BIBREF7.В их задаче модель, основанная на вопросах и ответах, получила F-балл 0,80.Это, естественно, поднимает вопрос о том, насколько хорошо современные методы смогут помочь более широкому кругу врачей, таких как поставщики первичной медико-санитарной помощи.Можно было бы ожидать, что задача извлечения клинических концепций из аудио столкнется с проблемами, аналогичными проблемам неструктурированных клинических текстов.В этой области одной из первых общедоступных задач является задача отношений i2b2, определенная на небольшом корпусе письменных резюме выписки, состоящем из 394 отчетов для обучения, 477 для тестирования и 877 для оценки BIBREF8.Учитывая небольшой объем обучающих данных, неудивительно, что непропорционально большое количество команд использовали системы, основанные на правилах.Однако системы условного случайного поля (CRF) BIBREF9 показали лучшие результаты даже при ограниченном объеме обучающих данных BIBREF10.Другие задачи i2b2/n2c2 были сосредоточены на разрешении кореференции BIBREF11, извлечении временных отношений BIBREF12, извлечении событий, связанных с приемом препарата BIBREF13, в медицинских записях и извлечении семейного анамнеза BIBREF14.Несмотря на то, что текст был в значительной степени неструктурирован, он выиграл от пунктуации и заглавных букв, заголовков разделов и других подсказок в письменной форме, которые в той же степени недоступны в аудио.С целью создания автоматизированного медицинского писца мы разбили задачу на модульные компоненты, включая ASR и дневникирование говорящих, которые описаны в другом месте BIBREF15.В этой работе мы исследуем задачу извлечения соответствующих клинических концепций из стенограмм.Наш основной вклад включает в себя: (i) определение трех задач – задачи по лекарствам, задачи по симптомам и задачи по состояниям, а также принципов, использованных при разработке рекомендаций по аннотациям для них (раздел SECREF2); (ii) измерение качества этикетки с использованием соглашений между лейблами и итеративное уточнение качества (раздел SECREF3), (iii) оценка эффективности современных моделей для решения этих задач (раздел SECREF4) и (iv) комплексный анализ производительности моделей, включая категоризацию ошибок вручную (раздел SECREF5).Корпус, который мы создали в этой работе, основан на частных, запатентованных данных, которые не могут быть общедоступными.Вместо этого мы делимся знаниями из нашего опыта, которые могут быть полезны для более широкого сообщества, а также подробными рекомендациями по маркировке в качестве дополнительного материала в расширенной версии этой статьи на arxiv.org.Корпус размеченных разговоров для этой работы был разработан совместно с поставщиками услуг и медицинскими писцами.В нашей первой попытке мы аннотировали всю соответствующую клиническую информацию с помощью комплексной онтологии, которая была разработана для создания клинических заметок с использованием подхода с заполнением слотов.Было обнаружено, что это чрезвычайно сложная задача для медицинских писцов-маркировщиков; потребовалось много когнитивной обработки, маркировка заняла много времени, а результаты по-прежнему имели много расхождений в качестве и согласии между маркировщиками.Корпус, описанный в этой статье, был аннотирован с использованием определенных руководящих принципов, описанных ниже.Во-первых, когнитивная нагрузка на маркировщиков должна быть достаточно низкой, чтобы обеспечить высокую степень согласия между маркировщиками.Это соображение привело к тому, что каждый разговор размечался в несколько проходов, при этом маркировщики сосредотачивались только на небольшом подмножестве клинических концепций на каждом проходе.Им было приказано игнорировать клиническую информацию, не связанную с поставленной задачей.Во-вторых, аннотация всей клинической информации, необходимой для создания клинической записи, была разбита на модульные задачи в зависимости от типа объекта, в частности, симптомов, лекарств и состояний.В каждой задаче специалисты по разметке сосредоточивались на аннотировании объектов вместе с их ключевыми ссылками и атрибутами.Например, в задаче «Лекарства» маркировщики сосредоточились на лекарствах и связанных с ними частотах, дозировках, количествах и продолжительности действия.Отношения между ними были отмечены с помощью ненаправленных ссылок.Для простоты мы игнорировали атрибуты атрибутов, например, прием одной дозы лекарства утром и другой дозы вечером.В-третьих, рекомендации были уточнены с помощью нескольких итераций экспериментов и обратной связи, чтобы улучшить соглашение между маркировщиками перед маркировкой задачи.Наконец, онтология была сокращена, чтобы сохранить клинические концепции с высокой степенью согласия между маркировщиками и достаточно высокой частотой встречаемости, чтобы их можно было смоделировать с использованием имеющихся данных.Корпус состоит из записей и стенограмм встреч врача первичной медико-санитарной помощи и лечения внутренних болезней с пациентом.Записи были разделены на наборы для обучения, разработки и тестирования, состоящие примерно из 5500, 500 и 500 встреч соответственно.Для измерения обобщения результатов модели разделение разработки и тестирования было создано таким образом, чтобы поставщики были взаимоисключающими.Идентификаторов, связанных с пациентами, не было, поэтому в наборах могло быть совпадение пациентов.Задача «Симптомы» была сосредоточена на извлечении симптомов, описанных при посещении врача, чтобы их можно было задокументировать в «Истории текущего заболевания» (HPI), «Обзоре симптомов» (ROS) и других разделах клинической записи.Таким образом, онтология была разработана так, чтобы отразить язык и организацию симптомов в примечании; разговорная фраза, которую пациенты используют для описания симптомов, помечается клинически подходящим объектом из онтологии.Как показано в таблице TABREF4, онтология организована по категориальному принципу, начиная с более подробной системы органов, которая далее разбивается на более мелкие теги сущностей симптомов.Преимущество этого подхода заключается в том, что систему органов можно использовать для организации симптомов в разделе ROS заметки, даже если детальная сущность симптома не определена правильно.Полная онтология содержит 186 объектов симптомов, сопоставленных с 14 системами органов.Атрибуты для задачи «Симптомы», показанные в таблице TABREF5, были выбраны на основе элементов HPI в Руководстве по документации службы оценки и управления CMS BIBREF16.После того, как метки были созданы вручную, набор был сокращен, чтобы удалить объекты с низким количеством и низкими соглашениями между метками, поскольку их было бы трудно смоделировать.В результате было получено 88 меток симптомов.Статус отмечался добавлением второй метки к объекту.Этот выбор позволил обойти более сложную задачу определения слов, которые сигнализируют о наличии симптома или его отсутствии.В отличие от письменного текста, статус явно не упоминается.Вместо этого в разговоре это подразумевается из контекста, распространяется на несколько выступлений говорящего и нелегко ассоциируется с конкретными словами.Пример в таблице TABREF6 иллюстрирует, как разговор был помечен с использованием онтологии для задачи по симптомам.Было несколько проблем с точной маркировкой соответствующих слов содержания.Аннотаторам было поручено присвоить наиболее конкретную метку, но бывали случаи, когда контекст не давал достаточной информации.В таких случаях им предлагается назначить более грубую категорию системы вместе со значением по умолчанию «Другое».Следуя этому правилу, «проблемам с желудком» в приведенном выше примере будет присвоено значение GI:Другое.Кроме того, мы сопоставили непрофессиональное описание симптома пациентов с нормализованной формой.В иллюстративном примере пациент описывается как чувство «тошноты», и это соответствует клиническому термину «Тошнота».Одним из преимуществ этого отображения является то, что мы избегаем явного этапа нормализации, который обычно используется в литературе.Наконец, в разговорах между врачом и пациентом жесты и слова часто используются для обозначения информации о симптомах, например, слово «здесь» используется для обозначения части тела, где наблюдается симптом.Отсутствие вербализации этой информации затрудняет полный сбор всей необходимой информации автоматизированной системой.Однако когда провайдеры уточняли местоположение («верхняя часть живота»), это помогало в решении конечной задачи по автоматизации заполнения заметки.Онтология задачи «Лекарства» была разработана для сбора информации, связанной со всеми лекарствами, от истории болезни пациента до будущих рецептов.Хотя симптомы можно свести к закрытому набору (в зависимости от того, как они проявляются в клинических записях), список лекарств велик и постоянно расширяется.Таким образом, сущность «лекарство» рассматривалась как открытый набор, а метка «все лекарства» применялась ко всем прямым и косвенным ссылкам на лекарства.Сюда входили конкретные и неспецифические упоминания, такие как «Тайленол», «обезболивающее» и «лекарство».Атрибуты, связанные с объектом лекарства, которые были аннотированы, включают Prop:Frequency, Prop:Dosage, Prop:Mode и Prop:Duration.В иллюстративном примере в таблице TABREF8 сущности – «лекарства от диабета», «Сульфонилмочевина», «Амарил», «глимепирид» – помечены этикеткой «Лекарственное средство», а «1 мг», «таблетки», «каждый день» являются их атрибуты.Одной из проблем, возникших в этой задаче, был выбор конкретной метки, когда другие метки одинаково действительны.Например, «90-дневная проба» может быть отмечена как общее употребленное количество или как продолжительность лечения наркотиками.Для повышения единообразия маркировщикам было предложено выбрать метки в соответствии с предпочтениями в порядке: «Доза», «Частота», «Количество», «Продолжительность», «Режим».Кроме того, пациенты часто называли свои лекарства расплывчатыми дескрипторами, например, «розовая таблетка».Во многих случаях поставщики могут сделать вывод о лекарстве из контекста, поэтому аннотаторам предлагается помечать такие упоминания.Задача «Состояния», как и две другие задачи, была разработана на основе того, как обсуждаемое состояние отображается в клинической записке.Несмотря на то, что состояния в некоторой степени совпадают с симптомами, они относятся к более широким категориям и обычно обсуждаются с использованием клинической терминологии.Неясность относительно того, является ли упоминание симптомом или состоянием, была разрешена с использованием базы данных кодов МКБ-10.Сущности состояния были разделены на категории: Состояние:Пациент, Состояние:Семейный анамнез и Состояние:Другое.Атрибуты состояний аналогичны атрибутам симптомов, перечисленных в таблице TABREF5, плюс дополнительный тег, фиксирующий начало состояния, Prop:Onset/Diagnosis.Пример этой задачи показан в таблице TABREF10. Одна из проблем задачи «Условия» заключается в том, что в каждом разговоре было лишь несколько упоминаний об условиях, из-за чего маркировщики непреднамеренно пропускали эти упоминания.Это было устранено с помощью автоматизированного метода улучшения отзыва, как описано в разделе SECREF24.Once.все сущности и атрибуты были помечены и извлечены из диалога, атрибуты необходимо связать со связанными с ними объектами, чтобы их можно было использовать в последующих приложениях, таких как заполнение разделов клинической записи.В этом примере продолжительность и местоположение связаны с «проблемами с желудком», а атрибут частоты связан с «тошнотой».Это позволило бы нам дополнить примечание следующей информацией: Одна трудность, с которой мы столкнулись при указании связей между сущностями и их атрибутами, возникла из-за упоминания синонимов.В примере, показанном в Таблице TABREF8, «таблетка» «1 мг» в равной степени связана с «Сульфонилмочевиной», «Амарилом» и «глимепиридом».Аннотаторы иногда создавали границу между атрибутами и каждым из препаратов, а иногда выбирали один препарат в качестве канонической ссылки и создавали совместные ссылки для других упоминаний препарата.Это затрудняет надежную оценку производительности модели.Модели, разработанные для извлечения отношений с использованием этих аннотаций, описаны в другом месте BIBREF17. Прежде чем приступить к крупномасштабной задаче по аннотированию, был выполнен ряд шагов для уточнения рекомендаций.Процесс состоял из следующих этапов: Небольшая группа из 3–5 разговоров была помечена командой опытных специалистов по маркировке с использованием руководящих принципов.Разногласия в их ярлыках были разрешены ими на судебном заседании.В случае больших различий этапы (1) и (2) повторялись.В результате была завершена работа над руководством и создан справочный набор для учебных целей.Затем рекомендации были представлены более широкой команде специалистов по маркировке, которым было поручено выполнить ту же задачу по маркировке эталонного набора.Затем маркировщики оценивались на основе согласия с эталонным набором.Те, кто набрал значительно ниже среднего показателя качества, прошли дальнейшее обучение, прежде чем приступить к выполнению задания.Кроме того, чтобы поддерживать неизменно высокое качество этикеток при маркировке обучающего набора, мы разработали процесс обеспечения качества.Процесс состоял из следующих шагов: Команда опытных разметчиков создавала эталонный набор ярлыков для 3-5 разговоров разной сложности.Остальным разметчикам были назначены разговоры из эталонного набора.В качестве рецензентов были выбраны этикетировщики, получившие высокие оценки по ссылке.Затем рецензенты проверяли результаты других производителей этикеток, исправляя этикетки и документируя ошибки.Отзывы были отправлены изготовителям этикеток для использования в будущих усилиях по маркировке.В конечном итоге мы обнаружили, что выполнение этого процесса обеспечения качества K-way помогло значительно улучшить согласованность.Мы изучили различные методы улучшения качества этикеток.Во время выполнения задачи «Условия» мы заметили, что создатели ярлыков часто упускают из виду упоминание об условиях, поскольку они встречаются в разговоре слишком редко.Поскольку условия часто упоминаются в канонической форме, мы использовали Google Knowledge Graph, чтобы идентифицировать их в расшифровках BIBREF18.Условия, определенные графиком знаний, были представлены разработчикам меток в качестве необязательных аннотаций, которые они могли использовать или отбросить.Чтобы свести к минимуму предвзятость разработчиков ярлыков, эти необязательные аннотации были представлены только после того, как создатели ярлыков завершили свою задачу и находились в процессе отправки своего разговора.В контролируемом эксперименте мы обнаружили абсолютное улучшение запоминаемости на 0,10 у тех, кто развешивал этикетки.Обратите внимание: во избежание возможной систематической ошибки измерения эта помощь оказывалась только при маркировке обучающего набора, а не наборов для разработки и тестирования, где мы полагались на метки от нескольких маркировщиков для обеспечения согласованности, как описано далее в разделе SECREF5.Также были исследованы стандартные синтаксические анализаторы для предварительного заполнения числовых значений, соответствующих дозе, продолжительности, частоте и количеству, но они не использовались в процессе маркировки.Мы также экспериментировали с использованием предварительно обученных моделей, чтобы попытаться выделить числовые атрибуты или атрибуты даты/времени, такие как доза, продолжительность, частота или количество.Хотя для каждой из задач существовали уникальные проблемы, некоторые из них были общими.Несмотря на доработку онтологий и постоянное обучение разметчиков, ошибки в разметке все же были, поскольку задача нетривиальная и требует значительного внимания.Определенные остаточные ошибки были отмечены с использованием правил проверки для конкретных задач.Эти правила выявляли наиболее вопиющие ошибки, такие как атрибут, не сгруппированный с сущностью, или отсутствие двойной пометки симптома или состояния с его статусом.Общая трудность для всех задач заключалась в том, чтобы найти баланс между тем, чтобы сделать аннотации клинически полезными (т. е. разработать способ использования аннотаций для построения полного HPI), а также снизить когнитивную нагрузку для аннотаторов.В ходе многочисленных экспериментов мы выявили серьезные проблемы, которые можно или нельзя было решить с помощью добавления, удаления или замены тегов в наших онтологиях.Порядок описания клинически значимых событий часто важен для построения понятного HPI; например, боль в груди, сопровождаемая одышкой и головокружением, имеет иные последствия, чем одышка, сопровождаемая головокружением и болью в груди.Однако для фиксации такого уровня детализации потребовалось расширение онтологии, которая оказалась когнитивно обременительной для разработчиков этикеток и не учитывалась в будущих работах.Еще одна проблема, с которой мы столкнулись, заключалась в путанице между временными тегами (время начала или продолжительность) или информацией о прогрессе (например, улучшение или ухудшение).Слова, используемые для описания этих качеств, часто использовались в повседневной беседе.В ранних версиях онтологий временная информация аннотировалась для каждой задачи по-разному, например SymProp:Frequency и MedsProp:Frequency.Это вызвало замешательство среди комментаторов.Впоследствии временные теги были определены единообразно для всех задач, насколько это возможно.Еще одним ограничением схемы аннотаций является то, что в настоящее время они не фиксируют отношения совместного возникновения между несколькими объектами, хотя они могут быть клинически значимыми.Например, «тошнота», которую пациент может испытывать наряду с «болью в животе».Аннотации также не отражают межонтологические отношения, например, когда лекарство может быть фактором, облегчающим симптом или состояние.Этому можно способствовать, показывая метки предыдущих задач при маркировке новой задачи.Даже после тщательной подготовки перед запуском какой-либо задачи по маркировке специалисты по маркировке столкнулись с новыми ситуациями, которые не были учтены при разработке онтологий и руководств.Это привело к дальнейшему уточнению задач, включая изменение или добавление нового тега.В результате части данных пришлось перемаркировать, что было дорого.Для принятия этих решений использовался анализ существующих меток, например, игнорирование тегов, которые появлялись слишком редко, сосредоточение внимания на тегах, по которым наблюдался высокий уровень разногласий, и изучение распределения помеченного текста для каждого тега.Хотя корпуса письменных доменов, такие как i2b2 и n2c2, также сталкиваются с аналогичными проблемами, сложность этой задачи усугубляется необходимостью создания комплексной онтологии и распространения информации по нескольким ораторам с большими различиями в том, как пациенты описывают медицинские понятия в разговоре BIBREF8, BIBREF13. Распределение вхождений меток в корпусе показано на рисунке FigREF27.Среди субъектов количество упомянутых лекарств является самым высоким.Атрибутов симптомов больше, чем других задач.Неудивительно, что количество упоминаний условий и их атрибутов наименьшее среди трех концепций.Клинические концепции значительно различаются по сложности, и чтобы оценить сложность задачи и качество меток, мы оценили соглашения между лейблами для различных задач.Соглашение между маркировщиками рассчитывалось с точки зрения каппы Коэна для набора разработчиков из 500 разговоров с использованием трех маркировщиков на разговор.Для оценки мы использовали строгое понятие соответствия, которое требовало, чтобы и метка, и текстовое содержимое были идентичными.На рисунке FigREF28 мы видим, что соглашения между метками выше для сущностей по сравнению с атрибутами или отношениями.Среди трех задач лекарство достигает наивысшего согласия между маркировщиками, за которым следуют состояния, а затем симптомы.Анализ соглашения между лейблами помог нам выявить плохие этикетки, а в некоторых случаях изменение названий этикеток, чтобы они были описательными, помогло улучшить согласованность.Например, замена «Ответа» на «Улучшение/Ухудшение/Без изменений» оказалась полезной.Одной из проблем разработки модели для этой задачи является ограниченный объем обучающих данных.Чтобы эффективно использовать данные, мы разработали модель маркировки интервалов-атрибутов (SAT), которая выполняет выводы иерархическим образом, определяя клинически значимый диапазон с использованием схемы BIO и классифицируя диапазоны по конкретным меткам BIBREF19.Диапазон представлен с использованием скрытого представления двунаправленного кодера и, как таковой, имеет возможность захвата соответствующей контекстной информации.Это скрытое контекстуальное представление используется для определения метки объекта и статуса симптома: наблюдался он или нет.Это обучаемый механизм вывода статуса в отличие от специальных методов, применявшихся в задачах отрицания в предыдущей работе в клинической области BIBREF20. Для извлечения отношений мы расширили его до модели Relation-SAT, которая использует двухэтапный процесс: на первом этапе объекты-кандидаты хранятся в буфере памяти вместе со своим скрытым контекстным представлением, а на втором этапе классификатор проверяет, связаны ли атрибуты-кандидаты с записями в буфере памяти BIBREF17.В обоих случаях модели обучаются сквозным образом с использованием взвешенной суммы потерь, соответствующих каждой выведенной величине.Для надежной оценки моделей мы создали одну «проголосованную» ссылку из трехсторонних меток, упомянутых в разделе SECREF26. Непосредственное применение стандартного алгоритма голосования не особенно полезно для улучшения ссылки.Рассмотрим этикетки BIO трех этикетировщиков, показанные в таблице TABREF30, для фразы «Обезболивающее».Хотя все три специалиста по разметке согласны с тем, что часть фразы должна быть помечена, они выбрали разные промежутки.Прямое голосование по аннотациям BIO приводит к присвоению «O» первому токену и случайному выбору второго и третьего токенов.Мы решаем эту проблему с помощью цепи Маркова, которая присваивает теги задач отдельно от нотации BIO.Для каждого момента времени $t$ пусть $Y^1(t)$ обозначает назначенный тег (например, препарат, частота и т. д.), а $Y^2(t)$ обозначает соответствующее обозначение BIO (например, B, I, О).Каждый токен может быть представлен кортежем ($Y^1(t),Y^2(t)$).Мы явно определяем состояние в каждом $t$ как $Y^1(t-1)$ (где $Y^1(-1)$ определяется как пустое множество) и определяем $Y^2(t)$, выбирая теги, которые максимизируют $P(Y^2(t)|Y^1(t), Y^1(t-1)$), где вероятности оцениваются эмпирически на основе данных.Применение этого к приведенному выше примеру приводит к аннотациям (,O), (Drug, B) и (Drug,I), что является более разумным результатом, чем метод наивного голосования.Сами аннотаторы не всегда последовательны в объеме текста, который они маркируют.Например, «обезболивающее» или «обезболивающее».Чтобы обеспечить определенную степень допуска в извлеченном диапазоне, производительность модели оценивалась с использованием взвешенного F-показателя.Пусть $Y_i(t)$ обозначает проанализированные основные метки истины, такие, что $i$ соответствует индексу метки, а $t$ соответствует индексу токена в предложении.Мы определяем $R_i=1/|Y_i| \sum _{Y_i} I(Y_i(t)=\hat{Y}^1(t))$ для представления оценки запоминания конкретной метки для метки $i$, где $\hat{Y}^1(t) $ представляет прогнозируемый тег модели для момента времени $t$. Общий отзыв оценивается как $R=1/n \sum _{i=1}^nR_i$, где $n$ представляет общее количество основных меток истинности.Точно так же точность метки оценивается как $P_j=1/|\hat{Y}_j| \sum _{\hat{Y}_j} I(\hat{Y}_j(t)=Y^1(t))$, где $\hat{Y}_j$ представляет $j$-ю предсказанную построенную метку по модели, а общая точность оценивается как $P=1/m \sum _{j=1}^m P_j$, где $m$ представляет общее количество предсказанных меток.Оценка F1 впоследствии рассчитывается по стандартной формуле $2*P*R/(P+R)$. Обратите внимание, что обновление оценок полноты и точности для конкретной этикетки, чтобы они были совокупным продуктом (а не средним значением), приводит к получению хорошо известных строгих оценок (поскольку они затем обеспечивают соответствие всему диапазону, а не только подмножеству диапазона). Результаты модели SAT по трем задачам представлены в таблице TABREF33.Поскольку задача «Симптомы» включала закрытый набор целевых классов для сущностей, мы оцениваем производительность, вычисляя метрики на уровне диалога, игнорируя дубликаты (например, симптомы, повторяющиеся с тем же статусом).Атрибуты моделировались с использованием общей отдельной модели.Основная цель ручного анализа ошибок — дополнить автоматическую оценку эффективности модели, предоставив более глубокое понимание типов ошибок, допущенных моделью, клинической значимости ошибок модели и возможных причин, по которым могла произойти ошибка.Этот анализ также позволил нам отличить ошибки, которые легко исправить в будущих итерациях модели, от тех, которые исправить будет сложнее.На основе ожидаемых результатов модели и аномалий в нашем наборе данных мы определили две основные категории — ErrorCause и ErrorImpact.Оценщикам было предложено использовать контекст, чтобы высказать свое предположение о том, почему модель могла вызвать ошибку.Если бы они были не уверены, они могли бы пометить причину как неизвестную.Аналогичным образом, ErrorImpact оценивает значимость ошибки, если бы извлеченная информация была включена в клиническую записку.Чтобы отметить ошибку как «релевантную», писцу предлагалось оценить, действительно ли ошибка будет включена в медицинскую справку.Для каждого типа ошибок — удаления, вставки и замены — мы просили оценщиков прикрепить метки, связанные с ErrorCause и ErrorImpact.Подкатегории, связанные с этими двумя основными категориями, перечислены в таблице TABREF35.В список включены такие случаи, как правильность модели, неправильный предполагаемый интервал, неспособность модели использовать контекстуальные подсказки, ошибки, связанные с необходимостью дополнительных медицинских знаний, не очевидных из контекста, а также атрибуты, которые могут быть не связаны с любые соответствующие субъекты.Ошибки были классифицированы группой из примерно 10 оценщиков с медицинским образованием, включая врачей, фельдшеров и профессиональных медицинских писцов.Оценщики обучались путем самостоятельного анализа руководств, интерактивного обучения с управляемыми аннотациями и практических бесед.Результаты практических бесед сравнивались с беседой, которая была оценена и одобрена группой из трех человек, разработавших инструкции по выполнению задач.Оценщикам было предоставлено параллельное представление их представлений по сравнению с вынесенным приговором разговором.Те, кто продемонстрировал серьезное отклонение от принятого решения, получили дополнительные рекомендации от менеджеров задач.Среди ошибок, допущенных моделью, около 17–32% ошибок не влияют на клиническую картину, как показано на рисунке FigREF36. Оценщики обнаружили, что прогнозы моделей были верными примерно в 19–38% случаев и что ошибки были связаны с метками в эталоне, как показано на рисунке FigREF37. Анализируя случаи, когда оценщик соглашался с моделью, мы заметили, что (несмотря на использование выбранных эталонных меток) проблемы с качеством меток все еще оставались.В частности, было заметное количество случаев, когда аннотатор пропускал или неправильно маркировал документы.В совокупности результаты нашей модели значительно более полезны для составления клинической записи, чем то, что отражено в F-оценке.Среди других ошибок примерно в 29–42% случаев модель не учитывала контекст так сильно, как это делают люди.Например, пациент может описывать соблюдение режима лечения, как описано в примере ниже.Человек поймет, что врач имеет в виду другое лекарство, которое принимает пациент.Однако модель не может это отразить.Около 7–19% ошибок связаны с необходимостью медицинской экспертизы, выходящей за рамки того, что известно из контекста.В приведенном ниже примере описание симптома пациента («затрудненное дыхание») будет помечено как «Дыхательная система: ортопноэ».Однако модель выбирает «Дыхание: одышка», что было бы разумным выбором, но недостаточно конкретным, учитывая контекст («когда я лежу») и связанные с этим медицинские знания.Будущие улучшения модели должны быть направлены на исправление этих двух категорий ошибок.Наши эмпирические результаты показывают, что разработанная нами модель хуже работает с атрибутами по сравнению с сущностями.Одно из возможных объяснений состоит в том, что в отличие от сущностей границы атрибутов в диалоге могут быть менее четкими.Мы исследовали это, ослабив требования к модели: от определения диапазона слов до обнаружения поворотов говорящего, содержащих атрибуты, что похоже на другие предыдущие работы BIBREF6, BIBREF21, BIBREF22. Исследованная нами модель обнаружения поворотов состоит из кодера, аналогичного к модели SAT, за которой следует уровень внимания и softmax с несколькими метками.Выходные данные прогнозируют вероятность появления атрибута в данном входном повороте.В эксперименте в качестве целевых классов были выбраны шесть атрибутов: частота, продолжительность, местоположение, тяжесть, смягчающий фактор и провоцирующий фактор.Эти атрибуты были выбраны на основе более высокой частоты и соглашений между экспертами.Кроме того, модель была обучена и оценена по меткам, объединенным во всех трех онтологиях, а также для каждой онтологии.Производительность модели представлена ​​как оценка F1, точность и полнота вместе с нашей моделью SAT на рисунке FigREF40. Результат показывает, что подход пошагового обнаружения обеспечивает лучший отзыв (но меньшую точность) по сравнению с нашей моделью SAT на основе тегов.Компромисс показывает, что, когда природа тегов не имеет четких границ диапазона, их моделирование на уровне хода приводит к повышению производительности, особенно в ситуации, когда отзыв более важен.Обратите внимание, что модель обнаружения поворота была обучена путем обработки каждого поворота динамика как независимого входного сигнала.Очевидно, что это можно улучшить еще больше, закодировав весь разговор и предсказав метки классов для каждого хода, что также должно улучшить оценку атрибута для каждой задачи.Одним из потенциальных применений пошаговой модели является помощь в процессе аннотирования человеком.Например, прогнозы модели можно использовать для предварительного выбора набора поворотов, которые с высокой вероятностью содержат целевые теги, чтобы помочь аннотаторам сузить область поиска.Или прогнозы модели можно использовать для сравнения с результатами аннотаторов, чтобы помочь выявить потенциальные теги, которые аннотатор пропустил.Судя по нашим первоначальным экспериментам, комбинация вышеперечисленных методов может повысить эффективность и качество ручных аннотаций.Как упоминалось выше, такой механизм повышения эффективности маркировки не следует применять к данным оценки, чтобы избежать систематической ошибки при измерении эффективности.Насколько нам известно, это первая систематическая попытка извлечь соответствующую информацию из разговоров между врачом и пациентом с целью составления клинической записи.Неформальный характер разговора создает значительные проблемы при расширении стандартных методов аннотирования корпуса, как описано в разделе SECREF2. Сложность извлечения соответствующих клинических концепций из разговорной речи значительно выше, чем в письменной речи.Например, в сопоставимой работе стандартная модель CRF смогла достичь F-оценки 0,9 в письменных клинических документах BIBREF23, тогда как простая модель CRF плохо справляется с нашей задачей BIBREF19.Аналогичным образом, при разработке рекомендаций по аннотированию несколько примеров представляли собой значительную проблему при принятии решения о том, как лучше их аннотировать, что отражает сложность задачи для людей и моделей.Можно возразить, что такие сущности, как лекарства, можно извлечь с помощью специальных подходов, таких как словари и регулярные выражения, как в BIBREF6.Однако такой подход не будет обобщать общие упоминания о лекарствах, таких как «укол», который в определенном контексте может относиться к уколу инсулина, а в других может не иметь клинического значения.Напротив, наш подход распространяется на редкие случаи длиннохвостого распределения лекарств.Например, наши аннотаторы уловили 8613 уникальных диапазонов лекарств в рассмотренных документах.Автоматические методы помощи этикетировщикам оказались полезными.Производительность маркировки можно дополнительно повысить, используя результаты ранее обученных моделей, особенно для сущностей и атрибутов, где производительность модели достаточно высока.Например, сущности лекарств, сущности симптомов, местоположения и частоты.Результаты нашей классификации ошибок вручную показывают, что есть возможности для дальнейшего улучшения аннотаций.Примером, который мы успешно протестировали, является реализация этапа обеспечения качества, на котором случайно выбранные разговоры проверяются старшими специалистами по маркировке и исправляются перед отправкой для моделирования.Кроме того, вес разговоров может быть уменьшен в тех случаях, когда ручные аннотации существенно отличаются от предсказаний перекрестно проверенной модели BIBREF24. Еще одним многообещающим направлением для улучшения извлечения клинически значимых концепций могло бы стать объединение модели SAT и модели обнаружения поворотов, поскольку они имеют дополнительную точность и компромиссы в отношении полноты.В этой статье описывается новая задача по извлечению клинических концепций из разговоров между врачом и пациентом.Мы подробно описываем онтологии и рекомендации по аннотированию для разработки корпуса.Используя этот корпус, мы обучили современную модель маркировки интервалов атрибутов (SAT) и представили результаты, которые подчеркивают относительные трудности различных задач.Кроме того, посредством анализа ошибок, вызванных человеческим фактором, мы даем представление о слабостях существующих моделей и возможностях их улучшения.Наши эксперименты и анализ показывают, что некоторые объекты, такие как лекарства, симптомы, состояния и определенные атрибуты, могут быть извлечены с достаточно высокой точностью для практического применения, и мы надеемся, что наши результаты будут стимулировать дальнейшие исследования по этой важной теме.Эта работа была бы невозможна без поддержки и помощи ряда людей, в том числе Кайла Шольца, Нины Гонсалес, Криса Ко, Маянка Мохты, Зои Кендалл, Роберто Сантаны, Филипа Чунга, Дианы Яунзейкаре и И-Чинг Ли.[ страницы=-]Рекомендации по маркировке
Растет интерес к созданию инструментов, помогающих создавать клинические записи с использованием аудиозаписей встреч врача и пациента. Руководствуясь этой целью и с помощью поставщиков услуг и медицинских писцов, мы разработали схему аннотаций для извлечения соответствующих клинических концепций. Мы использовали эту схему аннотаций для обозначения корпуса из примерно 6 тысяч клинических случаев. Это использовалось для обучения современной модели тегирования. Мы сообщаем об онтологиях, результатах маркировки, характеристиках моделей и подробном анализе результатов. Наши результаты показывают, что сущности, связанные с лекарствами, могут быть извлечены с относительно высокой точностью - 0,90 F-показателя, за ними следуют симптомы - 0,72 F-показателя и состояния - 0,57 F-показателя. В нашей задаче мы не только определяем, где упоминаются симптомы, но и сопоставляем их с каноническими формами, как они появляются в клинических записях. Из различных типов ошибок примерно в 19–38% случаев мы обнаруживаем, что выходные данные модели были правильными, и около 17–32% ошибок не влияют на клиническую картину. В совокупности модели, разработанные в этой работе, более полезны, чем отражают F-оценки, что делает их многообещающим подходом для практического применения.
5,588
QasperSumInstruct
ru
Напиши аннотацию по статье
ИИ Red Dragon на TextGraphs 2019. Общая задача: генерация объяснений с помощью языковой модели. В общей задаче «Восстановление объяснений» участникам предлагалось разработать методы реконструкции золотых объяснений вопросов элементарной науки BIBREF1 с использованием нового корпуса золотых объяснений BIBREF2, который обеспечивает контроль и инструменты для этой задачи многоступенчатого вывода.Каждое объяснение представлено в виде «графика объяснений», набора атомарных фактов (от 1 до 16 на одно объяснение, взятых из базы знаний, состоящей из 5000 фактов), которые вместе образуют подробное объяснение рассуждений, необходимых для ответа и объяснения вопроса. размышление над вопросом.Объединение этих фактов для достижения высокой производительности при восстановлении графиков объяснения золота требует методов для выполнения многошагового вывода, что, как было показано, намного сложнее, чем вывод меньшего количества переходов BIBREF3, особенно в данном случае, когда существует значительная неопределенность. (на лексическом уровне) того, как отдельные объяснения логически связывают несколько «размытые» узлы графа.Корпус WorldTree BIBREF2 — это новый набор данных, представляющий собой обширную коллекцию вопросов и пояснений к экзамену по элементарным наукам.Каждое поясняющее предложение представляет собой факт, имеющий отношение к науке или здравому смыслу и представленный в структурированной таблице, которую можно преобразовать в произвольный текст.Для каждого вопроса золотые объяснения имеют лексическое перекрытие (т.е. имеют общие слова) и обозначены как имеющие конкретную роль объяснения, например ЦЕНТРАЛЬНЫЙ (основные понятия); ОБОСНОВАНИЕ (связывание основных фактов с вопросом); и ЛЕКСИЧЕСКОЕ СКЛЕИВАНИЕ (связывание фактов, которые могут не иметь лексического перекрытия). Как описано во введении, общая поставленная задача — это задача многошагового вывода, где несколько предложений «атомарных фактов» должны быть объединены для формирования связной цепочки. рассуждений для решения поставленной элементарной научной проблемы.Эти поясняющие факты должны быть извлечены из полуструктурированной базы знаний, в которой поверхностная форма объяснения представлена ​​как ряд терминов, собранных по их функциональной роли в объяснении.Например, для объяснения «Ужи живут в траве» закодировано как «[Ужи][живут в][трава]», и это объяснение можно найти в таблице ПРОТО-СРЕДСТВА СРЕДСТВ.Однако в этой же таблице есть и более развернутые пояснения, например: «Мыши живут в норах в земле на полях/в лесах».выражается так: «[мыши] [живут][в ямах в земле][в полях ИЛИ в лесах]».И более логически сложный: «Большинство хищников живут в той же среде или рядом с ней, что и их добыча».выражается как: «[большинство][хищники] [живут в ИЛИ живут рядом][та же среда, что и их добыча]».Таким образом, в то время как более простые объяснения вписываются в обычную парадигму троек Базы Знаний, более сложные содержат гораздо больше нюансов относительно того, что на самом деле представляет собой узел и насколько надежны дуги между ними.Действительно, существует также набор объяснений «если/то», включая такие примеры, как: «[если] [что-то][оказывает] [положительное влияние на][что-то другое][затем] [увеличивается][количество][это что-то][что-то еще]» — где объяснение оказывает метаэффект на сам график и включает «несвязанные переменные».В этой работе мы использовали чисто текстовую форму каждого объяснения, проблемы и правильного ответа, а не полуструктурированную форму, представленную в столбцово-ориентированных файлах, представленных в наборе данных.Для каждого из них мы выполнили токенизацию Penn-Treebank с последующей лемматизацией с использованием файлов лемматизации, предоставленных с набором данных, а затем удалением стоп-слов.Обеспокоенные низкой производительностью метода Python Baseline (по сравнению с Scala Baseline, который, судя по всему, работал с использованием алгоритма аналогичной «мощности»), мы обнаружили проблему в сценарии оценки организатора, в котором прогнозировались объяснения, в которых не хватало каких-либо золотых элементов. объяснениям был присвоен нулевой балл MAP.Это резко наказало Python Baseline, поскольку он ограничивался возвратом только 10 строк объяснений.Это также эффективно заставляет все отправленные материалы включать рейтинг по всем объяснениям — простое исправление (с повторной оценкой базового уровня Python в таблице 1) будет отправлено через GitHub.Это также должно ускорить процесс загрузки/оценки, поскольку только верхние строки объяснений $\scriptstyle \sim $1000 вносят значимый вклад в оценку рейтинга.Хотя изначально были предприняты попытки использовать более классические графовые методы, подобные BIBREF4, где была проанализирована проблема семантического дрейфа в многошаговом выводе и продемонстрирована эффективность методов извлечения информации, следующие 3 метода (которые теперь легко превосходят оценку наша конкурсная заявка) в конечном итоге были реализованы из-за их простоты/эффективности.Как упоминалось выше, исходная реализация TF-IDF предоставленного базового сценария Python не предсказывала полный рейтинг и была оштрафована сценарием оценки.Когда эта проблема была устранена, его показатель MAP вырос до 0,2140. Однако есть три основных шага, которые значительно улучшают эффективность этого базового показателя: Исходный текст вопроса включал все варианты ответа, только один из которых был правильным (в то время как остальные отвлекающие факторы).Удаление отвлекающих факторов привело к улучшению; Алгоритм TF-IDF очень чувствителен к ключевым словам.Использование предоставленного набора лемматизации и NLTK для токенизации помогло согласовать различные формы одного и того же ключевого слова и уменьшить необходимый размер словаря; Удаление стоп-слов дало нам улучшение MAP примерно на 0,04 — удаление шума в текстах, который явно «отвлекал» TF- IDF. Как показано в таблице 2, эти шаги оптимизации значительно увеличили базовый балл Python, не внося при этом алгоритмической сложности.Хотя графовые методы показали свою эффективность для ответов на вопросы с несколькими переходами, схема в наборе данных textgraphs является нетрадиционной (как показано ранее).Чтобы противостоять этому, предыдущий метод TF-IDF был расширен для имитации переходов между объяснениями, основанных на графовых методах, но без формирования каких-либо реальных графиков: векторы TF-IDF предварительно вычисляются для всех вопросов и кандидатов на объяснение; для каждого вопроса выбирается ближайший кандидат объяснения по косинусной близости, и их векторы TF-IDF агрегируются с помощью операции max; выбирается следующее ближайшее (неиспользуемое) объяснение, а затем этот процесс применяется итеративно до maxlen = 128 раз с текущим TF -Вектор сравнения IDF постепенно увеличивает выразительность.На каждой итерации текущий вектор TF-IDF уменьшался на экспоненциальный коэффициент длины текущего набора объяснений, поскольку было обнаружено, что это увеличивает результаты набора разработки до +0,0344. Путем обработки вектора TF-IDF как представление текущей цепочки рассуждений, каждая последующая итерация основывается на представлении для накопления последовательности объяснений.Описанный выше алгоритм был дополнительно улучшен за счет добавления весового коэффициента к каждому последовательному объяснению по мере его добавления к кумулятивному вектору TF-IDF.Без этого фактора эффективность была ниже, поскольку само представление TF-IDF было склонно к семантическому отклонению от исходного вопроса.Следовательно, вес каждого последующего объяснения уменьшался, и это работало хорошо.Большие предварительно обученные языковые модели доказали свою эффективность в широком спектре последующих задач, включая многоступенчатые ответы на вопросы, например, в BIBREF5 в наборе данных RACE и BIBREF6, который показал, что большие точно настроенные языковые модели могут быть полезны для сложных областей ответа на вопросы ( особенно в контексте с ограниченными данными). Вдохновленные этим, мы решили адаптировать BERT BIBREF7 — популярную языковую модель, которая дала конкурентоспособные результаты в различных задачах НЛП — для задачи генерации объяснений.Для нашего метода «переранжирования BERT» мы присоединяем голову регрессии к языковой модели BERT.Затем эту головку регрессии обучают прогнозировать оценку релевантности для каждой пары вопросов и кандидатов на объяснения.Подход заключается в следующем: Рассчитайте оценку релевантности TF-IDF для каждого токенизированного объяснения относительно токенизированной `[Проблема][Правильный ответ][Золотые объяснения]» в обучающем наборе.Это позволит очень высоко оценить истинные поясняющие предложения, но также обеспечит «мягкий хвост» ранжирования всех объяснений. Используйте этот показатель релевантности в качестве цели прогнозирования для головы регрессии BERT, где BERT делает свои прогнозы на основе исходной `[Проблема] Текст [CorrectAnswer]' в сочетании с каждым потенциальным текстом объяснения по очереди (по всему обучающему набору); во время прогнозирования объяснения ранжируются в соответствии с их релевантностью для `[Problem] [CorrectAnswer]', как предсказано выходными данными модели BERT.Мы рассматриваем проблему как задачу регрессии (а не задачу классификации), поскольку рассмотрение ее как задачи классификации релевантных объяснений приведет к несбалансированному набору данных, поскольку золотые поясняющие предложения составляют лишь небольшую часть общего набора.Используя мягкие цели (данные нам по показателю TF-IDF по сравнению с золотыми ответами в обучающем наборе), даже объяснения, которые не обозначены как «золотые», но имеют некоторое отношение к золотому абзацу, могут предоставить модели обучающий сигнал.Из-за ограничений в вычислениях и времени модель используется только для переранжирования прогнозов $top_n=64$, сделанных методами TF-IDF.Выбранная модель BERT имела «базовый» размер со 110 млн параметров, которые были предварительно обучены на BooksCorpus и английской Википедии.Мы не проводили дальнейшую настройку его на текстах, похожих на набор данных TextGraphs, до начала регрессионного обучения.В ходе других тестов мы обнаружили, что модель размера «Большой» не помогла улучшить окончательный балл MAP.Первоначальные попытки авторов решить общую задачу были сосредоточены на методах, основанных на графах.Однако, как указано в BIBREF3, неопределенность, связанная с интерпретацией каждого лексического представления, в сочетании с количеством необходимых переходов, означала, что это направление исследования было отложено в сторону.Хотя графический подход явно привлекателен с точки зрения рассуждения (и будет в центре внимания будущей работы), мы обнаружили, что использование чисто текстовых аспектов базы данных объяснений приносит больше результатов.сложность получаемых систем можно свести к минимуму, чтобы описание каждой системы было максимально кратким.В частности, нам удалось оптимизировать базовый уровень TF-IDF до такой степени, что наш «Оптимизированный TF-IDF» теперь занял 2-е место в рейтинге заявок, хотя в нем вообще не использовались какие-либо специальные методы.Метод итерированного TF-IDF, хотя и более алгоритмически сложен, также не требует какого-либо обучения данных перед его использованием.Это показывает, насколько эффективными могут быть традиционные методы обработки текста при их стратегическом использовании.Метод переранжирования BERT, напротив, требует обучения, а также применяет одну из более сложных доступных языковых моделей для извлечения большего смысла из поясняющих текстов.Рисунок 1 иллюстрирует явную тенденцию к созданию более длинных объяснений по мере того, как наши методы семантической релевантности становятся более сложными.В данных Таблицы 3 также прослеживаются четкие тенденции, которые показывают, что более сложные методы способны привнести в смесь больше ЦЕНТРАЛЬНЫХ объяснений, хотя они более «текстуально далеки» от исходных вопросов и ответов.Удивительно, но это происходит за счет некоторых утверждений ЗАЗЕМЛЕНИЯ.Поскольку эти методы, по-видимому, сосредоточены на различных аспектах решения проблемы ранжирования, мы также изучили усреднение рангов, которые они присваивают объяснениям (по сути, агрегируя их решения).Эмпирически это повышает производительность за счет того, что модель становится более непонятной.Несмотря на наш очевидный успех с менее сложными методами, кажется очевидным, что для решения более сложных вопросов в этом наборе данных потребуются более явные методы на основе графов (например, те, которые требуют логических выводов, как показано ранее, или гипотетических ситуаций, таких как некоторые проблемы равновесия «предиктор-жертва»).Даже некоторые простые утверждения (например, «Большинство хищников...») создают препятствия для существующих представлений в Базе знаний.Что касается конкретных следующих шагов, мы изучаем идею создания промежуточных форм представления, где текстовые объяснения могут быть связаны с помощью графика для планирования логических шагов.Однако эти более масштабные схемы страдают от того, что становятся все менее эффективными, чем поиск дополнительных «умных трюков» для существующих методов! В процессе подготовки мы начали изучать возможность более тщательной предварительной обработки, в частности: Использование структуры поясняющих таблиц индивидуально, поскольку некоторые столбцы известны. быть типами отношений, которые подходят для маркировки дуг между узлами в типичной настройке Графика знаний; Раскрытие элементов соединения в пояснительных таблицах.Например, в объяснениях типа «[коралл] [живёт в][океан ИЛИ теплая вода]», могут быть сгенерированы различные подпояснения «(Коралл, LIVES-IN, Ocean)» и «(Coral, LIVES-IN, WarmWater)», которые гораздо ближе к «графическому» ' представление;Лучшая лемматизация: например, «куб льда» охватывает узлы как «лед», так и «куб льда».Нам нужно больше «здравого смысла», чтобы охватить эти случаи.Очевидно, что сейчас только первые дни для такого рода многоступенчатых выводов по сравнению с текстовыми объяснениями.На данный момент мы коснулись только поверхности проблемы и надеемся помочь в продвижении новейшего уровня техники в будущем.Авторы хотели бы поблагодарить Google за доступ к программе TFRC TPU, которая использовалась для обучения и точной настройки моделей во время экспериментов для этой статьи.
В рамках общего задания TextGraphs-13 по регенерации объяснений участникам было предложено разработать методы реконструкции золотых объяснений вопросов элементарной науки. В записях Red Dragon AI использовался язык вопросов и текста объяснений напрямую, а не построение отдельного графического представления. В результате нашего представления в таблице лидеров мы заняли 3-е место в соревновании, но мы представляем здесь три метода повышения сложности, каждый из которых последовательно набирал более высокие баллы в тестовом наборе после закрытия конкурса.
2,248
QasperSumInstruct
ru
Напиши аннотацию по статье
BAE: состязательные примеры на основе BERT для классификации текста. Недавние исследования показали уязвимость моделей МО к состязательным атакам — небольшим возмущениям, которые приводят к неправильной классификации входных данных.Генерация состязательных примеров в НЛП BIBREF0 является более сложной задачей, чем в обычных задачах компьютерного зрения BIBREF1, BIBREF2, BIBREF3, по двум основным причинам: дискретный характер входного пространства и обеспечение семантической согласованности с исходным предложением.Основным узким местом в применении подходов на основе градиента BIBREF4 или модели генератора BIBREF5 для генерации состязательных примеров в НЛП является обратное распространение возмущений из непрерывного пространства внедрения в пространство дискретных токенов.Недавние работы по атаке текстовых моделей основаны на введении ошибок на уровне символов в словах BIBREF6, BIBREF7 или добавлении и удалении слов BIBREF8, BIBREF9, BIBREF10 и т. д. для создания состязательных примеров.Эти методы часто приводят к созданию состязательных примеров, которые выглядят неестественно и лишены грамматической правильности и поэтому могут быть легко идентифицированы людьми.TextFooler BIBREF11 — это атака «черного ящика», которая использует замену синонимов на основе правил из фиксированного пространства встраивания слов для создания состязательных примеров.Эти состязательные примеры не учитывают общую семантику предложения и учитывают только сходство на уровне токенов с использованием встраивания слов.Это может привести к вырванным из контекста и неестественно сложным заменам (см. Таблицу), которые люди могут легко идентифицировать.Недавнее появление мощных языковых моделей BIBREF12, BIBREF13 в НЛП проложило путь к их использованию в различных последующих приложениях.В этой статье мы представляем простой, но новый метод: BAE (Состязательные примеры на основе BERT), который использует языковую модель (LM) для замены токенов, чтобы наилучшим образом соответствовать общему контексту.Мы возмущаем входное предложение, либо заменяя токен, либо вставляя в предложение новый токен, маскируя часть ввода и используя LM для заполнения маски (см. рисунок РИС. 1).BAE полагается на мощный BERT-маскированный LM для обеспечения грамматической правильности состязательных примеров.Наша атака значительно превосходит предыдущие базовые показатели и подтверждает присущую современным моделям классификации текста уязвимость к состязательным атакам.Более того, BAE создает более богатые и естественно выглядящие состязательные примеры, поскольку использует семантику, полученную с помощью LM. Насколько нам известно, мы первыми используем LM для генерации состязательных примеров.Мы суммируем наш основной вклад следующим образом: Мы предлагаем BAE, новую стратегию для создания естественно выглядящих состязательных примеров с использованием замаскированной языковой модели.Мы представляем 4 режима атаки BAE, каждый из которых почти всегда сильнее предыдущих базовых показателей для 7 наборов данных классификации текста.Мы показываем, что, как ни удивительно, всего несколько операций замены/вставки могут снизить точность даже мощного классификатора на основе BERT более чем на $80\%$ для некоторых наборов данных.Определение задачи. Нам дан набор данных $(S,Y) = \lbrace (\mathbb {S}_1,y_1),(\mathbb {S}_2,y_2)\dots (\mathbb {S}_m,y_m)\ rbrace $ и обученная модель классификации $C:\mathbb {S}\rightarrow Y$.Мы предполагаем настройку черного ящика с мягкой меткой, при которой злоумышленник может запрашивать у классификатора только выходные вероятности для заданных входных данных и не имеет доступа к параметрам модели, градиентам или обучающим данным.Для входной пары $(\mathbb {S},y)$ мы хотим сгенерировать состязательный пример $\mathbb {S}_{adv}$ такой, что $C(\mathbb {S}_{adv}){ \ne }y$, где $\mathbb {S}_{adv}$ выглядит естественно, грамматически правильно и семантически похоже на $\mathbb {S}$ (согласно некоторому заранее определенному определению сходства).BAE Для создания состязательного примера $ \mathbb {S}_{adv}$, мы определяем два возмущения на входе $\mathbb {S}$: Замените токен $t \in \mathbb {S}$ на другой. Вставьте новый токен $t^{\prime. }$ в $\mathbb {S}$Некоторым токенам во входных данных $C$ уделяет больше внимания, чем другим, и поэтому они вносят больший вклад в окончательный прогноз.Таким образом, замена этих токенов или вставка нового токена рядом с ними может оказать более сильное влияние на изменение прогноза классификатора.Мы оцениваем важность $I_i$ каждого токена $t_i \in \mathbb {S}=[t_1, \dots , t_n]$, удаляя $t_i$ из $\mathbb {S}$ и вычисляя уменьшение вероятности прогнозирования правильной метки $y$, аналогично BIBREF11. Хотя мотивация замены токенов в порядке убывания важности ясна, мы предполагаем, что соседние вставки в том же порядке могут привести к мощной атаке.Эта интуиция основана на том факте, что вставленный токен меняет локальный контекст вокруг исходного токена.Операции замены (R) и вставки (I) выполняются над токеном $t$ путем его маскировки и вставки соседнего с ним токена маски в $\mathbb {S}$ соответственно.Предварительно обученная модель маскированного языка (MLM) BERT используется для прогнозирования токенов маски (см. рисунок FigREF1). BERT — это мощный LM, обученный на большом обучающем корпусе ($\sim $2 миллиарда слов), и, следовательно, предсказанная маска токены хорошо грамматически вписываются в $\mathbb {S}$. Однако BERT-MLM не гарантирует семантической согласованности с исходным текстом $\mathbb {S}$, как показано в следующем простом примере.Рассмотрим предложение: «Еда была хорошей».Для замены токена «хороший» BERT-MLM может предсказать токены «хороший» и «плохой», оба из которых хорошо вписываются в контекст предложения.Однако замена слова «хорошо» на «плохо» меняет исходное настроение предложения.Чтобы обеспечить семантическое сходство при внесении возмущений во входной текст, мы фильтруем набор K верхних замаскированных токенов (K — заранее определенная константа), предсказанных BERT-MLM, с использованием универсального кодировщика предложений (USE).Оценка сходства предложений на основе BIBREF14.Для операций R мы добавляем дополнительную проверку грамматической правильности сгенерированного состязательного примера путем фильтрации прогнозируемых токенов, которые не образуют ту же часть речи (POS), что и исходный токен $t_i$ в предложении.Чтобы выбрать токен для возмущения (R/I), который лучше всего атакует модель из отфильтрованного набора прогнозируемых токенов: Если существует несколько токенов, это может привести к тому, что $C$ неправильно классифицирует $\mathbb {S}$ при замене маски, на основе оценки ЕГЭ мы выбираем токен, который делает $\mathbb {S}_{adv}$ наиболее похожим на исходный $\mathbb {S}$.Если ни один токен не вызывает ошибочную классификацию, мы выбираем возмущение, которое больше всего уменьшает вероятность предсказания $P(C(\mathbb {S}_{adv}){=}y)$.Возмущения применяются итеративно ко входным токенам в порядке убывания важности, пока либо $C(\mathbb {S}_{adv}){\ne }y$ (успешная атака), либо все токены $\mathbb {S }$ были возмущены (неудачная атака). Мы представляем 4 режима атаки для BAE на основе операций R и I, где для каждого токена $t$ в $\mathbb {S}$:BAE-R: заменить токен $t$ (См. алгоритм) BAE-I: вставьте токен слева или справа от $t$BAE-R/I: либо замените токен $t$, либо вставьте токен слева или справа от $t$BAE-R+I. :Сначала замените токен $t$, затем вставьте токен слева или справа от $t$Наборы данных и модели. Мы оцениваем наши состязательные атаки на различные наборы данных классификации текста на основе таких задач, как классификация настроений, обнаружение субъективности и классификация типов вопросов.Amazon, Yelp, IMDB — это наборы данных классификации настроений на уровне предложений, которые использовались в недавней работе BIBREF15, а MR BIBREF16 содержит обзоры фильмов, основанные на полярности настроений.MPQA BIBREF17 — это набор данных для обнаружения полярности мнений, Subj BIBREF18 — для классификации предложения как субъективного или объективного, а TREC BIBREF19 — это набор данных для классификации типов вопросов.Мы используем 3 популярные модели классификации текста: word-LSTM BIBREF20, word-CNN BIBREF21 и тонко настроенный классификатор BERT BIBREF12 без регистра.Для каждого набора данных мы обучаем модель на обучающих данных и проводим состязательную атаку на тестовые данные.Полную информацию о модели смотрите в Приложении.В качестве основы мы рассматриваем TextFooler BIBREF11, который выполняет замену синонимов, используя фиксированное пространство встраивания слов BIBREF22.Мы рассматриваем только самые популярные синонимы $K{=}50$ из прогнозов MLM и устанавливаем порог 0,8 для косинусного сходства между встраиваниями состязательного и входного текста на основе USE.Результаты Мы реализуем 4 режима нашей атаки и суммируем результаты в таблице.Для разных наборов данных и моделей наши атаки BAE почти всегда более эффективны, чем базовая атака, обеспечивая значительное снижение точности тестов на 40–80 % и более высокое среднее семантическое сходство, как показано в скобках.BAE-R+I — самая сильная атака, поскольку она допускает как замену, так и вставку в одну и ту же позицию токена, за одним исключением.Мы наблюдаем общую тенденцию: атаки BAE-R и BAE-I часто имеют сравнимую эффективность, тогда как атаки BAE-R/I и BAE-R+I намного сильнее.Мы видим, что классификатор на основе BERT более устойчив к атакам BAE и TextFooler, чем модели word-LSTM и word-CNN, что можно объяснить его большим размером и предварительным обучением на большом корпусе.Базовая атака часто оказывается сильнее, чем атаки BAE-R и BAE-I для классификатора на основе BERT.Мы связываем это с общим пространством параметров между BERT-MLM и классификатором BERT перед точной настройкой.Прогнозируемые токены из BERT-MLM не могут радикально изменить внутренние представления, полученные классификатором BERT, ограничивая их способность враждебно влиять на прогноз классификатора.Эффективность Мы изучаем эффективность BAE по ограничению количества операций R/I, разрешенных к исходному тексту.Мы построили график эффективности атаки как функцию максимального возмущения $\%$ (отношения количества замен слов и вставок к длине исходного текста) для набора данных TREC.На рисунке мы ясно видим, что атаки BAE последовательно сильнее, чем TextFooler.Модели классификаторов относительно устойчивы к возмущениям до 20$\%$, а эффективность достигает насыщения на уровне 40-50$\%$. Удивительно, но изменение на 50$\%$ для набора данных TREC приводит к замене или вставке всего 3-4 слов из-за короткой длины текста.Качественные примеры Мы представляем состязательные примеры, порожденные атаками на предложение из наборов данных IMDB и Yelp, в таблице.BAE создает более естественные примеры, чем TextFooler, поскольку токены, предсказанные BERT-MLM, хорошо вписываются в контекст предложения.TextFooler имеет тенденцию заменять слова сложными синонимами, которые можно легко обнаружить.Более того, дополнительная степень свободы BAE по вставке токенов позволяет провести успешную атаку с меньшими нарушениями.Человеческая оценка Мы рассматриваем успешные состязательные примеры, созданные на основе наборов данных Amazon и IMDB, и проверяем их тональность и грамматическую правильность.Оценщики-люди комментировали настроения и грамматику (шкала Лайкерта от 1 до 5) случайно перетасованных состязательных примеров и оригинальных текстов.Судя по таблице, BAE и TextFooler имеют меньшую точность по сравнению с оригиналом, что показывает, что они не всегда идеальны.Однако у BAE гораздо лучшие оценки по грамматике, что позволяет предложить более естественные состязательные примеры.Исследование абляции Мы анализируем преимущества операций R/I при BAE в таблице.Согласно таблице, разделения $\mathbb {A}$ и $\mathbb {B}$ — это $\%$ тестовых точек, которым для успешной атаки обязательно необходимы операции I и R соответственно.Мы можем заметить, что разделение $\mathbb {A}$ больше, чем $\mathbb {B}$, что указывает на важность операции I над R. Тестовые точки в разделении требуют как операций R, так и I для успешной атаки.Интересно, что наибольшее разделение имеет место для Subj, который наиболее устойчив к атакам (таблица) и, следовательно, требует обеих операций R/I.Таким образом, это исследование дает положительное представление о важности гибкости как для замены, так и для вставки слов.Обратитесь к Приложению для получения дополнительных результатов, графиков эффективности и подробностей оценки человека.В этой статье мы представили новую технику генерации состязательных примеров (BAE) на основе языковой модели.Результаты, полученные на нескольких наборах данных классификации текста, демонстрируют силу и эффективность нашей атаки.
Современные модели классификации текста подвержены состязательным примерам, искаженным версиям исходного текста, неразличимым для людей, но которые неправильно классифицируются моделью. Мы представляем BAE, мощную атаку «черного ящика» для генерации грамматически правильных и семантически последовательных состязательных примеров. BAE заменяет и вставляет токены в исходный текст, маскируя часть текста и используя языковую модель для создания альтернатив для замаскированных токенов. По сравнению с предыдущей работой мы показываем, что BAE выполняет более сильную атаку на три широко используемые модели для семи наборов данных классификации текста.
2,223
QasperSumInstruct
ru
Напиши аннотацию по статье
Мультимодальное распознавание речевых эмоций с использованием аудио и текста. В последнее время алгоритмы глубокого обучения успешно решают проблемы в различных областях, таких как классификация изображений, машинный перевод, распознавание речи, преобразование текста в речь и другие области, связанные с машинным обучением BIBREF0, BIBREF1, BIBREF2.Аналогичным образом, существенные улучшения производительности были получены, когда алгоритмы глубокого обучения были применены к статистической обработке речи BIBREF3.Эти фундаментальные улучшения побудили исследователей исследовать дополнительные темы, связанные с человеческой природой, которые уже давно являются объектами изучения.Одна из таких тем включает в себя понимание человеческих эмоций и их отражение с помощью машинного интеллекта, таких как модели эмоционального диалога BIBREF4, BIBREF5.для развития эмоционально осознанного интеллекта самым первым шагом является создание надежных классификаторов эмоций, которые будут показывать хорошие результаты независимо от применения; этот результат считается одной из фундаментальных целей исследований в области аффективных вычислений BIBREF6.В частности, задача распознавания речевых эмоций является одной из важнейших проблем в области паралингвистики.В последнее время область применения этой области расширилась, поскольку она является решающим фактором оптимального взаимодействия человека с компьютером, включая диалоговые системы.Цель распознавания речевых эмоций — предсказать эмоциональное содержание речи и классифицировать речь по одному из нескольких ярлыков (т. е. счастливая, грустная, нейтральная и сердитая).Для повышения производительности классификаторов эмоций применялись различные типы методов глубокого обучения; однако эта задача по-прежнему считается сложной по нескольким причинам.Во-первых, недостаточно данных для обучения сложных моделей на основе нейронных сетей из-за затрат, связанных с участием человека.Во-вторых, характеристики эмоций необходимо узнавать из речевых сигналов низкого уровня.Модели, основанные на функциях, демонстрируют ограниченные навыки при применении к этой проблеме.Чтобы преодолеть эти ограничения, мы предлагаем модель, которая использует транскрипцию текста высокого уровня, а также аудиосигналы низкого уровня, чтобы в большей степени использовать информацию, содержащуюся в наборах данных с низким уровнем ресурсов.Учитывая недавние улучшения в технологии автоматического распознавания речи (ASR) BIBREF7, BIBREF2, BIBREF8, BIBREF9, транскрипция речи может выполняться с использованием аудиосигналов при наличии значительных навыков.Эмоциональное содержание речи четко обозначено словами, выражающими эмоции, содержащимися в предложении BIBREF10, например «милый» и «потрясающий», которые несут сильные эмоции по сравнению с общими (неэмоциональными) словами, такими как «человек» и «день». ».Таким образом, мы предполагаем, что модель распознавания речевых эмоций выиграет от включения текстового ввода высокого уровня.В этой статье мы предлагаем новую модель глубокого двойного рекуррентного кодера, которая одновременно использует аудио и текстовые данные для распознавания эмоций из речи.Для изучения эффективности и свойств предлагаемой модели проводятся обширные эксперименты.Предлагаемая нами модель превосходит предыдущие современные методы на 68,8–71,8% при применении к набору данных IEMOCAP, который является одним из наиболее хорошо изученных наборов данных.На основе анализа ошибок моделей мы показываем, что предложенная нами модель точно идентифицирует классы эмоций.Более того, смещение ошибочной классификации нейтрального класса, которое часто проявлялось в предыдущих моделях, ориентированных на аудиофункции, в нашей модели менее выражено.Классические алгоритмы машинного обучения, такие как скрытые модели Маркова (HMM), машины опорных векторов (SVM) и методы на основе дерева решений, использовались в задачах распознавания речевых эмоций BIBREF11, BIBREF12, BIBREF13.Недавно исследователи предложили различные архитектуры на основе нейронных сетей для повышения эффективности распознавания речевых эмоций.Первоначальное исследование использовало глубокие нейронные сети (DNN) для извлечения высокоуровневых функций из необработанных аудиоданных и продемонстрировало их эффективность в распознавании речевых эмоций BIBREF14.С развитием методов глубокого обучения были предложены более сложные нейронные архитектуры.Модели на основе сверточных нейронных сетей (CNN) были обучены на информации, полученной из необработанных аудиосигналов с использованием спектрограмм или аудиофункций, таких как кепстральные коэффициенты Mel-частоты (MFCC) и дескрипторы низкого уровня (LLD) BIBREF15, BIBREF16, BIBREF17.Эти модели на основе нейронных сетей объединяются для создания моделей более высокой сложности BIBREF18, BIBREF19, и эти модели достигли наилучшей производительности при применении к набору данных IEMOCAP.Другое направление исследований было сосредоточено на применении различных методов машинного обучения в сочетании с моделями на основе нейронных сетей.Один исследователь использовал подход многообъектного обучения и использовал пол и естественность в качестве вспомогательных задач, чтобы модель на основе нейронной сети узнала больше функций из заданного набора данных BIBREF20.Другой исследователь исследовал методы трансферного обучения, используя внешние данные из смежных областей BIBREF21.Asэмоциональный диалог состоит из звукового и устного содержания, исследователи также исследовали сочетание акустических особенностей и языковой информации, создали основанные на сети убеждений методы определения эмоциональных ключевых фраз и оценили эмоциональную значимость вербальных сигналов как из последовательностей фонем, так и из слов BIBREF22 , БИБРЕФ23 .Однако ни одно из этих исследований не использовало информацию из речевых сигналов и текстовых последовательностей одновременно в модели сквозного обучения на основе нейронной сети для классификации эмоций.В этом разделе описываются методологии, которые применяются к задаче распознавания речевых эмоций.Мы начнем с представления модели рекуррентного кодирования для аудио и текстовой модальностей по отдельности.Затем мы предлагаем мультимодальный подход, который кодирует как аудио, так и текстовую информацию одновременно с помощью двойного рекуррентного кодера.Руководствуясь архитектурой, используемой в BIBREF24, BIBREF25, мы создаем рекуррентный кодер звука (ARE) для прогнозирования класса данного аудиосигнала.После того, как функции MFCC были извлечены из аудиосигнала, подмножество последовательных функций подается в RNN (т.е. вентилируемые рекуррентные единицы (GRU)), что приводит к формированию внутреннего скрытого состояния сети INLINEFORM0 для моделирования временных рядов. узоры.Это внутреннее скрытое состояние обновляется на каждом временном шаге входными данными INLINEFORM1 и скрытым состоянием предыдущего временного шага INLINEFORM2 следующим образом:DISPLAYFORM0, где INLINEFORM0 — функция RNN с весовым параметром INLINEFORM1, INLINEFORM2 представляет скрытое состояние в момент t-Временной шаг INLINEFORM3, а INLINEFORM4 представляет функции t-INLINEFORM5 MFCC в INLINEFORM6.После кодирования аудиосигнала INLINEFORM7 с помощью RNN последнее скрытое состояние RNN, INLINEFORM8, считается репрезентативным вектором, который содержит все последовательные аудиоданные.Затем этот вектор объединяется с другим вектором просодических признаков, INLINEFORM9, для создания более информативного векторного представления сигнала, INLINEFORM10.MFCC и просодические характеристики извлекаются из аудиосигнала с помощью набора инструментов openSMILE BIBREF26, INLINEFORM11 соответственно.Наконец, класс эмоций прогнозируется путем применения функции softmax к вектору INLINEFORM12.Для данного аудиообразца INLINEFORM13 мы предполагаем, что INLINEFORM14 — это истинный вектор меток, который содержит все нули, но содержит единицу в правильном классе, а INLINEFORM15 — это предсказанное распределение вероятностей из слоя softmax.Цель обучения тогда принимает следующую форму:DISPLAYFORM0 где INLINEFORM0 — вычисленный репрезентативный вектор аудиосигнала с размерностью INLINEFORM1 .INLINEFORM2 и смещениеINLINEFORM3 — это изученные параметры модели.C — общее количество классов, а N — общее количество образцов, используемых при обучении.В верхней части рисунка показана архитектура модели ARE.Мы предполагаем, что транскрипты речи можно извлечь из аудиосигналов с высокой точностью, учитывая развитие технологий ASR BIBREF7.Мы пытаемся использовать обработанную текстовую информацию как еще один метод прогнозирования класса эмоций данного сигнала.Чтобы использовать текстовую информацию, расшифровка речи токенизируется и индексируется в последовательность токенов с помощью Natural Language Toolkit (NLTK) BIBREF27.Затем каждый токен передается через уровень внедрения слов, который преобразует индекс слова в соответствующий 300-мерный вектор, который содержит дополнительное контекстуальное значение между словами.Последовательность встроенных токенов подается в рекуррентный кодер текста (TRE) таким образом, что функции аудио MFCC кодируются с использованием ARE, представленного уравнением EQREF2.В данном случае INLINEFORM0 — это встроенный токен t-INLINEFORM1 из текстового ввода.Наконец, класс эмоций прогнозируется на основе последнего скрытого состояния текстового RNN с использованием функции softmax.Мы используем ту же цель обучения, что и модель ARE, и прогнозируемое распределение вероятностей для целевого класса выглядит следующим образом:DISPLAYFORM0, где INLINEFORM0 — последнее скрытое состояние текста-RNN, INLINEFORM1, а INLINEFORM2 и смещение INLINEFORM3 — изученные параметры модели.Нижняя часть рисунка показывает архитектуру модели TRE.Мы представляем новую архитектуру, называемую мультимодальным двойным рекуррентным кодером (MDRE), позволяющую преодолеть ограничения существующих подходов.В этом исследовании мы рассматриваем несколько модальностей, таких как функции MFCC, просодические функции и транскрипты, которые содержат последовательную аудиоинформацию, статистическую аудиоинформацию и текстовую информацию соответственно.Эти типы данных аналогичны тем, которые используются в случаях ARE и TRE.Модель MDRE использует две RNN для независимого кодирования данных из аудиосигнала и текстовых входов.Audio-RNN кодирует функции MFCC из аудиосигнала с помощью уравнения EQREF2.Последнее скрытое состояние аудио-RNN объединяется с просодическими признаками для формирования окончательного векторного представления INLINEFORM0, и этот вектор затем передается через полностью подключенный уровень нейронной сети для формирования вектора кодирования звука A.С другой стороны, текстовая RNN кодирует последовательность слов транскрипта с помощью уравнения EQREF2.Окончательные скрытые состояния текстовой RNN также передаются через другой полностью связанный уровень нейронной сети для формирования вектора текстового кодирования T. Наконец, класс эмоций прогнозируется путем применения функции softmax к конкатенации векторов A и T. Мы используйте ту же цель обучения, что и модель ARE, а прогнозируемое распределение вероятностей для целевого класса выглядит следующим образом:DISPLAYFORM0, где INLINEFORM0 — нейронная сеть прямого распространения с весовым параметром INLINEFORM1, а INLINEFORM2, INLINEFORM3 — конечные векторы кодирования из аудио-RNN и текстового RNN соответственно.INLINEFORM4 и смещение INLINEFORM5 — это изученные параметры модели.Вдохновленные концепцией механизма внимания, используемого в нейронном машинном переводе BIBREF28, мы предлагаем новый метод мультимодального внимания, позволяющий сосредоточиться на определенных частях стенограммы, которые содержат сильную эмоциональную информацию, обусловливая аудиоинформацию.На рисунке показана архитектура модели MDREA.Сначала аудиоданные и текстовые данные кодируются с помощью аудио-RNN и текстового RNN с использованием уравнения EQREF2.Затем мы рассматриваем окончательный вектор кодирования звука INLINEFORM0 как вектор контекста.Как видно из уравнения EQREF9, на каждом временном шаге t скалярное произведение между вектором контекста e и скрытым состоянием текстового RNN в каждой t-й последовательности INLINEFORM1 оценивается для расчета показателя сходства INLINEFORM2.Используя этот показатель INLINEFORM3 в качестве весового параметра, вычисляется взвешенная сумма последовательностей скрытого состояния текстового RNN, INLINEFORM4, для генерации вектора приложения внимания Z.Этот вектор приложения внимания объединяется с окончательным вектором кодирования аудио-RNN INLINEFORM5 (уравнение EQREF7), который будет передан через функцию softmax для прогнозирования класса эмоций.DISPLAYFORM0, где INLINEFORM0 и смещение INLINEFORM1 — это изученные параметры модели.Мы оцениваем нашу модель, используя набор данных Interactive Emotional Dyadic Motion Capture (IEMOCAP) BIBREF18.Этот набор данных был собран в соответствии с театральной теорией, чтобы моделировать естественные диадические взаимодействия между актерами.Мы используем категориальные оценки с согласием большинства.Мы используем только четыре эмоциональные категории: счастье, грусть, злость и нейтральность, чтобы сравнить эффективность нашей модели с результатами других исследований, использующих те же категории.Набор данных IEMOCAP включает пять сеансов, каждый из которых содержит высказывания двух докладчиков (мужчины и женщины).В результате процесса сбора данных было выбрано 10 уникальных докладчиков.Для согласованного сравнения с предыдущей работой мы объединяем набор данных волнения с набором данных счастья.Итоговый набор данных содержит в общей сложности 5531 высказывание (1636 радостных, 1084 грустных, 1103 злых, 1708нейтральный). Для извлечения речевой информации из аудиосигналов мы используем значения MFCC, которые широко используются при анализе аудиосигналов.Набор функций MFCC содержит в общей сложности 39 функций, в том числе 12 параметров MFCC (1–12) из ​​26 диапазонов мел-частот и параметров логарифмической энергии, 13 коэффициентов дельты и 13 коэффициентов ускорения.Размер кадра устанавливается равным 25 мс со скоростью 10 мс с помощью функции Хэмминга.В зависимости от длины каждого волнового файла варьируется последовательный шаг функций MFCC.Чтобы извлечь дополнительную информацию из данных, мы также используем просодические функции, которые показывают эффективность в аффективных вычислениях.Просодические характеристики состоят из 35 признаков, которые включают частоту F0, вероятность вокализации и контуры громкости.Все эти MFCC и просодические функции извлекаются из данных с помощью набора инструментов OpenSMILE BIBREF26.В вариантах функции RNN мы используем GRU, поскольку они обеспечивают производительность, сравнимую с производительностью LSTM, и включают меньшее количество весовых параметров BIBREF29.Мы используем максимальный шаг кодировщика 750 для аудиовхода на основе вариантов реализации, представленных в BIBREF30, и 128 для текстового ввода, поскольку он охватывает максимальную длину расшифровок.Размер словаря набора данных составляет 3747, включая токен «_UNK_», который представляет неизвестные слова, и токен «_PAD_», который используется для обозначения информации о дополнении, добавляемой при подготовке мини-пакетных данных.Количество скрытых блоков и количество слоев в RNN для каждой модели (ARE, TRE, MDRE и MDREA) выбираются на основе обширных экспериментов по поиску гиперпараметров.Веса скрытых единиц инициализируются с использованием ортогональных весов BIBREF31 ], а слой внедрения текста инициализируется из предварительно обученных векторов внедрения слов BIBREF32 .InПри подготовке набора текстовых данных мы сначала для простоты используем опубликованные расшифровки набора данных IEMOCAP.Чтобы изучить практическую производительность, мы затем обрабатываем все аудиоданные IEMOCAP с помощью системы ASR (API Google Cloud Speech) и получаем расшифровки.Производительность системы Google ASR отражается коэффициентом ошибок в словах (WER), равным 5,53%. Поскольку набор данных заранее не разделен явно на наборы для обучения, разработки и тестирования, мы выполняем 5-кратную перекрестную проверку, чтобы определить общую производительность. модели.Данные в каждом сгибе разделены на наборы данных для обучения, разработки и тестирования (8:0,5:1,5 соответственно).После обучения модели мы измеряем средневзвешенную точность (WAP) по 5-кратному набору данных.Мы обучаем и оцениваем модель 10 раз за раз, а производительность модели оценивается с точки зрения среднего балла и стандартного отклонения.Мы исследуем значения WAP, которые показаны в таблице 1.Во-первых, наша модель ARE показывает базовую производительность, поскольку мы используем минимум аудиофункций, таких как MFCC и просодические функции с простой архитектурой.С другой стороны, модель TRE показывает более высокий прирост производительности по сравнению с ARE.Исходя из этого результата, мы отмечаем, что текстовые данные информативны в задачах прогнозирования эмоций, а модель рекуррентного кодировщика эффективна для понимания этих типов последовательных данных.Во-вторых, недавно предложенная модель MDRE демонстрирует существенный прирост производительности.Таким образом, достигается высочайшая производительность со значением WAP 0,718.Этот результат показывает, что мультимодальная информация является ключевым фактором в аффективных вычислениях.Наконец, модель внимания MDREA также превосходит лучшие существующие результаты исследований (WAP от 0,690 до 0,688) BIBREF19.Однако модель MDREA не соответствует производительности модели MDRE, хотя она использует более сложную архитектуру.Мы полагаем, что этот результат возникает из-за недостаточности данных для правильного определения сложных параметров модели в модели MDREA.Более того, мы предполагаем, что эта модель покажет лучшую производительность, когда аудиосигналы будут выровнены с текстовой последовательностью с применением механизма внимания.Мы оставляем реализацию этого пункта в качестве будущего направления исследований.Чтобы исследовать практическую эффективность предложенных моделей, мы проводим дальнейшие эксперименты с данными транскриптов, обработанными ASR (см. модели «-ASR» в таблице).Точность метки обработанных транскриптов составляет 5,53% WER.Модели TRE-ASR, MDRE-ASR и MDREA-ASR отражают более низкую производительность по сравнению с моделями TRE, MDRE и MDREA.Однако производительность этих моделей по-прежнему конкурентоспособна; в частности, модель MDRE-ASR превосходит предыдущую наиболее эффективную модель 3CNN-LSTM10H (WAP от 0,691 до 0,688). Мы анализируем прогнозы моделей ARE, TRE и MDRE.На рисунке показана матрица путаницы каждой модели.Модель ARE (рис. ) ошибочно классифицирует большинство случаев счастья как нейтральных (43,51%); таким образом, он показывает пониженную точность (35,15%) в прогнозировании счастливого класса.В целом, большинство классов эмоций часто путают с нейтральным классом.Это наблюдение согласуется с выводами BIBREF30, который отметил, что нейтральный класс расположен в центре активационно-валентного пространства, что усложняет его различение от других классов.Интересно, что модель TRE (рис. ) показывает больший выигрыш в предсказании счастливого класса по сравнению с моделью ARE (от 35,15% до 75,73%).Этот результат кажется правдоподобным, поскольку модель может извлечь выгоду из различий в распределении слов в счастливых и нейтральных выражениях, что дает модели больше эмоциональной информации, чем данные аудиосигнала.С другой стороны, поразительно то, что модель TRE неправильно предсказывает случаи грустного класса как счастливого класса в 16,20% случаев, даже несмотря на то, что эти эмоциональные состояния противоположны друг другу.Модель MDRE (рис. ) компенсирует недостатки двух предыдущих моделей (ARE и TRE) и в удивительной степени извлекает выгоду из их сильных сторон.Значения, расположенные по диагональной оси, показывают, что все точности правильно предсказанного класса увеличились.Кроме того, возникновение неправильных случаев «от грустного до счастливого» в модели TRE снижается с 16,20% до 9,15%. В этой статье мы предлагаем новую мультимодальную модель двойного рекуррентного кодировщика, которая одновременно использует текстовые данные, а также аудиосигналы, чтобы обеспечить лучшее понимание речевых данных.Наша модель кодирует информацию из аудио и текстовых последовательностей с использованием двойных RNN, а затем объединяет информацию из этих источников с помощью нейронной модели с прямой связью для прогнозирования класса эмоций.Обширные эксперименты показывают, что предложенная нами модель превосходит другие современные методы классификации четырех категорий эмоций, а при применении модели к набору данных IEMOCAP достигается точность от 68,8% до 71,8%.В частности, он решает проблему, из-за которой прогнозы часто ошибочно дают нейтральный класс, как это происходило в предыдущих моделях, ориентированных на аудиофункции.В будущей работе мы стремимся распространить эти модальности на аудио, текстовые и видеовходы.Кроме того, мы планируем изучить применение механизма внимания к данным, полученным с помощью нескольких модальностей.Этот подход, вероятно, позволит раскрыть улучшенные схемы обучения, которые повысят производительность как в распознавании речевых эмоций, так и в других задачах мультимодальной классификации.К. Юнг работает на кафедре электротехники и вычислительной техники ASRI Сеульского национального университета, Сеул, Корея.Эта работа была поддержана Министерством торговли, промышленности и энергетики (MOTIE, Корея) в рамках Программы инноваций в области промышленных технологий (№ 10073144).
Распознавание речевых эмоций — сложная задача, и при создании хорошо работающих классификаторов большое внимание уделяется моделям, использующим звуковые функции. В этой статье мы предлагаем новую модель глубокого двойного рекуррентного кодера, которая одновременно использует текстовые данные и аудиосигналы для лучшего понимания речевых данных. Поскольку эмоциональный диалог состоит из звукового и устного контента, наша модель кодирует информацию из аудио и текстовых последовательностей с помощью двойных рекуррентных нейронных сетей (RNN), а затем объединяет информацию из этих источников для прогнозирования класса эмоций. Эта архитектура анализирует речевые данные от уровня сигнала до уровня языка и, таким образом, использует информацию в данных более полно, чем модели, ориентированные на аудиофункции. Для изучения эффективности и свойств предлагаемой модели проводятся обширные эксперименты. Предложенная нами модель превосходит предыдущие современные методы при отнесении данных к одной из четырех категорий эмоций (т. е. гнев, радость, грусть и нейтральность), когда модель применяется к набору данных IEMOCAP, о чем свидетельствует точность в диапазоне от 68,8. % до 71,8%.
3,093
QasperSumInstruct
ru
Напиши аннотацию по статье
Учимся обнаруживать фрагмент мнения для аспектного анализа настроений. Аспектный анализ настроений BIBREF0, BIBREF1 — это задача детального анализа настроений, которая привлекла большое внимание исследований и промышленности.Его цель — предсказать полярность настроений конкретного аспекта текста.С быстрым развитием глубокого обучения эта задача широко решается нейронными сетями, основанными на внимании BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6.Вот лишь некоторые из них: wang2016attention учится обращать внимание на разные части предложения с учетом разных аспектов, а затем генерирует представления предложений для конкретных аспектов для прогнозирования настроений.tay2018learning научиться следить за правильными словами на основе ассоциативных связей между словами предложения и данным аспектом.Эти методы, основанные на внимании, значительно улучшили производительность задачи ABSA.Предыдущие методы, основанные на внимании, можно отнести к категории подходов с мягким выбором, поскольку веса внимания разбросаны по всему предложению, и каждое слово учитывается с разными весами.Обычно это приводит к отвлечению внимания BIBREF7, т. е. обращению внимания на шумные или вводящие в заблуждение слова или высказывания мнения с других аспектов.Возьмем в качестве примера рисунок FigREF1. В качестве аспекта в предложении «еда обычно хорошая, но это определенно не место для отдыха», мы визуализируем веса внимания из модели ATAE-LSTM BIBREF2.Как мы видим, слова «хорошо» и «но» доминируют по весу внимания.Однако слово «хорошо» используется для описания аспекта еды, а не места, «но» также не так уж связано с местом.Истинный фрагмент мнения «определенно не место для отдыха» получает низкий вес внимания, что приводит к неправильному прогнозу относительно аспектного места.Поэтому мы предлагаем альтернативный подход жесткого отбора, определяя две позиции в предложении и выбирая слова между этими двумя позициями как выражение мнения по данному аспекту.Это также основано на наблюдении, что слова мнения по данному аспекту обычно распространяются последовательно в виде фрагмента BIBREF8.В целом фрагмент мнения может получить достаточный вес внимания, не отвлекаясь на другие шумные или вводящие в заблуждение слова или слова мнения, далекие от других аспектов.Затем мы прогнозируем полярность настроений данного аспекта на основе среднего значения извлеченного фрагмента мнения.Явный выбор фрагмента мнения также дает нам еще одно преимущество: он может служить обоснованием наших прогнозов настроений, делая нашу модель более интерпретируемой.Чтобы точно определить две позиции фрагмента мнения конкретного аспекта, мы сначала моделируем глубокие связи между предложением и аспектом, а также долгосрочные зависимости внутри предложения с помощью BERT BIBREF9, который представляет собой предварительно обученную языковую модель и обеспечивает потрясающие результаты во многих задачах на естественном языке.Во-вторых, с помощью контекстных представлений BERT две позиции последовательно определяются самокритичным обучением с подкреплением.Причина использования обучения с подкреплением заключается в том, что у нас нет основных позиций фрагмента мнения, а есть только полярность соответствующего аспекта.Затем извлеченный фрагмент мнения используется для классификации настроений.Подробности описаны в разделе модели.Основные положения нашей статьи заключаются в следующем: Мы предлагаем подход жесткого отбора для решения задачи ABSA.В частности, наш метод определяет две позиции в предложении, чтобы обнаружить фрагмент мнения относительно определенного аспекта, а затем использует содержание в рамке для классификации настроений.Наш подход может облегчить проблему отвлечения внимания, возникающую в предыдущих подходах к мягкому отбору.Мы моделируем глубокие связи между предложением и аспектом, а также долгосрочные зависимости внутри предложения с помощью BERT.Затем мы учимся обнаруживать фрагмент мнения с помощью самокритичного обучения с подкреплением.Результаты эксперимента демонстрируют эффективность нашего метода, а также наш подход значительно превосходит подходы мягкого выбора при обработке многоаспектных предложений.Традиционные методы машинного обучения для анализа настроений на основе аспектов фокусируются на извлечении набора функций для обучения классификаторов настроений BIBREF10, BIBREF11, BIBREF12, которые обычно являются трудоемкими.С развитием технологий глубокого обучения для решения этой задачи получил широкое распространение механизм нейронного внимания BIBREF13.wang2016attention предлагают сети LSTM, основанные на внимании, которые обрабатывают разные части предложения для разных аспектов.Ma2017Interactive использует интерактивное внимание, чтобы уловить глубокие ассоциации между предложением и аспектом.Иерархические модели BIBREF4, BIBREF17, BIBREF6 также используются для захвата нескольких уровней выражения эмоций для более точного прогнозирования, таких как сложность структуры предложений и семантическое разнообразие.tay2018learning учимся присутствовать на основе ассоциативных связей между словами предложения и аспектом.Все эти методы используют нормализованные веса внимания для мягкого выбора слов для создания представлений предложений с конкретным аспектом, в то время как веса внимания разбросаны по всему предложению и могут легко привести к отвлечению внимания.wang2018learning предлагает метод жесткого отбора для изучения внимания к сегментации, который может эффективно фиксировать структурные зависимости между целью и выражениями настроений с помощью слоя условного случайного поля (CRF) с линейной цепочкой.Однако он может решать только прогнозирование настроений на уровне аспектных терминов, которое требует аннотаций для аспектных терминов.По сравнению с ним наш метод может обрабатывать прогнозирование настроений как на уровне термина аспекта, так и на уровне категории аспекта, обнаруживая фрагмент мнения.Сначала сформулируем задачу.Учитывая предложение $S=\lbrace w_1,w_2,...,w_N\rbrace $ и аспект $A=\lbrace a_1,a_2,...,a_M\rbrace $, задача ABSA состоит в том, чтобы предсказать настроение $А$.В нашей ситуации аспект может быть либо термином аспекта, либо категорией аспекта.В качестве аспектных терминов $A$ представляет собой фрагмент слов из $S$, т. е. подпоследовательность предложения, а в качестве аспектной категории $A$ представляет собой семантическую категорию с $M=1$, содержащую только абстрактный токен.В этой статье мы предлагаем подход жесткого отбора для решения задачи ABSA.В частности, мы сначала научимся обнаруживать соответствующий фрагмент мнения $O=\lbrace w_{l},w_{l+1}...,w_{r}\rbrace $, где $1\le l\le r\le N $, а затем используйте $O$, чтобы предсказать настроение данного аспекта.Архитектура сети показана на рисунке РИС. 5. Точное моделирование отношений между словами предложения и аспектом является ключом к успеху задачи ABSA.Для моделирования отношений между словами и аспектами было разработано множество методов.wang2016attention просто объединяет встраивание аспекта с встраиванием входного слова и скрытыми представлениями предложений для вычисления весов внимания для конкретного аспекта.Ma2017Interactive изучает аспект и предложение в интерактивном режиме, используя две сети внимания.tay2018learning использует круговую свертку векторов для выполнения слияния слов и аспектов.В этой статье мы используем BERT BIBREF9 для моделирования глубоких ассоциаций между словами предложения и аспектом.BERT — это мощная предварительно обученная модель, которая добилась замечательных результатов во многих задачах НЛП.Архитектура BERT представляет собой многоуровневый двунаправленный преобразователь-кодер BIBREF22, который использует механизм самообслуживания для захвата сложного взаимодействия и зависимости между терминами внутри последовательности.Чтобы использовать BERT для моделирования отношений между предложением и аспектом, мы упаковываем предложение и аспект вместе в единую последовательность, а затем передаем их в BERT, как показано на рисунке FigREF5.При таком объединении аспектов предложения и ассоциации слов, и зависимости между словами моделируются интерактивно и одновременно.С контекстными представлениями токенов $T_S=T_{[1:N]}\in\mathbb {R}^{N\times {H}}$ предложения, где $N$ — длина предложения, а $H$ — скрытый размер, затем мы можем определить начальную и конечную позиции фрагмента мнения в предложение.Чтобы справедливо сравнить эффективность подходов мягкого выбора и подходов жесткого выбора, мы используем те же результаты слияния аспектов слов $T_{S}$ из BERT.Мы реализуем механизм внимания, приняв подход, аналогичный работе BIBREF23.где $v_1\in \mathbb {R}^{H}$ и $W_1\in \mathbb {R}^{H\times {H}}$ это параметры.Нормализованные веса внимания $\alpha $ используются для мягкого выбора слов из всего предложения и генерации окончательного представления предложения $g$ с учетом конкретного аспекта. Затем мы делаем прогноз настроений следующим образом: где $W_2\in \mathbb {R}^{C\times {H}}$ и $b\in \mathbb {R}^{C}$ — весовая матрица и вектор смещения. соответственно.$\hat{y}$ — распределение вероятностей на полярностях $C$.В качестве прогноза выбирается полярность с наибольшей вероятностью.Предлагаемый нами подход жесткого выбора определяет начальную и конечную позиции фрагмента мнения и выбирает слова между этими двумя позициями для прогнозирования настроений.Поскольку у нас нет фрагмента основного мнения, а есть только полярность соответствующего аспекта, мы применяем обучение с подкреплением BIBREF24 для обучения нашей модели.Чтобы убедиться, что конечная позиция следует за начальной, мы последовательно определяем начало и конец как задачу обучения последовательности BIBREF25.Параметры сети $\Theta $ определяют политику $p_{\theta }$ и выводят «действие», то есть прогнозирование позиции.Для простоты мы генерируем только два действия для определения начальной и конечной позиции соответственно.После определения начальной позиции «состояние» обновляется, а затем конец обусловлен началом.В частности, мы определяем начальный вектор $s\in \mathbb {R}^{H}$ и конечный вектор $e\in \mathbb {R}^{H}$. Как и в предыдущей работе BIBREF9, вероятность того, что слово будет началом фрагмента мнения, вычисляется как скалярное произведение между его контекстным представлением токена и $s$, за которым следует softmax для всех слов предложения.Затем мы выбираем начальную позицию $l$ на основе полиномиального распределения $\beta _l$. Чтобы гарантировать, что конец идет после начала, конец выбирается только в правой части предложения после начала.Таким образом, состояние обновляется с помощью операции разрезания ${T_S}^r=T_S[l:]$. Как и начальная позиция, конечная позиция $r$ также выбирается на основе распределения $\beta _r$:Thenу нас есть фрагмент мнения $T_O=T_S{[l:r]}$, позволяющий предсказать полярность настроений данного аспекта предложения.Вероятности начальной позиции в $l$ и конечной позиции в $r$ равны $p(l)=\beta _l[l]$ и $p(r)=\beta _r[r]$ соответственно.После того, как мы получили фрагмент мнения $T_O$ путем выборки начальной и конечной позиций, мы вычисляем окончательное представление $g_o$ по среднему значению фрагмента мнения, $g_o=avg(T_O)$. Затем уравнение DISPLAY_FORM9 с разными весами применяется для расчета прогноза настроений $\hat{y_o}$. Для расчета вознаграждения используется функция перекрестных энтропийных потерь. Где $c$ — индекс класса полярности, а $y$ — основная истина.В этой статье мы используем обучение с подкреплением, чтобы узнать начальную и конечную позиции.Цель обучения — минимизировать отрицательное ожидаемое вознаграждение, как показано ниже. параметры для прогнозирования настроений, а затем для расчета вознаграждения.Поэтому состояние в нашем методе — это сочетание предложения и вида.Для каждого состояния пространством действия является каждая позиция предложения.Чтобы уменьшить дисперсию оценки градиента, вознаграждение связывается с эталонным вознаграждением или базовым уровнем $R_b$ BIBREF25.С помощью трюка с отношением правдоподобия целевую функцию можно преобразовать как.Базовый уровень $R_b$ вычисляется на основе фрагмента, определенного базовой политикой, которая жадно выбирает начальную и конечную позиции с помощью операции $argmax$ над результатами $softmax$.Как показано на рисунке FigREF5, вознаграждение $R$ рассчитывается путем выборки фрагмента, тогда как базовый уровень $R_b$ вычисляется путем жадного выбора фрагмента.Обратите внимание, что на этапе тестирования фрагмент определяется по $argmax$ для вывода.В этом разделе мы сравниваем нашу модель жесткого отбора с различными базовыми показателями.Чтобы оценить способность облегчить отвлечение внимания, мы дополнительно проводим эксперименты на смоделированном многоаспектном наборе данных, в котором каждое предложение содержит несколько аспектов.Мы используем те же наборы данных, что и работа tay2018learning, которые уже преобразованы в списки токенов и опубликованы на Github.Наборы данных взяты из задачи 4 BIBREF26 SemEval 2014 и задачи 12 BIBREF27 SemEval 2015 соответственно.Для задачи классификации настроений на уровне терминов аспектов (обозначенных буквой T) мы применяем наборы данных «Ноутбуки» и «Рестораны» из SemEval 2014.Для прогнозирования настроений на уровне категории аспекта (обозначается буквой C) мы используем набор данных «Рестораны» из SemEval 2014 и составной набор данных из SemEval 2014 и SemEval 2015.Статистика наборов данных показана в таблице TABREF20. Предлагаемые нами модели реализованы в PyTorch.Мы используем бескорпусную модель bert-base, которая содержит 12 слоев и количество всех параметров 100M.Размерность $H$ равна 768.Модель BERT инициализируется из предварительно обученной модели, остальные параметры инициализируются путем выборки из нормального распределения $\mathcal {N}(0,0.02)$. В наших экспериментах размер партии равен 32.Сообщенные результаты представляют собой результаты тестирования, которые позволяют точно настроить 7 эпох со скоростью обучения 5e-5.LSTM: он использует среднее значение всех скрытых состояний в качестве представления предложения для прогнозирования настроений.В этой модели информация о аспектах не используется.TD-LSTM BIBREF14: он использует два LSTM, и оба их выхода применяются для прогнозирования полярности настроений.AT-LSTM BIBREF2: он использует механизм внимания для создания представления предложения с учетом конкретного аспекта.Этот метод является своего рода подходом мягкого отбора.ATAE-LSTM BIBREF2: также использует механизм внимания.Разница с AT-LSTM заключается в том, что он объединяет встраивание аспектов с каждым встраиванием слов в качестве входных данных для LSTM.AF-LSTM(CORR)BIBREF5:он использует круговую корреляцию, чтобы уловить глубокое слияние слов предложения и аспекта, что позволяет изучить богатые отношения более высокого порядка между словами и аспектом.AF-LSTM(CONV) BIBREF5: по сравнению с AF-LSTM(CORR), этот метод применяет круговую свертку векторов для выполнения слияния слов и аспектов, чтобы изучить отношения между словами предложения и аспектом.BERT-Original: он прогнозирует настроение, напрямую используя окончательный скрытый вектор $C$ из BERT с парой предложение-аспект в качестве входных данных.BERT-Soft: как описано в разделе SECREF7, контекстные представления токенов из BERT обрабатываются механизмом самообслуживания BIBREF23, а представление предложений с взвешиванием по вниманию используется для классификации настроений.BERT-Hard: как описано в разделе SECREF10, он принимает те же входные данные, что и BERT-Soft.Это называется подходом жесткого выбора, поскольку он использует методы обучения с подкреплением для явного выбора фрагмента мнения, соответствующего определенному аспекту, для прогнозирования настроений.В этом разделе мы оцениваем производительность наших моделей, сравнивая их с различными базовыми моделями.Результаты эксперимента проиллюстрированы в таблице TABREF21, в которой 3-сторонний представляет классификацию настроений по 3 классам (положительные, отрицательные и нейтральные), а двоичный код обозначает бинарный прогноз настроений (положительный и отрицательный).Лучший результат в каждом столбце выделен жирным шрифтом.Во-первых, мы наблюдаем, что BERT-Original, BERT-Soft и BERT-Hard превосходят все базовые уровни мягкого внимания (в первой части таблицы TABREF21), что демонстрирует эффективность тонкой настройки предварительно обученной модели на основе аспектов. Задача классификации настроений.В частности, BERT-Original превосходит AF-LSTM(CONV) на 2,63%$\sim $9,57%, BERT-Soft превосходит AF-LSTM(CONV) на 2,01%$\sim $9,60%, а BERT-Hard улучшает AF-LSTM(CONV). на 3,38%$\sim $11,23% по точности.Учитывая средний балл по восьми настройкам, BERT-Original превосходит AF-LSTM(CONV) на 6,46%, BERT-Soft превосходит AF-LSTM(CONV) на 6,47%, а BERT-Hard превосходит AF-LSTM(CONV) на 7,19% соответственно. .Во-вторых, мы сравниваем производительность трех методов, связанных с BERT.Производительность BERT-Original и BERT-Soft аналогична при сравнении их средних оценок.Причина может заключаться в том, что исходный BERT уже смоделировал глубокие отношения между предложением и аспектом.BERT-Original можно рассматривать как своего рода подход к мягкому выбору, аналогичный BERT-Soft.Мы также наблюдаем, что выбор фрагментов с помощью обучения с подкреплением повышает производительность по сравнению с подходами мягкого выбора почти во всех условиях.Однако улучшение BERT-Hard по сравнению с BERT-Soft незначительно.Средний балл BERT-Hard лучше, чем BERT-Soft на 0,68%.Процент улучшения составляет от 0,36% до 1,49%, тогда как в наборе данных ноутбука производительность BERT-Hard немного ниже, чем BERT-Soft.Основная причина заключается в том, что наборы данных содержат лишь небольшую часть многоаспектных предложений различной полярности.Отвлечение внимания не сильно повлияет на предсказание настроения в одноаспектных предложениях или многоаспектных предложениях с одинаковыми полярностями.С одной стороны, проблема отвлечения внимания усугубляется в многоаспектных предложениях.Помимо шумных и вводящих в заблуждение слов внимание также склонно отвлекаться на слова-мнения из других частей предложения.С другой стороны, отвлечение внимания больше влияет на эффективность прогнозирования настроений в многоаспектных предложениях, чем в одноаспектных.Следовательно, мы оцениваем производительность наших моделей на тестовом наборе данных только с многоаспектными предложениями.Многоаспектное предложение можно разделить на две категории: количество аспектов и измерение полярности, которое указывает, одинаковы ли полярности настроений всех аспектов или нет.В измерении числа мы классифицируем многоаспектные предложения как 2-3 и более.2-3 относится к предложениям с двумя или тремя аспектами, а More относится к предложениям с более чем тремя аспектами.Статистика в исходном наборе данных показывает, что предложений с 2–3 аспектами гораздо больше, чем предложений с большим количеством аспектов.По измерению «Полярность» многоаспектные предложения можно разделить на одинаковые и разные.Same указывает на то, что все аспекты предложения имеют одинаковую полярность чувств.Разница указывает на то, что аспекты имеют разные полярности.Многоаспектный набор тестов.Чтобы оценить эффективность наших моделей на многоаспектных предложениях, мы создаем новый многоаспектный тестовый набор, выбирая все многоаспектные предложения из исходных наборов обучения, разработки и тестирования задачи уровня терминов «Рестораны».Подробности показаны в таблице TABREF37. Многоаспектный обучающий набор.Поскольку для тестирования мы используем все многоаспектные предложения, нам необходимо сгенерировать несколько «виртуальных» многоаспектных предложений для обучения.Смоделированный многоаспектный обучающий набор включает в себя исходные одноаспектные предложения и вновь построенные многоаспектные предложения, которые генерируются путем объединения нескольких одноаспектных предложений с различными аспектами.Мы сохраняем баланс каждого подтипа в новом обучающем наборе (см. таблицу TABREF38).Число нейтральных предложений является наименьшим среди трех полярностей настроений во всех одноаспектных предложениях.Мы случайным образом выбираем одинаковое количество положительных и отрицательных предложений.Затем мы конструируем многоаспектные предложения, комбинируя одноаспектные предложения в разных сочетаниях полярностей.Названия различных комбинаций просты.Например, 2P-1N указывает, что предложение имеет два положительных аспекта и один отрицательный аспект, а P-N-Nu означает, что три аспекта в предложении являются положительными, отрицательными и нейтральными соответственно.Для простоты мы строим только предложения с 2 аспидами и 3 аспидами, которые также составляют большинство в исходном наборе данных.Результаты и обсуждения.Результаты по различным типам многоаспектных предложений показаны в таблице TABREF40.Производительность BERT-Hard лучше, чем BERT-Original и BERT-Soft, для всех типов многоаспектных предложений.BERT-Hard превосходит BERT-Soft на 2,11%, когда аспекты имеют одинаковую полярность настроений.Для многоаспектных предложений с разной полярностью улучшения более значительны.BERT-Hard превосходит BERT-Soft на 7,65% по сумме Diff.Улучшения составляют 5,07% и 12,83% для типов 2-3 и More соответственно, что демонстрирует способность нашей модели обрабатывать предложения с большим количеством аспектов.В частности, BERT-Soft имеет самую низкую производительность в подмножестве Diff среди трех методов, что доказывает, что мягкое внимание с большей вероятностью приведет к отвлечению внимания.Интуитивно, когда несколько аспектов предложения имеют одинаковые полярности чувств, даже внимание отвлекается на другие мнения других аспектов, оно все равно может в некоторой степени правильно предсказать.В таких предложениях влияние отвлечения внимания не очевидно и его трудно обнаружить.Однако, когда аспекты имеют разные полярности настроений, отвлечение внимания приведет к катастрофическим ошибкам прогнозирования, что, очевидно, снизит точность классификации.Как показано в таблице TABREF40, точность Diff намного хуже, чем Same для всех трех методов.Это означает, что с типом Diff сложно справиться.Несмотря на это, значительное улучшение доказывает, что наш метод жесткого отбора может в определенной степени уменьшить отвлечение внимания.Для методов мягкого отбора отвлечение внимания неизбежно из-за их способа расчета весов внимания для каждого отдельного слова.Шумные или не относящиеся к делу слова могут привлечь больше внимания, чем слова, основанные на истинном мнении.Наш метод рассматривает фрагмент мнения как единое целое, более устойчивое к отвлечению внимания.В этом разделе мы визуализируем веса внимания для BERT-Soft и фрагменты мнений для BERT-Hard.Как показано на рисунке FigREF39, многоаспектное предложение «закуски в порядке, но обслуживание медленное» принадлежит категории «Различия».Во-первых, вес внимания BERT-Soft рассеивается по всему предложению и может уделять внимание ненужным словам.Что касается аспектной службы, BERT-Soft уделяет внимание слову «ОК» с относительно высокой оценкой, хотя оно не описывает аспектную службу.Эта проблема также существует для аспектных закусок.Кроме того, отвлечение внимания может привести к предсказанию ошибок.Что касается аспектных закусок, «но» и «медленно» получают высокие оценки внимания и вызывают неправильный прогноз отрицательного настроения.Во-вторых, предлагаемый нами метод BERT-Hard может обнаружить фрагмент мнения по данному аспекту.Как показано на рисунке FigREF39, фрагменты мнений точно выбираются BERT-Hard.В предложении «закуски в порядке, но обслуживание медленное» BERT-Hard может точно найти фрагменты мнений «хорошо» и «медленно» для аспектов закусок и обслуживания соответственно.Наконец, мы перечисляем некоторые фрагменты мнений, обнаруженные BERT-Hard, в таблице TABREF42.Наш метод позволяет точно обнаружить фрагменты даже скрытого выражения мнения и смягчить влияние шумных слов.Например, фразу «невозможно превзойти по качеству» трудно предсказать, используя мягкое внимание, поскольку полярность настроений трансформируется отрицательным словом «невозможно».Наш метод позволяет выбрать весь фрагмент без пристрастия к какому-либо слову, и таким образом можно уменьшить отвлечение внимания.Мы также перечисляем некоторые неточные фрагменты в таблице TABREF43.Вокруг истинного фрагмента включены некоторые бессмысленные слова, такие как «есть», «и» и «в».Эти слова не влияют на окончательный прогноз.Возможное объяснение этих неточных слов состоит в том, что истинные фрагменты не имеют меток, и наш метод прогнозирует их только по сигналу от меток настроений.В этой статье мы предлагаем подход жесткого отбора для анализа настроений на основе аспектов, который определяет начальную и конечную позиции фрагмента мнения для данного входного аспекта.Глубокие связи между предложением и аспектом, а также долгосрочные зависимости внутри предложения учитываются с помощью предварительно обученной модели BERT.Благодаря жесткому отбору фрагмента мнения наш подход может облегчить проблему отвлечения внимания, связанную с традиционными методами мягкого отбора, основанными на внимании.Результаты экспериментов демонстрируют эффективность нашего метода.В частности, наш подход жесткого отбора значительно превосходит подходы мягкого отбора при обработке многоаспектных предложений с различными полярностями настроений.Эта работа поддерживается Национальным крупным проектом науки и технологий Китая (грант № 2018YFB0204304).
Аспектный анализ настроений (ABSA) предназначен для прогнозирования полярности настроений по отношению к определенному аспекту предложения. Недавно эта задача была широко решена с помощью механизма нейронного внимания, который вычисляет веса внимания для мягкого выбора слов для генерации представлений предложений для конкретного аспекта. Ожидается, что внимание будет сосредоточено на словах-мнениях для точного прогнозирования настроений. Однако внимание склонно отвлекаться на шумные или вводящие в заблуждение слова или высказывания, выражающие мнения по другим аспектам. В этой статье мы предлагаем альтернативный подход жесткого выбора, который определяет начальную и конечную позиции фрагмента мнения и выбирает слова между этими двумя позициями для прогнозирования настроений. В частности, мы изучаем глубокие связи между предложением и аспектом, а также долгосрочные зависимости внутри предложения, используя предварительно обученную модель BERT. Далее мы обнаруживаем фрагмент мнения с помощью самокритичного обучения с подкреплением. В частности, экспериментальные результаты демонстрируют эффективность нашего метода и доказывают, что наш подход жесткого выбора превосходит подходы мягкого выбора при обработке многоаспектных предложений.
3,946
QasperSumInstruct
ru
Напиши аннотацию по статье
Автоматическая терапия воспоминаний при деменции.. Увеличение продолжительности жизни в прошлом столетии привело к тому, что большое количество людей дожило до старости, а к середине столетия это приведет к удвоению числа случаев деменции.Наиболее распространенной формой деменции является болезнь Альцгеймера, на долю которой приходится 60–70% случаев BIBREF2.Исследования, направленные на поиск методов лечения, замедляющих развитие болезни Альцгеймера, являются очень активными, но они оказались успешными только с точки зрения разработки методов лечения, которые облегчают симптомы, не устраняя причину BIBREF3BIBREF4.Кроме того, люди с деменцией могут иметь некоторые препятствия для доступа к лечению, такие как стоимость, доступность и возможность перемещения в дом престарелых или больницу, где проводится терапия.Мы считаем, что искусственный интеллект (ИИ) может внести свой вклад в инновационные системы, которые обеспечат доступность и предложат новые решения для нужд пациентов, а также помогут родственникам и лицам, осуществляющим уход, понять болезнь члена своей семьи или пациента и отслеживать прогресс деменции.Такие методы лечения, как воспоминания, которые стимулируют воспоминания о прошлом пациента, имеют хорошо задокументированные преимущества для социального, психического и эмоционального благополучия BIBREF5BIBREF6, что делает их очень желательной практикой, особенно для пожилых людей.Терапия воспоминаний, в частности, включает обсуждение событий и прошлого опыта с использованием материальных подсказок, таких как изображения или музыка, чтобы пробудить воспоминания и стимулировать разговор BIBREF7.С этой целью мы исследуем мультимодальные архитектуры глубокого обучения, которые будут использоваться для разработки интуитивно понятной, простой в использовании и надежной диалоговой системы для автоматизации терапии воспоминаний для людей, страдающих легкими когнитивными нарушениями или на ранних стадиях болезни Альцгеймера.Мы предлагаем разговорного агента, который имитирует терапевта воспоминаний, задавая вопросы о переживаниях пациента.Вопросы генерируются на основе фотографий, предоставленных пациентом, которые содержат важные моменты или важных людей в жизни пользователя.Более того, чтобы вовлечь пользователя в общение, мы предлагаем вторую модель, генерирующую комментарии к ответам пользователя.Модель чат-бота, обученная на наборе данных, содержащем простые разговоры между разными людьми.Задание кажется сложным для пациента, поскольку вопросы могут потребовать от пользователя тренировки памяти.Наш вклад включает в себя: Автоматизацию терапии воспоминаний с использованием мультимодального подхода, который генерирует вопросы из изображений без использования набора данных терапии воспоминаний.Комплексный подход глубокого обучения, который не требует составления правил вручную и готов к использованию пациентами с легкими когнитивными нарушениями.Система спроектирована так, чтобы быть интуитивно понятной и простой в использовании для пользователей, и к ней можно получить доступ с любого смартфона, подключенного к Интернету.Происхождение чат-ботов восходит к 1966 году, когда Джозеф Вайзенбаум из Массачусетского технологического института создал ELIZA BIBREF8.Его реализация заключалась в методологии сопоставления с образцом и замены.В последнее время подходы, основанные на данных, привлекли значительное внимание.Существующие работы в этом направлении включают методы, основанные на поиске BIBREF9BIBREF10, и методы, основанные на генерации, BIBREF11BIBREF12.В этой работе мы фокусируемся на генеративных моделях, где алгоритм последовательности-последовательности, использующий RNN для кодирования и декодирования входных данных в ответы, является лучшей в настоящее время практикой.Наш диалоговый агент использует две архитектуры для имитации работы специализированного терапевта по воспоминаниям.Блок формирования вопросов основан на работе «Покажи, посети и расскажи» BIBREF13.Эта работа генерирует описания из изображений, также известные как подписи к изображениям.В нашем случае мы фокусируемся на генерировании вопросов из картинок.Наша вторая архитектура вдохновлена ​​нейронной разговорной моделью из BIBREF14, где автор представляет сквозной подход для создания простых диалогов.Создание диалогового агента с открытым доменом является сложной задачей.Как указано в BIBREF15 и BIBREF16, отсутствие последовательной личности и отсутствие долговременной памяти, которая приводит к некоторым бессмысленным ответам в этих моделях, все еще остаются нерешенными проблемами.В некоторых работах предложены разговорные агенты для пожилых людей с различными целями, например, для стимулирования разговора BIBREF17, паллиативной помощи BIBREF18 или ежедневной помощи.Примером них является «Билли», о которой сообщается в BIBREF19, который представляет собой виртуальный агент, который использует выражение лица для более естественного поведения и ориентирован на управление календарем пользователя, или «Мэри» BIBREF20, которая помогает пользователям организовывать их задачи, предлагая напоминания и рекомендации. с домашними делами.Оба произведения хорошо справляются со своими конкретными задачами, но сообщают о трудностях с поддержанием непринужденного разговора.Другие работы посвящены содержанию, используемому в терапии воспоминаний.Например, BIBREF21, где авторы предлагают систему, которая рекомендует использовать мультимедийный контент в терапии, или Визуальный диалог BIBREF22, где диалоговый агент — это тот, кто должен отвечать на вопросы об изображении.В этом разделе мы объясняем два основных компонента нашей модели, а также то, как работает взаимодействие с моделью.Мы назвали его Elisabot, и его цель — поддерживать диалог с пациенткой о жизненном опыте ее пользователя.Прежде чем начать разговор, пользователь должен представить фотографии, которые должны содержать значимые для него моменты.Система случайным образом выбирает одну из этих картинок и анализирует контент.Затем Elisabot показывает выбранное изображение и начинает разговор, задавая вопрос об изображении.Пользователь должен дать ответ, даже если он его не знает, и Elisabot оставит к нему соответствующий комментарий.Цикл начинается снова с задания еще одного релевантного вопроса об изображении, и последовательность действий повторяется от 4 до 6 раз, пока изображение не изменится.На рисунке FigREF3 показан рабочий процесс нашей системы.Elisabot состоит из двух моделей: модели, отвечающей за вопросы об изображении, которую мы будем называть моделью VQG, и модели чат-бота, которая пытается сделать диалог более интересным, предоставляя обратную связь по ответам пользователя.Алгоритм, лежащий в основе VQG, представляет собой архитектуру кодировщика-декодера с вниманием.Кодировщик принимает на вход одну из предоставленных пользователем фотографий $I$ и изучает ее информацию с помощью CNN.CNN широко изучались для задач компьютерного зрения.CNN передает изученные функции изображения декодеру, который генерирует вопрос $y$ слово за словом, используя механизм внимания с длинной краткосрочной памятью (LSTM).Модель обучена максимизировать вероятность $p(y|I)$ создания целевой последовательности слов: где $K$ — размер словаря, а $C$ — длина подписи.Поскольку уже существуют сверточные нейронные сети (CNN), обученные на больших наборах данных для представления изображений с выдающейся производительностью, мы используем трансферное обучение для интеграции предварительно обученной модели в наш алгоритм.В частности, мы используем модель ResNet-101 BIBREF23, обученную на ImageNet.Последние 2 слоя мы отбрасываем, так как эти слои классифицируют изображение по категориям и нам нужно лишь извлечь его признаки.Ядром нашей модели чат-бота является последовательность-последовательность BIBREF24.Эта архитектура использует рекуррентную нейронную сеть (RNN) для кодирования последовательности переменной длины для получения большого векторного представления фиксированной размерности и другую RNN для декодирования вектора в последовательность переменной длины.Кодер перебирает входное предложение по одному слову на каждом временном шаге, создавая выходной вектор и вектор скрытого состояния.Вектор скрытого состояния передается на следующий временной шаг, а выходной вектор сохраняется.Мы используем двунаправленный GRU (GRU), то есть мы используем два GRU, один из которых подается в последовательном порядке, а другой в обратном порядке.Выходные данные обеих сетей суммируются на каждом временном шаге, поэтому мы кодируем прошлый и будущий контекст.Конечное скрытое состояние $h_t^{enc}$ передается в декодер как начальное состояние $h_0^{dec}$. Используя механизм внимания, декодер использует векторы контекста кодера и внутренние скрытые состояния для генерации следующего слова в последовательности.Он продолжает генерировать слова до тех пор, пока не выведет токен $<$end$>$, обозначающий конец предложения.Мы используем уровень внимания для умножения весов внимания на выходные данные кодера, чтобы сосредоточиться на соответствующей информации при декодировании последовательности.Этот подход показал лучшую производительность на моделях «последовательность-последовательность» BIBREF25. Одним из первых требований для разработки архитектуры с использованием подхода машинного обучения является набор обучающих данных.Отсутствие наборов данных с открытым исходным кодом, содержащих диалоги из терапии воспоминаниями, привело к использованию набора данных с содержанием, аналогичным тому, который используется в терапии.В частности, для обучения наших моделей мы используем два типа наборов данных: набор данных, который отображает изображения с вопросами, и набор данных разговоров в открытой области.Детали двух наборов данных следующие.Мы используем наборы данных MS COCO, Bing и Flickr из BIBREF26 для обучения модели, генерирующей вопросы.Эти наборы данных содержат естественные вопросы об изображениях с целью узнать больше об изображении.Как видно на рисунке FigREF8, на вопросы невозможно ответить, просто взглянув на изображение.Каждый источник содержит 5000 изображений по 5 вопросов на каждое, всего 15 000 изображений с 75 000 вопросов.Набор данных COCO включает изображения сложных повседневных сцен, содержащих обычные объекты в их естественном контексте, но он ограничен с точки зрения охватываемых концепций.Набор данных Bing содержит больше вопросов, связанных с событиями, и имеет более широкий диапазон продолжительности вопросов (от 3 до 20 слов), в то время как вопросы Flickr короче (менее 6 слов), а изображения кажутся более случайными.Мы используем два набора данных для обучения нашей модели чат-бота.Первый — это Persona-чат BIBREF15, который содержит диалоги между двумя людьми с разными профилями, которые пытаются узнать друг друга.Он дополняется набором данных диалогов Корнеллских фильмов BIBREF27, который содержит коллекцию вымышленных разговоров, извлеченных из необработанных сценариев фильмов.Предложения Persona-chat содержат максимум 15 слов, что облегчает обучение машинам, и в общей сложности 162 064 высказывания в 10 907 диалогах.В то время как набор данных Корнеллских фильмов содержит 304 713 высказываний и 220 579 диалогов между 10 292 парами киноперсонажей.Важным аспектом систем генерации диалоговых ответов является то, как оценить качество сгенерированного ответа.В этом разделе представлены процедура обучения и количественная оценка модели, а также некоторые качественные результаты.Обе модели обучаются с использованием стохастического градиентного спуска с оптимизацией ADAM BIBREF28 и скоростью обучения 1e-4.Кроме того, мы используем регуляризацию отсева BIBREF29, которая предотвращает переобучение путем исключения некоторых единиц сети.Кодер VQG состоит из 2048 нейронных ячеек, а декодер VQG имеет уровень внимания 512, за которым следуют слой внедрения 512 и LSTM того же размера.Для декодирования мы используем отсев 50% и лучевой поиск 7, что позволяет получить до 5 выходных вопросов.Используемый нами словарный запас состоит из всех слов, встречающихся в обучающем наборе 3 или более раз, что составляет 11 214 уникальных токенов.Неизвестные слова сопоставляются с токеном $<$unk$>$ во время обучения, но мы не разрешаем декодеру создавать этот токен во время тестирования.Мы также установили максимальную длину последовательности в 6 слов, поскольку хотим, чтобы простые вопросы были понятны и легко изучались с помощью модели.В модели чат-бота мы используем скрытый размер 500 и регуляризацию Dropout 25%.Для декодирования мы используем жадный поиск, заключающийся в выборе оптимального токена на каждом шаге.Сначала мы обучаем его с помощью Persona-chat, а затем настраиваем с помощью набора данных Корнелла.Используемый нами словарный запас состоит из всех слов, которые встречались 3 или более раз в наборе данных Persona-chat, и мы установили максимальную длину последовательности в 12 слов.Для настройки гиперпараметра мы используем размер пакета 64. Мы используем метрику BLEU BIBREF30 в наборе проверки для обучения модели VQG.BLEU — это мера сходства между сгенерированной и целевой последовательностями слов, широко используемая при обработке естественного языка.Предполагается, что действительные сгенерированные ответы имеют значительное совпадение слов с ответами на основе истины.Мы используем его, потому что в этом случае у нас есть пять разных ссылок на каждый из сгенерированных вопросов.Мы получили оценку BLEU 2,07. Вместо этого наша модель чат-бота имеет только одну опорную истину при обучении при генерации последовательности слов.Мы сочли, что это не лучший показатель для применения, поскольку в некоторых случаях ответы имеют одно и то же значение, но не имеют общих слов.Таким образом, мы сохраняем несколько моделей с разными гиперпараметрами и с разным количеством итераций обучения и сравниваем их, используя человеческую оценку, чтобы выбрать модель, которая работает лучше в разговоре.Нашей первой целью было составить содержательные вопросы на основе предоставленных изображений.Таблица TABREF16 содержит некоторые вопросы, сгенерированные нашей моделью VQG для каждого из предложенных изображений.Этих изображений не было в обучающем наборе, поскольку они были взяты из фотоальбомов, поэтому модель впервые использовала эти изображения в качестве входных данных.Глядя на вопросы, мы легко можем понять, что модель способна не только генерировать вопросы грамматически правильно, но и понимать содержание изображения и задавать вопросы.Более того, мы хотели не только генерировать только один вопрос для каждого изображения, но и предложить до пяти вопросов для более глубокого разговора.Мы использовали разные типы изображений, так как нам нужна была надежная модель, способная работать со всеми типами изображений.В Таблице TABREF16 мы видим как старые серые, так и цветные фотографии, как с вертикальными, так и с горизонтальными формами.На большинстве изображений, которые мы выбрали для тестирования, были изображены люди, потому что именно такие изображения используются в терапии воспоминаний, поскольку они вызывают воспоминания об отношениях с этими людьми.Мы также протестировали изображения домашних животных, автомобилей и мотоциклов, поскольку некоторые люди очень привязаны к ним, вызывая сильные эмоции.Большую часть сгенерированных вопросов может задать человек.Тем не менее, мы нашли некоторые вопросы, например: «Как машина была повреждена?»которые не соответствуют содержанию изображения или плохо сформулированы, например «Какое это тело собаки?», но их легко понять.Что касается модуля чат-бота, мы тестируем его вручную, общаясь с ним.В следующих строках мы видим два примера диалога, где каждое предложение, начинающееся с «$>$», является входными данными для нашей модели seq2seq.В этом первом примере модель чат-бота явно переоснащена, поскольку она повторяет одно и то же предложение дважды.Во втором примере мы видим, что модель может следить за разговором.Переоснащенная модель чат-бота:$>$ приветЭлизабот: привет!как дела?$>$ в порядке, а ты?Элизабот: у меня все хорошо, у тебя есть хобби?$>$да, я люблю кататься на лыжахЭлизабот: я люблю заниматься спортом.это мой любимый$>$ У меня есть сестраЭлизабот: у меня есть собака.я люблю их .$>$У меня тоже есть собакаЭлизабот: у меня есть собака.я люблю их$>$ окЭлизабот : я не очень хороший человек$>$ почему?Элизабот :я люблю заниматься спортом.это моя любимая последняя модель чат-бота:$>$ приветЭлизабот:привет, как дела?$>$ в порядке, а ты?Элизабот :У меня все отлично !$>$ У меня есть сестра, у тебя есть брат или сестра?Элизабот: у меня есть iPhone, но я понятия не имею.$>$окЭлизабот : я большая фанатка тронов$>$ я тожеЭлизабот : я люблю здоровое питание$>$ ты видела последнюю главу?Элизабот :нет, у меня нет .$>$где ты живешь?Элизабот: я живу в горах. Поскольку большинство показателей очень слабо коррелируют с человеческими суждениями в нетехнической области, BIBREF31мы решили оценить нашу систему с помощью простого пользовательского исследования с участием двух пациентов.Мы представляем построенный пользовательский интерфейс и отзывы, полученные от пациентов.Мы разработали пользовательский интерфейс Elisabot с Telegram, приложением для обмена мгновенными сообщениями, доступным для смартфонов или компьютеров.Мы выбрали его, потому что он прост в использовании и предлагает разработчикам API для подключения ботов к системе Telegram.Он позволяет создавать специальные учетные записи для ботов, для настройки которых не требуется номер телефона.Telegram — это всего лишь интерфейс для кода, работающего на сервере.Бот запускается через HTTP-запрос к API.Пользователи могут начать разговор с Elisabot, набрав @TherapistElisabot в поисковике и выполнив команду /start, как показано на рисунке FigREF31.Сообщения, команды и запросы, отправленные пользователями, передаются программному обеспечению, работающему на сервере.Добавляем /change, /yesи команды /exit для включения дополнительных функций./Change дает пользователю возможность изменить изображение в случае, если пользователь не хочет об этом говорить, /yes принимает изображение, о котором будет говорить, и /exit завершает диалог с Elisabot.Команды можно выполнить, нажав на связанный текст или набрав их.Мы разработали исследование удобства использования, в котором пользователи с легкими когнитивными нарушениями и без них взаимодействовали с системой с помощью врача и одного из авторов.Целью было изучить приемлемость и осуществимость системы у пациентов с легкими когнитивными нарушениями.Все пользователи были старше 60 лет.Сеансы длились 30 минут и проводились с использованием портативного компьютера, подключенного к Telegram.Поскольку язык Elisabot — английский, мы переводили вопросы пользователям и ответы Elisabot.Рисунок FigREF38 представляет собой образец сеанса, который мы провели с пациентами с легкими когнитивными нарушениями из анонимного учреждения и места.Изображение, предоставленное пациентом (рис. FigREF37, размыто в целях соблюдения прав пользователя на конфиденциальность.В этом эксперименте все сгенерированные вопросы соответствовали содержанию изображения, но по некоторым ответам обратная связь была неправильной.Мы видим, что это было последнее изображение сеанса, поскольку, когда Elisabot спрашивает, хочет ли пользователь продолжить или выйти, и он решает продолжить, Elisabot завершает сеанс, поскольку больше не осталось изображений, о которых можно было бы говорить.В конце занятия мы провели опрос, чтобы задать участникам следующие вопросы об их оценке Elisabot: Понравилось ли вам это? Понравилось ли вам это? Насколько сложно вам это показалось? Ответы давались по пятибалльной шкале. от совершенно не согласен (1) до полностью согласен (5) и от очень простого (1) до очень сложного (5).Результаты составили 4,6 за забавность и увлекательность и 2,6 за сложность.Здоровые пользователи сочли его очень простым в использовании (1/5) и даже немного глупым из-за некоторых вопросов и комментариев.Тем не менее, пользователи с легкими когнитивными нарушениями сочли это занятие интересным (5/5) и сложным (4/5), поскольку им пришлось приложить усилия, чтобы запомнить ответы на некоторые из сгенерированных вопросов.Всех пользователей объединяло то, что им нравилось проходить терапию с помощью Elisabot.Мы представили диалоговую систему для проведения 30-минутных сеансов терапии воспоминаниями.Элизабот, наш диалоговый агент, ведет терапию, показывая картинку и задавая вопросы.Цель системы — улучшить настроение пользователей, стимулировать их память и коммуникативные навыки.Для создания диалоговой системы терапии воспоминаний были предложены две модели.Визуальный генератор вопросов, состоящий из CNN и LSTM с вниманием и последовательной моделью для генерации обратной связи по ответам пользователя.Мы понимаем, что точная настройка нашей модели чат-бота с другим набором данных улучшила генерируемый диалог.Ручная оценка показывает, что наша модель может генерировать вопросы и отзывы, хорошо сформулированные грамматически, но в некоторых случаях неподходящие по содержанию.Как и ожидалось, он имеет тенденцию давать неконкретные ответы и терять последовательность комментариев по отношению к тому, что было сказано ранее.Однако общая оценка удобства использования системы пользователями с легкими когнитивными нарушениями показывает, что сеанс показался им очень интересным и сложным.Им пришлось приложить усилия, чтобы запомнить ответы на некоторые вопросы, но они были очень довольны, когда добились этого.Тем не менее, мы видим, что для правильного проведения терапии необходим человек, который поддерживает пользователя и помогает вспомнить переживания, о которых его спрашивают.Этот проект имеет множество возможных будущих направлений.В нашей будущей работе мы предлагаем обучить модель, включая набор данных Reddit, который может улучшить модель чат-бота, поскольку в ней много разговоров в открытом домене.Более того, мы хотели бы включить распознавание и генерацию речи, а также перевод текста в реальном времени, чтобы сделать Elisabot более автономным и открытым для пожилых людей с трудностями в чтении и письме.Кроме того, отсутствия последовательности в диалоге можно избежать, улучшив архитектуру, включив в модель информацию о переданном разговоре.Мы также считаем, что было бы неплохо распознавать чувства пользователей в ответах и ​​оставлять отзывы в соответствии с ними.Мариоан Карос финансировался за счет стипендии Fundacion Vodafona Spain.Петиа Радева частично финансировалась за счет TIN2018-095232-B-C21, SGR 1742 2017 года, Nestore, Validithi и Программы CERCA/Generalitat de Catalunya.Мы выражаем благодарность корпорации NVIDIA за пожертвование графических процессоров Titan Xp.
Поскольку люди живут дольше, чем когда-либо, число случаев деменции, такой как болезнь Альцгеймера, неуклонно растет. От него страдают более 46 миллионов человек во всем мире, и, по оценкам, в 2050 году от него пострадают более 100 миллионов человек. Хотя эффективных методов лечения этих неизлечимых заболеваний не существует, рекомендуются такие методы лечения, как воспоминание, которые стимулируют воспоминания из прошлого. В настоящее время терапия воспоминаниями проводится в домах престарелых под руководством терапевта или опекуна. В этой работе мы представляем решение на основе искусственного интеллекта для автоматизации терапии воспоминаний, которое состоит из диалоговой системы, которая использует фотографии в качестве входных данных для генерации вопросов. Мы провели исследование юзабилити с участием пациентов с легкими когнитивными нарушениями, которое показало, что они находят систему очень интересной и сложной. В целом, в этой статье показано, как терапию воспоминаний можно автоматизировать с помощью машинного обучения и развернуть на смартфонах и ноутбуках, что сделает терапию более доступной для каждого человека, страдающего деменцией.
3,502
QasperSumInstruct
ru
Напиши аннотацию по статье
Гарри Поттер и задача прогнозирования действий на основе естественного языка. Обработка естественного языка (NLP) достигла значительных успехов в задачах понимания прочитанного BIBREF0, BIBREF1.Частично это связано с внедрением методов BIBREF2, BIBREF3 и нейронных сетей BIBREF4, BIBREF5, BIBREF6, а также с наличием новых ресурсов и задач.Например, в задачах замкнутой формы BIBREF7 , BIBREF8 цель состоит в том, чтобы предсказать пропущенное слово с учетом короткого контекста.Weston2015towards представил baBI, набор прокси-задач для понимания прочитанного.Целью корпуса SQuAD BIBREF9 является ответ на вопросы по отрывку из Википедии.2017arXiv171207040K представляет NarrativeQA, где для ответа на вопросы требуется обрабатывать целые истории.В аналогичной строке 2017arXiv171011601F использует данные расследования вымышленного места преступления из серии CSI, чтобы определить задачу, в которой модели пытаются ответить на вопрос: «Кто совершил преступление?».В альтернативном направлении работы индукция сценария BIBREF10 также оказалась полезным подходом для оценки логических и семантических возможностей систем NLP.Здесь модель обрабатывает документ, чтобы вывести новые последовательности, отражающие статистически вероятные события (например, пойти в ресторан, сесть, проверить меню и т. д.).Например, в Chambers2008unsupervised представлены повествовательные цепочки событий, представляющие структурированные знания о наборе событий, происходящих вокруг главного героя.Затем они предлагают метод изучения статистических сценариев, а также представляют две разные стратегии оценки.С этой же целью Pichotta2014Statistical предлагает представление статистических сценариев с несколькими событиями, чтобы иметь возможность учитывать несколько объектов.Те же авторы BIBREF11 также изучили возможности рекуррентных нейронных сетей для обучения сценариям, генерации предстоящих событий с учетом необработанной последовательности токенов, используя bleu BIBREF12 для оценки.Вместо этого в этой статье исследуется новая задача: прогнозирование действий на основе описаний сцен на естественном языке.Задача решается следующим образом: учитывая входную последовательность естественного языка, описывающую сцену, например фрагмент истории, взятый из стенограммы, цель состоит в том, чтобы сделать вывод, какое действие, скорее всего, произойдет следующим.Чтобы построить корпус прогнозирования действий, нам необходимо: (1) рассмотреть набор действий и (2) собрать данные там, где они происходят.Данные должны поступать от разных пользователей, чтобы приблизиться к реальной задаче на естественном языке.Кроме того, его необходимо аннотировать, определяя, что фрагмент текста в конечном итоге вызывает действие.Однако эти задачи отнимают много времени, поскольку требуют от аннотаторов читать огромные объемы больших текстов.В этом контексте ресурсы машинного понимания обычно устанавливают компромисс между их сложностью и затратами на их создание BIBREF7 , BIBREF13 .Мыположитесь на интуитивную идею, которая использует расшифровки из мира Гарри Поттера для создания корпуса для текстового прогнозирования действий.Эта область имеет набор желательных свойств для оценки систем понимания прочитанного, которые мы сейчас рассмотрим.В романах о Гарри Поттере описаны различные заклинания.Это ключевые слова, которые ведьмы и волшебники используют для достижения целей, таких как включение света («Люмос»), открытие двери («Алохомора») или убийство («Авада Кедавра»).Они абстрагируют сложные и однозначные действия.Их использование также позволяет создать автоматический и самоаннотируемый корпус для прогнозирования действий.Момент появления заклинания в тексте представляет собой реакцию на окружающую среду, и, следовательно, его можно использовать для обозначения предыдущего фрагмента текста как описания сцены, которое в конечном итоге запускает это действие.Таблица 1 иллюстрирует это некоторыми примерами из оригинальных книг.Это позволяет рассматривать тексты из волшебного мира Гарри Поттера как область действия корпуса предсказания действий, а заклинания – как набор подходящих действий.Однако определение длины предыдущего контекста, а именно фрагмента, который следует рассматривать как описание сцены, является нетривиальной задачей.В данной статье рассматриваются эксперименты (§ «Эксперименты») с использованием сниппетов с 32, 64, 96 и 128 предыдущими токенами действия.Мы предоставляем необходимые скрипты для перестроения корпуса произвольной длины.Количество вхождений заклинаний в оригинальных книгах о Гарри Поттере невелико (432 вхождения), что затрудняет обучение и тестирование модели машинного обучения.Однако количество доступных фанфиков по этой саге позволяет создать большой корпус.Для hpac мы использовали фанфики (и только фанфики) с https://www.fanfiction.net/book/Harry-Potter/ и версию сканера от milli2016beyond.Мы собрали истории о Гарри Поттере, написанные на английском языке и отмеченные статусом «завершено».Из них мы извлекли в общей сложности 82 836 вхождений заклинаний, которые использовали для получения описаний сцен.В таблице 2 представлена ​​статистика корпуса (см. также Приложение «Распределение корпуса»).Обратите внимание, что, как и в случае с корпорациями Twitter, фанфики могут со временем удаляться пользователями или администраторами, что приводит к потерям в наборе данных.Мы токенизировали образцы с помощью BIBREF14 и объединили случаи заклинаний, состоящих из нескольких слов, в один токен.В этой работе эта задача рассматривается как проблема классификации и, в частности, как последовательность маркировки проблемы классификации.По этой причине мы полагаемся на стандартные модели, используемые для задач такого типа: полиномиальную логистическую регрессию, многослойный персептрон, сверточные нейронные сети и сети долгосрочной краткосрочной памяти.Мы обрисуем основы каждой из этих моделей, но будем рассматривать их как черные ящики.В аналогичной теме kaushik2018 много обсуждает необходимость предоставления точных базовых показателей, которые помогут лучше понять улучшения, получаемые от будущих и сложных моделей, а также необходимость не требовать архитектурных новизн при внедрении новых наборов данных.Хотя в данной работе это и не сделано, альтернативным (но также естественным) способом решения этой задачи является частный случай языкового моделирования, когда выходной словарь ограничен размером словаря «действий».Также обратите внимание, что при выполнении этой задачи не ожидается идеальной точности, поскольку могут быть ситуации, когда разумно более одного действия, а также потому, что писатели рассказывают историю, играя с такими элементами, как удивление или неуверенность.Исходный код моделей можно найти в упомянутом выше репозитории GitHub.Входное предложение $w_{1:n}$ кодируется как горячий вектор $\mathbf {v}$ (схема взвешивания общего числа вхождений). Пусть mlr $_\theta (\mathbf {v})$ — абстракции полиномиальной логистической регрессии, параметризованной $\theta $ , выходные данные для входных данных $\mathbf {v}$ вычисляются как $\operatornamewithlimits{arg\,max}_{a \in A}$ $P(y =a|\mathbf {v})$ , где $P(y=a|\mathbf {v})$ — функция $softmax$, т. е. $P(y=a|\mathbf {v}) = \ frac{e^{W_{a} \cdot \mathbf {v}}}{\sum _{a^{\prime }}^{A} e^{W_{a^{\prime }} \cdot \mathbf {v}}}$ .Мы используем один скрытый слой с функцией активации выпрямителя ( $relu(x)$ = $max(0,x)$ .Выходные данные вычисляются как mlp $_\theta (\mathbf {v})$ = $softmax(W_2 \cdot relu(W \cdot \mathbf {v} + \mathbf {b})+ \mathbf {b_2})$ .Входная последовательность представляется как последовательность вложений слов $\mathbf {w}_{1:n}$ , где $\mathbf {w}_i$ — объединение внутренних встраивание, полученное в процессе обучения для слова $w_i$ , и предварительно обученное встраивание, извлеченное из GloVe BIBREF15 , которое дополнительно дорабатывается.BIBREF5 :Вывод элемента $\mathbf {w}_i$ также зависит от вывода $\mathbf {w}_{i-1}$ .lstm $_\theta (\mathbf {w}_{1:n})$ принимает на вход последовательность вложений слов и выдает последовательность скрытых выходных данных, $\mathbf {h}_{1:n}$ ( Размер $\mathbf {h}_{i}$ установлен на 128).Последний вывод lstm $_\theta $ , $\mathbf {h}_n$ , передается в mlp $_\theta $ .БИБРЕФ16, БИБРЕФ17.Он фиксирует локальные свойства непрерывных фрагментов текста, применяя слой свертки, состоящий из различных фильтров.Мы используем широкую свертку с размером среза окна длиной 3 и 250 различными фильтрами.Сверточный слой использует $\mathit {relu}$ в качестве функции активации.Выходные данные передаются на уровень максимального пула, чей выходной вектор снова передается в качестве входных данных в mlp $_\theta $ .Weисследовал предсказание действий на основе письменных рассказов.Мы впервые представили корпус в мире литературы о Гарри Поттере.Заклинания в этих романах действуют как ключевые слова, абстрагирующие действия.Эта идея была использована для обозначения сборника фанфиков.Затем мы оценили стандартные подходы NLP, от логистической регрессии до последовательных моделей, таких как LSTMS.Последний в целом показал лучшие результаты, хотя ванильные модели показали более высокую производительность для действий, которые происходили несколько раз в обучающем наборе.Анализ результатов подхода LSTM также выявил трудности с различением семантически связанных действий.Предлагаемая здесь задача соответствовала вымышленной области.Будущее направление работы, которое нас интересует, — это проверить, могут ли знания, полученные с помощью этого набора данных, быть перенесены в действия реального слова (т. е. настройки реальной предметной области), или такая передача невозможна и модель необходимо обучать на основе царапать.Эта работа получила поддержку со стороны проекта TELEPARES-UDC (FFI2014-51978-C2-2-R) и проекта ANSWER-ASAP (TIN2017-85160-C2-1-R) от MINECO, а также от Xunta de Galicia (ED431B 2017). /01) и Европейского исследовательского совета (ERC) в рамках программы исследований и инноваций Европейского Союза Horizon 2020 (FASTPARSE, грантовое соглашение № 714150). В Таблице 6 показано распределение меток по наборам обучения, разработки и тестирования HPAC. корпус.
Мы исследуем проблему прогнозирования действий на основе текстовых описаний сцен, являясь испытательным стендом для оценки того, можно ли использовать текстовый вывод для прогнозирования предстоящих действий. В качестве примера исследования мы рассматриваем мир фэнтезийных романов о Гарри Поттере и делаем вывод, какое заклинание будет применено следующим, исходя из фрагмента истории. Заклинания действуют как ключевые слова, которые абстрагируют действия (например, «Алохомора», чтобы открыть дверь) и обозначают реакцию на окружающую среду. Эта идея используется для автоматического построения HPAC — корпуса, содержащего 82 836 образцов и 85 действий. Затем мы оцениваем различные исходные показатели. Среди протестированных моделей подход на основе LSTM обеспечивает наилучшую производительность для частых действий и описаний больших сцен, но такие подходы, как логистическая регрессия, хорошо себя чувствуют при нечастых действиях.
1,728
QasperSumInstruct
ru
Напиши аннотацию по статье
AandP: использование Пролога для преобразования между активным предложением и пассивным предложением с трехэтапным преобразованием.. Язык играет важнейшую роль в жизни человека.Язык – это структурированная система общения BIBREF2.В мире существуют различные языковые системы, оценочное количество которых составляет от 5000 до 7000 BIBREF3.Обработка естественного языка (НЛП), которую мы обычно слышим, является подобластью лингвистики.НЛП направлено на обеспечение взаимодействия между компьютерами и человеческими языками.Производительность НЛП оценивается по тому, как компьютеры могут обрабатывать и анализировать большие объемы данных естественного языка BIBREF4.Говоря о языковой обработке, нельзя не упомянуть компьютерную лингвистику BIBREF5.Компьютерная лингвистика — это научное исследование языка с вычислительной точки зрения и, следовательно, междисциплинарная область, включающая лингвистику, информатику, математику, логику, когнитивную науку и когнитивную психологию.Одним из наиболее полезных инструментов для изучения компьютерной лингвистики является язык программирования Пролог BIBREF0.Пролог — язык логического программирования, связанный с искусственным интеллектом и компьютерной лингвистикой.Пролог может помочь решить проблемы, связанные не только с логическими головоломками (криптоарифметические головоломки, головоломки «Зебра» и т. д.), но и с обработкой естественного языка.В этой работе я использовал Пролог вместе с грамматикой определенного предложения (DCG) BIBREF1 для решения одного из важнейших аспектов английской грамматики, активного предложения и пассивного предложения.DCG доказывает эффективность обработки грамматики предложения.По сути, предложение состоит из именной фразы и глагольной фразы, поэтому в этой работе будут рассмотрены структура предложения, именной фразы и глагольной фразы.Что касается грамматики английского языка, нам нужно решить множество задач, как показано на рисунке FigREF1.Например, в английском языке 12 времен: простое прошедшее время, простое настоящее время, совершенное настоящее время и т. д.У нас также есть более трех типов условного предложения, более трех типов сравнительного предложения и так далее.В этой работе рассматривается содержание активного предложения и пассивного предложения.Например, если активное предложение — «мужчина покупает яблоко в супермаркете», то соответствующее ему пассивное предложение будет «яблоко покупает мужчина в супермаркете».Основные правила переписывания активного предложения в пассивное предложение ясно показаны на рисунке FigREF2. Как показано на рисунке FigREF2, основные правила таковы: Объект активного предложения становится субъектом пассивного предложения; Подлежащее активного предложения становится объектом пассивного предложения. объект пассивного предложения; Конечная форма глагола меняется на «быть + причастие прошедшего времени».Насколько я понимаю, существует лишь несколько работ, в которых упоминается проблема активного и пассивного предложения с точки зрения обработки языка и компьютерной лингвистики.Преобразование между активным предложением и пассивным предложением было ранее упомянуто в BIBREF6 с использованием правила преобразования для выражения связи между активным и пассивным предложениями.В соответствии с этим правилом создается дерево разбора, чтобы представить глубокую структуру и определить, является ли данное предложение активным или пассивным.Аналогичным образом, BIBREF7 также использовал сопоставление «дерево-дерево» для представления правила преобразования активный/пассивный.Однако эти работы просто остановились на представлении о том, как преобразовать активное предложение в пассивное, и не разрешили многие из них.На самом деле существует множество случаев активных и пассивных предложений, что приводит к дополнительным правилам преобразования между ними.Разобраться со всеми этими случаями непросто, и это основная задача данной работы.Мой вклад показан следующим образом: Насколько мне известно, это может быть первая работа, использующая Пролог и DCG для решения различных случаев преобразования между активным предложением и пассивным предложением, таких как 12 английских времен, модальные глаголы, отрицательная форма и т. д. .Я предложил компактную версию представления предложения, как показано на рисунках FigREF48 и FigREF50. Чтобы иметь дело с 12 временами в английском языке, я предложил вспомогательное решение (представлено в разделе SECREF67) для разделения 12 времен на 4 группы.Это очень хорошее решение, которое уменьшает нагрузку по определению правил DCG.Я также предложил трехэтапное преобразование (представленное в разделе SECREF73) для преобразования активного предложения в пассивное предложение.Основная проблема этой работы заключается в том, насколько она способна обрабатывать дела.Есть множество случаев с точки зрения активного предложения и пассивного предложения.Случаи, которые я решил в этой работе, показаны следующим образом.Возможность преобразования: необходимым условием для преобразования активного предложения в пассивное является то, что активное предложение должно иметь объект.Например: Предложение «человек покупает яблоко» преобразуется в пассивную форму «яблоко покупает мужчина». Однако предложение «человек ходит в школу» не может быть переведено в пассивную форму из-за отсутствие объекта.Времена предложения: в английском языке 12 времен, таких как простое настоящее время, продолжительное прошедшее время, совершенное настоящее время, совершенное продолженное будущее время и т. д.Для каждого времени существует особый способ преобразования активного предложения в пассивное.Например (из активной формы в пассивную): В простом настоящем времени: «мужчина покупает яблоко» преобразуется в «яблоко покупает мужчина»; в совершенном настоящем времени: «мужчина купил яблоко». «преобразуется в «мужчина купил яблоко».В этой работе рассматриваются все эти 12 времен.Форма причастия прошедшего времени: обычно глагол преобразуется в форму причастия прошедшего времени путем добавления «ed» в конце (пример: «add» становится «добавленным», «look» становится «смотрел»).Однако есть некоторые исключения, например, «купить» становится «купленным», «посмотреть» становится «увиденным» и т. д.Случай отрицательного приговора.Например, отрицательная форма предложения «мужчина покупает яблоко» — это «мужчина не покупает яблоко», а соответствующее пассивное предложение — «яблоко не покупает мужчина».Случай модального глагола: модальные глаголы (также называемые модальными, модальными вспомогательными глаголами, модальными вспомогательными глаголами) — это особые глаголы, которые ведут себя в английском языке нерегулярно.Они отличаются от обычных глаголов, таких как «работать», «играть», «посещать» и т. д.За модальными глаголами всегда следует инфинитив без «to».Например, предложение «мальчик должен принести ручку в класс» преобразуется в пассивную форму: «мальчик должен принести ручку в класс» (рис. РИС. 2). Более того, в этой работе рассматриваются также случаи единственное/множественное число, подлежащее местоимение/объектное местоимение и т. д.Например, местоимение «он» используется для субъекта как «он», но используется для объекта как «он».Целью этой работы являются предложения: активное предложение и пассивное предложение, поэтому мне нужно определить представление как активного предложения, так и пассивного предложения.Активное предложение состоит из именной группы и глагольной группы.Поэтому в основном представлением активного предложения является s(NP,VP).Существительная или глагольная группа состоит из фундаментальных элементов, таких как определитель, существительное, прилагательное, глагол и т. д.Проще говоря, представление фундаментальных элементов показано следующим образом: Определитель: det(X).Пример: det(a), det(an), det(the) и т. д. Существительное: n(X).Пример: n(мужчина), n(женщина), n(яблоко) и т. д. Местоимение: pro(X).Пример: pro(он), pro(она), pro(он) и т.д. Прилагательное: adj(X).Пример: adj(маленький), adj(большой), adj(красивый) и т.д.Глагол: v(X).Пример: v(играть), v(нравится), v(любовь) и т.д.Предлог: пре(Х).Пример: pre(on), pre(in), pre(by) и т.д.Вспомогательный глагол: aux(X).Пример: aux(do), aux(делает), aux(is), aux(be) и т. д.На самом деле в этой работе используются три типа вспомогательных глаголов.Например, в предложении «ты будешь любить их» (перфектное продолженное будущее время) есть три вспомогательных глагола: «будет», «имел», «был», которые определяются тремя предикатами aux/5, aux1/4, aux2. /4, как показано в исходном коде (convertible.pl) соответственно.Вспомогательный глагол для обозначения времени в пассивной форме: auxTense(X).Существует три группы auxTense: Группа 1: включает только простое будущее время: auxTense(be).Пример: «Купят яблоко, купи мужчину».Группа 2: состоящая из непрерывного прошедшего времени, непрерывного настоящего времени, непрерывного будущего времени, совершенного продолженного прошедшего времени, совершенного продолженного настоящего времени и совершенного продолженного будущего времени: auxTense(бытие).Пример: «яблоко покупал мужчина», «яблоко он будет покупать».Группа 3: включая совершенное прошедшее время, совершенное настоящее время и совершенное будущее время: auxTense(been).Пример: «яблоко купил мужчина», «яблоко купил мужчина».Модальный глагол: модальный(X).Пример: модальный(должен), модальный(может), модальный(может) и т.д.Более того, в этой работе также используется pol(not) для отрицательной формы и агент(by) для пассивной формы.Для именной группы существует несколько способов ее построения, например: Существительная группа состоит из определителя и существительного, поэтому ее представлением является np(DET,N).Пример: существительная фраза «человек» имеет представление np(det(the),n(man)).Именная группа построена из местоимений, таких как «он», «она», «мы» и т. д.В этом случае существительная группа представляет собой просто np(PRO).Например: np(pro(he)).Именная группа состоит из определителя, прилагательных и существительного.В этом случае представлением именной группы является np(DET,ADJ,N).Например, именное словосочетание «маленькая красивая девочка» имеет представление np(det(a),adi([маленькая, красивая]), n(девушка)). предложная фраза.Представление именной группы в этом случае — np(DET,N,PP), np(PRO,PP) или np(DET,ADJ,N,PP).Например, именное словосочетание «кот на большом столе» имеет представление isnp(det(a),n(cat),pp(pre(on),det(the),adj([big]),n( таблица))).Из глагольного словосочетания существует два способа построения глагольного словосочетания: Глагольное словосочетание строится из глагольного и именного словосочетания.В этом случае представление глагольной фразы — vp(V,NP).Например, глагольная фраза «любить красивую женщину» имеет представление vp(v(любовь), np(det(a), adj([красивая]), n(женщина))). Глагольная фраза состоит из состоит только из глагола, поэтому его представлением является просто vp(V).Пример: vp(v(любовь)) или vp(v(есть)).Фактически, как было показано выше, чтобы иметь возможность преобразовать активное предложение в пассивное, активное предложение должно иметь объект.Поэтому случай глагольной группы vp(V) в данной работе рассматриваться не будет.Имея представление именной фразы и глагольной фразы, можно было получить представление предложения.Первоначально активное предложение «он покупает яблоко» имеет представление iss(np(pro(he)),vp(v(buys),np(det(an),n(apple)))). Однако, как представлено выше, в этой работе рассматривается только случай глагольной фразы vp(V,NP), поэтому я предложил компактную версию представления предложения, как показано на рисунке FigREF48. Следовательно, активное предложение «он покупает яблоко» имеет представление iss(np(pro(он)), v(покупает), np(det(an), n(apple))). Пассивное предложение «яблоко покупается им» имеет представление iss(np(det(an ), n(apple)), aux(is), v(куплено), агент(by), np(pro(him))). Как представлено в DCG BIBREF1, представление предложения представлено «деревом разбора». ", как показано на рисунке FigREF48 (активное предложение) и рисунке FigREF50 (пассивное предложение).Дерево разбора можно найти с помощью продвинутых методов, таких как дополнительные аргументы и дополнительные цели.«Вывод» — это преобразование между предложением и его представлением или даже преобразование между активным предложением и пассивным предложением: Учитывая предложение, «вывод» — это процесс получения представления этого предложения; Учитывая представление предложения , «вывод» — это процесс получения этого предложения.Конечная цель этой работы состоит в том, что: Учитывая активное предложение, мы получим соответствующее пассивное предложение; и наоборот. Учитывая пассивное предложение, мы получим соответствующее активное предложение.Пользователь взаимодействует с программой, создавая запрос в форме (рис. FigREF56):convert(ActiveS, ActiveRe, PassiveS, PassiveRe). Где: ActiveS: активное предложение, представленное списком, где каждый элемент списка соответствует каждому слову предложение.Пример:[he,buys,an,apple].ActiveRe: представление активного предложения ActiveS.Пример: s(np(pro(he)),v(buys),np(det(an),n(apple))) .PassiveS: пассивное предложение, представленное списком, где каждый элемент списка соответствует каждому слову предложения.Пример:[яблоко,куплено им].PassiveRe: представление пассивного предложения PassiveS. Пример: s(np(det(an),n(apple)),aux(is),v(куплено),агент(by),np(pro(him))).Ввод будет либо ActiveS, либо PassiveS для случай преобразования активного предложения в пассивное предложение и случай преобразования пассивного предложения в активное предложение соответственно.Существует несколько случаев вывода: если входные данные — ActiveS и они могут быть преобразованы в пассивное предложение, выходные данные будут ActiveRe, PassiveS и PassiveRe.Если входные данные — PassiveS и они могут быть преобразованы в активное предложение, выходные данные будут ActiveS, ActiveRe и PassiveRe.Если вход ActiveS или PassiveSно он не может преобразовать в пассивное/активное предложение, результат будет «ложным».Есть некоторые случаи, которые невозможно преобразовать: ActiveS — активное предложение, но набирается как пассивное предложение; PassiveS — пассивное предложение, но набирается как активное предложение; ActiveS — активное предложение, не имеющее объекта.Пример: предложение «он идет» не может быть преобразовано в пассивное предложение.В частности, мы можем задать запрос без ввода, и программа сгенерирует все возможные случаи активного и пассивного предложения.Некоторые примеры, призванные сделать взаимодействие с пользователем более понятным, будут представлены в разделе SECREF4. В английском языке 12 времен.Каждое время имеет определенную структуру предложения.Если каждое время рассматривать индивидуально, это будет довольно долго и не будет оптимальным решением.Поэтому, как мое лучшее наблюдение, я нашел решение, которое делит 12 английских времен на 4 группы (один и тот же цвет означает одну и ту же группу) в зависимости от количества вспомогательных глаголов в активном предложении.Это решение обобщено на рисунке FigREF72 и состоит из: Группа 1: количество вспомогательных глаголов в активном предложении равно 0.В эту группу входят простое прошедшее время и простое настоящее время; Группа 2: количество вспомогательных глаголов в активном предложении равно 1.В этой группе 5 времен: простое будущее время, продолжительное прошедшее время, продолжительное настоящее время, совершенное прошедшее время и совершенное настоящее время; Группа 3: количество вспомогательных глаголов в активном предложении равно. до 2.В эту группу входят слитное будущее время, совершенное будущее время, совершенное длительное прошедшее время и совершенное длительное настоящее время; Группа 4: количество вспомогательных глаголов в активном предложении равно 3.В этой группе есть только одно время — будущее время совершенного продолженного вида.Как мы можем легко видеть на рисунке FigREF72, времена в одной группе имеют одинаковую структуру представления.Например, правила DCG для активного предложения и пассивного предложения группы 3 реализуются следующим образом.Трехэтапное преобразование состоит из трех этапов: из входного предложения, поданного в виде списка, программа сначала находит представление предложения.Затем по представлению активного или пассивного предложения программа находит представление пассивного или активного предложения соответственно.Из представления, полученного на втором шаге, программа возвращает преобразованное предложение в виде списка.Реализация трехэтапного преобразования (написанного в Convert.pl) показана следующим образом.Первый и третий шаги выполняются с использованием правил DCG (реализованных в Convertible.pl).Второй шаг легко выполнить по следующему правилу: Как вы можете видеть выше, второй шаг легко выполнить, выполнив преобразование между соответствующими элементами.Более подробную информацию о других группах можно найти на сайте Convert.pl.Все приведенные выше реализации относятся к положительной форме предложения.Отрицательную форму предложения можно легко создать, унаследовав правила, определенные для положительной формы.Правило DCG для отрицательной формы реализуется следующим образом.Правила DCG для отрицательной формы почти аналогичны правилам положительной формы, за исключением предиката pol/1.Однако на втором этапе для отрицательной формы полностью используется правило для положительной формы следующим образом.Однако есть исключение для 2-го шага для группы 1, для него требуется дополнительное правило, например: Как мы видим выше, отрицательная форма группы 1 требует дополнительного правила lex(AUX_POL,pol,Tense,Qs), потому что в в этой отрицательной форме необходим дополнительный вспомогательный глагол.Например, положительное предложение — «он покупает яблоко», а соответствующее отрицательное предложение — «он не покупает яблоко».Другие реализации, такие как лексикон, модальные глаголы и т. д., тщательно прописаны в исходном коде.Эта работа уже была проделана с тремя файлами:convertible.pl: реализация правил DCG для 1-го и 3-го шагов трехэтапного преобразования, а также других правил, включая lexicon.convert.pl: реализация трехэтапного преобразования и его 2-го преобразования. Step.testSuite.pl: предоставление команд для взаимодействия с пользователем.Пользователям не нужно вводить входное предложение в виде списка (например, [the, man, buys, an, apple]), но они могут вводить предложение обычным способом (непосредственно ввести: мужчина покупает яблоко), используя две команды: активный и пассивный.Более того, пользователи могут легко проверить корректность работы программы, используя две команды набора тестов: activeTestSuite и пассивныйTestSuite.Некоторые примеры выполнения показаны ниже.Следует отметить, что если пользователи используют активные или пассивные команды, все, что они вводят, должно быть определено в словаре, или пользователи должны определять их в словаре (реализованном в Convertible.pl). Я попытался решить проблему активных и пассивные предложения с использованием Пролога с точки зрения вычислительной лингвистики.Наблюдая за возможностью преобразования активного предложения в пассивное, я предложил компактную версию представления предложения (рис. FigREF48 и рис. FigREF50).Я также представил решение под названием «Решение на основе вспомогательных устройств» (раздел SECREF67), позволяющее работать с 12 временами в английском языке.Решение на основе вспомогательных средств помогает снизить нагрузку по определению правил DCG.Наконец, я предложил трехэтапное преобразование (раздел SECREF73) для преобразования активного предложения в пассивное предложение.В будущем в этой работе следует как можно больше рассмотреть решение других случаев активных и пассивных предложений.
Я представляю простой, но эффективный метод решения одного из важнейших аспектов английской грамматики — взаимосвязи между активным и пассивным предложением. Фактически активное предложение и соответствующее ему пассивное предложение выражают один и тот же смысл, но их структура различна. Я использовал Пролог [4] вместе с грамматикой определенного предложения (DCG) [5] для преобразования активного предложения в пассивное предложение. Также использовались некоторые продвинутые методы, такие как дополнительные аргументы, дополнительные цели, лексикон и т. д. Я пытался решить различные случаи активных и пассивных предложений, таких как 12 английских времен, модальные глаголы, отрицательная форма и т. д. Более подробная информация и мой вклад будут представлены в следующих разделах. Исходный код доступен по адресу https://github.com/tqtrunghnvn/ActiveAndPassive.
3,270
QasperSumInstruct
ru
Напиши аннотацию по статье
Нейросимволические архитектуры для понимания контекста. Понимание контекста — это естественное свойство человеческого познания, которое поддерживает наши способности принимать решения в сложной сенсорной среде.Люди способны объединять информацию из различных модальностей|например, слуховых, визуальных|для выполнения различных задач, начиная от управления автомобилем и заканчивая выработкой логических выводов, основанных на здравом смысле.Аллен Ньюэлл и Герберт Саймон описали эту способность к осмыслению в своей теории познания BIBREF0, BIBREF1: посредством сенсорных стимулов люди накапливают опыт, обобщают и рассуждают над ним, сохраняя полученные знания в памяти; Динамическое сочетание живого опыта и очищенных знаний во время выполнения задач позволяет людям принимать эффективные по времени решения и оценивать, насколько хорошим или плохим было решение, принимая во внимание внешнюю обратную связь.Наделение машин способностью воспринимать смысл было одной из давних целей практики и исследований искусственного интеллекта (ИИ) как в промышленности, так и в научных кругах.Методы, основанные на данных, и методы, основанные на знаниях, являются двумя классическими методами поиска таких возможностей машинного осмысления.Осмысление — это не только ключ к повышению автономности машин, но и необходимое условие для обеспечения беспрепятственного взаимодействия с людьми.Люди эффективно общаются друг с другом благодаря общим ментальным моделям физического мира и социального контекста BIBREF2.Эти модели способствуют взаимному доверию, делая контекстуальные знания прозрачными; они также имеют решающее значение для объяснения того, как происходит процесс принятия решений.Подобным же образом мы можем утверждать, что «объяснимый ИИ» является побочным продуктом или возможностью понимания вычислительного контекста и зависит от степени, в которой люди могут самоанализировать процессы принятия решений, которые позволяют машинному осмыслению BIBREF3. объяснимый ИИ» и «понимание контекста» в предыдущем разделе, мы можем вывести следующее следствие: объяснимость алгоритмов ИИ связана с тем, как контекст обрабатывается вычислительно, на основе перцептивных способностей машины и внешних ресурсов знаний, которые доступный.В этом направлении оставшаяся часть главы исследует два конкретных сценария понимания контекста, реализуемые с помощью нейросимволических архитектур, то есть гибридных структур искусственного интеллекта, которые инструктируют машинное восприятие (на основе глубоких нейронных сетей) с помощью графов знаний.Эти примеры были выбраны, чтобы проиллюстрировать общую применимость нейросимволизма и его актуальность для современных исследовательских проблем.В частности, раздел SECREF3 рассматривает понимание контекста для беспилотных транспортных средств: мы описываем, как граф знаний может быть построен из набора данных о дорожных ситуациях в городе и как этот граф знаний может быть преобразован в непрерывное представление в векторном пространстве.Это пространство встраивания можно использовать для оценки семантического сходства визуальных сцен с помощью нейронных сетей в качестве мощных аппроксиматоров нелинейных функций.Здесь модели могут быть обучены оценивать опасность визуальной сцены и, при необходимости, передавать управление человеку в сложных сценариях.Способность проводить такую ​​оценку является важной возможностью для автономных транспортных средств, когда мы рассматриваем негативные последствия для машины, остающейся инвариантной к изменяющимся погодным условиям, аномальному поведению динамических препятствий на дороге (например, других транспортных средств, пешеходов), различному освещению. условиях и других сложных обстоятельствах.Мы предлагаем нейро-символическое слияние как одно из решений, и действительно, наши результаты показывают, что наше пространство встраивания сохраняет семантические свойства концептуальных элементов, составляющих визуальные сцены.В разделе SECREF17 мы описываем понимание контекста для языковых задач.Здесь модели снабжены тремя отдельными модальностями: внешним знанием здравого смысла, неструктурированным текстовым контекстом и рядом вариантов ответа.В этой задаче модели проверяются на их способность объединять эти разрозненные источники информации для создания соответствующих логических выводов.Мы разработали методы для извлечения адекватных семантических структур (то есть троек) из двух комплексных графов знаний здравого смысла, ConceptNet BIBREF6 и Atomic BIBREF7, и внедрения этого внешнего контекста в языковые модели.В общем, лингвистический контекст открытой области полезен для различных задач обработки естественного языка (НЛП), включая: извлечение информации, классификацию текста, экстрактивное и абстрактное обобщение и ответы на вопросы (QA).Для облегчения количественной оценки мы рассматриваем задачу обеспечения качества в разделе SECREF17.В частности, задача состоит в том, чтобы выбрать правильный ответ из пула кандидатов, учитывая вопрос, для решения которого конкретно требуется здравый смысл.Например, вопрос: Если не включается электрооборудование, какое соединение следует проверить?ассоциируется с «компанией», «аэропортом», «телефонной сетью», «проводами» и «автострадой» (где «провода» — правильный вариант ответа).Мы демонстрируем, что предложенная нами гибридная архитектура превосходит современные нейронные подходы, которые не используют структурированные базы знаний здравого смысла.Кроме того, мы обсуждаем, как наш подход сохраняет объяснимость в процессе принятия решений модели: перед моделью стоит общая задача — изучить распределение внимания в контексте здравого смысла, который, в свою очередь, зависит от троек знаний, которые были концептуально наиболее важны для выбора. кандидат на правильный ответ, ниже по течению.По сути, цель этого проекта — сделать взаимодействие человека с чат-ботами и личными помощниками более надежным.Чтобы это произошло, крайне важно снабдить интеллектуальных агентов общим пониманием общих контекстов, то есть здравым смыслом.Традиционно машинный здравый смысл выражался с помощью вычислений с использованием символических языков | Cyc является одним из наиболее ярких результатов этого подхода BIBREF8.Однако символические представления здравого смысла не являются ни масштабируемыми, ни всеобъемлющими, поскольку они сильно зависят от специалистов по инженерии знаний, которые их кодируют.В этом отношении появление глубокого обучения и, в частности, возможности объединения символических знаний в субсимволические (нейронные) слои недавно привело к возрождению этой темы исследований ИИ.В последнее время наблюдается значительный рост инвестиций в исследования и разработки в области автономного вождения (AD) с целью достижения полной автономности в ближайшие несколько лет.Реализация этой концепции требует надежных алгоритмов ML/AI, которые обучаются на огромных объемах данных.Тысячи автомобилей, оснащенных различными типами датчиков (например, LIDAR, RGB, RADAR), сейчас развернуты по всему миру для сбора этих разнородных данных из реальных сцен вождения.Основная цель AD — использовать эти данные для оптимизации конвейера восприятия транспортного средства для таких задач, как: обнаружение трехмерных объектов, отслеживание препятствий, прогнозирование траектории объекта и изучение идеальной политики вождения.Фундаментальным для всех этих задач будет способность понимания контекста транспортного средства, которая требует знания времени, местоположения, обнаруженных объектов, участвующих событий, погоды и различных других аспектов сцены вождения.Несмотря на то, что для этой цели используются самые современные технологии искусственного интеллекта, их текущая эффективность и масштабируемость недостаточны для достижения полной автономии.Люди естественным образом демонстрируют понимание контекста за рулем, где решения, которые мы принимаем, являются результатом постоянной оценки перцептивных сигналов в сочетании с базовыми знаниями.Например, водители-люди обычно знают, в каком районе района дорога может быть обледенелой в холодный зимний день, где после сильного дождя чаще случаются наводнения, на каких улицах с большей вероятностью дети играют после школы и на каких перекрестках плохая погода. осветительные приборы.В настоящее время этот тип общеизвестных знаний не используется для помощи беспилотным автомобилям, и из-за неэффективности выборки существующих алгоритмов ML/AI модели транспортных средств не могут эффективно изучать эти явления только посредством статистических наблюдений.18 марта 2018 года было сообщено о смерти Элейн Херцберг как о первом погибшем в результате столкновения с беспилотным транспортным средством.Расследование столкновения, проведенное Национальным советом по безопасности на транспорте (NTSB), отмечает недостатки нынешних технологий AD и понимания контекста.В частности, NTSB обнаружил, что беспилотное транспортное средство неправильно классифицировало Герцберг как неизвестный объект, транспортное средство, а затем велосипед в сложной сцене, когда она переходила дорогу.Дальнейшее расследование показало, что конструкция системы не учитывала пешеходов, идущих за пределами пешеходного перехода или переходящих дорогу в неположенном месте BIBREF9.Проще говоря, нынешней технологии AD не хватает фундаментального понимания характеристик объектов и событий в обычных сценах; это говорит о том, что необходимы дополнительные исследования для реализации концепции автономного вождения.Графы знаний (KG) успешно используются для управления разнородными данными в различных областях.Они способны интегрировать и структурировать данные и метаданные из разных модальностей в единое семантическое представление, закодированное в виде графа.Совсем недавно KG переводятся в представления скрытого векторного пространства, известные как встраивания графов знаний (KGE), которые, как было показано, повышают производительность моделей машинного обучения при применении к определенным последующим задачам, таким как классификация BIBREF10, BIBREF11.Учитывая KG как набор троек, алгоритмы KGE учатся создавать скрытое представление объектов и отношений KG в виде непрерывных векторов KGE.Эта кодировка позволяет легко манипулировать KGE и интегрировать их с алгоритмами машинного обучения.Наше исследование, мотивированное недостатками современных технологий понимания контекста, а также многообещающими результатами KGE, сосредоточено на создании и оценке KGE на данных AD.Однако прежде чем напрямую применять KGE в критических приложениях AD, мы оцениваем внутреннее качество KGE по множеству метрик и алгоритмов KGE BIBREF12.Кроме того, мы представляем раннее исследование использования KGE для выбранного варианта использования из домена AD.Набор данных.Чтобы стимулировать и обеспечить дальнейшие исследования в области автономного вождения, компании в этой области опубликовали несколько наборов контрольных данных (BIBREF13).NuScenes — это эталонный набор данных мультимодальных транспортных средств, недавно выпущенный Aptiv BIBREF14 и используемый для наших экспериментов.NuScenes состоит из набора 20-секундных сцен вождения с $\sim $40 подсценами, выбранными для каждой сцены вождения (т. е. по одной каждые 0,5 секунды).Всего NuScenes включает 850 сцен вождения и 34 149 подсцен.Каждая подсцена аннотирована обнаруженными объектами и событиями, каждое из которых определено в таксономии из 23 категорий объектов/событий.Онтология сцены.При автономном вождении сцена определяется как наблюдаемый объем времени и пространства BIBREF15.На дороге транспортное средство может столкнуться с множеством различных ситуаций, таких как выезд на разделенную автомагистраль, остановка на светофоре и обгон другого транспортного средства; все эти ситуации считаются обычными сценами вождения.Сцена инкапсулирует всю необходимую информацию о конкретной ситуации, включая данные датчиков автомобиля, объектов, событий, времени и местоположения.Сцену также можно разделить на последовательность подсцен.Например, сценой можно считать 20-секундную поездку, состоящую главным образом из того, как автомобиль выезжает на шоссе.Кроме того, все различные ситуации, с которыми сталкивается автомобиль в течение этих 20 секунд, также могут быть представлены как (под)сцены.В этом случае сцена может быть связана с временным интервалом и пространственной областью, тогда как подсцена может быть связана с конкретной отметкой времени и набором пространственных координат.Это семантическое представление сцены формально определено в онтологии сцены (см. рисунок FigREF8(a), изображенный в Protege).Чтобы обеспечить создание KG на основе данных в NuScenes, онтология сцены расширяется и включает в себя все концепции (т. е. объекты и категории событий), найденные в наборе данных NuScenes.Создание графиков знаний.Онтология сцены идентифицирует события и особенности интересов (FoI) как концепции верхнего уровня.Событие или FoI может быть связано со сценой посредством отношения «включает».FoI связаны с событиями через отношение isParticipantOf.На рисунке FigREF8(b) показано подмножество FoI и событий, определенных онтологией сцены.При создании KG сцен каждая сцена и подсцена, найденные в NuScenes, аннотируются с использованием онтологии сцены.В таблице TABREF9 показаны некоторые основные статистические данные сгенерированных алгоритмов KG.KGE.Алгоритмы KGE позволяют легко вводить знания в алгоритмы ML и повышать производительность задач обучения путем перевода знаний, содержащихся в графах знаний, в представление KGE в скрытом векторном пространстве BIBREF16.Чтобы выбрать алгоритмы-кандидаты KGE для нашей оценки, мы обратились к классификации алгоритмов KGE, предоставленной Wang et al. БИБРЕФ17.В этой работе алгоритмы KGE подразделяются на две основные категории: (1) алгоритмы, основанные на переходном расстоянии, и (2) модели, основанные на семантическом сопоставлении.Алгоритмы, основанные на переходном расстоянии, определяют оценочную функцию модели как меру, основанную на расстоянии, тогда как алгоритмы, основанные на семантическом сопоставлении, определяют ее как меру сходства.Здесь векторы сущностей и отношений взаимодействуют посредством сложения и вычитания в случае моделей, основанных на переходном расстоянии; В моделях, основанных на семантическом сопоставлении, взаимодействие между векторами объектов и отношений фиксируется мультипликативными оценочными функциями BIBREF18. Первоначально для нашего исследования мы выбрали по одному алгоритму из каждого класса: TransE BIBREF19 для представления алгоритмов на основе переходного расстояния и RESCAL BIBREF20 для представляют собой алгоритмы, основанные на семантическом сопоставлении.Однако после экспериментов RESCAL не очень хорошо масштабировался для обработки больших KG в наших экспериментах.Поэтому мы также включили в оценку HolE BIBREF21|эффективного преемника RESCAL|.Краткое описание каждого алгоритма представлено для каждой модели ниже: TransE: модель TransE часто считается наиболее представительной из класса алгоритмов на основе переходного расстояния BIBREF17.Учитывая тройку (h, r, t) из KG, TransE кодирует h, r и t как векторы, где r представлен как вектор перехода от h к t: $\mathbf {h} + \mathbf {r} \approx \mathbf {т}$. Поскольку и сущности, и отношения представлены в виде векторов, TransE является одним из наиболее эффективных алгоритмов KGE с $\mathcal {O}(n d + m d)$ пространственной сложностью и $\mathcal {O}(n_t d)$ временной сложностью ( $n_t$ — количество обучающих троек).RESCAL: RESCAL способен генерировать выразительное пространство встраивания графа знаний благодаря своей способности захватывать сложные шаблоны на нескольких шагах в KG.RESCAL кодирует отношения в виде матриц и фиксирует взаимодействие между сущностями и отношениями с помощью билинейной функции оценки.Хотя использование матрицы для кодирования каждого отношения обеспечивает улучшенную выразительность, оно также ограничивает способность RESCAL масштабироваться с большими KG.Он имеет $\mathcal {O}(n d + m d^2)$ пространственную сложность и $\mathcal {O}(n_t d^2)$ временную сложность.HolE: HoLE является более эффективным преемником RESCAL, решающим проблемы пространственной и временной сложности путем кодирования отношений в виде векторов без ущерба для выразительности модели.Используя операцию круговой корреляции BIBREF21, она фиксирует парное взаимодействие объектов как составные векторы.Эта оптимизация дает $\mathcal {O} (n d + m d)$ пространственную сложность и $\mathcal {O}(n_t d \log d)$ временную сложность.Визуализация КГЭ.Чтобы визуализировать сгенерированный KGE, был создан «мини» KG из набора данных NuScenes-mini.В частности, для создания KG было выбрано 10 сцен (вместе с их подсценами), а для изучения вложений использовался алгоритм TransE.При обучении KGE мы выбрали размерность векторов 100.Чтобы визуализировать вложения в двумерном (2D) пространстве, размеры уменьшаются с использованием проекции t-Distributed Stochastic Neighbor Embedding (t-SNE) BIBREF22.На рисунке FigREF11(a) показаны полученные вложения набора данных NuScenes.Чтобы обозначить интересные закономерности, которые проявляются во вложениях, выделены экземпляры Car (FoI) и события, в которых они участвуют.На этом изображении такие события, как припаркованный автомобиль, движущийся автомобиль и остановившийся автомобиль, группируются вокруг объектов типа Автомобиль.Это показывает, что отношения isParticipantOf, определенные в KG, сохраняются внутри вложений KG.Здесь мы немного отклоняемся от предыдущей работы по оценке алгоритмов KGE, которые оценивают производительность последующих задач на основе KGE.Вместо этого мы сосредоточиваемся на оценке, в которой используются только метрики, которые количественно определяют внутреннее качество KGE BIBREF23: мера категоризации, мера согласованности и расстояние семантического перехода.Категоризация измеряет, насколько хорошо кластеризуются экземпляры одного и того же типа.Для количественной оценки этого качества все векторы одного типа усредняются вместе и вычисляется косинусное сходство между усредненным вектором и типизированным классом.Показатель согласованности количественно определяет долю соседних объектов одного типа; среда оценки предполагает, что, если набор сущностей типизирован классом, эти сущности должны сформировать кластер в пространстве внедрения с типизированным классом в качестве центроида.Семантическое переходное расстояние, адаптированное на основе литературы по встраиванию слов, отражает реляционную семантику KGE: если тройка $(h,r,t)$ правильно представлена ​​в пространстве встраивания, расстояние перехода между векторами, представляющими $(\mathbf { h+r})$ должно быть близко к $\mathbf {t}$. Это количественно определяется путем вычисления косинусного сходства между $(\mathbf {h+r})$ и $\mathbf {t}$.Результаты.Результаты оценки сообщаются по каждому алгоритму и метрике.На рисунке FigREF13 показаны результаты оценки меры категоризации, меры когерентности и семантического переходного расстояния | для каждого алгоритма KGE.NuScenes KG, созданный на основе набора данных NuScenes-trainval, является большим как по количеству троек, так и по количеству сущностей (см. таблицу TABREF9).Следовательно, RESCAL плохо масштабировался для этого набора данных.По этой причине мы сообщаем только результаты оценки TransE и HolE.При рассмотрении алгоритмов KGE производительность TransE стабильно выше по всем показателям по сравнению с производительностью HolE.Однако интересно отметить, что HolE значительно превосходит TransE для некоторых классов/отношений.При рассмотрении показателей оценки становится очевидным, что мера категоризации и семантическое переходное расстояние способны отразить качество семантики типов и реляционной семантики соответственно.Однако значение меры когерентности в большинстве случаев равно нулю для HoLE и в некоторых случаях близко к нулю для TransE.В наших экспериментальных условиях низкие показатели показателя когерентности могут свидетельствовать о том, что он не может быть хорошим показателем для оценки KGE в области AD.Мы сообщаем о предварительных результатах нашего расследования использования KGE для сценария использования в домене AD.Более конкретно, мы применяем KGE для вычисления сходства сцен.В этом случае цель состоит в том, чтобы найти (под)сцены, которые характерно похожи, используя изученные KGE.Учитывая набор пар сцен, мы выбираем пару с наибольшим косинусным сходством как наиболее похожую.На рисунке FigREF15 показана иллюстрация двух наиболее похожих подсцен, когда список пар включает подсцены из разных сцен.Интересное наблюдение: черная цепочка объектов в подсцене (а) — это барьеры (статический объект), а оранжевая цепочка объектов в подсцене (б) — остановившиеся автомобили.Этот пример предполагает, что подход, основанный на KGE, может идентифицировать подсцены со схожими характеристиками, даже если эти подсцены визуально различны.Мы представили исследование использования KGE для понимания контекста AD, а также оценку внутреннего качества KGE.Оценка предполагает, что KGE конкретно способны фиксировать семантические свойства графа знаний сцены (например, отношение isParticipantOf между объектами и событиями).В более общем смысле алгоритмы KGE способны переводить семантические знания, такие как тип и реляционная семантика, в KGE.Рассматривая различные алгоритмы KGE, мы сообщаем, что алгоритм TransE, основанный на переходном расстоянии, демонстрирует стабильную производительность по множеству количественных показателей качества KGE.Наша оценка также предполагает, что некоторые используемые в настоящее время показатели качества, такие как мера согласованности, могут быть неэффективны при измерении качества семантики типов из KGE в домене AD.Наконец, применив изученные KGE к важному варианту использования в области AD, мы пролили некоторый свет на эффективность использования KGE для выявления сходства сцен AD.В последнее время было предпринято много усилий по созданию сложных наборов данных «вопрос-ответ» (QA), которые по своей конструкции требуют, чтобы модели синтезировали внешние знания здравого смысла и использовали более сложные механизмы рассуждения BIBREF24, BIBREF25, BIBREF26, BIBREF27, BIBREF28.Двумя направлениями работы, которые пытаются решить эти задачи, являются: подходы, ориентированные исключительно на данные и подходы, ориентированные исключительно на знания.Подходы, ориентированные на данные, обычно предлагают предварительно обучать языковые модели на больших лингвистических корпусах, чтобы модель неявно приобретала «здравый смысл» посредством статистических наблюдений.Действительно, большие предварительно обученные языковые модели показали многообещающую производительность во многих тестах здравого смысла BIBREF29, BIBREF30, BIBREF31, BIBREF32.Основными недостатками этого подхода являются то, что модели трудно интерпретировать и что им не хватает механизмов для включения явных знаний здравого смысла.И наоборот, чисто ориентированные на знания подходы сочетают структурированные базы знаний и выполняют символические рассуждения на основе аксиоматических принципов.Такие модели обладают свойством интерпретируемости, но часто не имеют возможности оценить статистическую значимость вывода, основанного на реальных наблюдениях.Гибридные модели — это те, которые пытаются объединить эти два подхода, извлекая знания из структурированных баз знаний и используя полученную информацию для управления парадигмой обучения статистических оценщиков, таких как модели глубоких нейронных сетей.Были введены различные способы внедрения знаний в модели, такие как механизмы пропускания на основе внимания BIBREF33, механизмы памяти ключ-значение BIBREF34, BIBREF35, внешние функции оценки BIBREF36 и сети свертки графов BIBREF37, BIBREF38.Наш подход заключается в объединении мощных предварительно обученных языковых моделей со структурированными знаниями, и мы расширяем предыдущие подходы, принимая более детальный взгляд на здравый смысл.Тонкие различия между различными типами знаний подробно обсуждались в области ИИ философами, компьютерными лингвистами и когнитивными психологами (BIBREF39).На высоком уровне мы можем идентифицировать декларативный здравый смысл, объем которого охватывает фактические знания, например, «небо голубое» и «Париж находится во Франции»; таксономические знания, например, «футболисты — спортсмены» и «кошки — млекопитающие»; реляционное знание, например, «нос — часть черепа» и «для рукописного письма необходимы рука и пишущий инструмент»; процедурный здравый смысл, который включает в себя предписывающие знания, например, «перед выпечкой тортов нужна духовка» и «электричество должно быть отключено на время ремонта выключателя» BIBREF40; знания о чувствах, например, «спешка в больницу заставляет людей волноваться» и «находясь в отпуске, люди расслабляются»; и метафорическое знание, включающее идиоматические структуры, например, «время летит» и «дождь из кошек и собак».Мы считаем, что важно определить наиболее подходящий тип знаний, необходимый для конкретных задач, чтобы повысить производительность в дальнейшем.После того как тип знаний определен, мы можем выбрать подходящую базу(ы) знаний, соответствующий конвейер извлечения знаний и подходящие механизмы нейронной инъекции.В этой работе мы проводим сравнительное исследование различных баз знаний и методов внедрения знаний поверх предварительно обученных моделей нейронного языка; мы оцениваем производительность модели на наборе данных QA с множественным выбором, что явно требует здравого смысла.В частности, мы использовали ConceptNet BIBREF6 и недавно представленный ATOMIC BIBREF7 в качестве внешних ресурсов знаний, включив их в конвейер нейронных вычислений с помощью механизма модели BIBREF41 сети сравнения вариантов (OCN).Мы оцениваем наши модели на наборе данных CommonsenseQA BIBREF42; пример вопроса из задачи CommonsenseQA показан в таблице TABREF20.Наши экспериментальные результаты и анализ показывают, что внедрение знаний на основе внимания предпочтительнее и что степень перекрытия областей между базой знаний и набором данных имеет жизненно важное значение для успеха моделирования.CommonsenseQA — это набор данных QA с множественным выбором, который специально измеряет здравый смысл BIBREF42.Этот набор данных создан на основе ConceptNet (дополнительную информацию об этой базе знаний см. в разделе SECREF23).В частности, исходная концепция сначала извлекается из ConceptNet вместе с тремя целевыми концепциями, которые связаны с исходной концепцией, то есть подграфом.Затем крауд-работников просят сгенерировать вопросы, используя исходную концепцию, так, чтобы только одна из целевых концепций могла правильно ответить на вопрос.Дополнительно крауд-работники подбирают еще 2 концепции-отвлекателя, чтобы каждый вопрос ассоциировался с 5 вариантами ответа.Всего набор данных содержит 12 247 вопросов.Для CommonsenseQA мы оцениваем модели только на наборе для разработки, поскольку ответы на наборе тестов не являются общедоступными.Первой базой знаний, которую мы рассматриваем для наших экспериментов, является ConceptNet BIBREF6.ConceptNet содержит более 21 миллиона ребер и 8 миллионов узлов (1,5 миллиона узлов в разделе английского словаря), из которых можно сгенерировать тройки вида $(C1, r, C2)$, где понятия естественного языка $C1 $ и $C2$ связаны отношением здравого смысла $r$, например (ужин, AtLocation, ресторан).Благодаря своему охвату ConceptNet является одной из самых популярных семантических сетей для здравого смысла.ATOMIC BIBREF7 — это база знаний, ориентированная на процедурные знания.Тройки имеют форму (Event, r, {Effect$|$Persona$|$Mental-state}), где голова и хвост — это короткие предложения или глагольные фразы, а $r$ представляет тип отношения «если-то»: (X дополняет Y, xIntent, X хочет быть хорошим).Поскольку набор данных CommonsenseQA является открытым и требует общего здравого смысла, мы считаем, что эти базы знаний наиболее подходят для нашего исследования.Класс модели, который мы выбрали, — это модель BIBREF29 двунаправленного кодировщика с преобразователем (BERT), поскольку она применялась для многочисленных задач контроля качества и добилась очень многообещающей производительности, особенно в наборе данных CommonsenseQA.При использовании BERT для задач контроля качества с множественным выбором стандартный подход заключается в объединении вопроса с каждым вариантом ответа, чтобы сгенерировать список токенов, который затем передается в кодер BERT; сверху добавляется линейный слой, чтобы предсказать ответ.Одним из аспектов этой стратегии является то, что каждый вариант ответа кодируется независимо, что ограничивает способность модели находить корреляции между вариантами ответа и относительно исходного контекста вопроса.Чтобы решить эту проблему, была введена сеть сравнения вариантов (OCN) BIBREF41 для явного моделирования парных взаимодействий между вариантами ответов, что делает OCN более подходящим для структур задач контроля качества с множественным выбором.Модель OCN использует BERT в качестве базового кодера: кодирование вопроса/варианта создается BERT и далее обрабатывается в ячейке сравнения вариантов перед подачей на линейный уровень.Ячейка сравнения вариантов показана в правом нижнем углу рисунка FigREF21.Мы повторно реализовали OCN, сохранив BERT в качестве восходящего кодировщика (за более подробной информацией мы отсылаем заинтересованного читателя к BIBREF41, BIBREF43).ConceptNet.Мы определяем отношения ConceptNet, которые связывают вопросы с вариантами ответов.Интуиция подсказывает, что эти пути отношений предоставят явные доказательства, которые помогут модели найти ответ.Формально, учитывая вопрос $Q$ и вариант ответа $O$, мы находим все отношения ConceptNet (C1, r, C2), такие что $C1 \in Q$ и $C2 \in O$ или наоборот.Это правило хорошо работает для понятий, состоящих из одного слова.Однако большое количество концепций в ConceptNet на самом деле являются фразами, и найти точно совпадающие фразы в $Q/O$ сложнее.Чтобы в полной мере использовать отношения, основанные на фразах, мы ослабили ограничение точного соответствия до следующего: Здесь последовательность $S$ представляет $Q$ или $O$, в зависимости от того, с какой последовательностью мы пытаемся сопоставить понятие $C$.Кроме того, когда тег части речи (POS) для понятия доступен, мы проверяем, что он соответствует тегу POS соответствующего слова в $Q/O$. Таблица TABREF27показаны извлеченные тройки ConceptNet для примера CommonsenseQA в таблице TABREF20.Стоит отметить, что мы можем извлечь исходный подграф ConceptNet, который использовался для создания вопроса, а также несколько дополнительных троек.Хотя жирная тройка ConceptNet и не идеальна, она дает подсказки, которые могут помочь модели дать правильный ответ. ATOMIC.Мы заметили, что многие вопросы в задаче CommonsenseQA задаются вопросом, какое событие может произойти при заданном условии.На первый взгляд этот конкретный тип вопросов кажется хорошо подходящим для ATOMIC, который фокусируется на процедурных знаниях.Таким образом, мы могли бы сформулировать нашу цель как оценку того, может ли ATOMIC предоставить соответствующие знания, которые помогут ответить на эти вопросы.Однако одна из проблем при извлечении знаний из этого ресурса заключается в том, что тройки знаний в ATOMIC представляют собой короткие предложения или глагольные фразы, а редкие слова и ссылки на людей сводятся к пробелам и PersonX/PersonY соответственно.Учитывая ранее извлеченные тройки знаний, нам необходимо интегрировать их с компонентом OCN нашей модели.Вдохновленные BIBREF33, мы предлагаем использовать инъекции, основанные на внимании.Для троек знаний ConceptNet мы сначала конвертируем сущности понятия-отношения в токены из нашего лексикона, чтобы сгенерировать псевдопредложение.Например, «(книга, AtLocation, библиотека)» будет преобразовано в «книга в библиотеке».Затем мы использовали ячейку ввода знаний, чтобы объединить знания здравого смысла с выходными данными BERT, прежде чем подавать объединенные выходные данные в ячейку OCN.В частности, в ячейке ввода знаний уровень Bi-LSTM используется для кодирования этих псевдопредложений перед вычислением внимания относительно выходных данных BERT, как показано в левом нижнем углу рисунка FigREF21. Модели большой емкости с предварительным обучением ( например, BERT, GPT BIBREF30, XLNet BIBREF31) для больших корпусов, а затем точная настройка на более специфичную для предметной области информацию привела к повышению производительности при выполнении различных задач.Вдохновленная этим, наша цель в этом разделе — наблюдать влияние предварительной тренировки BERT на здравый смысл и уточнение модели для контента для конкретных задач из набора данных CommonsenseQA.По сути, мы хотели бы проверить, может ли предварительное обучение на наших внешних ресурсах знаний помочь модели обрести здравый смысл.Для процедуры предварительного обучения ConceptNet предварительное обучение BERT на псевдопредложениях, сформулированных на основе троек знаний ConceptNet, не дает большого выигрыша в производительности.Вместо этого мы обучили BERT на корпусе Open Mind Common Sense (OMCS) BIBREF44, исходном корпусе, который использовался для создания ConceptNet.Мы извлекли из OMCS около 930 тысяч английских предложений и случайным образом замаскировали 15% токенов; Затем мы точно настроили BERT, используя цель модели замаскированного языка, где цель модели состоит в том, чтобы предсказать замаскированные токены как распределение вероятностей по всему словарю.Наконец, мы загружаем эту точно настроенную модель в структуру OCN и приступаем к следующей задаче CommonsenseQA.Что касается предварительного обучения ATOMIC, мы следуем шагам предварительной обработки предыдущей работы, чтобы преобразовать тройки знаний ATOMIC в предложения BIBREF45; мы создали специальные токены для 9 типов отношений, а также пробелы.Затем мы случайным образом замаскировали 15% токенов, замаскировав только хвостовые токены; мы использовали одну и ту же процедуру предварительного обучения OMCS.Для всех наших экспериментов мы проводим 3 испытания с разными случайными исходными данными и сообщаем таблицы средних оценок TABREF30 и TABREF32.По оценкам CommonsenseQA, внедрение знаний ConceptNet обеспечивает значительный прирост производительности (+2,8%) по сравнению с базовым уровнем OCN, предполагая, что явные связи между вопросом и вариантами ответа помогают модели найти правильный ответ.Предварительное обучение на OMCS также обеспечивает небольшой прирост производительности по сравнению с базовым уровнем OCN.Поскольку как внедрение знаний в ConceptNet, так и предварительное обучение OMCS полезны, мы объединяем оба подхода с OCN и можем добиться дальнейшего улучшения (+4,9%).Наконец, к нашему удивлению, OCN, предварительно обученный на ATOMIC, дает значительно более низкую производительность.Чтобы лучше понять, когда модель работает лучше или хуже при внедрении знаний, мы проанализировали прогнозы модели по типам вопросов.Поскольку все вопросы в CommonsenseQA требуют здравого смысла, мы классифицируем вопросы на основе отношения ConceptNet между концепцией вопроса и концепцией правильного ответа.Интуиция подсказывает, что модель должна уловить это отношение, чтобы ответить на вопрос.Точность для каждого типа вопросов показана в таблице TABREF32.Обратите внимание, что количество образцов по типам вопросов очень несбалансировано.Таким образом, из-за ограниченности места мы опустили длинный хвост распределения (около 7% всех выборок).Мы видим, что благодаря внедрению отношений в ConceptNet все типы вопросов получили повышение производительности|как для модели OCN, так и для модели OCN, которая была предварительно обучена на OMCS|, что позволяет предположить, что внешние знания действительно полезны для этой задачи.В случае OCN, предварительно обученного на ATOMIC, хотя общая производительность намного ниже базового уровня OCN, интересно видеть, что производительность для типа «Причины» существенно не меняется.Более того, производительность типов «CausesDesire» и «Desires» действительно стала намного лучше.Как отмечает BIBREF7, отношение «Причины» в ConceptNet аналогично отношениям «Эффекты» и «Реакции» в ATOMIC; а «Причины желания» в ConceptNet аналогичны «Хочет» в ATOMIC.Этот результат предполагает, что модели с предварительной тренировкой знаний лучше справляются с вопросами, которые соответствуют области знаний, но хуже справляются с другими.В этом случае предварительное обучение ATOMIC помогает модели лучше справляться с вопросами, похожими на отношения ATOMIC, даже если общая производительность ниже.Наконец, мы заметили, что вопросы типа «Антоним» оказываются самыми трудными.Многие вопросы, попадающие в эту категорию, содержат отрицания, и мы предполагаем, что модели все еще не способны рассуждать над предложениями-отрицателями, что указывает на другое направление для будущих улучшений.Основываясь на результатах наших экспериментов и анализе ошибок, мы видим, что внешние знания полезны только тогда, когда между вопросами и типами базы знаний существует соответствие.Таким образом, крайне важно определить тип вопроса и применить наиболее подходящие знания.С точки зрения методов внедрения знаний, внедрение на основе внимания кажется лучшим выбором для предварительно обученных языковых моделей, таких как BERT.Даже если согласованность между базой знаний и набором данных неоптимальна, производительность не ухудшится.С другой стороны, предварительное обучение на базах знаний значительно сместит распределение веса языковой модели в сторону ее собственной области.Если область задач не соответствует базе знаний, производительность модели, скорее всего, упадет.Когда область базы знаний идеально совпадает с областью набора данных, оба метода внедрения знаний обеспечивают повышение производительности, а их комбинация может принести дополнительную выгоду.Мы представили обзор двух популярных баз знаний (ConceptNet и ATOMIC) и новейших методов внедрения знаний (внимание и предварительное обучение) по задаче CommonsenseQA.Мы считаем, что стоит провести более комплексное исследование наборов данных и баз знаний и приложить больше усилий для определения вспомогательных целей нейронного обучения в рамках многозадачной среды обучения, которая классифицирует тип требуемых знаний на основе характеристик данных.Параллельно мы также заинтересованы в создании глобальной базы знаний путем объединения ConceptNet, ATOMIC и, возможно, других ресурсов, таких как FrameNet BIBREF46 и MetaNet BIBREF47, на основе онтологии с общими ссылками (следуя подходам, описанным в BIBREF48 и BIBREF49). : цель будет заключаться в том, чтобы оценить, будет ли внедрение структур знаний из семантически связной лексической базы знаний здравого смысла гарантировать стабильную точность модели во всех наборах данных.Мы проиллюстрировали два проекта по пониманию вычислительного контекста с помощью нейросимволизма.Первый проект (раздел SECREF3) касался использования графов знаний для изучения пространства встраивания для описания визуальных сцен в контексте автономного вождения.Второе приложение (раздел SECREF17) ориентировано на извлечение и интеграцию знаний, закодированных в базах знаний здравого смысла, для управления процессом обучения моделей нейронного языка в задачах ответа на вопросы.Хотя оба проекта различаются по масштабам и широте, они используют гибридный подход к созданию систем искусственного интеллекта, в котором глубокие нейронные сети дополняются графами знаний.Например, в первом проекте мы продемонстрировали, что сцены, которые визуально различаются, могут быть обнаружены как имеющие схожие семантические характеристики с помощью встраивания графа знаний; во втором проекте мы показали, что языковая модель более точна, когда она включает специализированные модули для оценки вопросов и ответов кандидатов на основе графа общих знаний.В обоих случаях объяснимость возникает как свойство реализованных нами механизмов благодаря сочетанию алгоритмов, управляемых данными, с соответствующими ресурсами знаний.Мы начали главу с упоминания о том, как люди используют сложный набор когнитивных процессов, чтобы понять окружающую среду; мы также заявили, что одна из самых больших проблем в исследованиях ИИ — это научиться наделять машины аналогичными способностями к осмыслению.В этих заключительных замечаниях важно еще раз подчеркнуть (см. сноску № 3), что возможности, которые мы здесь описываем, должны вытекать только из удовлетворения функциональных требований понимания контекста, а не из-за того, как эти требования конкретно реализуются у людей по сравнению с машинами. .Другими словами, наш гибридный подход к искусственному интеллекту проистекает из взаимодополняющей природы восприятия и знаний, но не ограничивается идеей воспроизведения человеческого познания в машине: поскольку графы знаний могут отражать только урезанное представление того, что мы знаем, глубоко нейронные сети могут лишь приблизительно определить, как мы воспринимаем мир и учимся на его основе.Конечно, человеческие знания (закодированные в машинно-потребляемом формате) изобилуют цифровым миром, и наша работа показывает, что эти базы знаний можно использовать для обучения моделям машинного обучения и, в конечном итоге, для улучшения систем искусственного интеллекта.
Понимание вычислительного контекста относится к способности агента объединять разрозненные источники информации для принятия решений и, следовательно, обычно рассматривается как необходимое условие для сложных возможностей машинного рассуждения, например, в искусственном интеллекте (ИИ). Методы, основанные на данных, и методы, основанные на знаниях, являются двумя классическими методами поиска таких возможностей машинного осмысления. Однако, хотя методы, основанные на данных, направлены на моделирование статистических закономерностей событий путем проведения наблюдений в реальном мире, их по-прежнему трудно интерпретировать, и им не хватает механизмов для естественного включения внешних знаний. И наоборот, методы, основанные на знаниях, объединяют структурированные базы знаний, выполняют символические рассуждения, основанные на аксиоматических принципах, и более поддаются интерпретации при обработке выводов; однако им часто не хватает способности оценить статистическую значимость вывода. Для решения этих проблем мы предлагаем использовать методологию гибридного ИИ в качестве общей основы для объединения сильных сторон обоих подходов. В частности, мы унаследовали концепцию нейросимволизма как способа использования баз знаний для управления прогрессом обучения глубоких нейронных сетей. Далее мы основываем наше обсуждение на двух применениях нейросимволизма и в обоих случаях показываем, что наши системы сохраняют интерпретируемость, достигая при этом сопоставимых характеристик по сравнению с современными системами.
6,226
QasperSumInstruct
ru
Напиши аннотацию по статье
Будущие контексты слов в языковых моделях нейронных сетей. Языковые модели (LM) являются важнейшими компонентами во многих приложениях, таких как распознавание речи и машинный перевод.Цель языковых моделей — вычислить вероятность любого данного предложения INLINEFORM0, которую можно вычислить как DISPLAYFORM0. Задача LM — вычислить вероятность слова INLINEFORM0 с учетом его предыдущей истории INLINEFORM1.INLINEFORM2 -граммные LM BIBREF0 и языковые модели на основе нейронных сетей (NNLM) BIBREF1, BIBREF2 — две широко используемые языковые модели.В INLINEFORM3-граммах LM самые последние слова INLINEFORM4 используются как аппроксимация полной истории, таким образом, DISPLAYFORM0. Это предположение INLINEFORM0-граммы также можно использовать для построения INLINEFORM1-граммы прямой связи NNLM BIBREF1 .Напротив, рекуррентные нейронные сети LM (RNNLM) моделируют полную историю через рекуррентное соединение.Большая часть предыдущих работ над языковыми моделями была сосредоточена на использовании исторической информации, а информация о контексте будущего слова широко не исследовалась.Было предпринято несколько попыток включить будущую контекстную информацию в рекуррентные языковые модели нейронных сетей.Могут быть построены отдельные прямые и обратные RNNLM, и эти два LM объединены с лог-линейной интерполяцией BIBREF3.В BIBREF4 последующие слова были включены в RNNLM в рамках структуры максимальной энтропии.BIBREF5 исследовал использование двунаправленных RNNLM (bi-RNNLM) для распознавания речи.Для задачи широковещательных новостей RNNLM на основе сигмовидной формы дали небольшой выигрыш, в то время как при использовании RNNLM на основе длинной краткосрочной памяти (LSTM) не было получено никакого улучшения производительности.Совсем недавно би-RNNLM могли обеспечить последовательное и значительное улучшение производительности по сравнению с однонаправленными RNNLM (uni-RNNLM) в ряде задач распознавания речи.они могут обеспечить повышение производительности, би-RNNLM создают несколько проблем как для обучения модели, так и для вывода, поскольку они требуют принятия во внимание полной информации о контексте предыдущего и будущего слова.Эффективно распараллелить обучение сложно.Пересчет решетки также сложен для этих LM, поскольку необходимо учитывать будущий контекст.Это означает, что форма аппроксимации, используемая для uni-RNNLM BIBREF7, непригодна для применения.Следовательно, обычно используется N-наилучшая оценка BIBREF4, BIBREF5, BIBREF6.Однако возможность манипулировать решетками очень важна во многих речевых приложениях.Решетки могут использоваться для широкого спектра последующих приложений, таких как оценка степени достоверности BIBREF8, поиск по ключевым словам BIBREF9 и декодирование сети путаницы BIBREF10.Для решения этих проблем в этой статье предлагается новая структура модели, пришедшая на смену словам RNNLM (su-RNNLM).Вместо использования рекуррентного модуля для захвата полного контекста будущего слова, как в би-RNNLM, модуль прямой связи используется для моделирования небольшого количества последовательных слов фиксированной длины.Это позволяет расширить существующие эффективные алгоритмы обучения BIBREF11 и восстановления решетки BIBREF7, разработанные для uni-RNNLM, на предлагаемые su-RNNLM.Используя эти расширенные алгоритмы, можно создавать компактные решетки с помощью su-RNNLM, поддерживающих последующую обработку на основе решетки.Остальная часть этой статьи организована следующим образом.В разделе SECREF2 дается краткий обзор RNNLM, включая как однонаправленные, так и двунаправленные RNNLM.Предлагаемая модель с последовательными словами (su-RNNLM) представлена ​​в разделе SECREF3, за которым следует описание алгоритма пересчета решетки в разделе SECREF4.В разделе SECREF5 обсуждается интерполяция языковых моделей.Результаты экспериментов представлены в разделе SECREF6, а выводы сделаны в разделе SECREF7.В отличие от NNLM с прямой связью, где моделируются только предыдущие слова INLINEFORM0, рекуррентные NNLM BIBREF12 представляют полную неусеченную историю INLINEFORM1 для слова INLINEFORM2 с использованием кодировки 1 из K предыдущего слова INLINEFORM3 и непрерывного вектора INLINEFORM4 в качестве компактного представления оставшийся контекст INLINEFORM5.На рисунке FigREF5 показан пример этого однонаправленного RNNLM (uni-RNNLM).Самое последнее слово INLINEFORM6 используется в качестве входных данных и проецируется в низкомерное непрерывное пространство через слой линейной проекции.После этого слоя проекции используется повторяющийся скрытый слой.Форма рекуррентного слоя может быть основана на стандартной рекуррентной единице на основе сигмоиды с сигмовидными активациями BIBREF2 или на более сложных формах, таких как вентилируемая рекуррентная единица (GRU) BIBREF13 и единицы длинной краткосрочной памяти (LSTM) BIBREF14.Непрерывный вектор INLINEFORM7, представляющий полную историческую информацию INLINEFORM8, можно получить с помощью INLINEFORM9 и предыдущего слова INLINEFORM10.Этот вектор используется в качестве входных данных рекуррентного слоя для оценки следующего слова.Выходной слой с функцией softmax используется для расчета вероятности INLINEFORM11.Дополнительный узел часто добавляется на выходной уровень для моделирования вероятностной массы слов, не входящих в короткий список (OOS), чтобы ускорить вычисление softmax за счет ограничения размера словаря BIBREF15.Аналогичным образом, узел вне словарного запаса (OOV) может быть добавлен во входной слой для моделирования слов OOV.Вероятность последовательности слов INLINEFORM12 рассчитывается как DISPLAYFORM0. Недоумение (PPL) — это показатель, широко используемый для оценки качества языковых моделей.Согласно определению в BIBREF16, недоумение можно вычислить на основе вероятности предложения с помощью DISPLAYFORM0, где INLINEFORM0 — общее количество слов, а INLINEFORM1 — количество предложений в корпусе оценок.INLINEFORM2 — количество слов в INLINEFORM3-м предложении.Из приведенного выше уравнения PPL рассчитывается на основе средней логарифмической вероятности каждого слова, что для однонаправленных LM дает среднюю логарифмическую вероятность предложения.Uni-RNNLM можно эффективно обучать на графических процессорах (GPU) с помощью режима склеенной группы предложений (т. е. мини-пакета) BIBREF11.Несколько предложений можно объединить вместе, чтобы сформировать более длинную последовательность, а затем наборы этих длинных последовательностей можно выровнять параллельно слева направо.Эта структура данных более эффективна для обучения на основе мини-пакетов, поскольку они имеют сопоставимую длину последовательности BIBREF11.При использовании этих форм языковых моделей для таких задач, как распознавание речи, N-наилучшая оценка является наиболее простым способом применения uni-RNNLM.Переоценка решетки также возможна путем введения аппроксимации BIBREF7 для управления слиянием и расширением различных путей в решетке.Это будет описано более подробно в разделе SECREF4. На рисунке FigREF8 показан пример двунаправленных RNNLM (bi-RNNLM).В отличие от uni-RNNLM, для оценки вероятности текущего слова INLINEFORM2 используются как исторический контекст слова INLINEFORM0, так и будущий контекст слова INLINEFORM1.Два рекуррентных блока используются для сбора предыдущей и будущей информации соответственно.Так же, как и uni-RNNLM, INLINEFORM3 представляет собой компактный непрерывный вектор исторической информации INLINEFORM4.В то время как INLINEFORM5 — это еще один непрерывный вектор для кодирования будущей информации INLINEFORM6.Этот вектор будущего контекста вычисляется из следующего слова INLINEFORM7 и предыдущего вектора будущего контекста INLINEFORM8, содержащего информацию INLINEFORM9 .Объединение INLINEFORM10 и INLINEFORM11 затем передается на выходной слой с помощью функции softmax для расчета выходной вероятности.Чтобы уменьшить количество параметров, слой проекции для предыдущих и будущих слов часто используется совместно.Вероятность последовательности слов INLINEFORM0 можно вычислить с использованием би-RNNLM, поскольку DISPLAYFORM0 INLINEFORM0 — это ненормализованная вероятность предложения, вычисленная на основе вероятностей отдельных слов би-RNNLM.INLINEFORM1 — это термин нормализации на уровне предложения, гарантирующий, что вероятность предложения нормализована соответствующим образом.Это определяется как DISPLAYFORM0, где INLINEFORM0 — это набор всех возможных предложений.К сожалению, этот нормировочный член нецелесообразно рассчитывать для большинства задач.В форме, аналогичной уравнению EQREF6, PPL bi-RNNLM можно рассчитать на основе вероятности предложения как DISPLAYFORM0. Однако INLINEFORM0 часто невозможно получить.В результате невозможно вычислить действительную недоумение на основе би-RNNLM.Тем не менее, среднюю логарифмическую вероятность каждого слова можно использовать для получения «псевдо» недоумения (PPL).DISPLAYFORM0 Это второй член действительного PPL би-RNNLM, показанного в уравнении EQREF11.Это «псевдо» PPL, поскольку невозможно получить нормализованную вероятность предложения INLINEFORM0 и вместо этого используется ненормализованная вероятность предложения INLINEFORM1.Следовательно, «псевдо» PPL би-RNNLM не сравним с действительным PPL уни-RNNLM.Однако значение «псевдо» PPL предоставляет информацию о средней вероятности слова из би-RNNLM, поскольку оно получается с использованием вероятности слова.Чтобы добиться хорошей производительности распознавания речи, BIBREF6 предложил дополнительное сглаживание вероятности bi-RNNLM во время тестирования.Вероятность bi-RNNLM сглаживается как DISPLAYFORM0, где INLINEFORM0 — это активация перед функцией softmax для узла INLINEFORM1 в выходном слое.INLINEFORM2 — это эмпирический коэффициент сглаживания, который в этой статье выбран равным 0,7.Использование как предшествующей, так и последующей контекстной информации в би-RNNLM создает проблемы как для обучения модели, так и для вывода.Во-первых, N-лучшая оценка обычно используется для распознавания речи BIBREF6.Пересчет решетки непрактичен для би-RNNLM, поскольку для расчета вероятностей слов требуется информация из полного предложения.Еще одним недостатком би-RNNLM является сложность обучения.Полная информация о предыдущем и будущем контексте необходима для прогнозирования вероятности каждого слова.Непосредственное обучение bi-RNNLM предложение за предложением обходится дорого, и для повышения эффективности сложно распараллелить обучение.В BIBREF5 все предложения в обучающем корпусе были объединены вместе, чтобы сформировать единую последовательность, чтобы облегчить обучение на основе мини-пакетов.Затем эта последовательность была «разрезана» на подпоследовательности со средней длиной предложения.Затем Bi-RNNLM были обучены на графическом процессоре путем одновременной обработки нескольких последовательностей.Это позволяет эффективно обучать bi-RNNLM.Однако могут возникнуть проблемы из-за случайного вырезания предложений, векторы контекста истории и будущего могут сбрасываться в середине предложения.В BIBREF6 bi-RNNLM обучались более последовательно.Несколько предложений были выровнены слева направо, чтобы сформировать мини-пакеты во время обучения bi-RNNLM.Чтобы решить проблемы, вызванные переменной длиной предложения, к концам предложений были добавлены токены NULL, чтобы гарантировать, что выровненные предложения имеют одинаковую длину.Эти NULL-токены не использовались для обновления параметров.В этой статье этот подход используется для обучения bi-RNNLM, поскольку он обеспечивает лучшую производительность.Как обсуждалось выше, би-RNNLM медленно обучаются и их трудно использовать при восстановлении решетки.Для решения этих проблем в этой статье предлагается новая структура su-RNNLM, которая будет включать будущую контекстную информацию.Структура модели проиллюстрирована на рисунке FigREF14.Так же, как и в случае с bi-RNNLM, предыдущая история INLINEFORM0 моделируется с помощью повторяющихся единиц (например, LSTM, GRU).Однако вместо моделирования всей будущей контекстной информации INLINEFORM1 с использованием рекуррентных единиц используются блоки прямой связи для захвата конечного числа последующих слов INLINEFORM2.Функция softmax снова применяется на выходном слое для получения вероятности текущего слова INLINEFORM3.Встраивание слов в слой проекции является общим для всех входных слов.Когда последующие слова выходят за пределы предложения, вектор 0 используется в качестве вектора внедрения слов.Это похоже на заполнение нулями NNLM с прямой связью в начале каждого предложения BIBREF12 .Asколичество последующих слов конечно и фиксировано для каждого слова, его последующие слова могут быть организованы как будущий контекст INLINEFORM0-граммы и использоваться для обучения в мини-пакетном режиме, как в NNLM с прямой связью BIBREF12.Затем Su-RNNLM можно эффективно обучать аналогично uni-RNNLM в режиме сращенной группы предложений BIBREF11. Сравненос помощью уравнений EQREF4 и EQREF9 вероятность последовательности слов INLINEFORM0 можно вычислить как DISPLAYFORM0. Опять же, термин нормализации уровня предложения INLINEFORM0 трудно вычислить, и можно получить только «псевдо» PPL.Вероятности su-RNNLM также очень высоки, что можно увидеть из «псевдо» PPL в таблице TABREF27 в разделе SECREF6.Следовательно, вероятностное сглаживание bi-RNNLM, заданное в уравнении EQREF13, также необходимо для того, чтобы su-RNNLM достигли хороших характеристик во время оценки.Пересчет решетки с помощью NNLM с прямой связью является простым BIBREF12тогда как для восстановления решетки uni-RNNLM необходимы приближения BIBREF7 , BIBREF17 .Как упоминалось в разделе SECREF7, N-наилучшая оценка ранее использовалась для bi-RNNLM.Использование bi-RNNLM для восстановления и генерации решетки непрактично, поскольку требуется как полная информация о предыдущем, так и о будущем контексте.Однако решетки очень полезны во многих приложениях, таких как оценка степени достоверности BIBREF8, поиск по ключевым словам BIBREF9 и декодирование сети путаницы BIBREF10.Напротив, su-RNNLM требуют фиксированного количества последующих слов вместо полной информации о будущем контексте.На рисунке Фиг.14 su-RNNLM можно рассматривать как комбинацию uni-RNNLM для исторической информации и NNLM прямой связи для информации о будущем контексте.Следовательно, переоценка решетки возможна для su-RNNLM путем расширения алгоритма пересчета решетки для uni-RNNLM путем рассмотрения дополнительных будущих контекстов фиксированной длины.В этой статье подход, основанный на аппроксимации INLINEFORM0-граммы BIBREF7, используется для пересчета решетки uni-RNNLM.При рассмотрении слияния двух путей, если их предыдущие слова INLINEFORM1 идентичны, эти два пути рассматриваются как «эквивалентные» и могут быть объединены.Это показано на рисунке FigREF19 для начального узла слова INLINEFORM2.Историческая информация о наилучшем пути сохраняется для последующего вычисления вероятности RNNLM, а истории всех других путей отбрасываются.Например, путь INLINEFORM3 сохраняется, а другой путь INLINEFORM4 отбрасывается с учетом дуги INLINEFORM5. ТамЭто два типа аппроксимации, используемые для восстановления решетки uni-RNNLM, а именно аппроксимации слияния и кэширования.Приближение слияния управляет слиянием двух путей.В BIBREF7 сохранялся первый путь, достигающий узла, а все остальные пути с той же историей INLINEFORM0-грамм отбрасывались независимо от связанных оценок.Это вносит неточности в расчет вероятности RNNLM.Приближение слияния можно улучшить, сохранив путь с наивысшим накопленным баллом.Именно такой подход принят в данной работе.Для быстрого поиска вероятностей при пересчете решетки вероятности INLINEFORM1-граммы можно кэшировать, используя слова INLINEFORM2 в качестве ключа.Аналогичный подход можно использовать с вероятностями RNNLM.В BIBREF7 вероятности RNNLM кэшировались на основе предыдущих слов INLINEFORM3, что называется аппроксимацией кэша.Таким образом, вероятность слова, полученная из кэша, может быть получена из другой истории, использующей те же предыдущие слова INLINEFORM4.Это вносит еще одну неточность.Чтобы избежать этой неточности и при этом сохранить эффективность, аппроксимация кэша, используемая в BIBREF7, улучшена за счет принятия полной истории в качестве ключа для кэширования вероятностей RNNLM.Обе модификации дают небольшие, но последовательные улучшения по сравнению с BIBREF7 в ряде задач.Для пересчета решетки с помощью su-RNNLM аппроксимация INLINEFORM0-граммы может быть принята и расширена для поддержки контекста будущего слова.Чтобы правильно обрабатывать последующие слова, пути будут объединяться только в том случае, если следующие последующие слова идентичны.Таким образом расширение пути осуществляется в обоих направлениях.Любые два пути с одинаковыми последующими словами и предыдущими словами INLINEFORM1 объединяются.На рисунке FigREF18 показана часть примерной решетки, созданной 2-граммовым LM.Чтобы применить переоценку решетки uni-RNNLM с использованием 3-граммовой аппроксимации, заштрихованный серым узел на рисунке FigREF18 необходимо продублировать, поскольку слово INLINEFORM0 имеет две отдельные 3-граммовые истории, которые являются INLINEFORM1 и INLINEFORM2 соответственно.На рисунке FigREF19 показана решетка после восстановления с использованием uni-RNNLM с 3-граммовой аппроксимацией.Чтобы применить su-RNNLM для восстановления решетки, необходимо также учитывать последующие слова.Рисунок FigREF20 представляет собой расширенную решетку с использованием su-RNNLM с 1 последующим словом.Узлы, заштрихованные серым цветом на рисунке FigREF19, необходимо расширить дальше, поскольку они имеют отдельные последующие слова.Узлы, заштрихованные синим цветом на рисунке FigREF20, представляют собой расширенные узлы полученной решетки.Используя аппроксимацию истории -граммы INLINEFORM0 и учитывая последующие слова INLINEFORM1, процесс расширения решетки фактически представляет собой расширение решетки -граммы INLINEFORM2 для uni-RNNLM.При большем значении INLINEFORM3 и INLINEFORM4 результирующие решетки могут быть очень большими.Это можно решить, сократив решетку и выполнив первоначальное расширение решетки с помощью uni-RNNLM. Для однонаправленных языковых моделей, таких как модель INLINEFORM0 -gram и uni-RNNLM, вероятности слов обычно объединяются с использованием линейной интерполяции, DISPLAYFORM0, где INLINEFORM0 и INLINEFORM1. — это вероятности из INLINEFORM2 -gram и uni-RNN LM соответственно, INLINEFORM3 — это интерполяционный вес uni-RNNLM.Однако недопустимо напрямую комбинировать uni-LM (например, однонаправленные INLINEFORM0-граммы LM или RNNLM) и bi-LM (или su-LM) с использованием линейной интерполяции из-за термина нормализации уровня предложения, необходимого для bi-LM (или su). -LMs) в уравнении EQREF9.Как описано в BIBREF6, uni-LM можно логарифмически интерполировать с bi-LM для распознавания речи, используя DISPLAYFORM0, где INLINEFORM0 — соответствующий термин нормализации.Член нормализации можно отбросить при распознавании речи, поскольку он не влияет на ранжирование гипотезы.INLINEFORM1 и INLINEFORM2 — это вероятности из uni-LM и bi-RNNLM соответственно.INLINEFORM3 — это лог-линейный интерполяционный вес би-RNNLM.Проблема нормализации в su-RNLM аналогична проблеме в bi-RNNLM, как показано в уравнении EQREF15.Следовательно, лог-линейная интерполяция также может применяться для комбинации su-RNNLM и uni-LM, и именно этот подход используется в этой статье.По умолчанию для объединения uni-RNNLM и INLINEFORM0 -gram LM используется линейная интерполяция.Двухэтапная интерполяция используется при включении bi-RNNLM и su-RNNLM.uni-RNNLM и INLINEFORM1-граммы LM сначала интерполируются с использованием линейной интерполяции.Эти линейно интерполированные вероятности затем логарифмически интерполируются с вероятностями би-RNNLM (или su-RNNLM). Эксперименты проводились с использованием корпуса собраний AMI IHM BIBREF18 для оценки эффективности распознавания речи различных языковых моделей.Была использована конфигурация обучающих данных Kaldi.Всего при обучении акустической модели было использовано 78 часов речи.Он состоит из около 1 миллиона слов акустической транскрипции.Восемь встреч были исключены из обучающей выборки и использованы в качестве наборов для разработки и тестирования.Рецепт обучения акустической модели Kaldi BIBREF19 с последовательным обучением BIBREF20 был применен для обучения глубокой нейронной сети (DNN).Преобразованные CMLLR функции MFCC BIBREF21 использовались в качестве входных данных, а 4000 кластеризованных контекстно-зависимых состояний использовались в качестве целевых объектов.DNN была обучена с использованием 6 скрытых слоев, каждый из которых имеет 2048 скрытых узлов.Первая часть корпуса Фишера, 13 миллионов слов, использовалась для дополнительных данных обучения языковому моделированию.Для всех экспериментов использовался словарь декодирования из 49 тыс. слов.Все LM прошли обучение по комбинированному алгоритму (AMI+Fisher), всего 14 миллионов слов.4-граммовый KN со сглаженным откатом LM без обрезки был обучен и использован для создания решеток.Рекуррентные единицы на базе GRU использовались для всех однонаправленных и двунаправленных RNNLM.В скрытом слое было использовано 512 скрытых узлов.Расширенная версия CUED-RNNLM BIBREF22 была разработана для обучения uni-RNNLM, bi-RNNLM и su-RNNLM.Соответствующий код и рецепт будут доступны в Интернете.Вес линейной интерполяции INLINEFORM0 между 4-граммовыми LM и uni-RNNLM был установлен равным 0,75, поскольку он обеспечивал наилучшую производительность на данных разработки.Вес лог-линейной интерполяции INLINEFORM1 для би-RNNLM (или su-RNNLM) составлял 0,3.Вероятности bi-RNNLM и su-RNNLM были сглажены с коэффициентом сглаживания 0,7, как предложено в BIBREF6.3-граммовое приближение применялось для объединения истории uni-RNNLM и su-RNNLM во время пересчета решетки и генерации BIBREF7. ТаблицаTABREF26 показывает частоту ошибок в словах базовой системы с 4-граммовыми и uni-RNN LM.Переоценка решетки и переоценка 100 лучших результатов применяются к решеткам, созданным 4-граммовым LM.Как и ожидалось, uni-RNNLM дают значительное улучшение производительности по сравнению с 4-граммовыми LM.Решетчатое восстановление дает сравнимую производительность с 100-лучшим восстановлением.Декодирование сети неточностей (CN) может применяться к решеткам, созданным путем переоценки решетки uni-RNNLM, и могут быть достигнуты дополнительные улучшения производительности.Однако трудно применить путаницу к сетевому декодированию к 100 лучшим .TableTABREF27 дает скорость обучения, измеренную с помощью слов в секунду (w/s) и («псевдо») PPL различных RNNLM с разным количеством контекста будущих слов.Когда количество последующих слов равно 0, это базовые uni-RNNLM.Когда количество следующих слов установлено в INLINEFORM0, используется bi-RNNLM с полной информацией о будущем контексте.Видно, что su-RNNLM обеспечивают сопоставимую скорость обучения с uni-RNNLM.Дополнительная вычислительная нагрузка su-RNNLM в основном исходит от блока прямой связи для последующих слов, как показано на рисунке Фиг.14.Вычислений в этой части намного меньше, чем в других частях, таких как выходной уровень и уровни GRU.Однако обучение su-RNNLM происходит намного быстрее, чем bi-RNNLM, поскольку трудно эффективно распараллелить обучение bi-RNNLM BIBREF6.Стоит еще раз отметить, что PPL уни-RNNLM нельзя напрямую сравнивать с «псевдо» PPL би-RNNLM и su-RNNLM.Но как PPL, так и «псевдо» PPL отражают среднюю логарифмическую вероятность каждого слова.Судя по таблице TABREF27, с увеличением количества последующих слов «псевдо» PPL su-RNNLM продолжает уменьшаться, что дает сопоставимую ценность с би-RNNLM.В таблице TABREF28 приведены результаты WER по 100 лучшим оценкам с использованием различных языковых моделей.Для би-RNNLM (или su-RNNLM) невозможно использовать линейную интерполяцию.Таким образом, применяется двухэтапный подход, как описано в разделе SECREF5.Это приводит к небольшим различиям (второй знак после запятой) между случаем uni-RNNLM и будущим контекстом 0 su-RNNLM.Увеличение количества последующих слов последовательно снижает WER.С одним последующим словом WER абсолютно сократились на 0,2%.Su-RNNLM с более чем двумя последующими словами дали абсолютное снижение WER примерно на 0,5%.Bi-RNNLM (показанные в нижней строке таблицы TABREF28) превосходят su-RNNLM на 0,1–0,2%, поскольку они способны включать полную информацию о будущем контексте с рекуррентным соединением.В таблице TABREF29 показаны WER восстановления решетки с использованием su-RNNLM.Был применен алгоритм пересчета решетки, описанный в разделе SECREF4.Su-RNNLM с 1 и 3 последующими словами использовались для пересчета решетки.Согласно таблице TABREF29, su-RNNLM с 1 последующим словом дают снижение WER на 0,2%, а использование 3 последовательных слов дает снижение WER примерно на 0,5%.Эти результаты согласуются со 100-лучшим результатом повторной оценки в таблице TABREF28.Декодирование сети путаницы может быть применено к повторно оцененным решеткам, и дополнительные улучшения производительности WER на 0,3–0,4% достигаются на наборах тестов для разработки и оценки.В этой статье исследуется использование будущей контекстной информации в языковых моделях нейронных сетей.Предлагается новая структура модели для решения проблем, связанных с би-RNNLM, таких как низкая скорость поезда и трудности с восстановлением решетки.Вместо использования рекуррентного блока для сбора всей будущей информации, блок прямой связи использовался для моделирования конечного числа последующих слов.Существующие алгоритмы обучения и восстановления решетки для uni-RNNLM расширены для предлагаемых su-RNNLM.Экспериментальные результаты показывают, что su-RNNLM показали немного худшие результаты, чем би-RNNLM, но с гораздо более высокой скоростью обучения.Кроме того, дополнительные улучшения производительности могут быть получены за счет переоценки решетки и последующего декодирования сети путаницы.Будущая работа будет посвящена изучению улучшенной схемы обрезки для решения проблем расширения решетки, связанных с более широким будущим контекстом.
Недавно было показано, что двунаправленные рекуррентные сетевые языковые модели (bi-RNNLM) превосходят стандартные однонаправленные рекуррентные языковые модели нейронных сетей (uni-RNNLM) в ряде задач распознавания речи. Это указывает на то, что информация о контексте будущего слова, выходящая за рамки истории слова, может быть полезной. Однако би-RNNLM создают ряд проблем, поскольку они используют полную информацию о контексте предыдущего и будущего слова. Это влияет как на эффективность обучения, так и на их использование в рамках системы переоценки решетки. В этой статье эти проблемы решаются путем предложения новой структуры нейронной сети, пришедшей на смену словесным RNNLM (su-RNNLM). Вместо использования рекуррентного модуля для захвата полного контекста будущих слов, блок прямой связи используется для моделирования конечного числа последующих, будущих слов. Эту модель можно обучать гораздо эффективнее, чем bi-RNNLM, а также ее можно использовать для восстановления решетки. Экспериментальные результаты по задаче транскрипции встречи (AMI) показывают, что предложенная модель последовательно превосходит uni-RNNLM и дает лишь небольшое ухудшение по сравнению с bi-RNNLM в N-наилучшем повторном подсчете. Кроме того, улучшения производительности можно получить, используя переоценку решетки и последующее декодирование сети путаницы.
3,752
QasperSumInstruct
ru
Напиши аннотацию по статье
Интерпретируемый визуальный ответ на вопрос посредством визуального заземления в результате наблюдения за вниманием.. Нас интересует задача визуального ответа на вопрос (VQA), где алгоритму представлено изображение и вопрос, сформулированный на естественном языке и относящийся к содержанию изображения.Цель этой задачи — заставить алгоритм правильно ответить на вопрос.Задача VQA в последнее время привлекла значительное внимание сообщества компьютерного зрения, в частности потому, что для достижения высокой точности предположительно потребуется точное понимание как естественного языка, так и визуальных стимулов.Помимо того, что это является важной вехой на пути к развитию визуального интеллекта, существуют и практические применения, такие как разработка инструментов для людей с нарушениями зрения.Проблема VQA сложна из-за сложного взаимодействия языка и визуальных модальностей.С одной стороны, алгоритмы VQA должны иметь возможность анализировать и интерпретировать входной вопрос, который предоставляется на естественном языке BIBREF0, BIBREF1, BIBREF2.Потенциально это может включать понимание существительных, глаголов и других лингвистических элементов, а также их визуального значения.С другой стороны, алгоритмы должны анализировать изображение, чтобы идентифицировать и распознавать визуальные элементы, имеющие отношение к вопросу.Более того, некоторые вопросы могут относиться непосредственно к содержимому изображения, но для правильного ответа могут потребоваться внешние знания, основанные на здравом смысле.Наконец, алгоритмы должны генерировать текстовый вывод на естественном языке, который правильно отвечает на входной визуальный вопрос.Несмотря на недавние исследовательские усилия по решению этих проблем, проблема остается по большей части нерешенной BIBREF3.особенно заинтересованы в том, чтобы дать алгоритмам VQA возможность идентифицировать визуальные элементы, имеющие отношение к вопросу.В литературе VQA такая способность реализуется с помощью механизмов внимания.Такие механизмы внимания создают тепловую карту для входного изображения, которая выделяет области изображения, ведущие к ответу.Эти тепловые карты интерпретируются как обоснование ответа на наиболее важные области изображения.Как правило, эти механизмы либо рассматривались как скрытые переменные, для которых нет контроля, либо рассматривались как выходные переменные, которые получают прямой контроль со стороны человеческих аннотаций.К сожалению, оба этих подхода имеют недостатки.Во-первых, тренировка внимания без присмотра обычно приводит к моделям, которые не могут обосновать свое решение на изображении в понятной для человека форме.Во-вторых, контролируемая тренировка внимания сложна и дорогостояща: аннотаторы-люди могут считать, что разные регионы имеют отношение к рассматриваемому вопросу, что влечет за собой двусмысленность и увеличение стоимости аннотации.Наша цель — использовать лучшее из обоих миров, предоставляя алгоритмам VQA интерпретируемое обоснование их ответов без необходимости прямой и явной ручной аннотации внимания.С практической точки зрения, поскольку автономные машины все чаще находят применение в реальной жизни, существует растущая потребность предоставить им подходящие возможности для объяснения своих решений.Однако в большинстве приложений, включая VQA, современные методы работают как модели черного ящика, которые обычно обучаются с использованием дискриминационного подхода.Подобно BIBREF4, в этой работе мы показываем, что в контексте VQA такие подходы приводят к внутренним представлениям, которые не отражают основные семантические отношения между текстовыми вопросами и визуальной информацией.Следовательно, как мы показываем в этой работе, современные подходы к VQA не могут подкрепить свои ответы подходящим интерпретируемым представлением.В этой работе мы представляем методологию, которая предоставляет алгоритмам VQA возможность генерировать интерпретируемые человеком карты внимания, которые эффективно обосновывают ответ на соответствующие области изображения.Мы достигаем этого, используя описания регионов и аннотации объектов, доступные в наборе данных Visual Genome, и используем их для автоматического построения карт внимания, которые можно использовать для контроля внимания, вместо того, чтобы требовать от людей-аннотаторов вручную предоставлять метки заземления.Наша платформа обеспечивает конкурентоспособную современную производительность VQA, одновременно создавая визуальные основы, которые превосходят другие алгоритмы, использующие аннотированное внимание человека во время обучения.Вклад этой статьи заключается в следующем: (1) мы представляем механизм для автоматического получения значимого контроля внимания как из описаний регионов, так и из аннотаций объектов в наборе данных Visual Genome; (2) мы показываем, что, используя прогнозирование карт внимания областей и меток объектов в качестве вспомогательных задач в приложении VQA, можно получить более интерпретируемые промежуточные представления.(3) мы экспериментально демонстрируем самые современные характеристики в тестах VQA, а также визуальное обоснование, которое точно соответствует аннотациям человеческого внимания.С момента появления BIBREF0, BIBREF1, BIBREF2 проблема VQA привлекает растущий интерес к BIBREF3.Его мультимодальный характер и более точный протокол оценки, чем альтернативные мультимодальные сценарии, такие как субтитры к изображениям, помогают объяснить этот интерес.Кроме того, распространение подходящих наборов данных и потенциальных приложений также является ключевым элементом этой растущей активности.Большинство современных методов основаны на подходе совместного внедрения, при котором глубокие модели используются для проецирования текстового вопроса и визуальных данных в совместное пространство признаков, которое затем используется для построения ответа.Более того, большинство современных подходов представляют VQA как проблему классификации, где классы соответствуют набору заранее определенных ответов-кандидатов.Например, большинство записей в задаче VQA BIBREF2 выбирают в качестве выходных классов 3000 наиболее распространенных ответов в этом наборе данных, на которые приходится 92% экземпляров в наборе проверки.Стратегия объединения текстовых и визуальных вложений и базовой структуры глубокой модели — ключевые аспекты дизайна, которые отличают предыдущие работы.Антол и др.BIBREF2 предлагает поэлементное умножение между вложениями изображений и вопросов для создания пространственной карты внимания.Fukui et al.BIBREF5 предлагает мультимодальное компактное билинейное объединение (MCB) для эффективной реализации внешнего оператора произведения, который сочетает в себе визуальное и текстовое представления. Yu et al.BIBREF6 расширяет эту схему объединения, вводя мультимодальный факторизованный билинейный подход к объединению (MFB), который улучшает репрезентативную способность билинейного оператора.Они достигают этого, добавляя начальный шаг, который эффективно расширяет текстовые и визуальные вложения в многомерное пространство.Что касается структурных инноваций, Noh et al. BIBREF7 встраивает текстовый вопрос как промежуточный динамический билинейный уровень ConvNet, который обрабатывает визуальную информацию.Андреас и др. BIBREF8 предлагает модель, которая изучает набор нейронных модулей для конкретных задач, которые совместно обучаются отвечать на визуальные вопросы.После успешного внедрения мягкого внимания в приложениях нейронного машинного перевода BIBREF9 большинство современных методов VQA также включают аналогичный механизм.Распространенный подход заключается в использовании односторонней схемы внимания, где встраивание вопроса используется для генерации набора коэффициентов внимания по набору предопределенных областей изображения.Эти коэффициенты затем используются для взвешивания встраивания областей изображения для получения подходящего дескриптора BIBREF10, BIBREF11, BIBREF5, BIBREF12, BIBREF6.Были также предложены более сложные формы внимания.Сюй и Саенко BIBREF13 предлагают использовать встраивание на уровне слов для привлечения внимания.Ян и др. БИБРЕФ14повторяет применение механизма мягкого внимания к визуальным данным как способ постепенного уточнения местоположения соответствующих сигналов для ответа на вопрос.Лу и др. BIBREF15 предлагает двунаправленный механизм совместного внимания, который помимо визуального внимания, управляемого вопросом, также включает визуальное внимание по входному вопросу.Во всех предыдущих случаях механизм внимания применяется по неконтролируемой схеме, где коэффициенты внимания рассматриваются как латентные переменные.Недавно также появился интерес к включению схемы контролируемого внимания к проблеме VQA BIBREF4, BIBREF16, BIBREF17.Дас и др. BIBREF4 сравнивает области изображения, выбранные людьми, и современные методы VQA, чтобы ответить на один и тот же визуальный вопрос.Для этого они собирают набор данных внимания человека VQA (VQA-HAT), большой набор данных карт внимания человека, созданный путем запроса людей выбрать области изображений, соответствующие ответам на вопросы, из набора данных VQA BIBREF2.Интересно, что это исследование пришло к выводу, что современные карты внимания, созданные машиной, демонстрируют плохую корреляцию с человеческими аналогами, что позволяет предположить, что люди используют разные визуальные подсказки для ответа на вопросы.На более фундаментальном уровне это предполагает, что дискриминационная природа большинства современных систем VQA не ограничивает эффективно модули внимания, что приводит к кодированию различительных сигналов вместо базовой семантики, которая связывает данную пару вопрос-ответ.Результаты нашей работы подтверждают эту гипотезу.Что касается работы в BIBREF4, Gan et al. BIBREF16 применяет более структурированный подход для определения областей изображения, используемых людьми для ответа на визуальные вопросы.Для пар VQA, связанных с изображениями в наборе данных COCO, они просят людей выбрать сегментированные области в изображениях COCO, которые подходят для ответа на каждый вопрос.Впоследствии они используют эти области в качестве меток для обучения модели глубокого обучения, которая способна идентифицировать особенности внимания.Дополняя стандартную методику VQA этими функциями внимания, они могут добиться небольшого повышения производительности.Тесно связанный с нашим подходом Qiao et al. BIBREF17 использует метки внимания в наборе данных VQA-HAT для обучения сети предложения внимания, которая способна предсказывать области изображения, соответствующие ответу на визуальный вопрос.Эта сеть генерирует набор предложений по вниманию для каждого изображения в наборе данных VQA, которые используются в качестве меток для контроля внимания в модели VQA.Эта стратегия приводит к небольшому повышению производительности по сравнению со стратегией невнимания.В отличие от нашего подхода, эти предыдущие работы основаны на схеме контролируемого внимания, которая не рассматривает автоматический механизм получения меток внимания.Вместо этого они полагаются на человеческие аннотированные заземления в качестве контроля внимания.Кроме того, они отличаются от нашей работы методом интеграции меток внимания в модель VQA.На рисунке FigREF2 показан основной конвейер нашей модели VQA.В основном мы опираемся на модель MCB из BIBREF5, которая иллюстрирует современные методы решения этой проблемы.Нашим главным нововведением в этой модели является добавление модуля контроля внимания, который включает визуальное заземление в качестве вспомогательной задачи.Далее мы опишем основные модули этой модели.Модуль внимания к вопросам: вопросы токенизированы и проходят через уровень внедрения, за которым следует уровень LSTM, который генерирует функции вопроса INLINEFORM0 , где INLINEFORM1 — максимальное количество слов в токенизированной версии вопроса, а INLINEFORM2 — размерность скрытого состояния. ЛСТМ.Кроме того, вслед за BIBREF12 добавляется механизм внимания к вопросу, генерирующий коэффициенты внимания к вопросу INLINEFORM3, где INLINEFORM4 — это так называемое количество «проблесков».Цель INLINEFORM5 — позволить модели прогнозировать несколько карт внимания, чтобы повысить ее выразительность.Здесь мы используем INLINEFORM6.Затем взвешенные характеристики вопроса INLINEFORM7 вычисляются с использованием механизма мягкого внимания BIBREF9, который по сути представляет собой взвешенную сумму признаков слова INLINEFORM8 с последующей конкатенацией в соответствии с INLINEFORM9.Модуль внимания: изображения передаются через уровень внедрения, состоящий из предварительно обученной модели ConvNet, такой как Resnet, предварительно обученной с помощью набора данных ImageNet BIBREF18.При этом создаются объекты изображения INLINEFORM0 , где INLINEFORM1 , INLINEFORM2 и INLINEFORM3 — это глубина, высота и ширина извлеченных карт объектов.Затем модуль Fusion I используется для генерации набора коэффициентов внимания к изображению.Во-первых, функции вопроса INLINEFORM4 выложены в виде той же пространственной формы, что и INLINEFORM5.После этого модуль слияния моделирует совместные отношения INLINEFORM6 между вопросами и изображениями, отображая их в общее пространство INLINEFORM7.В простейшем случае можно реализовать модуль слияния, используя конкатенацию или произведение Адамара BIBREF19, но можно применить более эффективные схемы объединения BIBREF5, BIBREF20, BIBREF12, BIBREF6.Выбор конструкции термоядерного модуля остается постоянной темой исследований.В целом, он должен эффективно отражать скрытые взаимосвязи между мультимодальными функциями и в то же время легко оптимизироваться.Результаты слияния затем передаются через модуль внимания, который вычисляет коэффициент визуального внимания INLINEFORM8, с помощью которого мы можем получить взвешенные по вниманию визуальные характеристики INLINEFORM9.Опять же, INLINEFORM10 — это количество «проблесков», где мы используем INLINEFORM11. Классификация.Модуль: Используя компактное представление вопросов INLINEFORM0 и визуальную информацию INLINEFORM1, модуль классификации сначала применяет модуль Fusion II, который обеспечивает функциональное представление ответов INLINEFORM2, где INLINEFORM3 — скрытое пространство ответов.После этого он вычисляет логиты по набору заранее определенных ответов-кандидатов.Следуя предыдущей работе BIBREF5, мы используем в качестве возможных результатов 3000 самых частых ответов в наборе данных VQA.В конце этого процесса мы получаем ответ с наивысшим баллом INLINEFORM4. ВниманиеМодуль наблюдения:В качестве основного новшества модели VQA мы добавляем модуль контроля внимания к изображению в качестве вспомогательной задачи классификации, где метки визуального заземления INLINEFORM0 используются для того, чтобы помочь модели сосредоточиться на значимых частях изображения для ответа на каждый вопрос.Для этого мы просто рассматриваем сгенерированные коэффициенты внимания INLINEFORM1 как распределение вероятностей, а затем сравниваем его с основной истиной, используя KL-дивергенцию.Интересно, что мы вводим две карты внимания, соответствующие соответствующим заземлениям на уровне региона и на уровне объекта, как показано на рисунке FigREF3.Разделы SECREF4 и SECREF5 содержат подробную информацию о предлагаемом нами методе получения меток внимания и обучения полученной модели соответственно.Visual Genome (VG) BIBREF21 включает самый большой доступный в настоящее время набор данных VQA, который состоит из 1,7 млн ​​пар QA.Кроме того, для каждого из более чем 100 тысяч изображений VG также предоставляет аннотации регионов и объектов с помощью ограничивающих рамок.С точки зрения визуального обоснования, эти аннотации к регионам и объектам предоставляют дополнительную информацию.В качестве примера, как показано на рисунке FigREF3, для вопросов, связанных с взаимодействием между объектами, аннотации областей оказываются весьма релевантными.Напротив, для вопросов, связанных со свойствами конкретных объектов, аннотации объектов оказываются более ценными.Следовательно, в этом разделе мы представляем метод автоматического выбора аннотаций областей и объектов из VG, которые можно использовать в качестве меток для реализации визуального заземления в качестве вспомогательной задачи для VQA. Для аннотаций регионов мы предлагаем простую эвристику для определения визуального обоснования: для для каждого INLINEFORM0 мы перечисляем все описания регионов INLINEFORM1 и выбираем описание INLINEFORM2, которое имеет наибольшее количество (по крайней мере двух) перекрывающихся информативных слов с INLINEFORM3 и INLINEFORM4 .Информативными словами являются все существительные и глаголы, где два информативных слова совпадают, если выполняется хотя бы одно из следующих условий: (1) их необработанный текст в том виде, в каком они представлены в INLINEFORM5 или INLINEFORM6, одинаковы; (2) Их лемматизации (с использованием NLTK BIBREF22 ) одинаковы; (3) Их синсеты в WordNetBIBREF23 такие же; (4) Их псевдонимы (предоставленные VG) одинаковы.Мы называем полученные метки заземлением на уровне региона.Рисунок FigREF3 (a) иллюстрирует пример заземления на уровне региона.Что касается аннотаций объекта, для каждого изображения в триплете INLINEFORM0 мы выбираем ограничивающую рамку объекта в качестве допустимой метки заземления, если имя объекта соответствует одному из информативных существительных в INLINEFORM1 или INLINEFORM2.Для оценки каждого матча мы используем те же критерии, что и приземления на уровне региона.Кроме того, если триплет INLINEFORM3 имеет допустимое заземление области, каждое соответствующее заземление уровня объекта должно находиться внутри этой области, чтобы быть принятым как допустимое.В качестве дальнейшего уточнения выбранные объекты заземления проходят через фильтр пересечения через объединение, чтобы учесть тот факт, что VG обычно включает несколько меток для одного и того же экземпляра объекта.В заключение, в вопросах, связанных со подсчетом, обоснования на уровне региона отбрасываются после извлечения соответствующих обоснований на уровне объекта.Мы называем полученные метки заземлениями на уровне объекта.Рисунок РИС. 3 (b) иллюстрирует пример заземления на уровне объекта.В результате, комбинируя заземления как на уровне региона, так и на уровне объекта, около 700 тыс. из 1 млн триплетов INLINEFORM0 в VG в конечном итоге имеют действительные метки заземления.Мы сделаем эти ярлыки общедоступными.Мы строим контроль внимания на основе реализации MCB BIBREF5 и MFB BIBREF12 с открытым исходным кодом.Подобно им, мы извлекаем объект изображения из слоя res5c Resnet-152, в результате чего получается пространственная сетка INLINEFORM0 ( INLINEFORM1 , INLINEFORM2 , INLINEFORM3 ).Мы конструируем наши метки визуального заземления, являющиеся достоверными, в виде карт взглядов INLINEFORM4 на каждую пару QA, где первая карта — это заземление на уровне объекта, а вторая карта — заземление на уровне региона, как описано в разделе SECREF4.Пусть INLINEFORM5 — координата ограничивающей рамки выбранного объекта INLINEFORM6 в метках заземления, тогда карты внимания INLINEFORM7 на уровне объекта будут такими: DISPLAYFORM0, где INLINEFORM0 — индикаторная функция.Аналогично, карты внимания INLINEFORM1 на уровне региона: DISPLAYFORM0. После этого INLINEFORM0 и INLINEFORM1 пространственно нормализуются L1 для представления вероятностей и объединяются в форму INLINEFORM2. Модель обучается с использованием многозадачной потери, DISPLAYFORM0, где INLINEFORM0 обозначает перекрестную энтропию и INLINEFORM1 обозначает KL-дивергенцию.INLINEFORM2 соответствует изученным параметрам.INLINEFORM3 — это скаляр, который взвешивает условия потерь.Этот скаляр затухает в зависимости от номера итерации INLINEFORM4 .В частности, мы решили использовать функцию косинусного затухания:DISPLAYFORM0 Это связано с тем, что визуальные метки заземления имеют некоторый уровень субъективности.В качестве примера на рисунке FigREF11 (второй ряд) показан случай, когда выученное внимание кажется более точным, чем основная истина VQA-HAT.Следовательно, по мере того, как модель изучает подходящие значения параметров, мы постепенно ослабляем штрафы на картах внимания, чтобы предоставить модели больше свободы выборочно решать, какое внимание использовать.Важно отметить, что для обучающих выборок в VQA-2.0 или VG, которые не имеют меток заземления на уровне региона или объекта, INLINEFORM0 в уравнении EQREF6 , поэтому потери сводятся только к термину классификации.В нашем эксперименте INLINEFORM1 калибруется для каждой тестируемой модели на основе количества шагов обучения.В частности, мы выбираем INLINEFORM2 для всех моделей автоматических выключателей и INLINEFORM3 для других.VQA-2.0: Набор данных VQA-2.0 BIBREF2 состоит из 204721 изображения, в общей сложности 1,1 миллиона вопросов и 10 ответов на каждый вопрос, полученных из краудсорсинга.Существует более 20 типов вопросов, охватывающих различные темы и ответы в свободной форме.Набор данных разделен на наборы для обучения (82 тыс. изображений и 443 тыс. вопросов), проверки (40 тыс. изображений и 214 тыс. вопросов) и тестирования (81 тыс. изображений и 448 тыс. вопросов).Задача состоит в том, чтобы предсказать правильный ответ INLINEFORM0 по соответствующей паре изображение-вопрос INLINEFORM1.Основным преимуществом версии 1.0 BIBREF2 является то, что для каждого вопроса VQA-2.0 включает дополнительные изображения, которые приводят к разным ответам, что снижает языковую предвзятость, заставляя модель использовать визуальную информацию.Визуальный геном: набор данных Visual Genome (VG) BIBREF21 содержит 108077 изображений, в среднем 17 пар QA на изображение.Мы следуем схеме обработки из BIBREF5, где в вопросах и ответах удаляются неинформативные слова, такие как «a» и «is».После этого в наш обучающий набор включаются триплеты INLINEFORM0 с ответами на одно ключевое слово, перекрывающиеся с набором данных VQA-2.0.Это добавляет к обучающему набору 97697 изображений и около 1 миллиона вопросов.Помимо данных VQA, VG также предоставляет в среднем 50 описаний регионов и 30 экземпляров объектов на изображение.Каждый регион/объект аннотирован одним описанием предложения/фразы и координатами ограничивающего прямоугольника.VQA-HAT: набор данных VQA-HAT BIBREF4 содержит 58 475 карт зрительного внимания человека (HAT) для триплетов INLINEFORM0 в обучающем наборе VQA-1.0.Аннотаторам было показано размытое изображение, пара INLINEFORM1, и их попросили «поцарапать» изображение до тех пор, пока они не поверят, что кто-то другой сможет ответить на вопрос, посмотрев на размытое изображение и область резкости.Авторы также собирают HAT-карты INLINEFORM2 для проверочных наборов VQA-1.0, где каждый из 1374 INLINEFORM3 был помечен тремя разными аннотаторами, поэтому можно сравнить уровень согласия между метками.Мы используем VQA-HAT для оценки эффективности визуального заземления путем сравнения ранговой корреляции между вниманием человека и вниманием модели, как в BIBREF4, BIBREF24. VQA-X: набор данных VQA-X BIBREF24 содержит 2000 помеченных карт внимания в наборах проверки VQA-2.0. .В отличие от VQA-HAT, карты внимания VQA-X имеют форму сегментации экземпляров, где аннотаторов просили сегментировать объекты и/или регионы, которые наиболее явно подтверждают ответ.Следовательно, внимание становится более конкретным и локализованным.Мы используем VQA-X для оценки эффективности визуального заземления путем сравнения ранговой корреляции, как в BIBREF4, BIBREF24.оцените эффективность предложенного нами метода, используя два критерия: i) ранговая корреляция BIBREF25 для оценки визуального обоснования и ii) точность для оценки ответов на вопросы.Интуитивно понятно, что ранговая корреляция измеряет сходство между картами внимания человека и модели в соответствии с ранговой метрикой.Высокая ранговая корреляция означает, что модель «смотрит» на области изображения, которые соответствуют визуальной информации, используемой человеком для ответа на тот же вопрос.С точки зрения точности прогнозируемого ответа INLINEFORM0 оценивается: DISPLAYFORM0 В таблице TABREF10 представлены наши основные результаты.Наши модели созданы на основе предыдущих разработок с использованием дополнительного модуля контроля внимания, как описано в разделе SECREF3.В частности, мы обозначаем Attn-* нашу адаптацию соответствующей модели путем включения нашего модуля контроля внимания.Мы подчеркиваем, что модель MCB стала победителем конкурса VQA Challenge 2016, а модель MFH — лучшей одиночной моделью конкурса VQA Challenge 2017.В таблице TABREF10 мы можем наблюдать, что предложенная нами модель значительно повышает ранговую корреляцию по отношению к человеческому вниманию.Кроме того, наша модель превосходит альтернативные современные методы с точки зрения точности прогнозирования ответов.В частности, ранговая корреляция для модели MFH увеличивается на 36,4% при оценке в наборе данных VQA-HAT и на 7,7% при оценке в VQA-X.Это указывает на то, что предложенные нами методы позволяют моделям VQA предоставлять более значимые и интерпретируемые результаты за счет более точного визуального обоснования.В таблице TABREF10 также представлены результаты эксперимента, в котором коэффициент затухания INLINEFORM0 в уравнении EQREF7 зафиксирован на значении 1.В этом случае модель способна достичь более высокой ранговой корреляции, но точность падает на 2%.Мы наблюдаем, что по мере обучения потеря внимания становится доминирующей на заключительных этапах обучения, что влияет на точность модуля классификации.На рисунке FigREF11 показаны качественные результаты полученного визуального заземления, включая также сравнение с моделью отсутствия внимания.В этой работе мы предложили новый метод, который способен немного превзойти современные системы VQA, а также обеспечивает интерпретируемые представления в форме явно обучаемого механизма зрительного внимания.В частности, в качестве основного результата наши эксперименты предоставляют доказательства того, что сгенерированные визуальные обоснования достигают высокой корреляции по отношению к аннотациям внимания, предоставленным человеком, с большим отрывом превосходя показатели корреляции предыдущих работ.В качестве дальнейшего вклада мы выделим две важные стороны предлагаемого подхода.С одной стороны, используя метки внимания в качестве вспомогательной задачи, предлагаемый подход демонстрирует, что он способен ограничить внутреннее представление модели таким образом, что это способствует кодированию интерпретируемых представлений основных отношений между текстовым вопросом и входными данными. изображение.С другой стороны, предлагаемый подход демонстрирует метод использования существующих наборов данных с описаниями регионов и метками объектов для эффективного контроля механизма внимания в приложениях VQA, избегая дорогостоящей маркировки человеком.В качестве будущей работы мы полагаем, что превосходное визуальное обоснование, обеспечиваемое предлагаемым методом, может сыграть важную роль в создании объяснений на естественном языке для обоснования ответа на данный визуальный вопрос.Этот сценарий поможет продемонстрировать актуальность нашей методики как инструмента расширения возможностей технологий на основе ИИ для объяснения своих решений.Благодарности:Эта работа частично финансировалась Oppo, Panasonic и Институтом фундаментальных исследований данных тысячелетия.
Ключевым аспектом интерпретируемых моделей VQA является их способность обосновывать свои ответы соответствующими областями изображения. Текущие подходы с этой возможностью основаны на контролируемом обучении и аннотированных человеком заземлениях для тренировки механизмов внимания внутри архитектуры VQA. К сожалению, получение человеческих аннотаций, специфичных для визуального обоснования, сложно и дорого. В этой работе мы демонстрируем, что можем эффективно обучать архитектуру VQA с базовым контролем, который можно автоматически получить из доступных описаний областей и аннотаций объектов. Мы также показываем, что наша модель, обученная с помощью этого добытого наблюдения, генерирует визуальные заземления, которые обеспечивают более высокую корреляцию по сравнению с заземлениями, аннотируемыми вручную, при этом достигая самой современной точности VQA.
3,912
QasperSumInstruct
ru
Напиши аннотацию по статье
Использование BERT для аспектного анализа тональности посредством построения вспомогательного предложения. Анализ тональности (SA) является важной задачей при обработке естественного языка.Он решает вычислительную обработку мнений, эмоций и субъективности — настроения собираются, анализируются и обобщаются.Ему уделяется большое внимание не только в научных кругах, но и в промышленности, поскольку он обеспечивает обратную связь в режиме реального времени посредством онлайн-обзоров на таких веб-сайтах, как Amazon, которые могут использовать мнения клиентов о конкретных продуктах или услугах.Основное предположение этой задачи состоит в том, что весь текст имеет общую полярность.Однако комментарии пользователей могут содержать разные аспекты, например: «Эта книга в твердом переплете, но цена немного высока».Полярность «внешности» положительна, а полярность «цены» отрицательна.Аспектный анализ настроений (ABSA) BIBREF0, BIBREF1, BIBREF2, BIBREF3 направлен на выявление детальной полярности по отношению к конкретному аспекту.Эта задача позволяет пользователям оценить совокупные настроения по каждому аспекту данного продукта или услуги и получить более детальное представление об их качестве.И SA, и ABSA являются задачами уровня предложения или уровня документа, но один комментарий может относиться к более чем одному объекту, а задачи уровня предложения не могут обрабатывать предложения с несколькими целями.Таким образом, BIBREF4 представляет задачу целевого анализа настроений на основе аспектов (TABSA), целью которого является выявление детальной полярности мнений по отношению к конкретному аспекту, связанному с данной целью.Задачу можно разделить на два этапа: (1) первый шаг – определить аспекты, связанные с каждой целью; (2) второй шаг – разрешить полярность аспектов данной цели.Самая ранняя работа над (T)ABSA в значительной степени опиралась на разработку признаков BIBREF5, BIBREF6 и последующие методы на основе нейронных сетей BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11 достигли более высокой точности.Недавно BIBREF12 включил полезные знания здравого смысла в глубокую нейронную сеть для дальнейшего улучшения результатов модели.BIBREF13 оптимизирует сеть памяти и применяет ее к своей модели, чтобы лучше улавливать лингвистическую структуру.Совсем недавно предварительно обученные языковые модели, такие как ELMo BIBREF14, OpenAI GPT BIBREF15 и BERT BIBREF16, показали свою эффективность в облегчении усилий по разработке функций.В частности, BERT добился отличных результатов в QA и NLI.Однако при прямом использовании предварительно обученной модели BERT (см. таблицу TABREF19) в задаче (T)ABSA существенного улучшения не наблюдается.Мы думаем, что это связано с неправильным использованием предварительно обученной модели BERT.Поскольку входное представление BERT может представлять собой как одно текстовое предложение, так и пару текстовых предложений, мы можем преобразовать (T)ABSA в задачу классификации пар предложений и точно настроить предварительно обученный BERT. В этой статье мы исследуем несколько методов построения вспомогательного предложения и преобразования (T)ABSA в задачу классификации пар предложений.Мы настраиваем предварительно обученную модель с помощью BERT и достигаем новых современных результатов в задаче (T)ABSA.Мы также проводим сравнительный эксперимент, чтобы убедиться, что классификация, основанная на паре предложений, лучше, чем классификация по одному предложению с точно настроенным BERT, а это означает, что улучшение происходит не только за счет BERT, но и за счет нашего метода.В частности, наш вклад двоякий: 1.Мы предлагаем новое решение (T)ABSA, преобразуя его в задачу классификации пар предложений.2.Мы настраиваем предварительно обученную модель BERT и достигаем новых современных результатов на наборах данных SentiHood и SemEval-2014 Task 4.В этом разделе мы подробно опишем наш метод.В TABSA предложение INLINEFORM0 обычно состоит из ряда слов: INLINEFORM1, а некоторые слова INLINEFORM2 являются заранее определенными целями INLINEFORM3, после BIBREF4 мы ставим задачу как задачу классификации на 3 класса: учитывая предложение INLINEFORM4, набор целевых объектов INLINEFORM5 и фиксированный набор аспектов INLINEFORM6 прогнозируют полярность настроений INLINEFORM7 по полному набору пар целевой-аспект INLINEFORM8 .Как мы видим в таблице TABREF6, полярность золотого стандарта (LOCATION2, цена) отрицательна, а полярность (LOCATION1, цена) отсутствует.В ABSA пары целевой аспект INLINEFORM0 становятся только аспектами INLINEFORM1.Эта настройка эквивалентна одновременному изучению подзадачи 3 (Определение категории аспекта) и подзадачи 4 (Полярность категории аспекта) задачи 4 SemEval-2014.Для простоты мы в основном описываем наш метод на примере TABSA.Мы рассматриваем следующие четыре метода преобразования задачи TABSA в задачу классификации пар предложений: Предложение, которое мы хотим сгенерировать из пары целевой аспект, представляет собой вопрос, и формат должен быть таким же.Например, для набора пары «цель-аспект» (LOCATION1, безопасность) мы генерируем предложение: «Что вы думаете о безопасности местоположения — 1?»«Для задачи NLI условия, которые мы задаем при формировании предложений, менее строгие, а форма намного проще.Предложение, созданное в этот момент, является не стандартным предложением, а простым псевдопредложением с парой (LOCATION1, безопасность) в качестве примера: вспомогательное предложение: «местоположение - 1 - безопасность».Для QA-B мы добавляем информацию о метках и временно преобразуем TABSA в задачу двоичной классификации ( INLINEFORM0 ), чтобы получить распределение вероятностей.В это время каждая пара «цель-аспект» будет генерировать три последовательности, такие как «полярность аспекта безопасности локации - 1 положительная», «полярность аспекта безопасности локации - 1 отрицательна», «полярность аспекта безопасности локации - 1 отрицательна». аспект безопасности местоположения – 1 – нет».Мы используем значение вероятности INLINEFORM1 в качестве оценки соответствия.Для пары целевой-аспект, которая генерирует три последовательности ( INLINEFORM2 ), мы берем класс последовательности с наивысшим показателем соответствия для прогнозируемой категории.Разница между NLI-B и QA-B заключается в том, что вспомогательное предложение превращается из вопросительного в псевдопредложение.Вспомогательные предложения: «местоположение — 1 — безопасность — положительное», «местоположение — 1 — безопасность — отрицательное» и «местоположение — 1 — безопасность — нет».После того, как мы построим вспомогательное предложение, мы можем преобразовать задачу TABSA из задачи классификации одного предложения в задачу классификации пары предложений.Как показано в Таблице TABREF19, это необходимая операция, которая может значительно улучшить экспериментальные результаты задачи TABSA.BERT BIBREF16 — это новая модель языкового представления, которая использует двунаправленные преобразователи для предварительного обучения большого корпуса и точно настраивает предварительно обученную модель для других задач.Мы настраиваем предварительно обученную модель BERT для выполнения задачи TABSA.Давайте кратко рассмотрим входное представление и процедуру тонкой настройки.Входное представление BERT может явно представлять пару текстовых предложений в последовательности токенов.Для данного токена его входное представление создается путем суммирования соответствующих вложений токена, сегмента и позиции.Для задач классификации первое слово каждой последовательности представляет собой уникальное встраивание классификации ([CLS]). Точная настройка BERT проста.Чтобы получить объединенное представление входной последовательности фиксированной размерности, мы используем конечное скрытое состояние (т. е. выход преобразователя) первого токена в качестве входных данных.Обозначим вектор как INLINEFORM0.Затем мы добавляем слой классификации, матрица параметров которого равна INLINEFORM1, где INLINEFORM2 — количество категорий.Наконец, вероятность каждой категории INLINEFORM3 рассчитывается с помощью функции softmax INLINEFORM4 .BERT.для задач классификации одного предложения.Предположим, что количество целевых категорий — INLINEFORM0, а категорий аспектов — INLINEFORM1.Мы рассматриваем TABSA как комбинацию задач классификации настроений, связанных с целевыми аспектами INLINEFORM2, сначала классифицируя каждую задачу классификации настроений, а затем суммируя полученные результаты.Для ABSA мы настраиваем предварительно обученную модель BERT для обучения классификаторов INLINEFORM3 по всем аспектам, а затем суммируем результаты.BERT для задач классификации пар предложений.На основе вспомогательного предложения, построенного в разделе SECREF7, мы используем подход классификации пар предложений для решения (T)ABSA.В соответствии с четырьмя способами построения предложений назовем модели: BERT-пара-QA-M, BERT-пара-NLI-M, BERT-пара-QA-B и BERT-пара-NLI-B. Оцениваем наши метод на наборе данных SentiHood BIBREF4, который состоит из 5215 предложений, 3862 из которых содержат одну цель, а остальные — несколько целей.Каждое предложение содержит список пар цель-аспект INLINEFORM0 с полярностью настроения INLINEFORM1 .В конечном итоге, учитывая предложение INLINEFORM2 и целевую INLINEFORM3 в предложении, нам необходимо: (1) обнаружить упоминание аспекта INLINEFORM0 для целевой INLINEFORM1; (2) определить положительную или отрицательную полярность настроения INLINEFORM0 для обнаруженных пар целевой аспект-аспект. .Мы также оцениваем наш метод на наборе данных SemEval-2014 Task 4 BIBREF1 для аспектного анализа настроений.Единственное отличие от SentiHood состоит в том, что пары целевой аспект INLINEFORM0 становятся только аспектами INLINEFORM1 .Этот параметр позволяет нам совместно оценивать подзадачу 3 (Обнаружение категории аспекта) и подзадачу 4 (Полярность категории аспекта). Для точной настройки мы используем предварительно обученную бескорпусную базовую модель BERT.Количество блоков Transformer — 12, размер скрытого слоя — 768, количество головок самообслуживания — 12, а общее количество параметров для предварительно обученной модели — 110M. При тонкой настройке мы сохраняем вероятность отсева на уровне 0,1, устанавливаем количество эпох равным 4.Начальная скорость обучения составляет 2e-5, а размер пакета — 24. Мы сравниваем нашу модель со следующими моделями: LR BIBREF4: классификатор логистической регрессии с функциями n-граммы и pos-тегов.LSTM-Final BIBREF4: модель biLSTM с конечным состоянием в качестве представления.LSTM-Loc BIBREF4: модель biLSTM, в которой состояние связано с целевой позицией в качестве представления.LSTM+TA+SA BIBREF12 :модель biLSTM, которая вводит сложные механизмы внимания на уровне цели и предложения.SenticLSTM BIBREF12: обновленная версия модели LSTM+TA+SA, которая вводит внешнюю информацию из SenticNet BIBREF17..Dmu-Entnet BIBREF13: двунаправленная EntNet BIBREF18 с внешними «цепочками памяти» с механизмом отложенного обновления памяти для отслеживания сущностей.Во время оценки SentiHood в соответствии с BIBREF4 мы учитываем только четыре наиболее часто встречающихся аспекта (общий, цена, транзитное местоположение, безопасность).При оценке обнаружения аспектов, следуя BIBREF12, мы используем строгую точность и Macro-F1, а также сообщаем AUC.В классификации настроений мы используем точность и макросреднюю AUC в качестве показателей оценки.Результаты SentiHood представлены в таблице TABREF19.Результаты одиночной модели BERT по обнаружению аспектов лучше, чем у Dmu-Entnet, но точность классификации настроений намного ниже, чем у SenticLstm и Dmu-Entnet, с разницей в 3,8 и 5,5 соответственно.Тем не менее, пара BERT значительно превосходит другие модели по обнаружению аспектов и анализу настроений, получая улучшение макросреднего значения F1 на 9,4 и улучшение точности на 2,6 по сравнению с Dmu-Entnet.В целом производительность четырех моделей BERT-пар близка.Стоит отметить, что модели BERT-pair-NLI относительно лучше работают при обнаружении аспектов, тогда как модели BERT-pair-QA лучше работают при классификации настроений.Кроме того, модели BERT-pair-QA-B и BERT-pair-NLI-B могут достичь лучших значений AUC при классификации настроений, чем другие модели.Тестами для задачи 4 SemEval-2014 являются две наиболее производительные системы в BIBREF1 и ATAE-LSTM BIBREF8.При оценке подзадачи 3 и подзадачи 4 задачи 4 SemEval-2014, следуя BIBREF1, мы используем Micro-F1 и точность соответственно.Результаты SemEval-2014 представлены в таблице TABREF35.и таблица TABREF36.Мы обнаружили, что BERT-single добился лучших результатов в этих двух подзадачах, а BERT-pair добился дальнейших улучшений по сравнению с BERT-single.Модель BERT-pair-NLI-B обеспечивает наилучшую производительность при определении категорий аспектов.Для полярности категории аспекта BERT-pair-QA-B лучше всего работает со всеми 4-сторонними, 3-сторонними и двоичными настройками.Почему экспериментальный результат модели пары BERT намного лучше?С одной стороны, мы конвертируем целевую и аспектную информацию во вспомогательное предложение, что эквивалентно экспоненциальному расширению корпуса.Предложение INLINEFORM0 в исходном наборе данных будет расширено до INLINEFORM1 в задаче классификации пар предложений.С другой стороны, из удивительного улучшения модели BERT в задачах QA и NLI BIBREF16 видно, что модель BERT имеет преимущество при решении задач классификации пар предложений.Это преимущество достигается как за счет неконтролируемой модели языка в масках, так и за счет задач прогнозирования следующего предложения.TABSA сложнее SA из-за дополнительной информации о цели и аспекте.Непосредственно тонкая настройка предварительно обученного BERT на TABSA не дает роста производительности.Однако, когда мы разделяем цель и аспект, чтобы сформировать вспомогательное предложение, и преобразуем TABSA в задачу классификации пар предложений, сценарий аналогичен QA и NLI, и тогда можно полностью использовать преимущество предварительно обученной модели BERT. .Наш подход не ограничивается TABSA, и этот метод построения можно использовать и для других подобных задач.Для ABSA мы можем использовать тот же подход для построения вспомогательного предложения только с аспектами.В моделях пар BERT пара BERT-QA-B и пара BERT-NLI-B достигают лучших значений AUC при классификации настроений, вероятно, из-за моделирования информации метки.В этой статье мы построили вспомогательное предложение для преобразования (T)ABSA из задачи классификации одного предложения в задачу классификации пары предложений.Мы усовершенствовали предварительно обученную модель BERT для задачи классификации пар предложений и получили новые современные результаты.Мы сравнили экспериментальные результаты классификации отдельных предложений и классификации пар предложений на основе тонкой настройки BERT, проанализировали преимущества классификации пар предложений и подтвердили достоверность нашего метода преобразования.В будущем мы применим этот метод преобразования и к другим подобным задачам.Мы хотели бы поблагодарить анонимных рецензентов за ценные комментарии.Исследовательская работа поддерживается Шанхайской муниципальной комиссией по науке и технологиям (№ 16JC1420401 и 17JC1404100), Национальной программой ключевых исследований и разработок Китая (№ 2017YFB1002104) и Национальным фондом естественных наук Китая (№ 61672162 и 61751201).
Аспектный анализ настроений (ABSA), целью которого является выявление детальной полярности мнений по отношению к конкретному аспекту, является сложной подзадачой анализа настроений (SA). В этой статье мы строим вспомогательное предложение из аспекта и преобразуем ABSA в задачу классификации пар предложений, такую ​​​​как ответ на вопрос (QA) и вывод на естественном языке (NLI). Мы настраиваем предварительно обученную модель с помощью BERT и достигаем новых современных результатов на наборах данных SentiHood и SemEval-2014 Task 4.
2,331
QasperSumInstruct
ru
Напиши аннотацию по статье
Повышение интерпретируемости рекуррентных нейронных сетей с использованием скрытых марковских моделей. После недавнего прогресса в глубоком обучении исследователи и практики машинного обучения признают важность понимания и интерпретации того, что происходит внутри этих моделей «черного ящика».Рекуррентные нейронные сети недавно произвели революцию в распознавании и переводе речи, и эти мощные модели могут быть очень полезны в других приложениях, связанных с последовательными данными.Однако внедрение было медленным в таких приложениях, как здравоохранение, где практикующие врачи не хотят позволять непрозрачной экспертной системе принимать важные решения.Если мы сможем сделать внутреннюю работу RNN более интерпретируемой, больше приложений смогут извлечь выгоду из их возможностей.Есть несколько аспектов того, что делает модель или алгоритм понятными для людей.Одним из аспектов является сложность или экономичность модели.Другим аспектом является возможность проследить от компонента прогноза или модели до особенно влиятельных функций в данных BIBREF0 BIBREF1 .Это может быть полезно для понимания ошибок, допускаемых нейронными сетями, которые большую часть времени имеют производительность на уровне человека, но могут очень плохо работать в, казалось бы, простых случаях.Например, сверточные сети могут с очень высокой степенью достоверности ошибочно классифицировать примеры состязаний BIBREF2 и попали в заголовки газет в 2015 году, когда алгоритм маркировки изображений в Google Photos ошибочно пометил афроамериканцев как горилл.Разумно ожидать, что повторяющиеся сети также будут выходить из строя аналогичным образом.Таким образом, было бы полезно иметь больше информации о том, откуда берутся такого рода ошибки, то есть какие группы функций способствуют таким ошибочным прогнозам.Недавно было разработано несколько многообещающих подходов к интерпретации RNN.BIBREF3 подошел к этому, используя деревья повышения градиента, чтобы предсказать вероятности выходных данных LSTM и объяснить, какие функции сыграли роль в прогнозировании.Они не моделируют внутреннюю структуру LSTM, а представляют всю архитектуру как черный ящик.BIBREF4 показал, что в языковых моделях LSTM около 10% измерений состояния памяти можно интерпретировать невооруженным глазом путем цветового кодирования текстовых данных со значениями состояния; некоторые из них отслеживают кавычки, скобки и другие четко идентифицируемые аспекты текста.Основываясь на этих результатах, мы применяем несколько более систематический подход к поиску интерпретируемых скрытых измерений состояния, используя деревья решений для прогнозирования отдельных измерений скрытого состояния (рис. 2).Мы визуализируем общую динамику скрытых состояний, раскрашивая обучающие данные кластерами k-средних на векторах состояний (рис. 3, 3). Мыизучить несколько методов построения интерпретируемых моделей путем объединения LSTM и HMM.Существующая литература в основном сосредоточена на методах, которые специально обучают RNN прогнозированию состояний HMM BIBREF5 или апостериорных BIBREF6, называемых гибридными или тандемными методами соответственно.Сначала мы исследуем подход, который не требует изменения RNN, чтобы сделать его понятным, поскольку интерпретация происходит постфактум.Здесь мы моделируем общую картину изменений состояний в LSTM, извлекая скрытые состояния и аппроксимируя их с помощью скрытой марковской модели непрерывного излучения (HMM).Затем мы применяем обратный подход, при котором вероятности состояний HMM добавляются к выходному слою LSTM (см. рисунок 1).Затем модель LSTM может использовать информацию из HMM и заполнять пробелы, когда HMM работает не очень хорошо, в результате чего получается LSTM с меньшим количеством скрытых измерений состояния, которые можно интерпретировать индивидуально (рис. 3, 3). .Мысравните гибридный подход HMM-LSTM с HMM с непрерывной эмиссией (обученный на скрытых состояниях двухуровневого LSTM) и HMM с дискретной эмиссией (обученный непосредственно на данных). Мы используем LSTM на уровне символов с 1 слоем и без отсев, основанный на библиотеке Element-Research.Мы обучаем LSTM в течение 10 эпох, начиная со скорости обучения 1, где скорость обучения уменьшается вдвое всякий раз, когда $\exp (-l_t) >\exp (-l_{t-1})+ 1$ , где $l_t$ — логарифмическая оценка правдоподобия в эпоху $t$ .$L_2$-норма вектора градиента параметра обрезается на пороге 5. Процедура обучения HMM следующая: Инициализация скрытых состояний HMM: (Дискретный HMM)Случайное многочленное отрисовывание для каждого временного шага (i.i.d. по временным шагам). (Непрерывный HMM) Кластеры K-средних соответствуют состояниям LSTM, чтобы ускорить сходимость по сравнению со случайной инициализацией.На каждой итерации: Состояния выборки с использованием алгоритма прямой фильтрации и обратной выборки (FFBS, BIBREF7). Выборка параметров перехода из апостериорного многочлена-Дирихле.Пусть $n_{ij}$ — количество переходов из состояния $i$ в состояние $j$.Тогда апостериорное распределение $i$-й строки матрицы перехода $T$ (соответствующей переходам из состояния $i$ ) равно: $T_i \sim \text{Mult}(n_{ij} | T_i) \text{ Dir}(T_i | \alpha )$, где $\alpha $ — гиперпараметр Дирихле. (Непрерывный СММ)Выборка многомерных нормальных параметров эмиссии из апостериорного алгоритма Normal-Inverse-Wishart для состояния $i$ : $ \mu _я, \Сигма _я \sim N(y|\mu _я, \Сигма _i)N(\mu _i |0, \Sigma _i) \text{IW}(\Sigma _i) $ (Дискретный HMM)Отберите параметры эмиссии из апостериорного мультинома-Дирихле.Оценка: мы оцениваем методы на предмет того, насколько хорошо они предсказывают следующее наблюдение в наборе проверки.Для моделей HMM мы выполняем прямой проход набора проверки (без обратного прохода в отличие от полной FFBS) и вычисляем вектор распределения состояний HMM $p_t$ для каждого временного шага $t$ .Затем мы вычисляем прогнозируемую вероятность для следующего наблюдения следующим образом: $ P(y_{t+1} | p_t)=\sum _{x_t=1}^n \sum _{x_{t+1}=1}^n p_{tx_t} \cdot T_{x_t, x_{t+1}} \cdot P(y_{t +1} | x_{t+1})$, где $n$ — количество скрытых состояний в HMM. Наша основная гибридная модель собирается последовательно, как показано на рисунке 1.Сначала мы запускаем дискретный HMM на данных, выводя распределения скрытых состояний, полученные в результате прямого прохода HMM, а затем добавляем эту информацию в архитектуру параллельно с одноуровневым LSTM.Линейный уровень между LSTM и слоем прогнозирования дополняется дополнительным столбцом для каждого состояния HMM.Компонент LSTM этой архитектуры может быть меньше, чем отдельный LSTM, поскольку ему нужно только заполнить пробелы в прогнозах HMM.HMM написан на Python, а остальная архитектура — на Torch.Мы также строим совместную гибридную модель, в которой LSTM и HMM одновременно обучаются в Torch.Мы реализовали модуль HMM Torch, оптимизированный с использованием стохастического градиентного спуска, а не FFBS.Подобно последовательной гибридной модели, мы объединяем выходные данные LSTM с вероятностями состояния HMM.Мы тестируем модели на нескольких наборах текстовых данных на уровне символов: Penn Tree Bank (5 миллионов символов) и двух наборах данных, используемых BIBREF4, Tiny Shakespeare (1 миллион символов) и Linux Kernel (5 миллионов символов).Мы выбрали $k=20$ для непрерывного HMM на основе PCA-анализа состояний LSTM, поскольку первые 20 компонентов охватывают почти всю дисперсию.В таблице 1 показана прогнозируемая логарифмическая вероятность появления следующего текстового символа для каждого метода.На всех наборах текстовых данных гибридный алгоритм работает немного лучше, чем автономный LSTM с тем же измерением состояния LSTM.Этот эффект становится меньше по мере увеличения размера LSTM, а HMM оказывает меньшее влияние на прогноз (хотя он все равно может иметь значение с точки зрения интерпретируемости).Гибридный алгоритм с 20 состояниями HMM работает лучше, чем алгоритм с 10 состояниями HMM.Совместный гибридный алгоритм превосходит последовательный гибрид на данных Шекспира, но хуже работает с данными PTB и Linux, что позволяет предположить, что совместный гибрид более полезен для небольших наборов данных.Совместный гибрид на порядок медленнее последовательного гибрида, поскольку HMM на основе SGD обучается медленнее, чем HMM на основе FFBS. Мы интерпретируем состояния HMM и LSTM в гибридном алгоритме с 10 измерениями состояния LSTM и 10 измерениями HMM. состояния на рисунках 3 и 3, показывающие, какие функции идентифицируются компонентами HMM и LSTM.На рисунках 3 и 3 мы раскрашиваем обучающие данные 10 состояниями HMM.На рисунках 3 и 3 мы применяем кластеризацию k-средних к векторам состояния LSTM и окрашиваем обучающие данные с помощью кластеров.Состояния HMM и LSTM учитывают пробелы, отступы и специальные символы в данных (например, символы комментариев в данных Linux).Мы видим несколько примеров, когда HMM и LSTM дополняют друг друга, например, изучение различных вещей о пробелах и комментариях к данным Linux или пунктуации в данных Шекспира.На рисунке 2 мы видим, что некоторые отдельные измерения скрытого состояния LSTM идентифицируют схожие функции, такие как символы комментариев в данных Linux.Гибридные подходы HMM-RNN сочетают в себе интерпретируемость HMM с предсказательной силой RNN.Иногда небольшая гибридная модель может работать лучше, чем автономный LSTM того же размера.Мы используем визуализации, чтобы показать, как компоненты LSTM и HMM гибридного алгоритма дополняют друг друга с точки зрения функций, изученных в данных.
Поскольку глубокие нейронные сети продолжают производить революцию в различных областях приложений, растет интерес к тому, чтобы сделать эти мощные модели более понятными и интерпретируемыми, а также сузить причины хороших и плохих прогнозов. Мы фокусируемся на рекуррентных нейронных сетях (RNN), современных моделях распознавания и перевода речи. Наш подход к повышению интерпретируемости заключается в объединении RNN со скрытой марковской моделью (HMM), более простой и прозрачной моделью. Мы исследуем различные комбинации RNN и HMM: HMM, обученный состояниям LSTM; гибридная модель, в которой сначала обучается HMM, затем небольшой LSTM получает распределения состояний HMM и обучается для заполнения пробелов в производительности HMM; и совместно обученная гибридная модель. Мы обнаружили, что LSTM и HMM изучают дополнительную информацию о функциях в тексте.
1,571
QasperSumInstruct
ru
Напиши аннотацию по статье
Торговля на Форекс и Twitter: спам, боты и манипулирование репутацией. Валютная торговля (Форекс) является крупнейшим мировым рынком по объему.Мы анализируем торговлю и твиты о валютной паре EUR-USD за период в три года.Во-первых, большое количество твитов было помечено вручную и построена модель классификации позиций Twitter.Затем модель классифицирует все твиты по сигналу торговой позиции: покупать, удерживать или продавать (евро против доллара США).Позиция Твиттера сравнивается с фактическими курсами валют с использованием методологии исследования событий, хорошо известной в финансовой экономике.Оказывается, существуют большие различия в распределении позиций Twitter и потенциальной торговой доходности между четырьмя группами пользователей Twitter: торговыми роботами, спамерами, торговыми компаниями и отдельными трейдерами.Кроме того, мы наблюдаем попытки манипулирования репутацией путем удаления твитов с плохими прогнозами после праздника, а также удаления/повторного размещения идентичных твитов с целью повышения видимости без ущерба для хроники Твиттера.Валютный рынок (Форекс) — это глобальный децентрализованный рынок торговли валютами.Ежедневный объем торгов превышает 5 триллионов долларов США, что делает его крупнейшим рынком в мире.В этой статье мы анализируем три источника данных за период в три года (с января 2014 г. по декабрь 2016 г.).BIBREF0 : Мы уделяем особое внимание потенциальному распространению ложной информации и манипуляциям в Твиттере.Главный вопрос: какова основная истина?Мы решаем эту проблему, выйдя из системы социальных сетей и наблюдая за другой системой финансового рынка.Реальные финансовые выгоды на рынке дают подсказки о потенциальных манипуляциях в социальной сети.Мы связываем обе системы, применяя и адаптируя методологию «исследования событий» BIBREF1.Валютные объявления – это события, которые, как ожидается, повлияют на обменный курс EUR-USD.Если сигнал события (покупка, удержание или продажа) правильно распознан, то некоторая фактическая финансовая прибыль может быть получена через несколько часов (или дней) после события.В отличие от классических исследований событий, мы классифицируем события на основе настроений (правильно называемых «позицией») соответствующих пользователей Твиттера.В нашей предыдущей работе мы уже анализировали влияние позиции Twitter на цены акций (30 акций из индекса Доу-Джонса) BIBREF2, BIBREF3.Мы показали, что пики активности в Твиттере и их полярность существенно коррелируют с доходностью акций.В этой статье мы показываем, что для определенных классов пользователей Twitter доходы после событий статистически значимы (хотя и небольшие).И мы также можем выявить различия в доходах после потенциальных манипуляций с лентой Twitter.Статья организована следующим образом.В разделе SECREF2 мы указываем, как были собраны твиты Форекс, вручную аннотировано подмножество и построена модель классификации позиций.Раздел SECREF3 содержит простые правила для идентификации различных классов пользователей Твиттера (например, торговых роботов, спамеров и реальных трейдеров).Мы показываем, что между этими пользователями существуют большие различия в позиции Твиттера.В разделе SECREF4 довольно подробно описана методология исследования событий, необходимая для понимания последующих результатов.Мы показываем значительные различия в совокупной аномальной доходности между различными группами пользователей.В разделе SECREF5 мы рассматриваем потенциальные манипуляции с лентой пользователя в Твиттере с предварительной целью улучшить его/его репутацию и заметность.Мы фокусируемся на твитах, которые были удалены после того, как мы их первоначально собрали, и анализируем различные причины удаления этого поста.В заключение мы изложим идеи для дальнейшей работы и усовершенствования предварительных, но многообещающих результатов, представленных на данный момент.Твиты, относящиеся к Форексу, в частности к евро и доллару США, были получены через API поиска Twitter по следующему запросу: «EURUSD», «USDEUR», «EUR» или «USD».За три года (с января 2014 по декабрь 2016) было собрано почти 15 миллионов твитов.Часть из них (44 000 твитов) была помечена вручную знающими студентами-финансистами.Ярлык отражает склонность или позицию пользователя Твиттера в отношении ожидаемого движения одной валюты по отношению к рынку.другой.Позиция представлена ​​тремя значениями: покупка (евро против доллара США), удержание или продажа.Твиты были собраны, помечены и предоставлены нам компанией Sowa Labs (http://www.sowalabs.com). Размеченные твиты были обобщены в модель позиции Twitter.Для контролируемого обучения часто используются варианты SVM BIBREF4, поскольку они хорошо подходят для крупномасштабной категоризации текста, надежны и хорошо работают.Для твитов Форекс мы построили двухплоскостный классификатор SVM BIBREF5, BIBREF6.Двухплоскостная SVM предполагает упорядочивание значений позиции и реализует порядковую классификацию.Он состоит из двух классификаторов SVM: один классификатор обучен отделять твиты «покупать» от твитов «держать или продавать»; другой отделяет твиты «продажа» от твитов «покупай или держи».В результате получается классификатор с двумя гиперплоскостями, который делит векторное пространство на три подпространства: покупка, удержание или продажа.Во время классификации расстояния от обеих гиперплоскостей определяют прогнозируемое значение позиции.Классификатор позиций оценивался посредством 10-кратной блокированной перекрестной проверки.Поскольку твиты упорядочены по времени, их не следует случайным образом выбирать в отдельные складки, а сохранять в блоках последовательных твитов BIBREF7 .Результаты оценки производительности приведены в таблице TABREF5.Обратите внимание, что показатель F INLINEFORM0 учитывает только классы «покупка» и «продажа», как это обычно бывает в трехзначных оценках классификации настроений BIBREF5. Различные типы пользователей Twitter имеют очень разные намерения относительно своего влияния и сообщения, которое они хотят распространить.В последние годы все большее влияние приобретают специально автоматизированные роботы.Чтобы правильно оценить связь между рынком Форекс и твитосферой, важно сосредоточиться на соответствующих пользователях Твиттера, то есть на торговых компаниях Форекс и индивидуальных трейдерах.В смежных работах уже было показано, что боты оказывают глубокое влияние на популярность контента и активность в Твиттере.Например, Гилани и др. В BIBREF8 реализован простой механизм обнаружения ботов, основанный на частоте кликов и строках пользовательского агента.Чтобы разделить пользователей на три категории (организации, журналисты/медиа-блогеры и частные лица), De Choudhury et al.BIBREF9 обучил автоматический классификатор.Альтернативный подход — обнаружить сообщества в сети ретвитов, например, BIBREF10,BIBREF11. Оказывается, торговых роботов Форекс легко идентифицировать.Все их твиты ( INLINEFORM0 ) начинаются с одного из восьмых паттернов (например, «Закрытая покупка», «Стоп-продажа», ...).Пользователей Forex Twitter можно затем отнести к одной из четырех групп по следующим простым правилам: где INLINEFORM0 указывает на ежедневную активность пользователя, а INLINEFORM1 — это доля твитов пользователя, которые были ретвитнуты другими.На рисунке FigREF10 показаны пропорции различных групп пользователей Twitter и их твитов в нашем наборе данных.Мы видим, что более половины пользователей — частные лица, но торговые роботы производят наибольшую долю твитов о Форексе.Существуют также значительные различия в позиции между различными группами пользователей.На рисунке FigREF11 показано, что торговые роботы производят почти исключительно поляризованные твиты (без «удерживаемых» твитов).С другой стороны, спамеры (без роботов) преимущественно нейтральны (относительно мало твитов о покупке или продаже).Группы, на которых мы ориентируемся, торговые компании и частные лица, более самоуверенны, чем спамеры.Интересно, что в их твитах преобладает сигнал «продажи», вероятно, из-за тенденции снижения курса евро по отношению к доллару США за последние три года.Анализ событий фиксирует влияние внешних событий на доходность рынка.Внешние события, которые мы здесь рассматриваем, — это валютные заявления центральных банков (ФРС и ЕЦБ) и правительств (около 750 за три года).В исследовании событий совокупная аномальная доходность (CAR) определяется как мера доходности, превышающая общую рыночную доходность.В частности: Другим важным компонентом исследования событий является определение типа события с точки зрения его ожидаемого воздействия на цену.На фондовом рынке обычно изучаются объявления о прибылях.Если объявление превышает предыдущие ожидания аналитиков, оно классифицируется как положительное, и ожидается, что цены на акции вырастут.Исследование событий объединяет объявления о нескольких акциях за более длительный период времени и рассчитывает средний CAR через несколько дней или часов после объявлений.В нашем случае мы не учитываем ожидания аналитиков, а вместо этого используем позицию пользователей Forex Twitter относительно обменного курса евро по отношению к доллару США.Мы рассматриваем все твиты в течение часа после объявления и суммируем их позицию, чтобы классифицировать событие.Затем мы вычисляем CAR на срок до одного дня после события с разрешением в одну минуту.Если позиция Твиттера правильно предсказывает движение обменного курса, то через несколько часов после события должна быть ощутимая прибыль (CAR).На рисунке FigREF15 показаны доходы, агрегированные по всем 750 событиям, для различных групп пользователей Twitter.Ожидаемый результат виден для торговых компаний (нижний левый график).Для событий «покупки» (мы покупаем евро в момент 0) CAR положительны (доходность составляет около 0,1%, небольшая, но значительная), для событий «продажи» (мы продаем евро в момент 0) CAR отрицательны, а для событий «удержания» события (нет транзакции) CAR около нуля.Аналогичные результаты получены для индивидуальных трейдеров (нижний правый график), но разделение событий не такое четкое, как для торговых компаний.С другой стороны, торговые роботы и пользователи спама (два верхних графика на рисунке FigREF15) не показывают никакой полезной корреляции между позицией Twitter и CAR.Как следствие, мы приходим к выводу, что важно правильно их идентифицировать и исключить их твиты из любой торговой стратегии, основанной на Твиттере.Здесь мы сосредоточимся на другом аспекте злоупотребления Твиттером для потенциальных манипуляций: удалении твитов пользователем Твиттера после праздника.По каким причинам пользователи удаляют свои твиты?Предыдущие исследования касались прогнозирования вредоносных или удаленных твитов BIBREF12, BIBREF13, BIBREF14, а также выявления удаленных и подозрительных учетных записей BIBREF15.С одной стороны, некоторые авторы показывают, что опечатки и перефразирование являются одними из основных причин удаления твитов BIBREF13.С другой стороны, другие авторы обнаружили, что в удаленных твитах значительно более высокая доля словарного запаса состоит из ругательств и маркеров, обозначающих гнев, тревогу и печаль BIBREF16. Мыпроверил, какие из твитов, собранных за три года практически в реальном времени, все еще существуют.Оказывается, в нашем наборе данных 4,7% (689 658) постов были удалены пользователями после праздника.Разные группы пользователей демонстрируют разные модели удаления.Гистограмма на рисунке FigREF16 показывает доли твитов, удаленных разными группами пользователей.Большинство пользователей вообще не удаляют собственные твиты (пик 0).На другом полюсе (100) находится около 5% пользователей, которые удалили свои аккаунты и все свои твиты.Но по-настоящему интересны торговые компании, где только треть из них не удаляет твиты, а более половины удаляют до 10% своих твитов.Мы фокусируемся на удаленных твитах торговых компаний и отдельных трейдеров и ищем признаки манипулирования репутацией.Разбивка удаленных твитов для обеих групп с точки зрения различных позиций приведена в таблице TABREF17..Одной из причин, по которой компании и частные лица удаляют свои твиты, может быть желание создать представление о своих способностях прогнозировать рынок.Например, можно опубликовать два противоречивых твита одновременно: евро будет расти, а евро падать.После того, как рынок покажет фактическое движение евро, неправильный прогноз удаляется, и на временной шкале пользователя отображается его понимание прогноза.Мы сравниваем результаты исследования событий до и после удаления твитов.На рисунке FigREF19 показаны CAR торговых компаний и индивидуальных трейдеров после удаления удаленных твитов.На данный момент мы можем сообщить только об отрицательных результатах, т. е. нет увеличения CAR, а события «удержания» находятся дальше от нулевой линии, чем на рисунке FigREF15. Мыпроанализировать удаленные твиты 189 (из 195) пользователей Твиттера, отнесенных к категории торговых компаний, имеющих активные учетные записи в Твиттере (при удалении учетной записи все твиты из этой учетной записи также удаляются).189 компаний удалили 3741 твит.Среди них четверо удалили все твиты, связанные с Форексом, из своего профиля, пока учетные записи все еще активны, 8 пользователей удалили от 10% до 40% своих твитов, 33 пользователя удалили от 1% до 5% своих твитов и только 68 не сделали этого. удалить любые твиты.Поведение торговых компаний при удалении показано на рисунке FigREF21.Обратите внимание, что большинство (76% торговых компаний) удалили менее 1% своих твитов.Также обратите внимание, что ни одна торговая компания не удаляет от 5 до 10% своих твитов.Мы анализируем удаленные твиты и фокусируемся на критериях, которые могут указывать на манипулирование репутацией.Из 3741 удаленных твитов 3611 являются уникальными (один и тот же автор и идентичный текст), а 130 твитов удалены более одного раза.Крайний случай — твит (реклама легкой и безопасной прибыли), который удаляют 46 раз (один и тот же автор и идентичный текст).Удаление и повторная публикация идентичных твитов — это одна из форм повышения заметности без ущерба для ленты автора в Твиттере.Твит, который был удален и опубликован снова, появляется несколько раз в ленте подписчиков пользователя, тогда как на временной шкале автора он появляется только один раз.Поэтому это можно рассматривать как своего рода манипулирование репутацией.Из 93 твитов, которые были удалены и репостены, 50 были удалены и репостены один раз, а остальные были удалены и репостены несколько раз.746 твитов с «рекомендациями», которые были впоследствии удалены, указывают на потенциальную манипуляцию репутацией путем удаления плохих рекомендаций.Разбивка удаленных твитов показана на рисунке FigREF22. ОдинСреди основных причин удаления твитов — опечатки и перефразирование BIBREF13.В таких случаях снова публикуется твит, очень похожий на удаленный.Мы проверяем каждый из 3575 твитов, которые были однажды удалены и не опубликованы повторно, на предмет того, были ли они удалены из-за опечатки.Мы определяем опечатку как причину удаления твита, если твит: опубликован одним и тем же автором, в трех следующих твитах после удаленного, с очень похожим текстом ( INLINEFORM0 расстояние Левенштейна INLINEFORM1 ), и разница не в URL-адресах присутствует в твите.Мы обнаружили, что 122 удаленных твита были повторно опубликованы с настолько небольшими изменениями, что это указывает на опечатки.Еще одна категория удаленных твитов — это ретвиты.Если ретвиты удаляются, обычно это происходит потому, что были удалены исходные твиты.В нашем наборе данных удалено 406 ретвитов.Мы проверяем оставшиеся 3437 твитов на предмет использования лексики, специфичной для торговли: длинная, короткая, медвежья, бычья, медвежья, бычья, сопротивление, поддержка, покупка, продажа, закрытие.Мы выявили 746 твитов, которые являются рекомендациями для торговли (подтверждено вручную).Это еще один вид возможной манипуляции репутацией: публикуется твит с рекомендацией, а затем, если рекомендация оказывается ложной, твит удаляется.Лента автора в Твиттере затем ошибочно отображается так, как будто следование его рекомендациям принесет прибыль.Мы проверяем конкретную учетную запись Twitter категории торговых компаний, которая опубликовала более 500 твитов и удалила от 10% до 40% из них.Личность учетной записи не может быть раскрыта из-за проблем конфиденциальности.Удаленные твиты делятся на следующие категории: Репосты: 91, из них 60 рекламные (например, подписаться на анализ), Ссылки (на рекомендации): 17, Рекомендации: 11, Ретвиты: 1 (если исходный твит удален, ретвиты также удаляются). Мы вручную проверили каждую из 11 удаленных рекомендаций.Во всех случаях рекомендации оказались плохими, то есть инвестор потерял деньги.(Анонимный) пример плохой рекомендации: «@user_mention, пока дневная свеча выше 1.xyz, мы настроены оптимистично по цене $EURUSD». В то время как на реальном рынке Форекс евро упал.Этот пользователь использовал оба типа манипулирования репутацией: удаление плохих рекомендаций и удаление/повторную публикацию идентичных твитов для повышения их заметности.Процент удаленных плохих прогнозов невелик по сравнению со всеми удаленными твитами и по сравнению со всеми опубликованными твитами.Мы полагаем, что манипуляция с удалением твита должна быть незаметной, чтобы остаться незамеченной подписчиками пользователей.Тем не менее, даже незначительное повышение репутации в такой конкурентной области, как торговля на Форексе, может принести большую выгоду обманывающему пользователю.Это первоначальное исследование потенциальных злоупотреблений Twitter с целью повлиять на общественность, интересующуюся торговлей на Форекс.Мы идентифицируем различные типы учетных записей Twitter, которые публикуют твиты, связанные с обменом валюты EUR-USD.Мы показываем, что между ними существуют значительные различия с точки зрения распределения позиций в Твиттере и CAR.Если мы исключим торговых роботов и спам, мы обнаружим значительную корреляцию между позицией Twitter и CAR (доходность невелика, но рынок Форекс имеет очень низкие торговые издержки).Остальные сообщения исходят от торговых компаний Форекс и индивидуальных трейдеров.Далее мы анализируем причины удаления твитов после праздника.Некоторые причины безобидны (например, исправление опечаток), но некоторые указывают на подрыв репутации.Мы считаем это перспективным направлением для дальнейшего, более глубокого анализа.Авторы выражают благодарность за финансовую поддержку со стороны проекта H2020 FET DOLFINS (грант № 640772) и Словенского исследовательского агентства (основное финансирование исследований № P2-103).
Валютная торговля (Форекс) является крупнейшим мировым рынком по объему. Мы анализируем торговлю и твиты о валютной паре EUR-USD за период в три года. Во-первых, большое количество твитов было помечено вручную и построена модель классификации позиций Twitter. Затем модель классифицирует все твиты по сигналу торговой позиции: покупать, удерживать или продавать (евро против доллара США). Позиция Твиттера сравнивается с фактическими курсами валют с использованием методологии исследования событий, хорошо известной в финансовой экономике. Оказывается, существуют большие различия в распределении позиций Twitter и потенциальной торговой доходности между четырьмя группами пользователей Twitter: торговыми роботами, спамерами, торговыми компаниями и отдельными трейдерами. Кроме того, мы наблюдаем попытки манипулирования репутацией путем удаления твитов с плохими прогнозами после праздника, а также удаления/повторного размещения идентичных твитов с целью повышения видимости без ущерба для хроники Твиттера.
2,902
QasperSumInstruct
ru
Напиши аннотацию по статье
Моделирование фона событий для рассуждений здравого смысла «если-то» с использованием контекстно-зависимого вариационного автокодировщика. В последнее время большое внимание привлекло событийно-ориентированное знание здравого смысла (BIBREF0, BIBREF1, BIBREF2, BIBREF3), поскольку понимание событий является важным компонентом НЛП.Учитывая событие повседневной жизни, человек может легко понять его и рассуждать о его причинах, последствиях и так далее.Однако это по-прежнему остается сложной задачей для систем НЛП.Частично это связано с тем, что большинство из них обучены для наборов данных или целей, специфичных для конкретных задач, в результате чего создаются модели, которые адаптируются для поиска базовых закономерностей корреляции для конкретных задач, но имеют ограниченные возможности в простых и объяснимых рассуждениях здравого смысла BIBREF4. Чтобы облегчить это, BIBREF5 (BIBREF5) создает набор данных Event2Mind, а BIBREF4 (BIBREF4) представляет набор данных Atomic, в основном сосредоточенный на девяти типах рассуждений «если-то» для описания причин, последствий, намерений и характеристик участников событий.Вместе с этими наборами данных предлагается простая структура кодирования-декодера на основе RNN для проведения рассуждений «если-то».Однако по-прежнему остаются две сложные проблемы.Во-первых, как показано на рисунке FigREF1, учитывая событие «Человек X находит новую работу», правдоподобное чувство PersonX по поводу этого события может быть множественным (например, «нуждающийся/напряженный» и «облегченный/радостный»).Предыдущая работа показала, что для задачи «один ко многим» традиционные модели кодера-декодера на основе RNN имеют тенденцию генерировать общие ответы, а не содержательные и конкретные ответы BIBREF6, BIBREF7. Во-вторых, для решения задачи здравого смысла необходимы богатые базовые знания. для создания разумных выводов.Например, как показано на рисунке РИС.1, чувства PersonX при событии «PersonX находит новую работу» могут быть множественными.Однако после того, как задан контекст «Человек X был уволен», правдоподобные выводы будут сужены до «нуждающихся» или «испытывающих стресс». Чтобы лучше решить эти проблемы, мы предлагаем контекстно-зависимый вариационный автокодировщик (CWVAE) вместе с двумя -этапная процедура обучения.Модели на основе вариационного автоэнкодера (VAE) показали большой потенциал в моделировании задачи «один ко многим» и генерировании разнообразных выводов BIBREF8, BIBREF9. В дополнение к традиционной структуре VAE мы вводим дополнительную контекстно-зависимую скрытую переменную в CWVAE для изучения знание предыстории событий.На этапе предварительного обучения CWVAE обучается на вспомогательном наборе данных (состоит из трех корпусов повествовательных историй и содержит обширные знания о событиях) для изучения информации о событиях с помощью скрытой контекстно-зависимой переменной.Впоследствии, на этапе точной настройки, CWVAE обучается на наборе данных для конкретной задачи, чтобы адаптировать фоновую информацию о событии к каждому конкретному аспекту цели вывода If-Then (например, намерения, реакции и т. д.). Эксперименты с набором данных Event2Mind и Atomic. показывают, что предлагаемый нами подход превосходит базовые методы как по точности, так и по разнообразию выводов.Код опубликован по адресу https://github.com/sjcfr/CWVAE. Прежде чем конкретно описывать два набора данных — Event2Mind и Atomic, используемые в этой статье, а также задачу рассуждения If-Then, для ясности мы определим следующую терминологию: Базовое событие: необходимое событие в рассуждении «Если-то», организованное в виде глагольной фразы с предикатом и его аргументами, например событие «Человек X находит новую работу», показанное на рисунке РИС. 1. Измерение вывода: конкретный тип рассуждения «если-то». , например, намерения, последствия базового события.Подробности показаны в таблицах TABREF2 и TABREF3. Цель: результаты вывода.Например, как показано на рисунке FigREF1, при наличии базового события «Человек X находит новую работу» и одного измерения вывода «xReact» цели могут быть «помощниками» или «нуждающимися».Обратите внимание, что каждое измерение вывода может иметь несколько целей.Набор данных Event2Mind содержит 25 тысяч базовых событий и 300 тысяч целей, аннотированных с помощью краудсорсинга.Event2Mind организован в иерархической форме: каждое базовое событие имеет три типа измерений вывода, и для данного базового события в одном из измерений вывода могут одновременно существовать несколько целей.В таблице TABREF2 показана иерархическая структура (базовое измерение-вывод событий-цель) на примере Event2Mind.Набор данных Atomic Созданный на основе Event2Mind, набор данных Atomic имеет ту же иерархическую структуру, что и Event2Mind, но при этом увеличивает размер набора данных и расширяет область действия до девяти типов измерений вывода.В таблице TABREF3 показана иерархическая структура (базовое измерение-вывод событий-цель) на примере Atomic.Хотя Atomic охватывает измерения вывода Event2Mind, базовая коллекция событий Event2Mind не идентична коллекции Atomic.Определение проблемыЗадачу рассуждения «если-то» можно формально определить как условную задачу генерации «один ко многим»: учитывая базовое событие $x$ и одно измерение вывода $d$, модель должна генерировать целевые значения $y=f(x, г)$ как можно ближе к истине.И $x$, и $y$ состоят из последовательности слов: $x=\lbrace x_1,\dots , x_{m}\rbrace $ и $y=\lbrace y_1,\dots , y_{n}\rbrace $ , где $m$ и $n$ обозначают длину $x$ и $y$ соответственно.Условный вариационный автоэнкодерВариационный автоэнкодер (VAE) определяет генеративную структуру, подходящую для задачи генерации «один-ко-многим» BIBREF10.В то время как условный вариационный автоэнкодер (CVAE) BIBREF11 является расширением VAE для решения проблемы условной генерации.Как показано на рисунке FigREF5 (a), CVAE характеризует условную задачу генерации «один-ко-многим» с использованием трех случайных переменных: события $x$, цели $y$ и скрытой переменной $z$, которая используется для моделирования скрытого распределения. семантики по сравнению с целями данного события.Следовательно, при определенной размерности вывода с учетом скрытой семантической переменной $z$ проблема условного порождения может быть выражена как $p(y|x)=\int p(y|x,z)p(z|x )dz$. CVAE моделирует $p(y|x,z)$ и $p(z|x)$ с использованием глубоких нейронных сетей (параметризованных $\theta $) $p_{\theta }(y|x,z)$ и $p_ {\theta }(z|x)$. Тогда, как показано на рисунке FigREF5 (b), $y$ может быть сгенерирован из $x$ и $z$. CVAE обучается максимизировать условное правдоподобие $p(y|x)$, что предполагает непреодолимую маргинализацию скрытых значений. переменная $z$. Вместо этого, следуя BIBREF10 (BIBREF10), практический способ состоит в том, чтобы ввести другую глубокую сеть (параметризованную $\phi $) $q_{\phi }(z|x,y)$ для аппроксимации истинного апостериорного распределения $p(z| x,y)$ и максимизировать нижнюю границу доказательства (ELBO) функции логарифмического правдоподобия: Таким образом, CVAE в целом состоит из трех нейронных сетей.Мы называем $p_{\theta }(z|x)$ априорной сетью, $q_{\phi }(z|x,y)$ сетью распознавания и $p_{\theta }(y|x ,z)$ в качестве нейронного декодера.Традиционный CVAE может моделировать отношение событие-цель.Другими словами, учитывая наблюдаемое событие, CVAE может генерировать соответствующие цели.В этой статье мы моделируем рассуждение «Если-то» как процесс, ориентированный на [(фоновое событие), событие.Это означает, что в дополнение к наблюдаемому событию мы также хотим задействовать фоновые знания о событии (которые можно узнать из контекстов событий) для создания разумных целей.С этой целью мы предлагаем контекстно-зависимый вариационный автокодировщик (CWVAE) с двумя дополнительными скрытыми переменными: контекстно-зависимой скрытой переменной $z_c$ для непосредственного получения контекстной информации и контекстно-зависимой скрытой переменной $z_{c^{ \prime }}$, чтобы получить базовые знания от $z_c$, как показано на рисунке FigREF6 (a).Однако информация о контексте события отсутствует в наборе данных Event2Mind и Atomic.Чтобы учиться на информации о контексте внешнего события, мы разработали следующую двухэтапную процедуру обучения для CWVAE.Pretrain:Изучение фоновых знаний о событиях из вспомогательного набора данных. На этапе подготовки к обучению CWVAE обучается на трех корпусах повествовательных историй с богатой информацией о контексте событий.Как показано на рисунке FigREF6 (a), скрытая переменная $z_c$, получающая контекст, напрямую зависит от контекста $c$. Следовательно, $z_c$ можно использовать для получения базовых знаний из контекстов событий.Затем мы минимизируем расстояние между $z_c$ и контекстно-зависимой скрытой переменной $z_{c^{\prime }}$, с помощью которой фоновые знания о событии передаются из $z_c$ в $z_{c^{\prime }}$.Finetune:Адаптируйте фоновые знания о событиях к каждому измерению вывода. На этапе точной настройки, как показано на рисунке FigREF6 (b), CWVAE обучается на наборе данных Event2Mind и Atomic без информации о контексте событий.Предварительно обученный CWVAE настроен на изучение конкретных выводных знаний каждого измерения вывода.После процедуры обучения, как показано на рисунке FigREF6 (c), выборки $z$ генерируются на основе $x$ и выборок $z_{c^{\prime }}$, где $z_{c^{\prime }}$ содержит богатую информацию о событиях, полезную для рассуждений «если-то».Как показано на рисунке FigREF8, CWVAE в основном состоит из четырех частей: нейронного кодировщика, который обеспечивает распределенное представление базовых событий/целей, сети распознавания для вывода $q_{\phi }(z|x,y)$, $q_{ \phi }(z_c|x,c)$ и $q_{\phi }(z|z_{c^{\prime }}, x)$, априорная сеть для моделирования $p_{\theta }(z_{c ^{\prime }}|x)$ и $p_{\theta }(z|x, z_{c^{\prime }})$, а также нейронный декодер, который интегрирует информацию из $z$ и $z_{ c^{\prime }}$ для создания целей.Нейронный кодерМы используем двунаправленный GRU в качестве нейронного кодировщика, который кодирует контекст $c$, событие $x$ и цель $y$ в распределенные представления $h^c=\lbrace h_1^c,\dots ,h_{l_c}^c\rbrace $, $h^x=\lbrace h_1^x,\dots ,h_{l_x}^x\rbrace $ и $h^y=\lbrace h_1^y,\dots ,h_{l_y}^y\rbrace $, где $l_c$, $l_x$ и $l_y$ — длина $c$, $x$ и $y$ соответственно.Сеть признанияМодели сети распознавания $q_{\phi }(z|x,y)$, $q_{\phi }(z_c|x,c)$, $q_{\phi }(z|z_{c^{\prime }}, x)$ на основе $h^x$, $h^y$ и $h^c$. Следуя традиционному VAE, предполагается, что вышеупомянутые три распределения представляют собой многомерное гауссово распределение с диагональной ковариационной структурой: где $\mu$ обозначает среднее значение распределения, $\sigma$ обозначает стандартное отклонение распределения, а $I$ обозначает единичную матрицу.Учитывая $h^x$, $h^y$ и $h^c$, мы предлагаем новый модуль вывода на основе внимания (ABI) для оценки среднего и стандартного отклонения $q_{\phi }(z_{c} |x,c)$, $q_{\phi }(z_{c^{\prime }}|x,y)$ и $q_{\phi }(z|x,y)$:Коротко, через внимание Механизм ABI может фиксировать семантическое взаимодействие между входными последовательностями и на его основе оценивать параметры распределений.Ниже мы представим конкретную структуру ABI.Модели априорной сети $p_{\theta }(z_{c^{\prime }}|x)$ и $p_{\theta }(z|x, z_{c^{\prime }})$ на основе $х^х$. По-прежнему предполагается, что распределение $p_{\theta }(z_{c^{\prime }}|x)$ и $p_{\theta }(z|x, z_{c^{\prime }})$ равно быть многомерным гауссовским, тогда как параметры разные: где $\mu ^{^{\prime }}$ обозначает среднее значение распределения, $\sigma ^{^{\prime }}$ обозначает стандартное отклонение распределения и $I$ обозначает единичную матрицу.Тогда для оценки параметров распределений по-прежнему используется модуль вывода, основанный на внимании: нейронный декодер. Учитывая базовое событие $x$, семантическую скрытую переменную $z$ и контекстно-зависимую скрытую переменную $z_{c^{\prime } }$ нейронный декодер определяет вероятность генерации $y$ следующим образом: где $p(y_j|y<j, z, z_{c^{\prime }}, x)=g(y_{j-1} , s_{j-1}, e_j)$, $g(\cdot )$ — модель прямой связи, основанная на внимании, $e_j=\sum _i \alpha _{ji}h_i^{x}$ — вектор контекста, а $s_{j-1}$ — скрытое состояние декодера.$g(\cdot )$ и $e_j$ получаем так же, как и BIBREF12 (BIBREF12).В то время как наш декодер отличается от BIBREF12 (BIBREF12) тем, что наша модель объединяет контекстно-зависимую скрытую переменную $z_{c^{\prime }}$ и семантическую скрытую переменную $z$ при вычислении $s_j=\mathrm {GRU} ([E_{yj};s_{j-1},z,z_{j-1}])$, где $E_{yj}$ — вложение слов целевых слов.Обратите внимание, что при объединении $z$ и $z_{c^{\prime }}$ с $E_{yj}$ и $s_{j-1}$ на $s_j$ может влиять контекстно-зависимая скрытая переменная $z_. {c^{\prime }}$ и семантическая латентная переменная $z$. Это позволяет модели напрямую получать доступ к фоновым сведениям о событиях из $z_{c^{\prime }}$.Кроме того, случайность $z$ и $z_{c^{\prime }}$ увеличит разнообразие генерации моделей.Механизм вывода на основе внимания Механизм внимания продемонстрировал сильную способность улавливать семантические взаимодействия BIBREF13.Вдохновленные механизмом совместного внимания BIBREF14, мы предлагаем механизм вывода на основе внимания (ABI) для оценки среднего и стандартного отклонения распределения, принадлежащего $p_{\theta }(\cdot )$ или $q_{\phi }( \cdot )$ путем захвата семантических взаимодействий входных последовательностей.В частности, даны две входные последовательности (например, представления контекстов и событий) $a=\lbrace a_1,\dots ,a_{l_a}\rbrace $ и $b=\lbrace b_1,\dots ,b_{l_b}\rbrace $ с длиной $l_a$ и $l_b$ мы сначала получаем оценки внимания с каждой стороны через: где $W_a \in \mathbb {R}^{d\times d_a}$ и $W_b \in \mathbb {R}^ {d\times d_b}$ — веса параметров.С учетом этих оценок внимания векторы контекста обеих последовательностей определяются следующим образом: Затем мы выполняем операцию объединения средних значений векторов контекста обеих последовательностей: Чтобы получить среднее значение и стандартное отклонение, объединенные векторы контекста $\bar{c^a}$ и $\bar{c^b}$, которые несут семантическое взаимодействие между двумя последовательностями, объединяются и проецируются в скрытое семантическое пространство посредством нелинейного преобразования: Наконец, среднее значение и стандартное отклонение генерируются посредством нелинейного преобразования над $h_z$:С с учетом $z_{c^{\prime }}$ исходное логарифмическое правдоподобие можно разложить следующим образом: Затем, следуя традиционному CVAE, ELBO CWVAE определяется следующим образом: что является целевой функцией на этапе точной настройки.На этапе предварительной подготовки, когда мы стремимся изучить базовые знания за счет минимизации расстояния между $z_c$ и $z_{c^{\prime }}$, в дополнение к $L^{ELBO}$, контекстно-зависимому регулированию вводится термин: где термин контекстно-зависимой регуляризации — это расстояние KL между $z$ и $z_{c^{\prime }}$.Минимизируя термин регуляризации с учетом контекста, мы стремимся передать знания о контексте события из $z_c$ в скрытую переменную с учетом контекста $z_{c^{\prime }}$. Чтобы протестировать производительность CWVAE, мы разделили Event2Mind и Atomic. набор данных в наборы для обучения, разработки и тестирования (80%, 10%, 10%) так же, как BIBREF5 (BIBREF5) и BIBREF4 (BIBREF4) соответственно.Мы инициализируем слой внедрения из встроенных слов 300d GloVe.Нейронный кодер выбран в виде biGRU с 300 скрытыми блоками.Для модуля ABI размер $W_a$ и $W_b$ установлен равным $100 \times d_a$ и $100 \times d_b$ соответственно.Размерность $z_c$, $z_{c^{\prime }}$ и $z$ равна 40.Нейронный декодер настроен на GRU со скрытым состоянием 300d.Коэффициент регулирования $\lambda$ термина контекстно-зависимого регулирования установлен равным 0,1.Модели обучаются с использованием оптимизатора Адама BIBREF15 со скоростью обучения 0,001. Вспомогательный набор данных построен на трех корпусах историй, написанных человеком: ROCStories BIBREF16, VIST BIBREF17.и подсказки для письма BIBREF18.ROCStories и VIST состоят из рассказов из пяти предложений.Мы отфильтровываем истории из более чем 1000 слов в WritePrompts и разрезаем оставшиеся истории на абзацы из пяти предложений.Для каждого абзаца из пяти предложений мы определяем первые три предложения как контексты базового события, четвертое предложение как базовое событие и пятое предложение как цель вывода.Например, как показано в таблице TABREF25, первые три предложения описывают контекст, в котором Джейсон был недоволен своей работой и подал заявку на новую работу.Следовательно, после того, как произошло событие «он получил работу», правдоподобной реакцией на это событие может быть «Джейсон был намного счастливее на своей новой работе».Всего вспомогательный набор данных содержит 192 316 троек $(context, event, target)$.Мы сравнили предложенную нами модель со следующими четырьмя базовыми методами: Seq2Seq на основе RNN, предложенный BIBREF4 (BIBREF4) для рассуждений If-Then на атомарном уровне.Вариационный Seq2Seq объединяет скрытую переменную со структурой кодировщика-декодера путем преобразования последнего скрытого состояния кодера RNN в гауссово распределенную скрытую переменную BIBREF8.VRNMT. Предложение BIBREF19 (BIBREF19), VRNMT объединяет CVAE со структурой кодера-декодера, основанной на внимании, путем введения скрытая переменная для моделирования семантического распределения целей.CWVAE-Unpretrained относится к модели CWVAE без этапа предварительного обучения.Обратите внимание, что для каждого базового метода мы обучаем отдельные модели для каждого отдельного измерения вывода соответственно.Сначала мы сравним сложность CWVAE с базовыми методами.Недоумение измеряет вероятность модели восстановить точные цели, что особенно подходит для оценки производительности модели в задаче «один ко многим» BIBREF20.Кроме того, мы используем оценку BLEU для оценки точности поколений BIBREF21 и количество различных n-грамм для оценки разнообразия поколений BIBREF6.Отличительные нормализуются на $[0, 1]$ путем деления общего количества сгенерированных токенов.Поскольку автоматическая оценка поколений по-прежнему остается сложной задачей BIBREF22, мы также проводим человеческие оценки эффективности модели.Пять экспертов нанимаются для оценки согласованности, разнообразия и беглости сгенерированных целей.Экспертам предлагается проголосовать за то, является ли поколение беглым или последовательным для каждой сгенерированной цели, и дать оценку от 1 до 5 за разнообразие поколений.Для наборов данных Event2Mind и Atomic из тестового набора случайным образом выбираются 100 событий.Для каждого метода для оценки используются 10 наиболее сгенерированных целей каждого базового события.Наконец, мы сообщаем о трех общих усредненных показателях согласованности, разнообразия и беглости речи для обоих наборов данных соответственно.Мы перечисляем степень недоумения и оценку BLEU для CWVAE и базовых методов Event2Mind и Atomic в таблице TABREF31.и таблицу TABREF33 соответственно, а также показывают баллы «отлично-1» и «отлично-2» на Event2Mind и Atomic в таблицах TABREF32 и TABREF34 соответственно.Мы обнаружили, что: (1) Как показано в таблицах TABREF32 и TABREF34, сравнение Seq2Seq на основе RNN и методов, основанных на вариациях, включая Variational Seq2Seq, VRNMT, CWVAE-unpretrained и CWVAE, показывает, что методы, основанные на вариациях, могут увеличить разнообразие. поколений.Это подтверждает одну из наших идей о том, что методы, основанные на вариациях, могут уловить скрытое семантическое распределение внутри целей и увеличить разнообразие рассуждений «если-то».(2)Сравнение необученного CWVAE с другими базовыми методами показывает, что в целом CWVAE повышает точность и разнообразие обоих наборов данных.Эти результаты указывают на эффективность CWVAE в захвате скрытого семантического распределения целей и дают более разумные результаты вывода. (3) Сравнение между CWVAE и CWVAE без предварительной подготовки показывает, что этап предварительной подготовки может повысить производительность CWVAE как по точности, так и по разнообразию. .Это происходит главным образом потому, что знания о событиях могут служить руководством для рассуждений «если-то».На этапе предварительной подготовки CWVAE может собирать фоновые знания о событиях с помощью скрытой переменной, зависящей от контекста, и такие знания можно адаптировать к нашей задаче на этапе точной настройки.Для дальнейшей оценки эффективности предлагаемого нами подхода мы также проводим человеческие оценки, результаты которых показаны в таблице TABREF39.и таблица TABREF40.В обоих наборах данных методы на основе CWVAE обеспечивают стабильно лучшую согласованность, разнообразие и беглость речи.По сравнению с CWVAE-Unpretrained, процедура предварительной подготовки может улучшить показатели связности и беглости речи.Основные причины двояки: во-первых, CWVAE имеет преимущество в определении семантического распределения целей; во-вторых, фон событий, полученный на этапе предварительного обучения, полезен для рассуждений «Если-То». ТаблицаTABREF41 предоставляет пример генерации моделей с учетом базового события «PersonX работает не покладая рук» и измерения вывода «xIntent».Поколения под CWVAE в основном содержат четыре вида семантики: (1) быть продуктивным, (2) скорее закончить свою работу, (3) достичь цели, (4) заработать больше денег.В то время как семантика поколений с использованием базовой модели Seq2Seq на основе RNN относительно ограничена.Более того, первые три вида семантики перекрывают три основные цели истины, а четвертый вид семантики соответствует здравому смыслу повседневной жизни.По сравнению с моделью Seq2Seq на основе RNN наш подход может увеличить разнообразие и рациональность поколений, сохраняя при этом точность.Понимание событий и построение событийно-ориентированных знаний здравого смысла имеют решающее значение для многих приложений НЛП, таких как распознавание намерений BIBREF23 и генерация диалогов BIBREF24.В последнее время все большее число исследований сосредотачивается на событийно-ориентированных рассуждениях здравого смысла, которые в основном концентрируются на двух областях: предсказании событий сценария и создании/выборе концовки истории.Прогнозирование событий сценария связано с временными отношениями между событиями сценария BIBREF25, что требует от моделей выбора правильного последующего тройного организованного события среди кандидатов BIBREF2.Предыдущая работа в основном была сосредоточена на моделировании пар событий BIBREF25, цепочек событий BIBREF2 и графа событий BIBREF3 для прогнозирования последующего события.Генерация концовок историй направлена ​​на создание правдоподобных концовок историй BIBREF16, что требует от моделей понимания контекста истории и сохранения сгенерированных концовок логически согласованными с ним BIBREF26, BIBREF27.Вышеупомянутые задачи в основном исследуют логический порядок событий, тогда как задача рассуждения «Если-То» фокусируется на выводе о психическом состоянии участников события.VAE BIBREF10 широко применяется в различных задачах генерации текста, таких как диалог и машинный перевод.При генерации диалога BIBREF9 (BIBREF9) адаптирует VAE со структурой кодировщика-декодера для моделирования скрытого семантического распределения ответов, что может увеличить разнообразие поколений.Для задач машинного перевода BIBREF19 (BIBREF19) и BIBREF28 (BIBREF28) используют скрытую переменную, чтобы уловить семантическое взаимодействие между исходным и целевым предложением, и рассматривают скрытую переменную как дополнительный механизм внимания.В то время как BIBREF29 (BIBREF29) использует скрытую переменную для моделирования распределения тем при генерации текста.В этой статье мы вводим дополнительную скрытую переменную, учитывающую контекст, для эффективного изучения базовых знаний и проведения рассуждений «если-то», руководствуясь ими.В этой статье мы предлагаем новую контекстно-зависимую структуру VAE (CWVAE) с двумя этапами обучения логическому рассуждению «если-то».Вводя дополнительную скрытую переменную с учетом контекста, CWVAE может изучать внешние фоновые знания и проводить рассуждения «если-то» под ее руководством.На этапе предварительного обучения CWVAE изучает фоновые знания о событиях, затем на этапе точной настройки CWVAE адаптирует эти знания к каждому измерению вывода.Экспериментальные результаты показывают, что CWVAE превосходит базовые методы как по точности, так и по разнообразию поколений.Мы благодарим анонимных рецензентов за их конструктивные комментарии и с благодарностью отмечаем поддержку Национальной программы ключевых исследований и разработок Китая (SQ2018AAA010010), Национальной программы ключевых исследований и разработок Китая (2018YFB1005103), Национального фонда естественных наук Китая ( NSFC) через грант 61702137.
Понимание событий и событийно-ориентированных рассуждений здравого смысла имеет решающее значение для обработки естественного языка (НЛП). Учитывая наблюдаемое событие, человеку легко сделать вывод о его намерениях и последствиях, в то время как этот тип рассуждения «если-то» все еще остается сложной задачей для систем НЛП. Чтобы облегчить это, предлагается набор данных для рассуждений на основе здравого смысла Atomic вместе с моделью Seq2Seq на основе RNN для проведения таких рассуждений. Однако еще предстоит решить две фундаментальные проблемы: во-первых, намерения события могут быть множественными, в то время как поколения моделей Seq2Seq на основе RNN всегда семантически близки; во-вторых, для понимания событий и проведения рассуждений «если-то» может потребоваться внешнее знание предыстории событий. Для решения этих проблем мы предлагаем новый контекстно-зависимый вариационный автокодировщик, эффективно изучающий фоновую информацию о событиях для управления рассуждениями «если-то». Результаты экспериментов показывают, что наш подход повышает точность и разнообразие выводов по сравнению с современными базовыми методами.
4,496
QasperSumInstruct
ru
Напиши аннотацию по статье
Изучение извлечения открытой информации неявных отношений из наборов данных для понимания прочитанного. Извлечение открытой информации (OpenIE) — это задача НЛП по созданию кортежей (субъект, отношение, объект) из неструктурированного текста, например «Председатель ФРС Пауэлл указывает на повышение ставок» (Пауэлл указывает на повышение ставок).Модификатор open используется для противопоставления исследованиям IE, в которых отношение принадлежит фиксированному множеству.Было показано, что OpenIE полезен для нескольких последующих приложений, таких как построение базы знаний BIBREF0, текстовая обработка BIBREF1 и другие задачи понимания естественного языка BIBREF2.В нашем предыдущем примере отсутствовало извлечение: (Пауэлл, работает в ФРС).Неявное извлечение — это наш термин для обозначения кортежа такого типа, в котором отношение («работает для» в этом примере) не содержится во входном предложении.Как в разговорном, так и в формальном языке многие отношения очевидны, но не сформулированы явно.Однако, несмотря на их широкое распространение, до сих пор не проводилось работ, направленных на неявные предикаты в общем случае.Были исследованы неявные экстракторы информации для некоторых конкретных неявных отношений, таких как отношения, не опосредованные существительными, числовые отношения и другие BIBREF3, BIBREF4, BIBREF5.Хотя конкретные экстракторы важны, существует множество типов неявных отношений, и было бы сложно классифицировать и разработать экстракторы для каждого из них.Предыдущие общие системы OpenIE страдали от низкой полноты неявных отношений BIBREF6.В исходном приложении OpenIE – построении базы знаний в масштабе сети – такая низкая полнота информации является терпимой, поскольку факты часто переформулируются разными способами BIBREF7 .Однако в последующих приложениях NLU подразумеваемая связь может быть существенной и указываться только один раз BIBREF2. Вклад этой работы двоякий.В разделе 4 мы представляем наш инструмент преобразования на основе синтаксического анализа и преобразуем два больших набора данных для понимания прочитанного в неявные наборы данных OpenIE.В разделах 5 и 6 мы обучаем простую нейронную модель на этих данных и сравниваем ее с предыдущими системами на кривых точности отзыва, используя новый золотой тестовый набор для неявных кортежей.Мы предлагаем сосредоточить исследования OpenIE на создании неявных отношений, в которых предикат не содержится во входном диапазоне.Формально мы определяем неявные кортежи как кортежи (субъект, отношение, объект), которые: Эти «неявные» или «здравые» кортежи воспроизводят отношение явно, что может быть важно для последующих приложений NLU, использующих OpenIE в качестве промежуточной схемы.Например, на рисунке 1 входное предложение сообщает нам, что скандинавы присягнули на верность Карлу III под предводительством «своего лидера Ролло».Из этого наша модель выводит результаты (скандинавский лидер был Ролло), несмотря на то, что это отношение никогда не содержалось во входном предложении.Наше определение неявных кортежей соответствует «часто возникающим ошибкам припоминания», выявленным в предыдущих системах OpenIE BIBREF6: неопосредованное существительное, вывод на уровне предложения, длинное предложение, номинализация, шумная неформальность и PP-приложение.Мы используем термин «неявный кортеж» для обозначения всех ситуаций, когда предикат отсутствует или очень запутан.Из-за нехватки места см. Niklaus et al. Обзор для обзора ненейронных методов.Из них несколько работ были сосредоточены на неявных экстракторах информации на основе шаблонов для существительных, числовых отношений и других BIBREF3, BIBREF4, BIBREF5.В этой работе мы сравниваем OpenIE-4, ClausIE BIBREF8, ReVerb BIBREF9, OLLIE BIBREF10, Stanford OpenIE BIBREF11 и PropS BIBREF12..Становскийи другие. Контролируемый OIE представляет OpenIE как проблему BIO-тегов и обучает LSTM тегировать входное предложение.Кортежи могут быть получены из тегера, ввода и анализатора BIO CFG.Этот метод превосходит традиционные системы, хотя схема тегирования по своей сути ограничивает отношения частью входного предложения, запрещая неявное извлечение отношений.Куи и др. NeuralOpenIE загрузит пары (предложение, кортеж) из OpenIE-4 и обучит стандартную модель seq2seq с вниманием, используя OpenNMT-py BIBREF13.Система тормозится синтетическими обучающими данными, которые извлекаются из системы, основанной на правилах.Из-за отсутствия больших наборов данных для OpenIE предыдущие работы были сосредоточены на создании наборов данных из других задач.К ним относятся наборы данных QA-SRL BIBREF14 и наборы данных QAMR BIBREF6.Эти методы ограничены размером исходных обучающих данных, которые на порядок меньше существующих наборов данных по пониманию прочитанного.Наборы данных «вопрос-ответ» на основе диапазона — это тип набора данных для понимания прочитанного, в котором каждая запись состоит из короткого отрывка, вопроса об отрывке и ответа, содержащегося в отрывке.В этой работе используются наборы данных Стэнфордского университета для ответов на вопросы (SQuADv1.1) BIBREF15 и NewsQA BIBREF16.Эти наборы данных контроля качества были созданы для того, чтобы требовать рассуждений, выходящих за рамки простого распознавания образов, а это именно то, чего мы хотим от неявного OpenIE.Наша цель — преобразовать схему QA в OpenIE, как это было успешно сделано для NLI BIBREF17.Репозиторий программного обеспечения и преобразованных наборов данных доступен по адресу http://toAppear.Мы начали с изучения SQuAD и заметили, что каждый ответ $A$ соответствует либо субъекту, отношению или объекту при неявном извлечении.Соответствующий вопрос $Q$ содержит две другие части, то есть либо (1) субъект и отношение, (2) субъект и объект, либо (3) отношение и объект.Какие две части содержит вопрос, зависит от типа вопроса.Например, вопросы типа «кто был... фактоид» содержат отношение («был») и объект (фактоид), что означает, что ответом является субъект.На рисунке 1 вопрос «Кто был Ролло» распознается как вопрос «кто был» и обрабатывается анализатором whoParse().Точно так же вопрос в форме «Когда человек совершил действие» выражает субъект и отношение, а ответ содержит объект.Например, вопрос «Когда Эйнштейн эмигрировал в США» и ответ «1933 год» будет преобразован в (Эйнштейн, когда эмигрировал в США, 1933 год).В подобных случаях отношение может быть не грамматически идеальным, но, тем не менее, оно отражает смысл входного предложения.Чтобы выявить общие шаблоны, мы создаем наш инструмент анализа поверх анализатора зависимостей BIBREF18.Он использует пятнадцать правил, при этом правильное правило определяется и запускается в зависимости от типа вопроса.Затем правило использует заранее заданный шаблон для анализа входной пары QA и вывода кортежа.Эти пятнадцать правил, конечно, не являются исчерпывающими, но охватывают около восьмидесяти процентов входных данных.Инструмент игнорирует вопросы длиной более 60 символов и сложные вопросы, которые он не может проанализировать, оставляя набор данных меньше исходного (см. Таблицу 1). Каждое правило состоит в среднем из сорока строк кода, который проходит дерево анализа зависимостей в соответствии с заранее заданным шаблоном. , извлекая соответствующие промежутки на каждом шаге.Основная функция parse() определяет, какое правило применить, на основе типа вопроса, который классифицируется по наличию nsubj, и типа вопроса (кто/что/и т. д.).Большинство вопросов содержат nsubj, который упрощает задачу анализа, поскольку он также будет предметом кортежа.Мы разрешаем основному методу parse() проверять несколько правил.Сначала он пробует очень конкретные правила (например, анализатор вопросов, в которых не определен предмет), затем переходит к более общим правилам.Если после того, как все методы опробованы, выходные данные не возвращаются, мы выбрасываем пару QA.В противном случае мы находим подходящее предложение в отрывке по индексу.После преобразования QA в кортеж кортеж должен быть выровнен с предложением во входном фрагменте.Мы разбиваем отрывок на предложения, используя точки в качестве разделителей.Предложение, содержащее ответ, считается входным предложением кортежа.Выведенные предложения преимущественно совпадают со своим кортежем, но в некоторых вопросах на рассуждение, состоящих из нескольких предложений, некоторые демонстрируют частичное несовпадение.13,6% вопросов требуют рассуждения из нескольких предложений, так что это верхняя граница количества частично смещенных кортежей/предложений BIBREF15 .Хотя для проверки выравнивания могут быть использованы эвристики, мы не обнаружили значительного количества таких несовпадений и поэтому оставили их в корпусе.На рисунке 1 показан процесс преобразования.Исследуя случайное подмножество из ста сгенерированных кортежей в объединенном наборе данных, мы обнаруживаем 12 неопосредованных существительных, 33 вывода на уровне предложений, 11 длинных предложений, 7 номинализаций, 0 шумных неформальных, 3 pp-присоединения, 24 явных и 10 частично смещенных.Этот набор данных с 66% неявных отношений показывает многообещающую возможность улучшить отзыв OpenIE о неявных отношениях.Наш неявный экстрактор OpenIE реализован как модель последовательности в последовательность с учетом BIBREF19.Мы используем двухуровневый кодер/декодер LSTM с 500 параметрами, общим вниманием, оптимизатором SGD с адаптивной скоростью обучения и пропуском 0,33 BIBREF20.Цель обучения — максимизировать вероятность выходного кортежа с учетом входного предложения.Если предложение имеет несколько извлечений, оно появляется в наборе данных один раз для каждого выходного кортежа.Во время тестирования поиск луча используется для декодирования для получения первых 10 выходных данных и связанного с ними значения логарифмического правдоподобия для каждого кортежа (используется для создания кривых точного отзыва в разделе 7). Мы используем инструмент оценки, разработанный Становским. и тест Дагана для проверки точности и полноты нашей модели по сравнению с предыдущими методами.Мы вносим в инструмент два изменения, как описано ниже.Тестовый корпус не содержал неявных данных, поэтому мы повторно аннотировали 300 кортежей из данных обучения английскому языку CoNLL-2009, чтобы использовать их в качестве золотых данных.Оба автора работали над разными наборами предложений, а затем сократили другой набор, чтобы сохранить только неявные отношения.Мы отмечаем, что это набор данных, отличный от наших обучающих данных, поэтому он должен стать хорошей проверкой на обобщаемость; данные обучения состоят из Википедии и новостных статей, а данные испытаний напоминают заголовки корпоративных пресс-релизов.Мы реализуем новую функцию сопоставления (то есть функцию, которая решает, соответствует ли сгенерированный кортеж золотому кортежу).Включенные функции сопоставления использовали перекрытие BoW или BLEU, которые не подходят для неявных отношений; наша цель — оценить, соответствует ли значение предсказанного кортежа золоту, а не единственным токенам.Например, если отношение золота «работает», мы хотим принять «работает».Таким образом, вместо этого мы вычисляем косинусное подобие вложений субъекта, отношения и объекта в наш золотой кортеж.Все три должны быть выше порогового значения, чтобы можно было оценить совпадение.Встраивание последовательности вычисляется путем взятия среднего значения встраивания GloVe каждого слова (т. е. встраивания BoW) BIBREF21.Результаты нашего неявного корпуса показаны на рисунке 2 (наш метод выделен синим цветом).Для продолжения предыдущей работы мы также сравниваем нашу модель с исходным корпусом, но используя нашу новую функцию сопоставления, показанную на рисунке 3. Наша модель превосходит результаты в каждой точке кривой PR неявных кортежей, достигая нашей цели по увеличению запоминаемости неявных отношений.Наша система плохо работает с явными кортежами, как и следовало ожидать, учитывая наши данные обучения.Мы попытались создать многозадачную модель, но обнаружили, что модель научилась создавать неявные или явные кортежи.Создание многозадачной сети было бы идеальным вариантом, хотя для производственных систем достаточно использовать обе системы в тандеме.Мы создали большой корпус обучения неявным экстракторам OpenIE на основе SQuAD и NewsQA, обучили базовый уровень на этом наборе данных и представили многообещающие результаты по неявному извлечению.Мы рассматриваем это как часть более широкой работы над схемами представления текста, целью которых является представление значения в более структурированной форме, чем свободный текст.Неявное извлечение информации идет дальше, чем традиционный OpenIE, и позволяет выявить отношения, не содержащиеся в исходном свободном тексте.Это позволяет максимально сократить кортежи, в которых отношения здравого смысла становятся явными.Наша модель должна совершенствоваться и дальше, поскольку все больше наборов данных QA будут выпущены и преобразованы в данные OpenIE с помощью нашего инструмента преобразования.
Отношения между двумя сущностями в предложении часто подразумеваются порядком слов и здравым смыслом, а не явным предикатом. Например, очевидно, что фраза «Председатель ФРС Пауэлл указывает на повышение ставок» подразумевает (Пауэлл является председателем ФРС) и (Пауэлл работает на ФРС). Эти кортежи столь же значимы, как и кортеж с явным предикатом (Пауэлл, указывает, повышение ставок), но имеют гораздо меньшую запоминаемость в традиционных системах извлечения открытой информации (OpenIE). Неявные кортежи — это наш термин для обозначения такого типа извлечения, когда отношение отсутствует во входном предложении. Доступно очень мало данных обучения OpenIE по сравнению с другими задачами НЛП, и ни один из них не сосредоточен на неявных отношениях. Мы разрабатываем инструмент с открытым исходным кодом на основе синтаксического анализа для преобразования больших наборов данных по чтению в наборы данных OpenIE и выпускаем набор данных, в 35 раз превышающий доступный ранее по количеству предложений. Базовая нейронная модель, обученная на этих данных, превосходит предыдущие методы в задаче неявного извлечения.
2,012
QasperSumInstruct
ru
Напиши аннотацию по статье
Что бы сделала Эльза? Замораживание слоев во время точной настройки трансформатора. Предварительно обученные языковые модели на основе преобразователей — это проверенное в боевых условиях решение множества задач обработки естественного языка.В этой парадигме языковая модель на основе преобразователя сначала обучается на больших объемах текста, а затем настраивается на данных, специфичных для конкретной задачи.BERT BIBREF0, XLNet BIBREF1 и RoBERTa BIBREF2 — одни из наиболее известных, представляющие современное состояние умозаключений на естественном языке, ответов на вопросы и классификации настроений, и это лишь некоторые из них.Эти модели чрезвычайно выразительны, состоят как минимум из ста миллионов параметров, сотни голов внимания и дюжины слоев.Новое направление работы подвергает сомнению необходимость такой загруженной параметрами модели, особенно для одной последующей задачи.BIBREF3, например, отмечает, что для приемлемой эффективности на каждом уровне необходимо удерживать лишь несколько голов внимания.BIBREF4 обнаружил, что во многих задачах после процесса тонкой настройки больше всего изменяются только последние несколько слоев.Мы рассматриваем эти наблюдения как свидетельство того, что только последние несколько слоев обязательно нуждаются в точной настройке.Таким образом, основная цель нашей статьи — определить, сколько из последних слоев действительно нуждаются в тонкой настройке.Почему это важный предмет исследования?С прагматической точки зрения разумная точка отсечения экономит вычислительную память при точной настройке нескольких задач, что повышает эффективность существующих методов сохранения параметров BIBREF5.С педагогической точки зрения понимание взаимосвязи между количеством точно настроенных слоев и качеством получаемой модели может направлять будущие работы по моделированию.Наш исследовательский вклад заключается в комплексной оценке количества финальных слоев, необходимых для точной настройки, по множеству предварительно обученных преобразователей и наборов данных.Мы показываем, что в большинстве задач нам нужно точно настроить только одну четверть финальных слоев, чтобы достичь четности в пределах 10% с полной моделью.Удивительно, но в SST-2, наборе данных классификации настроений, мы обнаружили, что отсутствие точной настройки всех слоев приводит к улучшению качества.В парадигме предварительно обученного языкового моделирования языковая модель (LM) обучается на огромных объемах текста, а затем настраивается для конкретной последующей задачи.BIBREF6 являются одними из первых, кто успешно применил эту идею, превосходя современные решения в области ответов на вопросы, текстового следования и классификации настроений.Их модель, получившая название ELMo, включает в себя двухслойный BiLSTM, предварительно обученный на корпусе миллиардов слов BIBREF7. Развивая этот подход с помощью большего количества данных и улучшенного моделирования, BIBREF0 предварительно обучает глубокие 12- и 24-слойные двунаправленные преобразователи BIBREF8 по всей Википедии и BooksCorpus BIBREF9. .Их подход, получивший название BERT, соответствует современному уровню всех задач в тесте общей оценки понимания языка (GLUE) BIBREF10, а также в Стэнфордском наборе данных для ответов на вопросы (BIBREF11). В результате этого развития появилось множество недавних статей. следовал принципу «больше данных плюс лучшие модели».Два ярких примера включают XLNet BIBREF1 и RoBERTa BIBREF2, оба из которых оспаривают нынешний уровень техники.XLNet предлагает предварительно обучать двухпотоковые преобразователи с усилением внимания на авторегрессионной цели LM вместо исходных задач закрытия и предсказания следующего предложения (NSP) из BERT.RoBERTa в первую очередь выступает за более длительную предварительную подготовку, использование большего количества данных и удаление задачи NSP для BERT. Преобладающие данные в литературе по нейронным сетям предполагают, что более ранние уровни извлекают универсальные функции, а более поздние выполняют моделирование для конкретной задачи. BIBREF12визуализируйте активации каждого слоя в сетях классификации изображений, обнаружив, что первые несколько слоев функционируют как детекторы углов и краев, а последние слои — как экстракторы признаков, специфичных для класса.BIBREF13 демонстрирует, что понятия содержания и стиля низкого и высокого уровня разделимы в сверточных нейронных сетях: нижние уровни фиксируют контент, а верхние уровни - стиль.Предварительно обученные трансформеры.В литературе по НЛП аналогичные наблюдения были сделаны для предварительно обученных языковых моделей.BIBREF14Проанализируйте внимание BERT и обратите внимание, что нижние уровни посещают широко, а верхние уровни захватывают лингвистический синтаксис.BIBREF4 обнаружил, что последние несколько уровней BERT изменяются больше всего после тонкой настройки для конкретной задачи.Подобно нашей работе, BIBREF5 осуществляет точную настройку верхних слоев BERT в рамках базового сравнения подхода к сжатию модели.Однако ни одно из исследований всесторонне не изучает количество необходимых финальных слоев для нескольких предварительно обученных преобразователей и наборов данных.Мы проводим эксперименты на графических процессорах NVIDIA Tesla V100 с CUDA v10.1.Мы запускаем модели из библиотеки Transformers (v2.1.1; BIBREF15) с использованием PyTorch v1.2.0. Мы выбрали BERT BIBREF0 и RoBERTa BIBREF2 в качестве объектов нашего исследования, поскольку они представляют собой современное состояние и одну и ту же архитектуру.XLNet BIBREF1 — еще одна альтернатива; однако они используют немного другую структуру внимания, и наши предварительные эксперименты столкнулись с трудностями в воспроизводимости с библиотекой Transformers.Каждая модель имеет базовый и большой варианты, содержащие 12 и 24 слоя соответственно.Мы обозначаем их, добавляя название варианта в качестве нижнего индекса к названию модели.Внутри каждого варианта две модели демонстрируют небольшую вариабельность количества параметров — 110 и 125 миллионов в базовом варианте и 335 и 355 в большом.Эти различия в основном связаны с использованием RoBERTa гораздо большего количества параметров встраивания — ровно на 63% больше для обоих вариантов.Подробную послойную статистику см. в таблице TABREF4. Для наших наборов данных мы используем тест GLUE, который включает в себя задачи по выводу естественного языка, классификации настроений, лингвистической приемлемости и семантическом сходству.В частности, для вывода на естественном языке (NLI) он предоставляет наборы данных Multigenre NLI (MNLI; BIBREF16), NLI вопросов (QNLI; BIBREF10), распознавания текстовых последствий (RTE; BIBREF17) и Winograd NLI BIBREF18.Для семантического текстового сходства и перефразирования он содержит корпус парафраз Microsoft Research (MRPC; BIBREF19), тест семантического текстового сходства (STS-B; BIBREF20) и пары вопросов Quora (QQP; BIBREF21).Наконец, его задачи, состоящие из одного предложения, включают Стэнфордский древовидный банк настроений с бинарной полярностью (SST-2; BIBREF22) и Корпус лингвистической приемлемости (CoLA; BIBREF23). Наша процедура тонкой настройки очень похожа на процедуры BERT и RoBERTa.Мы выбираем оптимизатор Адама BIBREF24 с размером пакета 16 и настраиваем BERT для 3 эпох и RoBERTa для 10, следуя оригинальным статьям.При настройке гиперпараметров лучшая скорость обучения различна для каждой задачи, и все первоначальные авторы выбирают одну между $1 \times 10^{-5}$ и $5 \times 10^{-5}$; таким образом, мы выполняем поиск строки на интервале с размером шага $1\times 10^{-5}$. О лучших результатах мы сообщаем в таблице TABREF5. В каждой модели мы замораживаем вложения и веса первых $N$ слоев, а затем настраиваем остальные, используя лучшие гиперпараметры полной модели.В частности, если $L$ — количество слоев, мы исследуем $N = \frac{L}{2}, \frac{L}{2} + 1, \dots, L$. Из-за вычислительных ограничений мы установили половину в качестве точки отсечки.Кроме того, мы ограничиваем наше комплексное исследование всех наборов данных базовым вариантом BERT, поскольку варианты больших моделей и RoBERTa требуют гораздо большего объема вычислений.На меньших наборах данных CoLA, SST-2, MRPC и STS-B мы всесторонне оцениваем обе модели.Эти варианты существенно не влияют на наш анализ.В таблицах TABREF6–TABREF9 мы указываем три соответствующие рабочие точки: две крайние рабочие точки и промежуточную.Первый вариант не требует пояснений и указывает на точную настройку всех или ни одного из невыходных слоев.Последнее обозначает количество необходимых слоев для достижения не менее 90% полного качества модели, исключая CoLA, который является выбросом.Судя по результатам, представленным в таблицах TABREF6–TABREF9, точная настройка последнего выходного слоя и слоев, специфичных для задачи, недостаточна для всех задач — см. строки, соответствующие 0, 12 и 24 замороженным слоям.Однако мы считаем, что первая половина модели не нужна; базовые модели, например, нуждаются в точной настройке только 3–5 слоев из 12 для достижения 90% исходного качества — см. таблицу TABREF7, средняя подстрока каждой группы строк.Аналогично, для больших моделей достаточно точной настройки только четверти слоев (см. таблицу TABREF9); всего 6 слоев из 24 у BERT и 7 у RoBERTa.На рисунке FigREF10 мы исследуем, как относительное качество меняется в зависимости от количества замороженных слоев.Чтобы вычислить относительную оценку, мы вычитаем результаты каждой замороженной модели из соответствующей полной модели.Относительная оценка выравнивает две базовые линии по нулю, что позволяет справедливо сравнивать преобразователи.На графиках показано среднее значение пяти испытаний, позволяющее уменьшить влияние выбросов.Когда каждый компонент, за исключением выходного слоя и слоя, специфичного для задачи, заморожен, то точно настроенная модель достигает в среднем только 64% ​​исходного качества.По мере точной настройки большего количества слоев эффективность модели часто резко повышается — см. CoLA и STS-B, первую и четвертую вертикальные пары подрисунков слева.Это демонстрирует, что выигрыши разлагаются неаддитивно по числу замороженных начальных слоев.Точная настройка последующих слоев показывает уменьшающуюся отдачу: каждая модель быстро приближается к базовому качеству при точной настройке половины сети; следовательно, мы считаем, что половина является разумной границей для характеристики моделей.Наконец, для больших вариантов BERT и RoBERTa на SST-2 (второй подрисунок сверху и слева) мы наблюдаем удивительно стабильное увеличение качества при замораживании 12–16 слоев.Этот вывод предполагает, что эти модели могут быть чрезмерно параметризованы для SST-2. В этой статье мы представляем всестороннюю оценку количества финальных слоев, которые необходимо точно настроить для предварительно обученных языковых моделей на основе преобразователей.Мы обнаружили, что только четверть слоев обязательно нуждается в точной настройке, чтобы получить 90% исходного качества.Одним из направлений будущей работы является проведение аналогичного, более детального анализа вклада голов внимания.Это исследование было поддержано Советом естественных наук и инженерных исследований (NSERC) Канады и реализовано за счет вычислительных ресурсов, предоставленных Compute Ontario и Compute Canada.
Предварительно обученные языковые модели на основе преобразователей достигли современного уровня в бесчисленных задачах обработки естественного языка. Эти модели отличаются высокой выразительностью и содержат не менее ста миллионов параметров и дюжину слоев. Последние данные свидетельствуют о том, что лишь некоторые из последних слоев нуждаются в точной настройке для обеспечения высокого качества последующих задач. Естественно, последующий исследовательский вопрос заключается в следующем: «Сколько последних слоев нам нужно настроить?» В данной статье мы точно ответим на этот вопрос. Мы исследуем две последние предварительно обученные языковые модели, BERT и RoBERTa, в рамках стандартных задач по текстовому следованию, семантическому сходству, анализу настроений и лингвистической приемлемости. Мы варьируем количество финальных слоев, которые точно настраиваются, а затем изучаем результирующее изменение эффективности для конкретной задачи. Мы показываем, что только четверть финальных слоев нуждается в точной настройке для достижения 90% исходного качества. Удивительно, но мы также обнаруживаем, что точная настройка всех слоев не всегда помогает.
1,737
QasperSumInstruct
ru
Напиши аннотацию по статье
HotelRec: новый очень крупномасштабный набор данных для рекомендаций по отелям. Растущий поток информации в сети создает необходимость выбора контента в соответствии с предпочтениями конечного пользователя.Сегодня рекомендательные системы развернуты на большинстве интернет-платформ и играют важную роль в повседневной цифровой жизни каждого человека, включая веб-сайты электронной коммерции, социальные сети, потоковую передачу музыки или бронирование отелей.Рекомендательные системы исследовались более тридцати лет BIBREF0.За прошедшие годы было разработано множество моделей и наборов данных в разных областях и разных размерах: фильмы BIBREF1, продукты Amazon BIBREF2, BIBREF3 или музыка BIBREF4.Благодаря огромному успеху крупных рекомендательных систем, основанных на глубоком обучении, благодаря лучшему отслеживанию взаимодействий пользователя с элементами качество рекомендаций BIBREF5 значительно улучшилось. Однако повышение эффективности рекомендаций с помощью моделей на основе глубокого обучения достигается за счет больших наборов данных. .Самые последние современные модели, такие как BIBREF6, BIBREF7 или BIBREF8, требуют больших наборов данных (т. е. миллионов) для достижения высокой производительности.В сфере гостиничного бизнеса рекомендации по отелям изучались лишь в нескольких работах, например BIBREF9 или BIBREF10.Кроме того, насколько нам известно, самый большой общедоступный набор данных по обзорам отелей содержит образцы BIBREF11 стоимостью 870 тысяч долларов.В отличие от обычно используемых наборов данных рекомендаций, область гостиничного бизнеса страдает от более высокой разреженности данных, и поэтому традиционные подходы совместной фильтрации не могут быть применены BIBREF10, BIBREF12, BIBREF13.Кроме того, рейтинг отеля отличается от традиционных продуктов, поскольку весь опыт длится дольше, и есть больше аспектов для рассмотрения BIBREF12. Напротив, в этой работе мы предлагаем HotelRec, новый крупномасштабный набор данных для рекомендаций по отелям, основанный на отзывах об отелях от TripAdvisor и содержащий около 50 миллионов отзывов.Пример обзора показан на рисунке FigREF1.Насколько нам известно, HotelRec является крупнейшим общедоступным набором данных об обзорах отелей (как минимум в 60 раз больше, чем предыдущие наборы данных).Кроме того, мы анализируем различные аспекты набора данных HotelRec и сравниваем эффективность различных моделей по двум задачам: прогнозирование рейтинга и эффективность рекомендаций.Хотя приемлемая производительность достигается с помощью современного метода, все еще есть возможности для улучшения.Мы считаем, что HotelRec предоставит возможности для применения и разработки новых крупных рекомендательных систем, а также будет способствовать дальнейшему распространению рекомендаций для отелей, которые отличаются от традиционных наборов данных.Рекомендация — это старая проблема, которая изучалась в самых разных областях, таких как продукты Amazon BIBREF14, пиво BIBREF15, рестораны, изображения BIBREF16, музыка BIBREF4 и фильмы BIBREF1.Размер наборов данных обычно варьируется от сотен тысяч до десятков миллионов взаимодействий пользователя с элементами; Взаимодействие всегда содержит оценку и может иметь дополнительные атрибуты, такие как текст, написанный пользователем, дополнительные оценки, дату или информацию о том, был ли отзыв полезен.На момент написания и, насколько нам известно, самый большой доступный корпус рекомендаций по конкретному домену и с текстовыми обзорами основан на Amazon Books и предложен he2016ups.Он содержит в общей сложности 22 миллиона рецензий на книги.Для сравнения, у HotelRec на 2,3 доллара в раз больше отзывов и основано на отелях.Следовательно, HotelRec представляет собой крупнейший общедоступный набор данных рекомендаций для конкретных доменов с текстовыми отзывами и на одном домене.Мы выделяем текстовые обзоры, поскольку некоторые другие наборы данных (например, Netflix Prize BIBREF17) содержат больше взаимодействий, включая только рейтинг и дату.Насколько нам известно, было создано лишь несколько наборов данных для отзывов об отелях: 35 тыс. BIBREF9, 68 тыс. BIBREF18, 140 тыс. BIBREF19, 142 тыс. BIBREF20, 235 тыс. BIBREF9, 435 тыс. BIBREF13 и 870 тыс. BIBREF11.Однако количество пользователей, элементов и взаимодействий ограничено по сравнению с традиционными наборами данных рекомендаций.Напротив, набор данных HotelRec содержит как минимум на два порядка больше примеров.Статистика HotelRec доступна в таблице TABREF2. Ежедневно большое количество людей пишут отзывы об отелях на онлайн-платформах (например, Booking, TripAdvisor), чтобы поделиться своим мнением по различным аспектам, таким как общий опыт, обслуживание или расположение. .Среди наиболее популярных платформ мы выбрали TripAdvisor: согласно их третьему квартальному отчету за ноябрь 2019 года, опубликованному на веб-сайте Комиссии по ценным бумагам и биржам США, TripAdvisor является крупнейшим в мире онлайн-сайтом о путешествиях с отелями стоимостью около 1,4 миллиона долларов.Поэтому мы создали набор данных HotelRec на основе отзывов об отелях TripAdvisor.Статистика набора данных HotelRec, 5-ядерной и 20-ядерной версий показана в таблице TABREF2; каждый содержит не менее $k$ отзывов для каждого пользователя или товара.В этом разделе мы сначала обсуждаем процесс сбора данных (раздел SECREF8), а затем общую описательную статистику (раздел SECREF12).Наконец, в разделе SECREF18 анализируется общий рейтинг и подрейтинги.Сначала мы просканировали все области, перечисленные в SiteIndex сайта TripAdvisor.Каждая ссылка на область ведет на другую страницу, содержащую различную информацию, например список отелей или ресторанов; мы собрали все ссылки, соответствующие отелям.Затем наш робот открыл каждую ссылку на отель и отфильтровал отели без каких-либо отзывов.Всего в июле 2019 года из $2\502\140$ отелей было $365\056$ хотя бы с одним отзывом.Хотя пагинация отзывов для каждого отеля доступна через URL-адрес, автоматическое парсинг не рекомендуется: загрузка страницы занимает около одной секунды, некоторые всплывающие окна могут появляться случайным образом, а робот в конечном итоге будет заблокирован из-за его скорости.Мы обошли все эти методы, имитируя поведение человека с помощью программы Selenium, которую мы связали с Python.Однако каждое действие (т. е. отключение календаря, переход на следующую страницу отзывов) нужно было отделять временным интервалом в одну секунду.Более того, в каждом отеле использовалась система пагинации отзывов, в которой одновременно отображалось только пять отзывов, что значительно замедляло сканирование.Пример обзора показан на рисунке FigREF1.Для каждого отзыва мы собирали: URL-адрес профиля пользователя и отеля, дату, общий рейтинг, резюме (т. е. название отзыва), письменный текст и несколько подрейтингов, если они были предоставлены.Эти подрейтинги соответствуют детальной оценке определенного аспекта, например обслуживания, чистоты или местоположения.Полный список детальных аспектов доступен на рисунке FigREF1, а их корреляция — в разделе SECREF18. Мы наивно распараллеливали сканирование примерно на 100 ядрах в течение двух месяцев.После удаления повторяющихся отзывов, как в mcauley2013hidden, мы наконец собрали отзывы об отелях на сумму 50\264\531$.HotelRec включает в себя обзоры отелей на сумму $50\264\531$ от TripAdvisor за девятнадцатилетний период (с 1 февраля 2001 г. по 14 мая 2019 г.).Распределение обзоров по годам показано на рисунке FigREF13.С 2001 по 2010 год наблюдается значительный рост активности пользователей.По истечении этого периода количество обзоров в год растет медленно и колеблется от одного до десяти миллионов.Всего пользователей $21\,891\,294$.Распределение отзывов по пользователям показано на рисунке FigREF13.Как и в других наборах данных рекомендаций BIBREF3, BIBREF21, распределение напоминает степенное распределение: многие пользователи пишут один или несколько отзывов.В HotelRec $67,55\%$ пользователи написали только один отзыв, а $90,73\%$ — менее пяти отзывов.Кроме того, в подмножестве с 5 ядрами менее чем $15\%$ из $2\012\162$ пользователей имели коллегу, с которым они совместно оценили три или более отелей.Наконец, средний пользователь имеет отзывы на сумму 2,24 доллара США, а медиана составляет 1,00 доллара США. Что касается элементов, то есть отели стоимостью 365 056 долларов США, что примерно в 60 раз меньше количества пользователей.Это соотношение также согласуется с другими наборами данных BIBREF14, BIBREF15. На рисунке FigREF13 показано распределение отзывов по отелям.Распределение также имеет форму степенного распределения, но его центр ближе к $3 000$, чем 100 в пользовательском распределении.Однако для сравнения, только отели с ценой $0,26\%$ имеют менее пяти отзывов, поэтому среднее количество отзывов на отель и медиана выше: $137,69$ и $41,00$. Наконец, мы анализируем распределение слов на отзыв, чтобы понять, как много людей пишут об отелях.Распределение слов на обзор показано на рисунке FigREF13.Средняя длина отзыва составляет $125,57$ слов, что соответствует данным других исследований BIBREF14. При написании отзыва обязателен общий рейтинг: он представляет собой оценку всего пользовательского опыта в отношении отеля.Следовательно, он доступен для всех отзывов в HotelRec.Однако подрейтинги оценивают только один или несколько конкретных аспектов (до восьми), таких как Сервис, Чистота или Расположение.Кроме того, они не являются обязательными: пользователь может выбрать, сколько и какие аспекты оценивать.Среди всех обзоров $35\,836\,414$ ($71,30\%$) имеют один или несколько подрейтингов, максимум с восемью аспектами.Распределение количества оцененных детальных аспектов показано в таблице TABREF19, где «Все» представляет охват всего набора обзоров, а «С подрейтингами» — набора обзоров, имеющих подрейтинги (т. е. примерно 35 миллионов). .Интересно, что большинство субрейтингов оцениваются по группе из трех-шести аспектов.Мы предполагаем, что это явление возникло из-за ограничений TripAdvisor в пользовательском интерфейсе, где набор аспектов для оценки был заранее определен.В таблице TABREF20 мы анализируем распределение отзывов с детальными и общими оценками.Неудивительно, что общий рейтинг всегда доступен, поскольку он является обязательным.Что касается аспектов, существует группа из шести, которые преобладают (согласно наблюдениям в таблице TABREF19), и две, которые редко оцениваются: регистрация и бизнес-услуги.Удивительно, но эти два аспекта не имеют одинаковых средних оценок и процентилей, чем другие.Эту разницу мы объясняем небольшим количеством оценивающих их отзывов (около $2\%$).Более того, большинство оценок по аспектам положительны: 25-й процентиль равен 4, в среднем 4,23 доллара США и медиане 5. Наконец, на рисунке FigREF21 мы рассчитали корреляцию Пирсона оценок между всеми парами аспектов, включая мелкозернистые. и Общие.Интересно, что все пары аспектов имеют корреляцию между $0,46$ и $0,83$. Мы заметили, что обслуживание, стоимость и номера больше всего коррелируют с общим рейтингом.Неудивительно, что пары аспектов «Обслуживание-Регистрация» и «Чистота в номере» имеют корреляцию 0,80 доллара США, поскольку люди часто оценивают их вместе одинаково.Интересно, что местоположение — это аспект, который меньше всего коррелирует с остальными, за ним следуют бизнес-услуги и регистрация.В этом разделе мы сначала опишем два разных $k$-core подмножества набора данных HotelRec, которые мы использовали для оценки нескольких базовых показателей по двум задачам: прогнозирование рейтинга и эффективность рекомендаций.Затем мы подробно описываем модели, которые мы использовали, и обсуждаем их результаты.Мы использовали вышеупомянутый набор данных HotelRec, содержащий около 50 миллионов отзывов об отелях.Характеристики этого набора данных описаны в разделах SECREF12 и SECREF18.Следуя литературе BIBREF8, BIBREF22, мы сосредоточили нашу оценку на двух $k$-ядерных подмножествах HotelRec, имеющих не менее $k$ отзывов для каждого пользователя или элемента.В этой статье мы использовали наиболее распространенные значения $k$: 5 и 20.Мы случайным образом разделили каждый набор данных на подмножества стоимостью $80/10/10$ для обучения, проверки и тестирования.Для каждого отзыва мы сохранили соответствующий «userID», «itemID», рейтинг (от 1 до 5 звезд), письменный текст и дату.Мы предварительно обработали текст, опустив его и токенизировав.Статистика обоих подмножеств показана в таблице TABREF2. Мы оценивали различные модели в подмножествах HotelRec, 5-ядерную и 20-ядерную, по двум задачам: прогнозирование рейтинга и эффективность рекомендаций.Мы разделили оценку, поскольку большинство моделей предназначены только для одной из задач, а не для обеих.Поэтому для каждой задачи мы применяли разные модели и оценивали их отдельно.Для задачи прогнозирования рейтинга, следуя литературным данным, мы представили результаты в терминах среднеквадратической ошибки (MSE) и среднеквадратической ошибки (RMSE).Мы оценили эффективность рекомендаций ранжированного списка по коэффициенту попадания (HR) и нормализованному дисконтированному совокупному приросту (NDCG) BIBREF23, как в he2017neural.Мы сократили рейтинговый список до 5, 10 и 20.HR измеряет, находится ли новый элемент в топ-списке $k$, а NDCG измеряет позицию попадания, присваивая более высокие баллы попаданиям на верхних позициях.Как и в случае с he2017neural, мы рассчитали обе метрики для каждого тестируемого пользователя и сообщили средний балл.Что касается моделей, мы использовали следующие базовые показатели: Среднее: Простая модель, которая прогнозирует рейтинг на основе средних оценок желаемого элемента.Это хорошая основа для рекомендации BIBREF13;HFT BIBREF14: подход на основе скрытых факторов в сочетании с тематической моделью, целью которой является поиск тем в тексте обзора, которые коррелируют со скрытыми факторами пользователей и элементов;TransNet(-Ext): Модель основана на zheng2017joint, который изучает профиль пользователя и предмета на основе предыдущих обзоров с использованием сверточных нейронных сетей, а затем прогнозирует рейтинги с использованием методов матричной факторизации.Они добавили сеть регуляризатора для повышения производительности.TransNet-Ext — это расширение TransNet, использующее компонент совместной фильтрации в дополнение к истории отзывов пользователей и элементов.Для задачи производительности рекомендаций мы использовали следующие модели: RAND:Простая модель рекомендации случайных элементов; POP BIBREF24: еще один метод неперсонализированных рекомендаций, при котором элементы рекомендуются на основе их популярности (т. е. количества взаимодействий с пользователями).Это общий базовый уровень для оценки производительности рекомендаций;ItemKNN/UserKNN BIBREF25: два стандартных метода совместной фильтрации на основе элементов (соответственно на основе пользователей) с использованием $k$ ближайших соседей;PureSVD BIBREF26:Подход, основанный на сходстве, который создает матрицу сходства посредством SVD-разложения рейтинговой матрицы; GMF BIBREF8: обобщение метода матричной факторизации, которое применяет линейное ядро ​​для моделирования взаимодействий скрытых признаков; MLP BIBREF8: аналогично GMF, но моделирует взаимодействие скрытых функций с нейронной сетью вместо линейного ядра;NeuMF BIBREF8:Модель, сочетающая GMF и MLP для лучшего моделирования сложных взаимодействий пользователя и элемента.Из-за большого размера набора данных HotelRec, особенно в пятиядерном режиме (около 20 миллионов отзывов), выполнение обширной настройки гиперпараметров для каждой нейронной модели потребует большого бюджета времени и ресурсов.Поэтому для нейронной модели мы использовали параметры по умолчанию из исходной реализации и случайный поиск из трех испытаний.Для всех остальных моделей (например, HFT, ItemKNN, UserKNN, PureSVD) мы выполнили стандартный поиск по сетке наборов параметров.В таблице TABREF35 мы показываем производительность с точки зрения среднеквадратичной ошибки (MSE) и среднеквадратичной ошибки (RMSE).Удивительно, но мы наблюдаем, что нейронная сеть TransNet и ее расширение работают хуже по сравнению с моделью матричной факторизации HFT и простыми базовыми линиями среднего значения.Хотя TransNet изучает профиль пользователя и элемента на основе самых последних обзоров, он не может эффективно фиксировать взаимодействие на основе этих профилей.Более того, дополнительный компонент совместной фильтрации в TransNet-Ext, похоже, ухудшает производительность, что согласуется с результатами рекомендации musat2013; В сфере отелей число пользователей, оценивших одни и те же отели, меньше, чем в обычных наборах данных рекомендаций.Интересно, что модель Mean обеспечивает лучшую производительность на 20-ядерном подмножестве, а HFT — на 5-ядерном.Мы предполагаем, что модели HFT и TransNet(-Ext) работают лучше на 5-ядерном, чем на 20-ядерном подмножестве из-за количества данных.В частности, HFT использует скрытое распределение Дирихле BIBREF27 для аппроксимации распределения тем и слов.Таким образом, вероятности более точны, если корпус текста примерно в десять раз больше.Результаты базовых показателей доступны в таблице TABREF36.HR@$k$ и NDCG@$k$ соответствуют коэффициенту попадания (HR) и нормализованному дисконтированному совокупному выигрышу (NDCG), оцененному по вычисленным рейтинговым элементам $k$ для конкретного тестового пользователя, а затем усредненному по всем тестовые пользователи.Во-первых, мы видим, что NeuMF значительно превосходит все остальные базовые показатели в обоих подмножествах $k$-ядра.Другие методы GMF и MLP, используемые в NeuMF, также показывают довольно высокие и сопоставимые результаты.Однако NeuFM достигает более высоких результатов за счет объединения GMF и MNLP в одной модели.Во-вторых, если мы сравним ItemKNN и UserKNN, мы увидим, что в обоих подмножествах подход совместной фильтрации пользователей уступает его варианту на основе элементов, который соответствует основам в задаче прогнозирования рейтинга из предыдущего раздела и работе рекомендации musat2013, musat2015персонализация.Кроме того, PureSVD достигает сопоставимых результатов с UserKNN. Наконец, два неперсонализированных базовых показателя RAND и POP дают неудивительно низкие результаты, что указывает на необходимость моделирования предпочтений пользователя для персонализированных рекомендаций.В этой работе мы представляем HotelRec, новый крупномасштабный набор данных отзывов об отелях, основанный на TripAdvisor и содержащий около 50 миллионов отзывов.Каждый отзыв включает профиль пользователя, URL-адрес отеля, общий рейтинг, резюме, написанный пользователем текст, дату и несколько подрейтингов аспектов, если они предоставлены.Насколько нам известно, HotelRec является крупнейшим общедоступным набором данных в сфере гостиничного бизнеса (50 миллионов долларов США против 0,9 миллиона долларов США) и, кроме того, крупнейшим набором данных рекомендаций в одном домене и с текстовыми отзывами (50 миллионов долларов США против 22 миллионов долларов США). ).Мы дополнительно анализируем набор данных HotelRec и предоставляем результаты тестов для двух задач: прогнозирование рейтинга и эффективность рекомендаций.Мы применяем несколько общих базовых показателей, от неперсонализированных методов до конкурентных моделей, и показываем, что можно получить разумную производительность, но все еще далеко от результатов, достигнутых в других областях, описанных в литературе.В будущей работе мы могли бы легко расширить набор данных за счет других языков и использовать его для многоязычных рекомендаций.Мы публикуем HotelRec для дальнейшего исследования: https://github.com/Diego999/HotelRec.
Сегодня рекомендательные системы являются неизбежной частью повседневной цифровой жизни каждого человека и присутствуют на большинстве интернет-платформ. Современные модели на основе глубокого обучения требуют большого количества данных для достижения максимальной производительности. Многие наборы данных, соответствующие этому критерию, были предложены для нескольких областей, таких как продукты Amazon, рестораны или пиво. Однако объем работ и наборы данных в сфере отелей ограничены: самый большой набор данных по обзорам отелей составляет менее миллиона образцов. Кроме того, сфера гостиничного бизнеса страдает от более высокой разреженности данных, чем традиционные наборы данных рекомендаций, и поэтому традиционные подходы совместной фильтрации не могут быть применены к таким данным. В этой статье мы предлагаем HotelRec, очень масштабный набор данных о рекомендациях отелей, основанный на TripAdvisor и содержащий 50 миллионов отзывов. Насколько нам известно, HotelRec является крупнейшим общедоступным набором данных в сфере отелей (50 млн против 0,9 млн) и, кроме того, крупнейшим набором данных рекомендаций в одном домене и с текстовыми отзывами (50 млн против 22 млн). Мы публикуем HotelRec для дальнейшего исследования: этот URL-адрес https.
3,094
QasperSumInstruct
ru
Напиши аннотацию по статье
Nematus: набор инструментов для нейронного машинного перевода. Нейронный машинный перевод (NMT) BIBREF0, BIBREF1 недавно зарекомендовал себя как новый современный уровень машинного перевода.Мы представляем Nematus, новый набор инструментов для нейронного машинного перевода.Nematus берет свое начало в учебнике dl4mt.Мы обнаружили, что кодовая база руководства компактна, проста и легко расширяется, а также обеспечивает высокое качество перевода.Эти характеристики делают его хорошей отправной точкой для исследований в области НМТ.Nematus был расширен за счет включения новых функций, основанных на недавних исследованиях, и использовался для создания высокопроизводительных систем для решения прошлогодних задач совместного перевода в WMT BIBREF2 и IWSLT BIBREF3. Nematus реализован на Python и основан на платформе Theano BIBREF4.Он реализует архитектуру кодера-декодера внимания, аналогичную DBLP:journals/corr/BahdanauCB14.Наша архитектура нейронной сети в некоторых аспектах отличается от их архитектуры, и мы обсудим различия более подробно.Также мы опишем дополнительный функционал, направленный на повышение удобства использования и производительности, реализованный в Nematus.Nematus реализует архитектуру кодировщика-декодера внимания, аналогичную описанной в DBLP:journals/corr/BahdanauCB14, но с некоторыми отличиями в реализации.Основные различия заключаются в следующем: Здесь мы опишем некоторые различия более подробно: Учитывая исходную последовательность INLINEFORM0 длины INLINEFORM1 и целевую последовательность INLINEFORM2 длины INLINEFORM3, пусть INLINEFORM4 будет аннотацией исходного символа в позиции INLINEFORM5, полученной путем объединения скрытые состояния RNN прямого и обратного кодировщика, INLINEFORM6 и INLINEFORM7 — это скрытое состояние декодера в позиции INLINEFORM8. По умолчанию целью обучения в Nematus является минимизация перекрестной энтропии в параллельном обучающем корпусе.Обучение осуществляется посредством стохастического градиентного спуска или одного из его вариантов с адаптивной скоростью обучения (Adadelta BIBREF14, RmsProp BIBREF15, Adam BIBREF16). Кроме того, Nematus поддерживает обучение с минимальным риском (MRT) BIBREF17 для оптимизации в сторону произвольной функции потери на уровне предложения. .Различные метрики MT поддерживаются как функция потерь, включая сглаженные на уровне предложения Bleu BIBREF18 , METEOR BIBREF19 , BEER BIBREF20 и любую интерполяцию реализованных метрик.Для стабилизации обучения Nematus поддерживает раннюю остановку на основе перекрестной энтропии или произвольной функции потерь, определяемой пользователем.В дополнение к основным алгоритмам обучения и декодирования с помощью модели NMT, Nematus включает в себя функции, облегчающие экспериментирование с моделями и их визуализацию.Различные параметры модели настраиваются через интерфейс командной строки, и мы предоставляем обширную документацию по параметрам и примеры настроек для систем обучения.Nematus обеспечивает поддержку применения отдельных моделей, а также использования нескольких моделей в ансамбле — последнее возможно, даже если архитектуры моделей различаются, при условии, что выходной словарь один и тот же.На каждом временном шаге распределение вероятностей ансамбля представляет собой среднее геометрическое распределений вероятностей отдельных моделей.В набор инструментов входят сценарии для декодирования поиска лучей, параллельного корпусного подсчета и повторного подсчета n-лучших списков.Nematus включает в себя утилиты для визуализации весов внимания для данной пары предложений и для визуализации графа поиска луча.Пример последнего показан на рисунке FigREF16.В нашей демонстрации будет показано, как обучать модель с использованием интерфейса командной строки, а также показаны различные функциональные возможности Nematus, включая декодирование и визуализацию, с помощью предварительно обученных моделей.Мы представили Nematus, набор инструментов для нейронного машинного перевода.Мы описали различия в реализации архитектуры DBLP:journals/corr/BahdanauCB14; из-за эмпирически сильных результатов Nematus мы считаем, что они представляют более широкий интерес.Мы надеемся, что исследователи найдут Nematus доступным и хорошо документированным набором инструментов для поддержки своих исследований.Набор инструментов ни в коем случае не ограничивается исследованиями и использовался для обучения систем MT, которые в настоящее время находятся в производстве BIBREF21.Nematus.доступен под разрешительной лицензией BSD.Этот проект получил финансирование в рамках программы исследований и инноваций Европейского Союза Horizon 2020 в рамках грантовых соглашений 645452 (QT21), 644333 (TraMOOC), 644402 (HimL) и 688139 (SUMMA).
Мы представляем Nematus, набор инструментов для нейронного машинного перевода. В наборе инструментов приоритет отдается высокой точности перевода, удобству использования и расширяемости. Nematus использовался для создания высокопроизводительных заявок на общие задачи перевода в WMT и IWSLT, а также для обучения систем работе в производственных средах.
656
QasperSumInstruct
ru
Напиши аннотацию по статье
Имеет ли значение взаимодействие предложений? Использование представлений на уровне предложений для классификации фейковых новостей. В наши дни, в эпоху социальных сетей, существуют широкие возможности для производства, распространения и потребления фейковых новостей.BIBREF0 делит фейковые новости на три категории: мистификация, пропаганда и сатира.Статья-мистификация обычно пытается убедить читателя в сфабрикованной истории, тогда как пропагандистские статьи обычно вводят читателя в заблуждение, заставляя поверить в ложную политическую или социальную программу.BIBREF1 определяет сатирическую статью как статью, которая намеренно выставляет на посмешище реальных людей, организации и события.Предыдущие работы BIBREF2, BIBREF0 основывались на различных лингвистических и созданных вручную семантических функциях для различения новостных статей.Однако ни один из них не пытается моделировать взаимодействие предложений внутри документа.Мы заметили закономерность в том, как предложения группируются в различных типах новостных статей.В частности, сатирические статьи имели более связный сюжет, поэтому все предложения в документе казались похожими друг на друга.С другой стороны, новостные статьи, которым доверяют, также были связными, но сходство между предложениями из разных частей документа было не таким сильным, как показано на рисунке FigREF1.Мы считаем, что причиной такого поведения является наличие фактических переходов между разделами в доверенном документе.В этой работе мы предлагаем графическую модель нейронной сети для классификации новостных статей, одновременно фиксируя взаимодействие предложений в документе.Мы представляем серию экспериментов с корпусом новостей с набором данных различной надежности BIBREF0 и набором данных сатирических легитимных новостей BIBREF2.Наши результаты показывают, что предлагаемая модель обеспечивает высочайшую производительность на этих наборах данных и дает интересную информацию.Эксперименты, проведенные во внедоменных условиях, доказывают обобщаемость предложенного нами метода.Сатира, по мнению BIBREF5, сложна, поскольку занимает более одного места в структуре юмора, предложенной BIBREF6: она явно имеет агрессивную и социальную функцию, а также часто выражает и интеллектуальный аспект.BIBREF2 определяет новостную сатиру как жанр сатиры, имитирующий формат и стиль журналистских репортажей.Наборы данных, созданные для выявления сатирических новостных статей среди надежных, часто создаются путем сбора документов из различных онлайн-источников BIBREF2.BIBREF7 предположил, что это побуждает модели изучать характеристики различных источников публикаций, а не характеристики сатиры.В этой работе мы показываем, что предложенная нами модель распространяется на статьи из неизвестных источников публикаций.BIBREF0 расширяет возможности BIBREF2, предлагая количественное исследование языковых различий, обнаруженных в статьях различных типов фейковых новостей, таких как мистификация, пропаганда и сатира.Они также предложили модели прогнозирования для дифференцированного обмана в нескольких областях.BIBREF0 обнаружил, что нейронные методы не очень хорошо справляются с этой задачей, и предложил использовать классификатор Max-Entropy.Мы показываем, что предлагаемая нами нейронная сеть на основе сверточных слоев графа может превзойти эту модель.Недавние работы BIBREF8, BIBREF9 показывают, что сложные нейронные модели можно использовать для обнаружения сатирических новостей.Насколько нам известно, ни одна из предыдущих работ не представляет отдельные документы в виде графов, узлы которых представляют собой предложения для выполнения классификации с использованием нейронной сети графа.Мы используем SLN: базу данных сатирических и легитимных новостей BIBREF2, RPN:Набор данных случайных политических новостей BIBREF10 и LUN: помечен как ненадежный набор данных новостей BIBREF0 для наших экспериментов.В таблице TABREF4 представлена ​​статистика.Поскольку все предыдущие методы для вышеупомянутых наборов данных не являются нейронными, мы реализуем следующие нейронные базовые линии, CNN: в этой модели мы применяем одномерный слой CNN (сверточная нейронная сеть) BIBREF11 с размером фильтра 3 к вложениям слов. предложений в документе.За этим следует слой максимального пула для получения одного вектора документа, который передается на полностью подключенный слой проекции для получения логитов по выходным классам.LSTM:В этой модели мы кодируем документ, используя уровень LSTM (Long Short-Term Memory) BIBREF12.Мы используем скрытое состояние на последнем временном шаге в качестве вектора документа, который передается на полностью подключенный слой проекции для получения логитов по выходным классам. BERT:В этой модели мы извлекаем вектор предложения (представление, соответствующее токену [CLS]) с помощью BERT (представления двунаправленного кодировщика из преобразователей) BIBREF4 для каждого предложения в документе.Затем мы применяем слой LSTM к встраиваниям предложений, а затем слой проекции, чтобы сделать прогноз для каждого документа.Захват взаимодействия предложений в длинных документах невозможен с использованием рекуррентной сети из-за проблемы исчезновения градиента BIBREF13.Таким образом, мы предлагаем новый способ кодирования документов, описанный в следующем подразделе.На рисунке FigREF5 показана общая структура нашей нейронной сети на основе графов.Каждый документ в корпусе представлен в виде графика.Узлы графа представляют предложения документа, а ребра представляют семантическое сходство между парой предложений.Представление документа в виде полностью связного графа позволяет модели напрямую фиксировать взаимодействие каждого предложения с каждым другим предложением в документе.Формально мы инициализируем оценки краев, используя BERT BIBREF4, настроенный на задачу семантического текстового сходства для вычисления семантического сходства (SS) между двумя предложениями.Более подробную информацию о модели SS см. в дополнительных материалах.Обратите внимание, что это представление удаляет информацию о порядке предложений, но позволяет лучше отразить взаимодействие между удаленными предложениями в документе.Мы переформулируем задачу классификации фейковых новостей как задачу классификации графов, где граф представляет документ.Дан граф $G= (E,S)$, где $E$ — матрица смежности, а $S$ — матрица признаков предложения.Мы случайным образом инициализируем встраивания слов и используем последнее скрытое состояние слоя LSTM в качестве встраивания предложений, как показано на рисунке FigREF5.Мы экспериментируем с двумя типами графовых нейронных сетей. Графовая сверточная сеть BIBREF14 представляет собой спектральную сверточную операцию, обозначаемую $f(Z^l, E|W^l)$. Здесь $Z^l$ — выходной признак, соответствующий узлы после $l^{th}$ свертки.$W^l$ — параметр, связанный со слоем $l^{th}$.Мы устанавливаем $Z^0 = S$. На основе описанной выше операции мы можем определить сети произвольной глубины.Для наших экспериментов мы используем только один слой, если не указано иное.По умолчанию матрица смежности ($E$) полностью связна, т.е. все элементы равны 1, за исключением диагональных элементов, которым присвоено значение 0.Мы устанавливаем $E$ на основе модели семантического сходства в нашей модели GCN + SS.Для модели GCN + Attn мы просто добавляем слой самообслуживания BIBREF15 после слоя GCN и перед слоем пула.BIBREF16.представил сети внимания графов для устранения различных недостатков GCN.Самое главное, они позволяют узлам следить за функциями своих окрестностей, не полагаясь заранее на структуру графа.Основная идея состоит в том, чтобы вычислить скрытые представления каждого узла в графе, обращая внимание на его соседей, следуя стратегии самообслуживания BIBREF15.По умолчанию в модели GAT имеется одна голова внимания.Для нашей модели GAT + 2 Attn Heads мы используем две головы внимания и объединяем вложения узлов, полученные из разных голов, прежде чем передать их на уровень пула.Для полностью связного графа модель GAT позволяет каждому узлу посещать каждый другой узел и изучать веса ребер.Таким образом, инициализация весов ребер с использованием модели SS бесполезна, поскольку они изучаются.Математические подробности представлены в дополнительных материалах.Мы используем случайно инициализированную матрицу внедрения со 100 измерениями.Мы используем однослойный LSTM для кодирования предложений перед нейронными сетями графа.Все скрытые измерения, используемые в наших сетях, установлены на 100.Размерность внедрения узла равна 32.Для GCN и GAT мы устанавливаем $\sigma$ как LeakyRelU с наклоном 0,2.Мы обучаем модели максимум 10 эпох и используем оптимизатор Адама со скоростью обучения 0,001.Для всех моделей мы используем max-pool для объединения, за которым следует полностью связанный проекционный слой с выходными узлами, равными количеству классов для классификации.Мы проводим эксперименты с различными настройками и наборами данных.Мы сообщаем о макросредних оценках во всех настройках. Двухсторонняя классификация ч/б сатиры и проверенных статей: мы используем сатирические и проверенные новостные статьи из LUN-train для обучения и из LUN-test в качестве набора для разработки.Мы оцениваем нашу модель на всем наборе данных SLN.Это сделано для имитации реального сценария, в котором мы хотим увидеть производительность нашего классификатора в наборе данных за пределами предметной области.Мы не используем SLN для обучения, потому что он содержит только 360 примеров, чего слишком мало для обучения нашей модели, и мы хотим иметь невидимый набор тестов.Самая эффективная модель на SLN используется для оценки производительности RPN.4-сторонняя классификация ч/б сатиры, пропаганды, мистификаций и проверенных статей: Мы разделили поезд LUN на части 80:20, чтобы создать набор для обучения и развития. .Мы используем LUN-тест в качестве набора тестов вне домена.В таблице TABREF20 показаны количественные результаты двухсторонней классификации сатирических и заслуживающих доверия новостных статей.Предлагаемый нами метод GAT с двумя головами внимания превосходит SoTA.Модель семантического сходства, похоже, не оказывает большого влияния на модель GCN, и, учитывая вычислительные затраты, мы не экспериментируем с ней для сценария четырехсторонней классификации.Учитывая, что мы используем SLN как набор тестов, выходящих за пределы предметной области (только один перекрывающийся источник, отсутствие дублирования в статьях), тогда как в документе SoTA BIBREF2 сообщается о 10-кратном количестве перекрестной проверки на SLN.Мы считаем, что наши результаты достаточно надежны: модель GAT + 2 Attn Heads достигает точности 87% для всего набора данных RPN при использовании в качестве набора тестов вне домена.В документе SoTA BIBREF10 о RPN сообщается о 5-кратной точности перекрестной проверки 91%.Эти результаты указывают на возможность обобщения предложенной нами модели на наборы данных.Мы также представляем результаты четырехфакторной классификации в таблице TABREF21.Все предложенные нами методы превосходят SoTA как на внутридоменном, так и на внешнем тестовом наборе.Чтобы лучше понять работу предложенной нами модели, мы внимательно изучаем карты внимания, созданные моделью GAT для сатирических и заслуживающих доверия новостных статей для набора данных SLN.На рисунке FigREF16 мы видим, что карта внимания, созданная для заслуживающей доверия новостной статьи, фокусируется только на двух конкретных предложениях, тогда как в случае сатирической статьи веса внимания распределяются гораздо более равномерно.Интересно, что выделенные предложения в случае статьи о доверенных новостях были начальным предложением двух разных абзацев статьи, указывая на наличие схожих групп предложений в документе.Это открывает новые возможности для понимания различий между различными типами текстовых статей для будущих исследований.В этой статье представлен новый способ кодирования статей для классификации фейковых новостей.Интуиция представления документов в виде графа мотивирована тем фактом, что предложения по-разному взаимодействуют друг с другом в разных типах статей.Рекуррентные сети не способны поддерживать долгосрочные зависимости в больших документах, тогда как полностью связный граф фиксирует взаимодействие между предложениями на единичном расстоянии.Количественный результат показывает эффективность предложенной нами модели, а качественные результаты подтверждают нашу гипотезу о различиях во взаимодействии предложений в разных статьях.Кроме того, мы показываем, что предлагаемая нами модель обобщается на невидимые наборы данных.Мы хотели бы поблагодарить программу AWS Educate за пожертвование вычислительных ресурсов графического процессора, используемых в этой работе.Мы также признательны анонимным рецензентам за их содержательные комментарии и предложения по улучшению статьи.Дополнительные материалы доступны вместе с кодом, который предоставляет математические детали модели GAT и несколько дополнительных качественных результатов.
Растущий рост фейковых новостей и вводящей в заблуждение информации через интернет-СМИ требует автоматического метода обнаружения таких новостных статей. Из немногих ограниченных работ, в которых проводится различие между достоверными и другими типами новостных статей (сатира, пропаганда, мистификация), ни одна из них не моделирует взаимодействие предложений в документе. Мы наблюдаем интересную закономерность в том, как предложения взаимодействуют друг с другом в различных типах новостных статей. Чтобы собрать такого рода информацию для длинных новостных статей, мы предлагаем графовую модель нейронной сети, которая устраняет необходимость разработки функций для детальной классификации фейковых новостей. С помощью экспериментов мы показываем, что предлагаемый нами метод превосходит сильные нейронные базовые модели и обеспечивает высочайшую точность на существующих наборах данных. Более того, мы устанавливаем обобщаемость нашей модели, оценивая ее производительность во внедоменных сценариях. Код доступен по этому URL-адресу https.
1,906
QasperSumInstruct
ru
Напиши аннотацию по статье
Семантическое обогащение нигерийского пиджин-английского языка для классификации контекстуальных настроений. Язык развивается вместе с выравниванием мирового порядка и распространением социальных сетей, объединяющих культуру и налаживающих отношения одним щелчком мыши.Одним из последствий разговорной эволюции является внутрипредлагательное переключение кода, языковое чередование в одном дискурсе между двумя языками, при котором переключение происходит внутри предложения BIBREF0.Их увеличение часто приводит к изменениям в лексическом и грамматическом контексте языка, которые в значительной степени мотивированы ситуативными и стилистическими факторами BIBREF1.Кроме того, необходимость эффективного общения с различными социальными классами еще больше способствовала этому сдвигу в значении языка в течение длительного периода времени для выполнения социолингвистических функций. BIBREF2. По оценкам, в Нигерии проживает от трех до пяти миллионов человек, которые в основном используют пиджин в их повседневное взаимодействие.Но, как говорят, он является вторым языком для гораздо большего числа людей — до 75 миллионов человек в одной только Нигерии, то есть около половины населения.BIBREF3.Его значение изменилось по сравнению со стандартным английским языком из-за интертекстуальности, формирования значения текста другим текстом на основе взаимосвязи и влияния интерпретации текста аудиторией.Одним из крупнейших социальных катализаторов является зарождающаяся городская молодежная субкультура и новый растущий полуграмотный низший класс в хаотической мешанине сближающихся мегаполисов. это специально адаптировано к настроениям, выраженным в социальных сетях, и хорошо работает с текстами из других областей.Лексикон VADER содержит около 9000 токенов (построенных на основе существующих хорошо зарекомендовавших себя банков слов с тонами (LIWC, ANEW и GI), включенных в полный список смайлов западного стиля, связанных с тонами аббревиатур и инициализмов (например, LOL и WTF), обычно использовали сленг со значением настроения (например, нет, ну и хихикает)) со своим средним рейтингом настроения.BIBREF6.Анализ тональности в смешанных кодах текстах был установлен в литературе как на уровне слов, так и на уровне подслов. BIBREF7 BIBREF8 BIBREF9.Возможность улучшения определения тональности посредством переноса меток с одноязычного на синтетический текст с кодовым переключением была хорошо реализована со значительным улучшением точности маркировки тональности (1,5%, 5,11%, 7,20%) для трех разных языковых пар BIBREF5. В этом исследовании используется исходный и обновленный текст. VADER (Valence Aware Dictionary and Sentiment Reasoner) для расчета сложных оценок настроений примерно для 14 000 твитов на нигерийском пиджине.Обновленный лексикон VADER (обновленный 300 токенами Pidgin и их оценками настроений) работал лучше, чем исходный лексикон VADER.Отмеченные настроения из обновленного VADER затем сравнивались с метками настроений, сделанными экспертами, говорящими на пиджин-английском языке.Во время перевода лексикона английского языка VADER на подходящий перевод нигерийского пиджина, состоящего из одного слова, в общей сложности 300 токенов нигерийского пиджина были успешно переведены из стандартного лексикона английского языка VADER.Одна из проблем этого перевода заключается в том, что прямой перевод большинства тонких слов в оригинальном английском словаре VADER переводится во фразы, а не в отдельные однословные лексемы, а некоторые слова на языке пиджин переводятся во многие английские слова.TABREF5. Качество меток настроений, созданных с помощью нашего обновленного лексикона VADER, лучше по сравнению с метками, созданными с помощью исходного английского лексикона VADER.TABREF4. Метки настроений, созданные аннотаторами-людьми, смогли уловить нюансы, которые не могли быть уловлены маркировкой настроений на основе правил.Можно проделать дополнительную работу, чтобы увеличить количество экземпляров в наборе данных.Три человека, которые являются коренными народами или жили на юге Нигерии, где нигерийский пиджин является распространенным методом общения, были проинформированы об основах словесных настроений.Каждая помеченная точка данных была проверена как минимум еще одним человеком после первоначальной маркировки.Мы выражаем признательность Кессиене Рите Дэвид, Патрику Эхизохале Осегейлу и Питеру Чимаоби Онуохе за использование нигерийского пиджина для перевода и маркировки наборов данных.
Адаптация нигерийского английского языка, пиджин, развивалась на протяжении многих лет посредством переключения многоязычного кода, смешения кодов и лингвистической адаптации. Хотя пиджин сохраняет многие слова из обычного корпуса английского языка, как в написании, так и в произношении, фундаментальное значение этих слов значительно изменилось. Например, «имбирь» — это не растение, а выражение мотивации, а «резервуар» — не контейнер, а выражение благодарности. Подразумевается, что нынешний подход с использованием прямого анализа настроений на английском языке в текстах социальных сетей из Нигерии неоптимален, поскольку он не сможет уловить семантические вариации и контекстную эволюцию в современном значении этих слов. На практике, хотя многие слова в адаптации нигерийского пиджина такие же, как и в стандартном английском языке, модели полного анализа настроений на основе английского языка не предназначены для полного отражения смысла нигерийского пиджина при его использовании отдельно или в сочетании с кодами. Дополняя дефицитный текст с измененным кодом, помеченный человеком, обширным синтетическим текстом и смыслом с переформатированным кодом, мы достигаем значительных улучшений в оценке настроений. Наше исследование изучает, как понимать настроения в контексте внутрипредложенного смешивания и переключения кода, где произошла значительная локализация слов. В этой работе представлены 300 совместимых с лексиконом VADER токенов настроений нигерийского пиджина и их оценки, а также 14 000 твитов золотого стандарта нигерийского пиджина и их меток настроений. .
642
QasperSumInstruct
ru
Напиши аннотацию по статье
Выявление нюансов в фейковых новостях и сатире: использование семантических и лингвистических подсказок. Усилия платформ социальных сетей по снижению подверженности пользователей дезинформации в ряде случаев приводили к отмене законных сатирических историй.Чтобы избежать наказания издателей сатиры, которая является защищенной формой высказываний, платформы начали добавлять больше нюансов в свои системы пометки.Facebook, например, добавил возможность помечать элементы контента как «Сатира», если «контент размещен на странице или домене, который является известным сатирическим изданием, или разумный человек счел бы контент иронией или юмором с социальное послание» BIBREF0.Это понятие юмора и социального послания также отражено в определении сатиры в Оксфордском словаре как «использование юмора, иронии, преувеличений или насмешек для разоблачения и критики человеческой глупости или пороков, особенно в контексте современной политики и других актуальных событий». проблемы".Различие между фейковыми новостями и сатирой имеет значение для раскрытия контента на платформах социальных сетей.Хотя фейковые новости алгоритмически подавляются в новостной ленте, ярлык сатиры не снижает охват таких публикаций.Это также влияет на опыт пользователей и издателей.Неправильная классификация сатиры как фейковых новостей может лишить пользователей желаемого развлекательного контента, а идентификация фейковых новостей как законной сатиры может подвергнуть их дезинформации.Для издателей распространение истории влияет на их способность монетизировать контент.Более того, в ответ на эти усилия по распространению дезинформации поставщики фейковых новостей начали маскироваться под законные сатирические сайты, например, размещая небольшие значки в нижнем колонтитуле каждой страницы, обозначающие контент как сатиру BIBREF1.Заявления об отказе от ответственности обычно небольшие, поэтому истории по-прежнему распространяются так, как если бы они были настоящими новостями BIBREF2. Это порождает проблему классификации фейковых новостей и сатиры на основе содержания истории.В то время как предыдущая работа BIBREF1 показала, что сатиру и фейковые новости можно отличить с помощью словесной классификации, наша работа сосредоточена на семантических и лингвистических свойствах контента.Вдохновленная отличительными аспектами сатиры в отношении юмора и социального послания, наша гипотеза состоит в том, что использование семантических и лингвистических подсказок может помочь уловить эти нюансы.Поэтому наши основные исследовательские вопросы таковы: RQ1) существуют ли семантические и лингвистические различия между фейковыми новостями и сатирическими историями, которые могут помочь отличить их друг от друга?; и RQ2) могут ли эти семантические и лингвистические различия способствовать пониманию нюансов между фейковыми новостями и сатирой, помимо различий в используемом языке? Остальная часть статьи организована следующим образом: в разделе SECREF2 мы кратко рассматриваем исследования фейковых новостей и сатиры. статьи, которые наиболее актуальны для нашей работы.В разделе SECREF3 мы представляем методы, которые мы используем для исследования семантических и лингвистических различий между фейковыми и сатирическими статьями.Далее мы оценим эти методы и поделимся нюансами между фейковыми новостями и сатирой в разделе SECREF4.Наконец, мы завершаем статью в разделе SECREF5 и намечаем следующие шаги и будущую работу.Предыдущая работа решала проблему выявления фейковых новостей BIBREF3, BIBREF4 или выявления сатиры BIBREF5, BIBREF6, BIBREF7 изолированно по сравнению с реальными новостями.Наиболее релевантной для нас является работа Golbeck et al. БИБРЕФ1.Они представили набор фейковых новостей и сатирических статей, которые мы также используем в этой работе.Набор данных включает в себя полные тексты 283 фейковых новостей и 203 сатирических историй, которые были проверены вручную, причем каждая статья фейковых новостей сопровождается опровергающей статьей из надежного источника.Хотя эти данные относительно малы, они обладают двумя полезными свойствами.Во-первых, маркировка основана на содержании, а не на источнике, и истории распространяются по разнообразному набору источников.Во-вторых, как фейковые новости, так и сатирические статьи посвящены американской политике и были опубликованы в период с января 2016 года по октябрь 2017 года, что сводит к минимуму вероятность того, что тема статьи повлияет на классификацию.В своей работе Голбек и др. изучили, существуют ли различия в языке фейковых новостей и сатирических статей на одну и ту же тему, которые можно было бы использовать с помощью подхода классификации на основе слов.В их статье предлагается модель, использующая многочленный алгоритм Наивного Байеса, которая служит основой в наших экспериментах.В следующих подразделах мы исследуем семантические и лингвистические различия сатирических и фейковых новостных статей.Для изучения семантических нюансов между фейковыми новостями и сатирой мы используем BERT BIBREF8, который расшифровывается как двунаправленные представления кодировщика от трансформеров и представляет собой современную контекстную языковую модель.BERT — это метод предварительного обучения языковых представлений, что означает, что он предварительно обучается на большом текстовом корпусе, а затем используется для последующих задач НЛП.Word2Vec BIBREF9 показал, что мы можем использовать векторы для правильного представления слов таким образом, чтобы фиксировать семантические или смысловые отношения.В то время как Word2Vec — это контекстно-свободная модель, которая генерирует одно вложение слова для каждого слова в словаре, BERT генерирует представление каждого слова, основанное на других словах в предложении.Он был основан на недавних работах по контекстным представлениям перед обучением, таких как ELMo BIBREF10 и ULMFit BIBREF11, и является глубоко двунаправленным, представляя каждое слово, используя как левый, так и правый контекст.Мы используем предварительно обученные модели BERT и настраиваем их на наборе данных фейковых новостей и сатирических статей с помощью оптимизатора Adam с 3 типами затухания и скоростью затухания 0,01.Наш двоичный классификатор на основе BERT создается путем добавления одного нового уровня в архитектуру нейронной сети BERT, который будет обучен точной настройке BERT для нашей задачи по классификации фейковых новостей и сатирических статей.Вдохновленный предыдущими работами по обнаружению сатиры, в частности Рубином и др. BIBREF7, который изучал юмористические и абсурдные аспекты сатиры, сравнивая последнее предложение рассказа с первым и с остальной частью рассказа, мы предполагаем, что метрики связности текста будут полезны для выявления сходных аспектов семантической связи между различными предложения рассказа.Следовательно, мы используем набор показателей связности текста, реализованный Coh-Metrix BIBREF12.Coh-Metrix — это инструмент для создания лингвистических и дискурсивных представлений текста.В результате применения Coh-Metrix к входным документам мы имеем 108 показателей, связанных со статистикой текста, таких как количество слов и предложений; референциальная связность, которая означает перекрытие слов по содержанию между предложениями; различные формулы читаемости текста; различные типы соединительных слов и многое другое.Чтобы учесть мультиколлинеарность между различными функциями, мы сначала проводим анализ главных компонентов (PCA) на наборе индексов Coh-Metrix.Обратите внимание, что мы не применяем уменьшение размерности, так что признаки по-прежнему соответствуют индексам Кох-Метрикс и, следовательно, объяснимы.Затем мы используем баллы PCA в качестве независимых переменных в модели логистической регрессии с метками «фейк» и «сатира» в качестве нашей зависимой переменной.Значимые особенности модели логистической регрессии показаны в таблице TABREF3 с соответствующими уровнями значимости.Мы также запускаем пошаговую регрессию обратного исключения.Те компоненты, которые также важны для пошаговой модели, выделены жирным шрифтом.В следующих подразделах мы оцениваем нашу классификационную модель и делимся мыслями о нюансах между фейковыми новостями и сатирой, а также отвечаем на два наших исследовательских вопроса.Мы оцениваем производительность нашего метода на основе набора данных фейковых новостей и сатирических статей и использования оценки F1 с десятикратной перекрестной проверкой, как в базовой работе BIBREF1. Сначала мы рассматриваем семантическое представление с помощью BERT.Наши эксперименты включали несколько предварительно обученных моделей BERT с разными размерами и чувствительностью к регистру, среди которых большая бескорпусная модель bert_uncased_L-24_H-1024_A-16 дала лучшие результаты.Мы используем рекомендуемые настройки гиперпараметров в репозитории BERT на Github и используем фейковые новости и сатирические данные для точной настройки модели.Кроме того, мы протестировали отдельные модели, основанные на заголовке и основном тексте статьи, а также на их комбинации.Результаты показаны в таблице TABREF6.Модели, основанные на заголовке и основной части текста, дают одинаковую оценку F1.Однако, хотя модель заголовка плохо обеспечивает точность, возможно, из-за короткого текста, модель, основанная на тексте, плохо справляется с запоминанием.Модель, основанная на полном тексте заголовка и тела, дает наилучшую производительность.Чтобы исследовать предсказательную силу лингвистических сигналов, мы используем те индексы Кох-Метрикс, которые были значимыми как в логистической, так и в модели пошаговой обратной регрессии исключения, и обучаем классификатор на фейковых новостях и сатирических статьях.Мы протестировали несколько моделей классификации, включая наивный Байес, машину опорных векторов (SVM), логистическую регрессию и повышение градиента, среди которых классификатор SVM дал лучшие результаты.В таблице TABREF7 представлена ​​сводка результатов.Мы сравниваем результаты наших методов предварительно обученного BERT, используя как заголовок, так и тело текста, а также подход Коха-Мертикса, с базовым уровнем на основе языка с многочленным наивным байесовским методом из BIBREF1.Как семантические сигналы с помощью BERT, так и лингвистические сигналы с Coh-Metrix значительно превосходят базовый уровень по шкале F1.Двусторонний парный t-критерий с уровнем значимости 0,05 использовался для проверки статистической значимости различий в производительности.Наилучший результат дает модель BERT.В целом, эти результаты дают ответ на исследовательский вопрос RQ1 относительно существования семантических и лингвистических различий между фейковыми новостями и сатирой.Что касается исследовательского вопроса RQ2 о понимании семантических и лингвистических нюансов между фейковыми новостями и сатирой, то ключевым преимуществом изучения показателей связности является объяснимость.Хотя предварительно обученная модель BERT дает лучший результат, ее нелегко интерпретировать.Метрики согласованности позволяют нам напрямую изучать различия между фейковыми новостями и сатирой.Наблюдая за значимыми особенностями, выделенными жирным шрифтом в таблице TABREF3, мы видим комбинацию характеристик, связанных с поверхностным уровнем, таких как длина предложения и средняя частота слов, а также семантические особенности, включая перекрытие LSA (скрытый семантический анализ) между глаголами и между соседними предложениями.Семантические особенности, связанные с представлением сути контента, особенно интересно наблюдать среди предикторов, поскольку на основе теории нечетких следов BIBREF13, известной теории принятия решений в условиях риска, представление сути контента определяет решение человека распространять дезинформацию в Интернете. .Также среди существенных особенностей мы наблюдаем причинные связи, которые, как доказано, важны для понимания текста, и два индекса, связанные с легкостью и читабельностью текста, оба из которых позволяют предположить, что сатирические статьи более сложны или менее легко читаются, чем фейковые. новостные статьи.Мы решили проблему выявления нюансов между фейковыми новостями и сатирой.Вдохновленные юмористическими и социальными аспектами сатирических статей, мы протестировали два подхода к классификации, основанные на современной контекстуальной языковой модели и лингвистических особенностях текстовой связности.Оценка наших методов указала на существование смысловых и языковых различий между фейковыми новостями и сатирой.В частности, оба метода показали значительно лучшую производительность, чем базовый метод, основанный на языке.Наконец, мы изучили важность особенностей нашего лингвистического метода, чтобы помочь пролить свет на нюансы между фейковыми новостями и сатирой.Например, мы заметили, что сатирические статьи более сложны и менее удобны для чтения, чем статьи с фейковыми новостями.В целом, наш вклад, связанный с повышением точности классификации и пониманием нюансов между фейковыми новостями и сатирой, имеет большое значение с точки зрения хрупкого баланса борьбы с дезинформацией и защиты свободы слова.Для будущей работы мы планируем изучить дополнительные лингвистические сигналы и, в частности, особенности, связанные с юмором, такие как абсурдность и несоответствие, которые, как было показано в предыдущей работе, являются хорошими индикаторами сатиры.Еще одним интересным направлением исследования было бы изучение методов определения того, несет ли история политический или социальный посыл, например, путем сравнения ее со своевременной новостной информацией.
Размытая грань между гнусными фейковыми новостями и сатирой, запрещающей высказывания, стала печально известной борьбой за платформы социальных сетей. В дополнение к усилиям по снижению воздействия дезинформации в социальных сетях, распространители фейковых новостей начали маскироваться под сатирические сайты, чтобы избежать понижения в должности. В этой работе мы решаем задачу автоматической классификации фейковых новостей и сатиры. В предыдущей работе изучалось, можно ли отличить фейковые новости от сатиры на основе языковых различий. В отличие от фейковых новостей, сатирические истории обычно юмористичны и несут политический или социальный посыл. Мы предполагаем, что эти нюансы можно идентифицировать с помощью семантических и лингвистических подсказок. Следовательно, мы обучаем методу машинного обучения с использованием семантического представления, современной контекстной языковой модели и лингвистических функций, основанных на показателях текстовой связности. Эмпирическая оценка подтверждает преимущества нашего подхода по сравнению с базовым уровнем, основанным на языке, и проливает свет на нюансы между фейковыми новостями и сатирой. В качестве направлений будущей работы мы рассматриваем изучение дополнительных лингвистических особенностей, связанных с юмористическим аспектом, и обогащение данных текущими новостными событиями, чтобы помочь идентифицировать политическое или социальное послание.
1,934
QasperSumInstruct
ru
Напиши аннотацию по статье
Многокаскадная глубокая модель двуязычной классификации SMS. Социальные сети, такие как Facebook, Twitter и служба коротких текстовых сообщений (SMS), являются популярными каналами для получения отзывов от потребителей о продуктах и ​​услугах.В Пакистане, с появлением практики электронного правительства, SMS используются для получения обратной связи от граждан о различных государственных услугах с целью снижения мелкой коррупции и ненадлежащего предоставления услуг.Автоматическая классификация этих SMS по заранее определенным категориям может значительно сократить время реагирования на жалобы и, следовательно, улучшить качество государственных услуг, оказываемых гражданам.Хотя урду является национальным языком Пакистана, английский считается официальным языком страны.Это приводит к развитию особого диалекта общения, известного как римский урду, в котором для написания урду используются английские алфавиты.Таким образом, тексты СМС содержат многоязычный текст, написанный неродным письмом и неформальной дикцией.Использование двух или более языков одновременно известно как многоязычие BIBREF0.Следовательно, для многоязычного говорящего BIBREF1 неизбежно чередование двух языков в одном разговоре, явление, известное как переключение кода.Такие факторы, как неформальное словоблудие, неправильная грамматика, варианты написания, переключение кода и короткая длина текста, делают проблему автоматической классификации двуязычных SMS весьма сложной.В области обработки естественного языка (НЛП) глубокое обучение произвело революцию в моделировании и понимании человеческих языков.Богатство, выразительность, неоднозначность и сложность естественного языка могут быть решены с помощью глубоких нейронных сетей без необходимости создания сложных инженерных функций BIBREF2.Модели глубокого обучения успешно использовались во многих задачах НЛП, связанных с многоязычным текстом.Модель на основе сверточной нейронной сети (CNN) для классификации настроений многоязычного набора данных была предложена в BIBREF3.Однако конкретная запись в наборе данных принадлежала только одному языку.В нашем случае запись может иметь как один, так и два языка.По этому конкретному параметру опубликовано очень мало работ.Один из способов классификации двуязычного текста — нормализовать различные варианты слова до стандартного написания перед обучением модели BIBREF4.Однако такая нормализация требует внешних ресурсов, таких как лексическая база данных, и в этом контексте ресурсов римского урду недостаточно.Другой подход к языку с ограниченными ресурсами — адаптировать ресурсы богатого ресурсами языка BIBREF5.Однако такой подход нельзя обобщить в случае текста на римском урду, поскольку это неформальный язык без надлежащих грамматических правил и словаря.Более поздний подход использует аннотации с переключением кода для улучшения прогнозирующей производительности модели, где каждое слово аннотируется соответствующей языковой меткой.Такой подход не масштабируется для больших данных, поскольку задача аннотирования становится утомительной.В этой статье мы предлагаем многокаскадную сеть глубокого обучения, называемую McM для многоклассовой классификации двуязычного короткого текста.Наша цель — добиться этого без каких-либо предварительных знаний языка, индикации переключения кода, языкового перевода, нормализации лексических вариаций или языковой транслитерации.В классификации многоязычного текста предыдущие подходы использовали единую архитектуру глубокого обучения, такую ​​как CNN или долгосрочная краткосрочная память (LSTM), для обучения и классификации признаков.McM, с другой стороны, использует три каскада (так называемые функции обучения) для изучения богатых текстовых представлений с трех точек зрения.Эти представления затем передаются в небольшую дискриминационную сеть для окончательного предсказания.Мы сравниваем производительность предлагаемой модели с существующей моделью классификации многоязычных текстов BIBREF3 на основе CNN.Мы сообщаем о серии экспериментов с использованием трех видов подходов к внедрению инициализации, а также эффекта механизма внимания BIBREF6. Английский язык хорошо изучается под эгидой НЛП, поэтому доступно множество ресурсов и наборов данных для различных проблем.Однако исследования двуязычных текстов на английском и римском языке урду отстают из-за отсутствия наборов данных золотого стандарта.Наш второй вклад заключается в том, что мы представляем крупномасштабный набор аннотированных данных на латинице урду и английском языке с переключением кода для многоклассовой классификации.Набор данных состоит из записей стоимостью более 0,3 миллиона долларов и доступен для будущих исследований.Оставшаяся часть теста организована следующим образом.Раздел SECREF2 определяет процесс получения набора данных и дает объяснение меткам классов.В разделе SECREF3 обсуждается архитектура предлагаемой модели, ее гиперпараметры и экспериментальная установка.Мы обсуждаем результаты в разделе SECREF4 и, наконец, заключительные замечания представлены в разделе SECREF5.Набор данных состоит из SMS-отзывов граждан Пакистана о различных государственных услугах, которыми они пользуются.Целью сбора этих ответов является измерение эффективности работы государственных ведомств, предоставляющих различные государственные услуги.Предварительная обработка данных сведена к минимуму.Все записи, содержащие только одно слово в SMS, были удалены в ходе очистки.Чтобы создать «золотой стандарт», образцы стоимостью 313 813 долларов вручную аннотируются по 12 заранее определенным категориям двумя аннотаторами под наблюдением эксперта в предметной области.Привлечение предметного эксперта должно было обеспечить практичность и качество «золотого стандарта».Наконец, был выбран метод стратифицированной выборки для разделения данных на обучающие и тестовые разделы с соотношением $80-20$ (т. е. записи $80\%$ для обучения и записи $20\%$ для тестирования).Таким образом, обучающее разделение имеет записи стоимостью $251 050$, а тестовое разделение — $62 763$ записей.Смысл стратифицированной выборки заключался в сохранении соотношения каждого класса в обеих группах.Доступны предварительно обработанные и аннотированные данные, а также разделение поездов и тестов.Обратите внимание, что названия отделов и услуг, которыми пользуются граждане, сопоставляются с целочисленным идентификатором для обеспечения анонимности.Соотношения меток классов, соответствующие метки и их описание представлены в таблице.TABREF1. Предлагаемая модель, названная McM, в основном основана на результатах Реймерса, Н. и Гуревича (2017), которые пришли к выводу, что более глубокая модель оказывает минимальное влияние на прогностическую эффективность модели BIBREF7.McM реализует более широкую модель, в которой используются три обучающихся признака (каскада), которые обучаются классификации независимо (параллельно). Входной текст сначала сопоставляется с матрицей внедрения размером $l \times d$, где $l$ обозначает количество слов в тексте, а $d$ — размерность вектора вложения каждого из этих слов.Более формально, пусть $\mathcal {T} \in \lbrace w_1, w_2, ..., w_l\rbrace $ — входной текст с $l$ словами, матрица внедрения определяется как ${X} \in \mathbb { R}^{l \times d}$. Затем это представление передается трем учащимся, которые обучаются под местным контролем.Изученные функции затем передаются в дискриминаторную сеть для окончательного прогнозирования, как показано на рис. FigREF3.Каждый из этих компонентов обсуждается в последующих подразделах.Обучающийся CNN используется для изучения функций $n$-граммы для определения связей между словами.Для извлечения признаков используется одномерный сверточный фильтр со скользящим окном (ядром) размера $k$ (количество $n$-грамм).Фильтр $W$ определяется как $W \in \mathbb {R}^{k \times d}$ для функции свертки.Векторы слов, начиная с позиции $j$ до позиции $j + k -1$, обрабатываются фильтром $W$ единовременно.Окно $h_j$ выражается следующим образом: Где $\oplus $ представляет собой объединение векторов слов.Количество фильтров обычно определяется опытным путем.Каждый фильтр свертывается с одним окном за раз, чтобы создать карту признаков $f_j$ для этого конкретного окна следующим образом: где $\odot $ представляет операцию свертки, $b$ — это смещение, а $\sigma $ — нелинейное функция преобразования ReLU, которая определяется как $\sigma (x) =макс(х,0)$.Карты объектов каждого окна объединяются по всем фильтрам для получения векторного представления высокого уровня и передаются в качестве входных данных на следующий уровень CNN.За выводом второго слоя CNN следует (i) глобальное максимальное объединение для удаления информации о низкой активации из карт признаков всех фильтров и (ii) глобальное среднее объединение для получения средней активации по всем $n$-граммам.Эти два вывода затем объединяются и пересылаются в небольшую сеть прямой связи, имеющую два полностью связанных уровня, за которыми следует слой softmax для прогнозирования этого конкретного обучаемого.Слои исключения и пакетной нормализации неоднократно используются между обоими полностью связанными слоями, чтобы избежать совместной адаптации функций BIBREF8, BIBREF9. Традиционные методы глубокого обучения не учитывают предыдущую информацию при обработке текущего ввода.Однако LSTM способен запоминать прошлую информацию и соотносить ее с текущей информацией BIBREF10.Структура LSTM имеет ячейки памяти (также известные как ячейки LSTM), которые выборочно хранят информацию.Каждое слово рассматривается как один временной шаг и передается в LSTM последовательно.При обработке ввода на текущем временном шаге $X_t$ LSTM также учитывает предыдущее скрытое состояние $h_{t-1}$. LSTM представляет каждый временной шаг со входом, памятью и выходным вентилем, обозначенным как $i_t, f_t$ и $o_t$ соответственно.Скрытое состояние $h_t$ входа $X_t$ для каждого временного шага $t$ определяется следующим образом: Где $*$ — это поэлементное умножение, а $\sigma $ — сигмовидная функция активации.Учащийся Stacked-LSTM состоит из двух слоев LSTM.Пусть ${H_1}$ — матрица, состоящая из выходных векторов $\lbrace h_1, h_2, ..., h_l\rbrace $, созданных первым слоем LSTM, обозначающих выходные данные на каждом временном шаге.Эта матрица передается на второй уровень LSTM.Аналогично, второй уровень создает еще одну выходную матрицу $H_2$, которая используется для применения глобального максимального пула и глобального среднего пула.Эти два вывода объединяются и пересылаются в двухуровневую сеть прямой связи для промежуточного контроля (прогнозирования), идентичную ранее описанному учащемуся многоуровневой CNN.Обучающийся LSTM используется для изучения долгосрочных зависимостей текста, как описано в BIBREF10.Этот обучающийся рекурсивно кодирует полный входной текст.Он принимает по одному вектору слов в качестве входных данных и выводит один вектор.Размеры выходного вектора равны количеству развернутых модулей LSTM.Это закодированное текстовое представление затем пересылается в небольшую сеть прямой связи, идентичную двум вышеупомянутым учащимся, для промежуточного контроля с целью изучения функций.Этот учащийся отличается от учащегося составного LSTM, поскольку он изучает характеристики предложения, а не средние и максимальные характеристики всех временных шагов (входные слова). Цель сети дискриминатора состоит в том, чтобы объединить функции, изученные каждым из трех описанных выше учащихся, и сжать их в небольшая сеть для окончательного предсказания.Дискриминатор использует два полносвязных слоя с пакетной нормализацией и слоем исключения, а также функцию активации ReLU для нелинейности.Функция активации softmax с категориальной кросс-энтропийной потерей используется на конечном слое прогнозирования для получения вероятностей каждого класса.Метка класса присваивается на основе максимальной вероятности.Это рассматривается как окончательный прогноз предлагаемой модели.Полная архитектура вместе с размерами каждого выхода показана на рис.FigREF3. Предварительно обученные встраивания слов в массивные данные, такие как GloVe BIBREF11, повышают производительность прогнозирования для многоклассовой классификации BIBREF12.Однако такие встраивания ограничены только английским языком и не имеют эквивалента римскому урду.Поэтому в этом исследовании мы избегаем использования каких-либо предварительно обученных вложений на основе слов, чтобы обеспечить равное обращение со словами каждого языка.Мы проводим три вида экспериментов.(1) Матрица вложения строится с использованием вложений ELMo BIBREF13, которые используют символы для формирования векторов слов и создают вектор слов с $d = 1024$.Мы называем этот вариант модели McM$_\textsubscript {E}$. (2) Матрица вложения инициализируется случайным образом для каждого слова с вектором слов размером $d = 300$.Мы называем эту конкретную модель McM$_\textsubscript {R}$. (3) Мы обучаем встраивания, специфичные для предметной области, используя word2vec с вектором слов размером $d = 300$, как предложено в оригинальном исследовании BIBREF14.Мы называем эту конкретную модель McM$_\textsubscript {D}$. Кроме того, мы также вводим мягкое внимание BIBREF6 между двумя уровнями CNN и LSTM (в соответствующем обучающем элементе), чтобы оценить влияние внимания на классификацию двуязычного текста.Механизм внимания «выделяет» (придает больший вес) конкретному слову, которое в большей степени способствует правильной классификации.Мы ссылаемся на эксперименты, основанные на внимании, с индексом $A$ для всех трёх инициализаций встраивания.Таким образом, всего проведено 6 экспериментов с различными вариациями предложенной модели.Чтобы смягчить эффект случайной инициализации весов сети, мы фиксируем случайное начальное число во всех экспериментах.Мы обучаем каждую модель в течение 20 эпох и создаем контрольную точку в эпоху с наилучшей прогнозируемой производительностью при разделении тестов.Мы повторно реализуем модель, предложенную в BIBREF3, и используем ее в качестве основы для нашей проблемы.Основанием для выбора именно этой модели в качестве базовой является ее доказанная хорошая прогностическая эффективность при классификации многоязычного текста.Для McM выбор количества сверточных фильтров, количества скрытых блоков в первом плотном слое, количества скрытых блоков во втором плотном слое и повторяющихся блоков для LSTM осуществляется эмпирически.Остальные гиперпараметры были выбраны путем выполнения поиска по сетке с использованием стратифицированного набора проверки $20\%$ из обучающего набора на McM$_\textsubscript {R}$. Доступные варианты выбора и окончательно выбранные параметры указаны в таблице TABREF18.Эти варианты выбора остались одинаковыми для всех экспериментов, и набор проверки был снова объединен с набором обучения.Мы использовали стандартные метрики, которые широко адаптированы в литературе для измерения эффективности многоклассовой классификации.Этими метриками являются точность, точность, полнота и показатель F1, причем последние три можно вычислить с использованием стратегий микро-среднего или макро-среднего BIBREF15.В стратегии микросреднего значения каждый экземпляр имеет одинаковый вес, а результаты агрегируются по всем классам для вычисления определенного показателя.По сути, это означает, что на результат будет влиять частый класс, если распределение классов будет искажено.Однако в макросреднем значении метрики для каждого класса рассчитываются отдельно, а затем усредняются, независимо от коэффициента появления меток их классов.Это дает равный вес каждому классу, а не каждому экземпляру, что, следовательно, дает преимущество недостаточно представленным классам.В нашем конкретном наборе данных более вероятно отдать предпочтение более мелким классам (т. е. отличным от «Признательность» и «Удовлетворенный») для выявления потенциальных жалоб.Поэтому мы решили сообщать макросредние значения точности, полноты и оценки F1, которые определяются (DISPLAY_FORM20), (DISPLAY_FORM21) и (DISPLAY_FORM22) соответственно.Прежде чем оценивать McM, мы сначала протестировали базовую модель на нашем наборе данных.В таблице TABREF23 представлены результаты базового уровня и всех вариантов наших экспериментов.Мы сосредоточиваем наше обсуждение на показателе F1, поскольку точность часто вводит в заблуждение для наборов данных с несбалансированным распределением классов.Однако для полноты информации приводятся все показатели.Из результатов видно, что базовая модель работает хуже всех экспериментов.Причину такого снижения производительности можно объяснить природой текстов в наборах данных (т. е. наборов данных, использованных в исходной статье базовой модели BIBREF3 и в нашем исследовании).Подход в базовой модели позволяет оценить производительность модели на многоязычном наборе данных, в котором не используется переключение кода.Полный текст принадлежит либо одному языку, либо другому.Однако в нашем случае текст СМС может иметь переключение кода между двумя языками, вариацию написания или нестандартную грамматику.Базовая модель представляет собой простую одноуровневую модель CNN, которая не способна решить такие проблемы.С другой стороны, McM изучает функции с разных точек зрения, поэтому представления функций становятся богаче, что, следовательно, приводит к превосходной производительности прогнозирования.Поскольку каждый учащийся в McM также находится под контролем, все 4 компонента предлагаемой модели (т. е. учащийся с накоплением CNN, учащийся с накоплением LSTM, LSTM-учащийся и дискриминатор) также можно сравнивать друг с другом.В наших экспериментах наиболее эффективным вариантом предложенной модели является McM$_\textsubscript {D}$. В этой конкретной настройке дискриминатор может достичь показателя F1 в размере 0,69 доллара США со значениями точности и полноты 0,72 доллара США и 0,68 доллара США соответственно.Другие компоненты McM также показывают самые высокие показатели по всем показателям производительности.Однако для McM$_\textsubscript {DA}$ наблюдается значительное снижение производительности, хотя доказано, что модели, основанные на внимании, показывают улучшение производительности BIBREF6.Исследование причин такого падения производительности выходит за рамки данного исследования.Варианты моделей, обученные с помощью внедрения ELMo, имеют вторую по величине производительность.Дискриминатор McM$_\textsubscript {E}$ получает оценку F1 в размере $0,66$, опередив других обучающихся в этом эксперименте.Однако снижение производительности сохраняется при использовании внимания для McM$_\textsubscript {EA}$. Что касается экспериментов со случайной инициализацией встраивания, McM$_\textsubscript {R}$ показывает аналогичную производительность с McM$_\textsubscript {EA }$, а McM$_\textsubscript {RA}$ показывает худшие результаты.Стоит отметить, что в каждом эксперименте дискриминаторная сеть остается на вершине или работает одинаково по сравнению с другими компонентами с точки зрения показателя F1.Это указывает на то, что сеть дискриминатора способна изучать более богатые представления текста по сравнению с методами, в которых используется только один обучаемый объект.Кроме того, результаты тестирования ошибок для каждого компонента (т. е. 3 учащихся и дискриминаторной сети) для всех 4 вариантов предложенной модели представлены на рис. FigREF24.Очевидно, что наименьшая ошибка по всем компонентам достигается моделью McM$_\textsubscript {D}$.Возвращаясь теперь к производительности отдельных компонентов, в двух моделях встраивания ELMo наименьшая ошибка достигается с помощью сети дискриминаторов, за которой следуют многоуровневый обучающийся LSTM и многоуровневый обучающийся CNN, в то время как обучающийся LSTM имеет самую высокую ошибку.Что касается вариаций модели с инициализацией случайных вложений, наблюдаются наиболее интересные результаты.Как показано на подграфиках (c) и (d) на рисунке FigREF24, McM$_\textsubscript {R}$ и McM$_\textsubscript {RA}$ имеют тенденцию к переобучению.После второй эпохи частота ошибок для всех компонентов этих двух вариантов имеет тенденцию резко возрастать.Тем не менее, он показывает минимальную ошибку для дискриминатора в обоих вариантах, что еще раз доказывает, что функции, полученные с помощью нескольких каскадов, более устойчивы и обладают большей дискриминационной способностью.Отметим, что во всех 6 вариантах экспериментов погрешность дискриминаторной сети наименьшая по сравнению с другими компонентами МакМ.Следовательно, можно сделать вывод, что изучение функций с разных точек зрения и их агрегирование для окончательного прогнозирования более плодотворно по сравнению с единым методом обучения.В этой работе представлены новый крупномасштабный набор данных и новая архитектура глубокого обучения для многоклассовой классификации двуязычного (англо-латинский урду) текста с переключением кода.Набор данных предназначен для улучшения выявления мелкой коррупции в государственных учреждениях и обеспечивает основу для будущих исследований в этом направлении.В то время как архитектура глубокого обучения предлагается для многоклассовой классификации двуязычных SMS без использования каких-либо внешних ресурсов.Также исследуются методы инициализации встраивания трех слов и механизм мягкого внимания.Наблюдения в результате обширных экспериментов привели нас к выводу, что: (1) векторы встраивания слов, генерируемые с помощью символов, имеют тенденцию отдавать предпочтение классификации двуязычного текста по сравнению с инициализацией случайного встраивания, (2) механизм внимания имеет тенденцию снижать прогностическую эффективность модели, независимо от этого. используемых типов встраивания, (3) использование функций, изученных с помощью единой перспективы, приводит к низкой производительности для двуязычного текста с переключением кода, (4) обучение встраивания, специфичного для предметной области, на большом корпусе и использование их для обучения модели обеспечивает максимальную производительность.Что касается будущей работы, мы намерены выяснить причину ухудшения производительности модели с мягким вниманием.
Большинство исследований по классификации текстов сосредоточено на английском языке. Однако на короткие тексты, такие как SMS, влияют региональные языки. Это усложняет задачу автоматической классификации текста из-за многоязычного, неформального и шумного характера языка в тексте. В этой работе мы предлагаем новую многокаскадную модель глубокого обучения под названием McM для классификации двуязычных SMS. McM использует информацию уровня n-грамм, а также долгосрочные зависимости текста для обучения. Наш подход направлен на изучение модели без каких-либо указаний на переключение кода, лексическую нормализацию, языковой перевод или языковую транслитерацию. Модель полностью полагается на текст, поскольку для обучения не используется внешняя база знаний. С этой целью на основе СМС-отзывов граждан о государственных услугах, содержащих смесь романского урду и английского языков, разрабатывается набор двуязычных текстовых данных для 12 классов. Наша модель обеспечивает высокую точность классификации в этом наборе данных и превосходит предыдущую модель для классификации многоязычных текстов, подчеркивая языковую независимость McM.
3,339
QasperSumInstruct
ru
Напиши аннотацию по статье
Отрицательная ЛАМА: Птицы не умеют летать.. Предварительно обученные языковые модели, такие как Transformer-XL BIBREF1, ELMo BIBREF2 и BERT BIBREF3, стали универсальными инструментами, которые охватывают разнообразный спектр лингвистических и фактических знаний.Недавно BIBREF0 представил LAMA (анализ модели языка) для исследования того, в какой степени предварительно обученные языковые модели способны воспроизводить фактические знания без использования точной настройки.Целью обучения предварительно обученных языковых моделей является предсказание замаскированных токенов в последовательности.С помощью этой схемы «заполните пробелы» задания на ответы на вопросы можно переформулировать в виде завершающих утверждений.Например: «Кто разработал теорию относительности?» переформулировано как «Теория относительности была разработана [МАСК]».Эта настройка позволяет отвечать на вопросы открытого домена без присмотра.BIBREF0 обнаружил, что в этой задаче предварительно обученные языковые модели превосходят контролируемые базовые модели, использующие традиционные базы знаний с доступом к знаниям Oracle.В этой работе анализируется понимание предварительно обученных языковых моделей фактических знаний и знаний здравого смысла, хранящихся в отрицательных утверждениях.С этой целью мы вводим отрицательный набор данных LAMA.Мы создаем его, просто вставляя элементы отрицания (например, «не») в замыкающее утверждение LAMA (например, «Теория относительности не была разработана [MASK]»).В наших экспериментах мы запрашиваем предварительно обученные языковые модели как с исходными, так и с отрицательными утверждениями LAMA и сравниваем их прогнозы с точки зрения ранговой корреляции и перекрытия лучших прогнозов.Мы обнаружили, что предсказанные слова-паразиты часто имеют сильное перекрытие.Таким образом, отрицание утверждения замыкания во многих случаях не меняет прогнозы – но, конечно, так и должно быть, как показывает наш пример «птицы могут летать» и «птицы не могут летать».Мы выявляем и анализируем подмножество утверждений о закрытии, в которых прогнозы различаются.Мы обнаружили, что BERT лучше всего справляется с отрицанием среди предварительно обученных языковых моделей, но он по-прежнему плохо справляется с большинством отрицаемых операторов.Замыкающий оператор генерируется из тройки субъект-отношение-объект из базы знаний и шаблонного оператора для отношения, содержащего переменные X и Y для субъекта и объекта (например, «X родился в Y»).Затем мы заменяем субъект X и МАСКУ вместо Y. Тройки выбираются так, чтобы Y всегда был однозначным ответом.LAMA охватывает разные источники: набор Google-RE охватывает три отношения «место рождения», «дата рождения» и «место смерти».T-REx BIBREF4 состоит из подмножества троек Викиданных, охватывающих 41 отношение.ConceptNet BIBREF5 объединяет 16 взаимосвязей здравого смысла между словами и/или фразами.Базовый корпус Open Mind Common Sense предоставляет соответствующие утверждения для запроса языковой модели.SQuAD BIBREF6 — это стандартный набор данных для ответов на вопросы.LAMA содержит подмножество из 305 контекстно-независимых вопросов и предоставляет вручную переформулированные утверждения в стиле закрытия для запроса модели.Мы создали отрицательные версии Google-RE, T-REx и SQuAD, вручную вставив элемент отрицания в каждый шаблон или оператор.Мы сделали то же самое для подмножества ConceptNet, которое легко отрицать.Мы выбрали это подмножество, отфильтровав длину предложения и выделив общие запросы.Мы используем исходный код, предоставленный BIBREF0 и BIBREF7, и оцениваем с использованием Transformer-XL big (Txl), ELMo original (Eb), ELMo 5.5B (E5B), BERT-base (Bb) и BERT-large (Bl). Таблица TABREF1 сравнивает предсказания исходной LAMA и отрицаемой LAMA.Поскольку истинные ответы на отрицаемые утверждения весьма неоднозначны, наши меры представляют собой ранговую корреляцию Спирмена и перекрытие в предсказаниях ранга 1 между исходным и отрицаемым набором данных.В таблице TABREF4 приведены примеры больших прогнозов BERT.В большинстве случаев мы наблюдаем ранговую корреляцию более 0,85 и сильное перекрытие в предсказаниях первого ранга, таких как: «Птицы умеют летать».и «Птицы не умеют летать».BERT показывает немного лучшие результаты, чем другие модели.Наша интерпретация результатов такова, что BERT по большей части не усвоил значение отрицания.Впечатляющие результаты в QA позволяют предположить, что предварительно обученные языковые модели способны запоминать аспекты конкретных фактов; но, по-видимому, во многих случаях они игнорируют маркеры отрицания и полагаются только на совпадение субъекта с исходным отношением.Одна из причин наблюдаемых нами плохих результатов, вероятно, заключается в том, что отрицательные утверждения встречаются в обучающих корпусах гораздо реже, чем положительные утверждения.Ключевая проблема в том, что установка ЛАМА не позволяет удержаться от ответа.Как правило, вероятность предсказания падает в отрицательных утверждениях, что предполагает существование порога для фильтрации ответов.Но более пристальный взгляд на вероятности правильных и неправильных предсказаний показывает, что они попадают в один и тот же диапазон.Никакого общего порога найти невозможно.Учитывая, что отрицание мало влияет на большинство запросов, интересно посмотреть на небольшое количество запросов, в которых предварительно обученные языковые модели делают правильные прогнозы, т. е. решают задачу замыкания так, как это сделал бы человек.Приведем два примера таких закономерностей.Шаблон «X не умер в Y» всегда приводит к общим прогнозам с самым высоким рейтингом: «битва», «офис», «тюрьма», тогда как исходный шаблон, скорее всего, будет ранжировать города на первое место.Это кажется уместным, поскольку высказывания вида, скажем, «Х не умер в Нью-Йорке» редко встречаются в текстовых корпусах, а вот высказывания, характеризующие ситуацию, в которой наступила смерть («он не умер в тюрьме»), звучат более естественно. .Для шаблона «X родился в Y» прогнозируются города.Напротив, для «X не родился в Y» прогнозируются страны.Оба раза это относится к более конкретному утверждению, которое с большей вероятностью встретится в обучающем корпусе.Люди чаще ссылаются на человека, родившегося в городе, а не на родившегося в стране, предоставляя вам в обоих случаях более точную информацию.Предварительно обученные внедрения позволили расширить базовые показатели для различных наборов данных ответов на вопросы BIBREF8, BIBREF9.Как правило, предварительно обученные модели точно настраиваются под конкретную задачу BIBREF10, BIBREF3, но в недавней работе модели применялись без этапа тонкой настройки BIBREF11, BIBREF0. Существует широкий спектр литературы, анализирующей лингвистические знания, хранящиеся в предварительно обученных вложениях BIBREF12, BIBREF13. , BIBREF14, BIBREF15, BIBREF16, BIBREF17, BIBREF18, BIBREF19. Что касается отрицания, то представляют интерес следующие статьи: BIBREF20 анализирует грамматические знания, полученные с помощью BERT.В рамках тематического исследования они проверяют правильную среду лицензирования для предметов с отрицательной полярностью.Они изучают набор классификаторов, различающих грамматически правильные и неправильные предложения.Мы применяем другой подход, сосредотачиваясь на фактических знаниях, хранящихся в отрицательных утверждениях.Грамматически правильные утверждения все же могут быть фактически ложными (например, «Общая теория относительности, разработка Ньютона»). BIBREF21 исследует понимание функциональных слов, в том числе частиц отрицания, используя подход, основанный на следовании и классификации.Они анализируют способность различных архитектур моделей и целей обучения фиксировать знания отдельных предложений.Модели точно настраиваются под интересующую задачу.С другой стороны, мы задаемся вопросом, в какой степени фактические знания, присутствующие в отрицаемых утверждениях, приобретаются косвенно во время предварительного обучения.BIBREF22 определяет три психолингвистических диагностики для языковых моделей и применяет их в тематическом исследовании BERT.Отрицание проверяется с использованием набора данных из 72 простых предложений, запрашивающих принадлежность к категории.Дополнительный набор данных из 16 предложений снова запрашивает только отношение «быть», но включает более естественную структуру предложений.Наша работа охватывает 51 329 отрицательных высказываний, охватывающих широкий спектр тем и отношений.В наборе данных на основе SQuAD мы охватываем более естественный язык с точки зрения контекста и отношений.В отличие от BIBREF22, мы не видим достоверного предпочтения истинных дополнений ложным в более естественных отрицаемых утверждениях.Тест BIBREF23 на понимание минимально измененных утверждений в состязательной ситуации, при этом стараясь сохранить общую семантику неизменной.Мы стараемся максимально изменить семантику и инвертировать смысл.Мы показываем, что предварительно обученные языковые модели имеют проблемы с обработкой отрицаний.Прогнозы вывода исходного запроса LAMA и отрицательного оператора сильно коррелируют.Несмотря на то, что этот элегантный подход к запросу языковой модели без тонкой настройки позволяет отвечать на вопросы по-настоящему открытой предметной области, продвижение ответа независимо от того, какой именно, не всегда является лучшим решением.Воздержание от ответа может быть более уместным, что делает графики знаний в настоящее время более надежным выбором для ответа на вопрос.
Предварительно обученные языковые модели позволили добиться значительных улучшений в широком спектре задач обработки естественного языка, включая ответы на вопросы (QA). Чтобы проанализировать производительность предварительно обученной языковой модели при обеспечении качества, мы расширили структуру оценки LAMA (Petroni et al., 2019) за счет компонента, ориентированного на отрицание. Мы обнаружили, что предварительно обученные языковые модели одинаково склонны генерировать факты («птицы умеют летать») и их отрицать («птицы не умеют летать»). Это ставит под сомнение утверждение о том, что предварительно обученные языковые модели адекватно усваивают фактические знания.
1,434
QasperSumInstruct
ru
Напиши аннотацию по статье
Прогнозирование индустрии пользователей социальных сетей. За последние два десятилетия появление социальных сетей способствовало распространению отслеживаемого человеческого поведения.Контент, публикуемый пользователями, может отражать, кто их друзья, какие темы им интересны или в какой компании они работают.В то же время пользователи указывают ряд полей профиля, чтобы идентифицировать себя для других.Использование таких метаданных оказалось важным для облегчения дальнейшей разработки приложений в области рекламы BIBREF0, персонализации BIBREF1 и рекомендательных систем BIBREF2.Однако информация профиля может быть ограничена в зависимости от платформы или часто намеренно опускается BIBREF3 .Чтобы раскрыть эту информацию, в ряде исследований использовались следы пользователей социальных сетей для аппроксимации их профилей.В этой статье исследуется потенциал прогнозирования отрасли пользователя – совокупности предприятий в конкретной области – путем определения ориентировочного текста отрасли в социальных сетях.Точный прогноз отрасли пользователей может оказать большое влияние на таргетированную рекламу за счет минимизации ненужных затрат на рекламу BIBREF4 и улучшения персонализированного пользовательского опыта.Ряд исследований в области социальных наук связали использование языка с социальными факторами, такими как род занятий, социальный класс, образование и доход BIBREF5, BIBREF6, BIBREF7, BIBREF8.Дополнительная цель данной статьи — изучить такие результаты, и в частности связь между языком и профессиональным классом, с помощью подхода, основанного на данных.Кроме того, мы исследуем, как значение меняется в зависимости от профессионального контекста.Используя встраивание слов, мы стремимся количественно оценить, как, например, облако может означать отдельное понятие (например, конденсированный водяной пар) в тексте, написанном пользователями, работающими в сфере охраны окружающей среды, в то время как оно может по-разному использоваться пользователями технологических профессий ( например, вычисления на базе Интернета). В частности, в этой статье представлены четыре основных вклада.Сначала мы создаем большой набор данных с отраслевыми аннотациями, содержащий более 20 000 пользователей блогов.В дополнение к опубликованному тексту мы также связываем ряд метаданных пользователей, включая их пол, местоположение, род занятий, знакомство и интересы.Во-вторых, мы создаем классификаторы на основе контента для задачи отраслевого прогнозирования и изучаем эффект включения текстовых функций из метаданных профиля пользователей с использованием различных методов метаклассификации, что значительно повышает как общую точность, так и среднюю точность по отрасли.Далее, после изучения того, какие слова являются ориентировочными для каждой отрасли, мы строим представления значений слов в векторном пространстве и рассчитываем одно отклонение для каждой отрасли, иллюстрируя, как значение дифференцируется в зависимости от отраслей пользователей.Мы качественно исследуем полученные семантические представления слов с учетом отраслевых особенностей, перечисляя слова по отраслям, которые наиболее похожи на термины, связанные с работой и общие интересы.Наконец, мы ранжировали различные отрасли на основе нормализованной относительной частоты эмоционально заряженных слов (положительных и отрицательных) и, кроме того, обнаружили, что для обоих полов эти частоты статистически значимо не коррелируют с соотношением гендерного доминирования в отрасли.После обсуждения соответствующей работы в разделе SECREF2, мы представляем набор данных, использованный в этом исследовании, в разделе SECREF3.В разделе SECREF4 мы оцениваем два метода выбора функций и исследуем проблему отраслевого вывода, используя текст сообщений пользователей.Затем мы дополняем наш классификатор на основе контента, создавая ансамбль, включающий несколько классификаторов метаданных.В разделе SECREF5 мы перечисляем наиболее показательные для отрасли слова и показываем, как каждое промышленное семантическое поле варьируется в зависимости от различных терминов.Мы исследуем, как частота эмоционально заряженных слов каждого пола коррелирует с отраслями промышленности и соответствующим соотношением гендерного доминирования, и, наконец, сделаем вывод в разделе SECREF6.Благодаря широкому распространению социальных сетей среди общественности исследователи стали использовать новые доступные данные для создания и совершенствования моделей поведения и профилирования пользователей.Существует множество исследований, в которых анализируется язык для составления профилей пользователей социальных сетей.Некоторые исследования стремились охарактеризовать личность пользователей BIBREF9, BIBREF10, в то время как другие секвенировали выражаемые эмоции BIBREF11, изучали психические расстройства BIBREF12 и прогрессирование состояния здоровья BIBREF13.В то же время ряд исследователей стремились предсказать возраст и/или пол пользователей социальных сетей BIBREF14, BIBREF15, BIBREF16, в то время как другие ориентировались и анализировали этническую принадлежность, национальность и расу пользователей BIBREF17, BIBREF18, BIBREF19.Одно из полей профиля, которое привлекло большое внимание, — это местоположение пользователя.Среди прочего, Hecht et al. Hecht11 предсказал местоположение пользователей Twitter, используя машинное обучение на уровне страны и штата.Позже Хан и др. Han14 определил слова, обозначающие местоположение, чтобы предсказать местоположение пользователей Twitter вплоть до уровня города.В качестве отдельного направления исследований ряд исследований был посвящен выявлению политической ориентации пользователей BIBREF15, BIBREF20, BIBREF21.Наконец, Ли и др. Li14a предложила способ моделирования важных жизненных событий, таких как свадьба, переезд на новое место или окончание учебы.В последующем исследовании BIBREF22 описал метод извлечения информации со слабым контролем, который использовался в сочетании с информацией из социальных сетей для определения имени супруга пользователя, колледжа, в котором он учился, и компании, в которой он работает.Направление работы, которое наиболее тесно связано с нашим исследованием, связано с пониманием связи между языком людей и сферой их деятельности.Предыдущие исследования в области психологии и экономики изучали возможность прогнозирования профессии человека на основе его способности использовать математические и вербальные символы BIBREF23, а также взаимосвязь между типами должностей и демографией BIBREF24.Совсем недавно Хуанг и др.Huang15 использовал машинное обучение, чтобы классифицировать пользователей Sina Weibo по двенадцати различным профессиональным классам, определяемым платформой, подчеркивая эффект гомофилии во взаимодействии с пользователем.В этой работе исследовались только пользователи, прошедшие проверку на платформе Sina Weibo, что вносило потенциальную предвзятость в полученный набор данных.Наконец, Преотюк-Пьетро и др.Преоктюк15 спрогнозировал профессиональный класс пользователей Твиттера, используя систему стандартной классификации профессий (SOC), которая группирует различные должности на основе требований к навыкам.В этой работе процесс сбора данных был ограничен только пользователями, которые конкретно упомянули свою профессию в своем самоописании таким образом, чтобы это можно было напрямую сопоставить с профессиональным классом SOC.Сопоставление подстроки их самоописания с профессиональным классом SOC выполнялось вручную.Из-за этапа аннотации вручную их метод не поддавался масштабированию; более того, поскольку они определили класс профессии в самоописании пользователя, в него могла быть включена лишь очень небольшая часть пользователей Twitter (в их случае — 5191 пользователь). Оба этих недавних исследования основаны на платформах микроблогов, которые по своей сути ограничивает количество символов, которые может иметь сообщение, и, следовательно, способы выражения мнения пользователей.Более того, в обоих исследованиях использовались готовые профессиональные таксономии (а не самопровозглашенные категории занятий), в результате чего классы были либо слишком общими (например, средства массовой информации, социальное обеспечение и электроника — три из двенадцати категорий Sina Weibo), либо слишком общими. смешанные (например, помощник бухгалтера учится в другом классе, чем бухгалтер в SOC).Чтобы устранить эти ограничения, мы исследуем задачу отраслевого прогнозирования на большом корпусе блогов, состоящем из более чем 20 тысяч американских пользователей, 40 тысяч веб-блогов и 560 тысяч сообщений в блогах.Мы компилируем наш набор данных с отраслевыми аннотациями, определяя профили блоггеров, расположенных в США, с помощью средства поиска профилей на http://www.blogger.com и считывая только тех пользователей, у которых был заполнен элемент отраслевого профиля.Для каждого из этих блоггеров мы извлекаем все их блоги и для каждого из этих блогов загружаем 21 самую последнюю публикацию в блогах.Затем мы очищаем эти сообщения в блогах от HTML-тегов и токенизируем их, а также удаляем тех блоггеров, чей совокупный текстовый контент в их сообщениях составляет менее 600 символов.Следуя этим рекомендациям, мы выявили всех блоггеров из США, владеющих полной отраслевой информацией.Традиционно стандартизированные отраслевые таксономии организуют экономическую деятельность в группы на основе схожих производственных процессов, продуктов или услуг, систем доставки или поведения на финансовых рынках.Следуя таким предположениям и несмотря на их большое сходство, фермер, выращивающий томаты, будет отнесен к отдельной отрасли, отличной от фермера, выращивающего табак.Как показано Preotiuc-Pietro et al.Преодоление15 подобных группировок может привести к необоснованным ошибочным классификациям.Платформа Blogger предоставляет в общей сложности 39 различных отраслевых возможностей.Несмотря на то, что полная отраслевая ценность представляет собой неявную текстовую аннотацию, мы признаем ту же проблему, которая отмечалась в предыдущих исследованиях: некоторые категории слишком широки, в то время как другие очень похожи.Чтобы исправить это, следуя Guibert et al. Guibert71, который утверждал, что наименования, используемые в классификации, должны отражать цель исследования, мы группируем различные отрасли Blogger на основе схожего образования и схожей технической терминологии.Для этого мы исключаем очень общие категории и объединяем концептуально схожие.Примерами широких категорий являются варианты «Образование» и «Студент»: учитель может преподавать с любой концентрацией, а студент может быть зачислен на любую дисциплину.Примерами концептуально схожих категорий являются «Инвестиционно-банковские услуги» и «Банковские опционы».Окончательный набор категорий показан в таблице TABREF1 вместе с количеством пользователей в каждой категории.Результирующий набор данных состоит из 22 880 пользователей, 41 094 блогов и 561 003 сообщений.В таблице TABREF2 представлена ​​дополнительная статистика нашего набора данных.Собрав наш набор данных, мы разделили его на три набора: набор поездов, набор разработки и набор тестов.Размеры этих наборов составляют 17 880, 2 500 и 2 500 пользователей соответственно, причем пользователи распределяются по этим наборам случайным образом.Во всех последующих экспериментах мы оцениваем наши классификаторы, обучая их на наборе поездов, настраиваем параметры и измеряем производительность на наборе разработки и, наконец, сообщаем о точности прогнозирования и результатах на наборе тестов.Обратите внимание, что все эксперименты проводятся на уровне пользователя, т. е. все данные для одного пользователя собираются в один экземпляр в наших наборах данных.Чтобы измерить производительность наших классификаторов, мы используем точность прогнозирования.Однако, как показано в таблице TABREF1, доступные данные неравномерны по категориям, что может привести к несколько искаженным показателям точности в зависимости от того, насколько хорошо модель научится прогнозировать наиболее густонаселенные классы.Более того, сама по себе точность не дает глубокого понимания индивидуальных результатов в каждой отрасли, что является одной из основных целей данного исследования.Поэтому в наших результатах ниже мы сообщаем: (1) микроточность ( INLINEFORM0 ), рассчитанную как процент правильно классифицированных экземпляров от всех экземпляров в данных разработки (тестирования); и (2) макроточность ( INLINEFORM1 ), рассчитанная как среднее значение точности по каждой категории, где точность по категории представляет собой процент правильно классифицированных экземпляров из экземпляров, принадлежащих к одной категории в данных разработки (тестирования). .В этом разделе мы стремимся к эффективности использования исключительно текстовых функций, полученных из сообщений пользователей, для прогнозирования их отрасли.Базовый уровень большинства отраслевых прогнозов устанавливается путем обнаружения наиболее часто используемого класса в нашем обучающем наборе и выбора этого класса во всех прогнозах в соответствующем наборе разработки или тестирования.Исключив из нашего обучающего набора все слова, которые не используются как минимум тремя отдельными пользователями, мы строим нашу модель AllWords, подсчитывая частоты всех оставшихся слов и обучая полиномиальный наивный байесовский классификатор.Как видно на рисунке FigREF3, мы можем значительно превзойти базовую производительность большинства, включив базовые языковые сигналы в алгоритмы машинного обучения (улучшение INLINEFORM0 на 173%). Мы дополнительно исследуем потенциал улучшения нашей задачи классификации текста, применяя ряд методов ранжирования функций и выбор различных пропорций функций с самым высоким рейтингом в попытке исключить зашумленные функции.Мы начинаем с ранжирования различных функций w в соответствии с их показателем коэффициента прироста информации (IGR) по отношению к каждой отрасли i и обучаем наш классификатор, используя различные пропорции основных функций.ИНЛАЙНФОРМ0 ИНЛАЙНФОРМ1Несмотря на то, что мы обнаружили, что использование лучших 95% всех функций уже превышает производительность модели All Words на данных разработки, мы дополнительно экспериментируем с ранжированием наших функций по более агрессивной формуле, которая активно продвигает функции, тесно связанные с любая отраслевая категория.Поэтому для каждого слова в нашем обучающем наборе мы определяем наш новый метод ранжирования, агрессивное ранжирование функций (AFR), как: INLINEFORM0 На рисунке FigREF3 мы иллюстрируем эффективность всех четырех методов в нашей задаче отраслевого прогнозирования на данных разработки.Обратите внимание, что для каждого метода мы предоставляем как точность ( INLINEFORM0 ), так и среднюю точность для каждого класса ( INLINEFORM1 ).Методы «Большинство» и «Все слова» применяются ко всем функциям; поэтому на рисунке они представлены прямой линией.Методы IGR и AFR применяются к различным подмножествам объектов с шагом 5%.Наши эксперименты показывают, что выбор слов, который пользователи делают в своих сообщениях, коррелирует с их отраслью.Первое наблюдение на рисунке FigREF3 заключается в том, что INLINEFORM0 пропорционален INLINEFORM1; по мере увеличения INLINEFORM2 увеличивается и INLINEFORM3 .Во-вторых, лучший результат на наборе разработки достигается при использовании лучших 90% функций с помощью метода AFR.Наконец, улучшения выбора функций IGR и AFR не существенно лучше по сравнению с All Words (улучшение не более 5% между All Words и AFR), что предполагает, что существует лишь несколько зашумленных функций и большинство слов играют определенную роль. в формировании «языка» отрасли.В качестве окончательной оценки мы применяем к тестовым данным классификатор, который лучше всего работает с данными разработки (выбор функций AFR, лучшие 90% функций), для INLINEFORM0, равного 0,534, и INLINEFORM1, равного 0,477. Вместе с отраслевой информацией и наиболее недавние публикации каждого блоггера, мы также загружаем ряд сопутствующих элементов профиля.Используя эти дополнительные элементы, мы исследуем потенциал включения метаданных пользователей в наши классификаторы.В таблице TABREF7 показаны различные метаданные пользователей, которые мы рассматриваем, вместе с процентом их охвата (не все пользователи предоставляют значения для всех элементов профиля).За исключением поля пола, остальные элементы метаданных, показанные в таблице TABREF7, заполняются пользователями в виде свободно редактируемого текстового поля.Это вносит значительный шум в набор возможных значений метаданных.Примеры шума в сфере занятости включают такие значения, как «Пенсионер», «Я работаю» или «мама», которые не обязательно являются информативными для нашей задачи отраслевого прогнозирования.Чтобы проверить, могут ли поля метаданных помочь в прогнозировании отрасли пользователя, мы создаем классификаторы, используя различные элементы метаданных.Для каждого элемента метаданных, имеющего текстовое значение, мы используем все слова в обучающем наборе для этого поля в качестве функций.Единственными двумя исключениями являются поле штата, которое закодировано как одна функция, которая может принимать одно из 50 различных значений, представляющих 50 штатов США; и поле пола, которое кодируется как функция с отдельным значением для каждого варианта пола пользователя: неопределенный, мужской или женский.Как показано в таблице TABREF9, мы строим четыре разных классификатора, используя полиномиальный алгоритм NB:Occu (который использует слова, найденные в элементе профиля профессии), Intro (знакомство), Inter (интересы) и Gloc (комбинированный пол, город, штат). В целом, все классификаторы метаданных работают лучше, чем наш базовый уровень большинства ( INLINEFORM0 18,88%).Для классификатора Gloc этот результат соответствует предыдущим исследованиям BIBREF24.Однако единственным классификатором метаданных, который превосходит классификатор контента, является классификатор Occu, который, несмотря на отсутствие и зашумленные значения занятости, превосходит производительность классификатора контента на абсолютные 3,2%. Чтобы изучить перспективу объединения пяти различных классификаторов, которые мы создали до сих пор, мы рассчитываем их согласие между прогнозами, используя каппу BIBREF25 Флейса, а также нижние границы прогноза, используя меру двойной ошибки BIBREF26.Значения Каппа, представленные в нижней левой части таблицы TABREF10, отражают соглашение о классификации категориальных позиций, в данном случае отрасли пользователя.Более низкие значения, особенно значения ниже 30%, означают меньшее согласие.Поскольку все пять классификаторов имеют точность выше базовой, такое низкое согласие предполагает, что их прогнозы потенциально могут быть объединены для достижения лучшего совокупного результата.Более того, значения меры двойной ошибки, представленные в верхней правой части таблицы TABREF10, выражают долю тестовых случаев, для которых оба соответствующих классификатора делают ложные предсказания, по существу обеспечивая наименьшую границу ошибки для парного ансамбля. производительность классификатора.Чем ниже эти числа, тем выше потенциал точности любой схемы метаклассификации, объединяющей эти классификаторы.Опять же, низкие значения показателя двойной ошибки предполагают потенциальную выгоду от объединения базовых классификаторов в ансамбль моделей.Установив обещание создать ансамбль классификаторов, мы реализуем два подхода к метаклассификации.Во-первых, мы объединяем наши классификаторы, используя конкатенацию признаков (или раннее слияние).Начиная с нашего классификатора на основе контента (текст), мы последовательно добавляем функции, полученные из каждого элемента метаданных.Результаты как микро-, так и макроточности представлены в таблице TABREF12.Несмотря на то, что все эти четыре ансамбля конкатенации функций превосходят классификатор на основе контента в наборе разработки, им не удается превзойти классификатор Occu.Во-вторых, мы исследуем потенциал использования многоуровневого обобщения (или позднего слияния) BIBREF27.Базовые классификаторы, называемые классификаторами L0, обучаются на разных сгибах обучающего набора и используются для прогнозирования класса оставшихся экземпляров.Эти прогнозы затем используются вместе с истинной меткой обучающих экземпляров для обучения второго классификатора, называемого классификатором L1: этот L1 используется для создания окончательного прогноза как для данных разработки, так и для тестовых данных.Традиционно при стекировании используются разные алгоритмы машинного обучения для одних и тех же обучающих данных.Однако в нашем случае мы используем один и тот же алгоритм (мультиномиальный NB) для разнородных данных (т. е. различных типов данных, таких как содержание, род занятий, знакомство, интересы, пол, город и штат), чтобы использовать все доступные источники информации.Результаты ансамблевого обучения на наборе разработки показаны в таблице TABREF12.Мы замечаем постоянное улучшение обеих метрик при добавлении в наш ансамбль большего количества классификаторов, за исключением классификатора Gloc, который немного снижает производительность.Наилучший результат достигается при использовании ансамбля классификаторов Text, Occu, Intro и Inter L0; соответствующая производительность на тестовом наборе составляет INLINEFORM0 0,643 и INLINEFORM1 0,564.Наконец, на рисунке FigREF11 мы представляем точность прогноза для окончательного классификатора для каждой из различных отраслей в нашем наборе тестовых данных.Очевидно, что некоторые отрасли легче прогнозировать, чем другие.Например, в то время как отрасли недвижимости и религии достигают показателей точности выше 80%, другие отрасли, такие как банковская отрасль, прогнозируются правильно менее чем в 17% случаев.Неофициальные данные, полученные в результате изучения матрицы путаницы, не способствуют какой-либо сильной связи банковского класса с каким-либо другим.Неправильные классификации примерно одинаковы для всех остальных классов, что позволяет предположить, что пользователи банковской отрасли используют язык неразличительным образом.В этом разделе мы даем качественный анализ языка различных отраслей.Чтобы провести качественное исследование того, какие слова указывают на отрасль пользователя, в таблице TABREF14 показаны три слова с самым высоким рейтингом для различных отраслей с использованием метода AFR.Неудивительно, что слова, занимающие верхние позиции, хорошо соответствуют тому, что мы интуитивно ожидаем от каждой отрасли.Несмотря на то, что большинство этих слов потенциально используются многими пользователями независимо от их отрасли в нашем наборе данных, они по-прежнему различаются методом AFR из-за различной частоты этих слов в тексте каждой отрасли.Далее мы исследуем, как значение слова формируется контекстом, в котором оно произносится.В частности, мы качественно исследуем, как индустрия говорящих влияет на значение, изучая представления слов в векторном пространстве, которые принимают во внимание такую ​​​​контекстную информацию.Чтобы добиться этого, мы применяем контекстуализированное встраивание слов, предложенное Bamman et al. Bamman14, которые основаны на расширении языковой модели «skip-gram» BIBREF28.Помимо изучения глобального представления для каждого слова, эти контекстуализированные внедрения вычисляют одно отклонение от общего представления внедрения слов для каждой контекстной переменной, в данном случае это отраслевой вариант.Эти отклонения фиксируют вариации значений терминов (сдвиги в INLINEFORM0-мерном пространстве представлений, где INLINEFORM1 в наших экспериментах) в тексте разных отраслей, однако все вложения находятся в одном и том же векторном пространстве, чтобы можно было сравнивать их с одним. другой.Используя словесные представления, изученные для каждой отрасли, мы представляем в таблице TABREF16.термины в сфере технологий и туризма, которые имеют наибольшее косинусное сходство со словом «клиенты», связанным с работой.Аналогичным образом, в таблице TABREF17 показаны слова из отраслей «Окружающая среда» и «Туризм», которые наиболее близки по значению к общеинтересному слову «еда».Дополнительные примеры приведены в Приложении SECREF8. Термины, занимающие наивысшие позиции в каждой отрасли, заметно различаются.Например, как видно из таблицы TABREF17, в то время как продукты питания в индустрии охраны окружающей среды схожи с пищевыми продуктами и местными условиями, в индустрии туризма это же слово больше относится к таким терминам, как «вкусная еда» и «выпечка».Эти результаты не только подчеркивают существующие различия в том, как люди в разных отраслях воспринимают определенные термины, но также демонстрируют, что эти различия могут быть эффективно отражены в полученных встраиваниях слов.В качестве окончательного анализа мы исследуем, как эмоционально заряженные слова связаны с различными отраслями.Чтобы количественно оценить эмоциональную направленность текста, мы используем категории «Позитивные эмоции» и «Отрицательные эмоции» в словаре Linguistic Inquiry and Word Count (LIWC) BIBREF29.Словарь LIWC содержит списки слов, которые, как было показано, коррелируют с психологическим состоянием людей, которые их используют; например, категория «Позитивные эмоции» содержит такие слова, как «счастливый», «красивый» и «хороший».«Для текста всех пользователей в каждой отрасли мы измеряем частоту слов положительных и отрицательных эмоций, нормализованную по длине текста.В таблице TABREF20 представлен рейтинг отраслей для обеих категорий слов на основе их относительной частоты в тексте каждой отрасли.Далее мы проводим разбивку по полу, где еще раз рассчитываем долю эмоционально заряженных слов в каждой отрасли, но отдельно для каждого пола.Мы обнаружили, что отраслевые рейтинги относительных частот INLINEFORM0 эмоционально заряженных слов для двух полов статистически значимо коррелируют, что позволяет предположить, что независимо от пола пользователи используют положительные (или отрицательные) слова с относительной частотой, которая коррелирует с их отраслью.(Другими словами, даже если, например, в моде больше женщин-пользователей, как мужчины, так и женщины, работающие в моде, будут склонны использовать больше позитивных слов, чем представители соответствующего пола в другой отрасли с большим количеством пользователей-мужчин, например, в автомобильной промышленности. ) Наконец, руководствуясь предыдущими результатами корреляции между удовлетворенностью работой и гендерным доминированием на рабочем месте (BIBREF30), мы исследуем взаимосвязь между использованием слов, содержащих положительные и отрицательные эмоции, и гендерным доминированием в отрасли.Хотя мы обнаружили, что в каждой отрасли существует значительный гендерный дисбаланс (Приложение SECREF9), мы не обнаружили какой-либо статистически значимой корреляции между соотношением гендерного доминирования в различных отраслях и использованием позитивных (или негативных) эмоциональных слов ни у одного пола в наших исследованиях. набор данных.В этой статье мы рассмотрели задачу прогнозирования отрасли пользователей социальных сетей.Мы представили аннотированный набор данных, охватывающий более 20 000 пользователей блога, и применили классификатор на основе контента в сочетании с двумя методами выбора признаков для достижения общей точности до 0,534, что представляет собой значительное улучшение по сравнению с базовым показателем большинства классов, равным 0,188. Мы также продемонстрировали, как метаданные пользователя могут быть включены в наши классификаторы.Хотя объединение признаков, взятых как из содержимого блога, так и из элементов профиля, не привело к каким-либо явным улучшениям по сравнению с лучшими отдельными классификаторами, мы обнаружили, что суммирование повышает точность прогнозирования до общей точности 0,643, измеренной на нашем тестовом наборе данных.Более углубленный анализ показал, что не все отрасли одинаково легко предсказать: в то время как такие отрасли, как недвижимость и религия, четко различимы с точностью более 0,80, другие, такие как банковское дело, прогнозировать гораздо труднее.Наконец, мы представили качественный анализ, чтобы дать некоторое представление о языке различных отраслей, который выявил различия в словах, занимающих первые места в каждой отрасли, семантическое сходство слов и относительную частоту эмоционально заряженных слов.Этот материал частично основан на работе, поддержанной Национальным научным фондом (# 1344257) и Фондом Джона Темплтона (# 48503).Любые мнения, выводы и выводы или рекомендации, выраженные в этом материале, принадлежат авторам и не обязательно отражают точку зрения Национального научного фонда или Фонда Джона Темплтона.
Автоматическое профилирование пользователей социальных сетей является важной задачей для поддержки множества последующих приложений. Хотя в ряде исследований контент социальных сетей использовался для извлечения и изучения коллективных социальных атрибутов, существенных исследований, посвященных выявлению отрасли пользователя, не хватает. Мы формулируем эту задачу как классификацию, используя как разработку признаков, так и ансамблевое обучение. Наша система определения отрасли использует как опубликованный контент, так и информацию профиля для определения отрасли пользователя с точностью 64,3%, что значительно превосходит большинство базовых показателей в таксономии из четырнадцати отраслевых классов. Наш качественный анализ показывает, что сфера деятельности человека влияет не только на используемые слова и их воспринимаемое значение, но также на количество и тип выражаемых эмоций.
4,219
QasperSumInstruct
ru
Напиши аннотацию по статье
Обнаружение фейковых новостей с помощью капсульных нейронных сетей. Гибкость и простота доступа к социальным сетям привели к тому, что большое количество людей стали использовать онлайн-каналы для доступа к новостям.Например, почти две трети взрослых американцев имеют доступ к новостям онлайн-каналов BIBREF0, BIBREF1.BIBREF2 также сообщил, что потребление социальных сетей и новостей в Великобритании значительно возросло.По сравнению с традиционными СМИ социальные сети оказались более полезными, особенно во время кризиса, благодаря способности гораздо быстрее распространять последние новости (BIBREF3).Однако все новости нереальны, и существует возможность изменения и манипулирования реальной информацией людьми по политическим, экономическим или социальным мотивам.Эти манипулированные данные приводят к созданию новостей, которые могут быть не совсем правдивыми или не полностью ложными BIBREF4.Поэтому в социальных сетях появляется вводящая в заблуждение информация, которая может вызвать множество проблем в обществе.Такая дезинформация, называемая фейковыми новостями, имеет большое разнообразие типов и форматов.Фальшивая реклама, ложные политические заявления, сатира и слухи являются примерами фейковых новостей BIBREF0.Такое широкое распространение фейковых новостей, которое превосходит основные средства массовой информации BIBREF5, побудило многих исследователей и практиков сосредоточиться на создании эффективных автоматических систем для обнаружения фейковых новостей BIBREF6.Google анонсировала онлайн-сервис под названием «Инициатива новостей Google» для борьбы с фейковыми новостями BIBREF7.Этот проект попытается помочь читателям распознать фейковые новости и отчеты BIBREF8. Обнаружение фейковых новостей — непростая задача.Модель обнаружения фейковых новостей пытается предсказать намеренно вводящие в заблуждение новости на основе анализа реальных и фейковых новостей, которые были рассмотрены ранее.Поэтому наличие качественных и больших обучающих данных является важным вопросом.Задачей обнаружения фейковых новостей может быть простая бинарная классификация или, в сложных условиях, детальная классификация BIBREF9.После 2017 года, когда были представлены наборы данных фейковых новостей, исследователи попытались повысить производительность своих моделей, используя эти данные.Набор данных Kaggle, набор данных ISOT и набор данных LIAR — одни из самых известных общедоступных наборов данных BIBREF10. В этой статье мы предлагаем новую модель, основанную на капсульных нейронных сетях, для обнаружения фейковых новостей.Мы предлагаем архитектуры для обнаружения фейковых новостей в новостных сообщениях разной длины, используя различные варианты встраивания слов и применяя разные уровни n-грамм в качестве экстракторов признаков.Мы показываем, что эти предложенные модели достигают лучших результатов по сравнению с современными методами.Остальная часть статьи организована следующим образом: В разделе SECREF2 рассматривается работа по обнаружению фейковых новостей.В разделе SECREF3 представлена ​​модель, предложенная в этой статье.Наборы данных, используемые для обнаружения и оценки фейковых новостей, представлены в разделе SECREF4.В разделе SECREF5 представлены результаты экспериментов, сравнение с базовой классификацией и обсуждение.Раздел SECREF6 подводит итоги статьи и завершает эту работу.Обнаружение фейковых новостей изучалось в ходе нескольких расследований.BIBREF11 представил обзор подходов к оценке обмана, включая основные классы и конечные цели этих подходов.Они также исследовали проблему, используя два подхода: (1) лингвистические методы, в которых связанные языковые модели были извлечены и точно проанализированы из новостного контента для принятия решения по этому поводу, и (2) сетевые подходы, в которых сетевые параметры, такие как сетевые запросы и метаданные сообщений были развернуты для принятия решений о новых поступающих новостях.BIBREF12предложил автоматический детектор фейковых новостей под названием CSI, который состоит из трех модулей: Capture, Score и Integrate, который прогнозирует, используя три функции, связанные с входящими новостями: текст, ответ и его источник.Модель включает в себя три модуля; первый извлекает временное представление новостных статей, второй представляет и оценивает поведение пользователей, а последний модуль использует результаты первых двух модулей (т. е. извлеченные представления как пользователей, так и статей) и использует их. для классификации.Их эксперименты показали, что CSI обеспечивает улучшение точности.BIBREF13 представил новый подход, который пытается решить, является ли новость фейковой или нет, на основе пользователей, которые взаимодействовали с ней и/или им понравилось.Они предложили два метода классификации.Первый метод развертывает модель логистической регрессии и учитывает взаимодействие с пользователем в качестве особенностей.Второй — это новая адаптация методов краудсорсинга булевых меток.Эксперименты показали, что оба подхода достигли высокой точности, и доказали, что учет пользователей, которые взаимодействуют с новостями, является важной особенностью для принятия решения относительно этих новостей.BIBREF14представили два новых набора данных, которые относятся к семи различным областям, и вместо коротких заявлений, содержащих информацию о фейковых новостях, их наборы данных содержат отрывки из реальных новостей.Они применили машинный классификатор линейных опорных векторов и показали, что лингвистические функции, такие как функции лексического, синтаксического и семантического уровня, полезны для различения фейковых и подлинных новостей.Результаты показали, что производительность разработанной системы сравнима с работой человека в этой области.BIBREF15 предоставил новый набор данных под названием LIAR, состоящий из 12 836 помеченных коротких утверждений.Экземпляры в этом наборе данных выбраны из более естественных контекстов, таких как сообщения в Facebook, твиты, политические дебаты и т. д.Они предложили архитектуру нейронной сети для совместного использования текста и метаданных.Модель состоит из сверточной нейронной сети (CNN) для извлечения признаков из текста и сети двунаправленной долговременной краткосрочной памяти (BiLSTM) для извлечения признаков из метаданных и обеспечивает объединение этих двух признаков в полностью связанную систему. слой softmax для принятия окончательного решения по соответствующим новостям.Они показали, что сочетание метаданных с текстом приводит к значительному повышению точности.BIBREF16 доказал, что включение профилей говорящих в модель LSTM, основанную на внимании, может улучшить производительность детектора фейковых новостей.Они утверждают, что профили говорящих могут способствовать модели двумя разными способами.Во-первых, включив их в модель внимания.Во-вторых, рассматривая их как дополнительные входные данные.Они использовали партийную принадлежность, местоположение говорящего, должность и кредитную историю в качестве профилей говорящих и показывают, что эти метаданные могут повысить точность классификатора в наборе данных LIAR.BIBREF17представил новый набор данных для обнаружения фейковых новостей под названием ISOT.Этот набор данных был полностью собран из реальных источников.Они использовали модели n-грамм и шесть методов машинного обучения для обнаружения фейковых новостей в наборе данных ISOT.Они достигли наилучшей производительности, используя TF-IDF в качестве экстрактора признаков и линейную машину опорных векторов в качестве классификатора.BIBREF18предложил сквозную структуру, называемую событийно-состязательной нейронной сетью, которая способна извлекать мультимодальные функции, инвариантные к событиям.Эта модель состоит из трех основных компонентов: мультимодального экстрактора функций, детектора фейковых новостей и дискриминатора событий.Первый компонент использует CNN в качестве основного модуля.Для второго компонента развертывается полносвязный слой с активацией softmax, чтобы предсказать, являются ли новости фейковыми или нет.В качестве последнего компонента используются два полносвязных слоя, целью которых является классификация новостей в одно из K событий на основе представлений первого компонента.BIBREF19 разработал понятный байесовский алгоритм под названием «Детектив», который обеспечивает баланс между выбором новостей, которые напрямую максимизируют объективную ценность, и выбором новостей, которые помогают изучить точность пометки пользователем.Они заявляют, что основная цель их работы — свести к минимуму распространение ложной информации и сократить количество пользователей, увидевших фейковые новости до того, как они будут заблокированы.Их эксперименты показывают, что Detective очень конкурентоспособен по сравнению с вымышленным алгоритмом OPT, алгоритмом, который знает параметры истинных пользователей и надежно применяет флаги даже в условиях, когда большинство пользователей настроены враждебно.В этом разделе мы впервые представляем различные варианты моделей встраивания слов.Затем мы предложили две капсульные модели нейронных сетей в зависимости от длины новостных сообщений, которые включают в себя различные модели встраивания слов для обнаружения фейковых новостей.Плотное представление слов может захватывать синтаксическую или семантическую информацию из слов.Когда представления слов демонстрируются в низкомерном пространстве, они называются встраиванием слов.В этих представлениях слова со схожим значением находятся в близком положении в векторном пространстве.В 2013 году BIBREF20 предложил word2vec — группу высокоэффективных вычислительных моделей для изучения встраивания слов из необработанного текста.Эти модели создаются путем обучения двухслойных нейронных сетей, обученных на большом объеме текста.Эти модели могут создавать векторные представления для каждого слова с несколькими сотнями измерений в векторном пространстве.В этом пространстве слова со схожим значением сопоставляются с близкими координатами.Существуют предварительно обученные векторы word2vec, такие как «Новости Google», которые были обучены на 100 миллиардах слов из новостей Google.Одним из популярных методов повышения производительности обработки текста является использование этих предварительно обученных векторов для инициализации векторов слов, особенно при отсутствии большого контролируемого обучающего набора.Эти распределенные векторы можно передать в глубокие нейронные сети и использовать для любой задачи классификации текста BIBREF21.Однако эти предварительно обученные внедрения можно дополнительно улучшить.BIBREF21 впервые применил различные настройки обучения для векторного представления слов через word2vec и показал их превосходство по сравнению с обычными предварительно обученными встраиваниями, когда они используются в модели CNN.Эти настройки следующие: Статическая модель word2vec: в этой модели предварительно обученные векторы используются в качестве входных данных для архитектуры нейронной сети, эти векторы остаются статичными во время обучения, и изучаются только другие параметры.Нестатическая модель word2vec: эта модель использует предварительно обученные векторы при инициализации обучения, но на этапе обучения эти векторы точно настраиваются для каждой задачи с использованием данных обучения целевой задачи.Многоканальная модель word2vec: модель использует два набора статических и нестатических векторов word2vec, а часть векторов подстраивается во время обучения.Хотя для обнаружения фейковых новостей были предложены различные модели, основанные на глубоких нейронных сетях, по-прежнему существует большая потребность в дальнейших улучшениях этой задачи.В текущем исследовании мы стремимся использовать капсульные нейронные сети для повышения точности систем идентификации фейковых новостей.Капсульная нейронная сеть была впервые представлена ​​BIBREF22 в статье «Динамическая маршрутизация между капсулами».В этой статье они показали, что производительность капсульной сети для набора данных MNIST с сильно перекрывающимися цифрами может работать лучше, чем CNN.В компьютерном зрении капсульная сеть — это нейронная сеть, которая пытается работать с обратной графикой.В некотором смысле этот подход пытается перепроектировать физический процесс, создающий образ мира BIBREF23. Сеть капсул состоит из множества капсул, которые действуют как функция и пытаются предсказать параметры создания экземпляра и присутствие конкретного объекта. в заданном месте.Одной из ключевых особенностей капсульных сетей является эквивариантность, целью которой является сохранение подробной информации о местоположении объекта и его положении во всей сети.Например, если кто-то слегка повернёт изображение, векторы активации также слегка изменятся BIBREF24.Одним из ограничений обычной CNN является потеря точного местоположения и позы объектов на изображении.Хотя это не является сложной проблемой при классификации всего изображения, это может стать узким местом при сегментации изображения или обнаружении объектов, требующих точного местоположения и позы.Однако капсула может преодолеть этот недостаток в таких приложениях. BIBREF24. В последнее время капсульным сетям уделяется значительное внимание.Эта модель направлена ​​на улучшение CNN и RNN путем добавления следующих возможностей к каждому исходному и целевому узлу: (1) исходный узел имеет возможность принимать решение о количестве сообщений для передачи целевым узлам и (2) целевой узел имеет возможность принимать решение о количестве сообщений, которые могут быть получены от разных исходных узлов BIBREF25. После успеха капсульных сетей в задачах компьютерного зрения BIBREF26, BIBREF27, BIBREF28 капсульные сети стали использоваться в различных задачах НЛП, включая классификацию текста BIBREF29. , BIBREF30, текстовая классификация с несколькими метками BIBREF31, анализ настроений BIBREF18, BIBREF32, выявление агрессии и токсичности в комментариях BIBREF33 инулевое обнаружение намерений пользователя BIBREF34. В капсульных сетях функции, извлеченные из текста, инкапсулируются в капсулы (группы нейронов).Первая работа, в которой капсульные сети применились для классификации текста, была выполнена BIBREF35.В их исследовании впервые была оценена производительность капсульной сети как сети классификации текста.Их капсульная сетевая архитектура включает стандартный сверточный уровень, называемый сверточным слоем n-грамм, который работает как экстрактор признаков.Второй уровень — это слой, который отображает скалярные функции в капсульное представление и называется первичным капсульным слоем.Выходные данные этих капсул подаются на слой сверточной капсулы.На этом уровне каждая капсула связана только с локальной областью нижнего слоя.На последнем этапе выходные данные предыдущего слоя сглаживаются и подаются через капсульный слой прямой связи.Для этого слоя каждая капсула выходных данных рассматривается как определенный класс.В этой архитектуре для обучения модели используется потеря максимальной маржи.На рисунке FigREF6 показана архитектура, предложенная BIBREF35. Некоторые характеристики капсул делают их подходящими для представления предложения или документа в виде вектора для классификации текста.Эти характеристики включают представление атрибутов частичных сущностей и выражение семантического значения в широком пространстве. BIBREF29. Для идентификации фейковых новостей с различной длиной утверждений наша модель использует несколько параллельных капсульных сетей и использует усредненное объединение на последнем этапе.Благодаря такой архитектуре модели могут изучать более значимые и обширные текстовые представления на разных уровнях n-грамм в зависимости от длины текста.В зависимости от длины новостных сообщений мы используем две разные архитектуры.На рисунке FigREF7 изображена структура предлагаемой модели для средних и длинных новостных сообщений.В модели в качестве слоя внедрения используется нестатическое встраивание слов.На этом уровне мы используем «glove.6B.300d» в качестве предварительно обученного внедрения слов и используем четыре параллельные сети, рассматривая четыре разных размера фильтра 2,3,4,5 как сверточные слои n-грамм для извлечения признаков.На следующих уровнях для каждой параллельной сети имеется уровень первичной капсулы и слой сверточной капсулы соответственно, как показано на рисунке РИС. 6.На последнем уровне для каждой параллельной сети используется полностью подключенный капсульный уровень.В конце добавляется средний опрос для получения окончательного результата.Для коротких новостных сообщений из-за ограничения последовательности слов предложена другая структура.Слои аналогичны первой модели, но рассматриваются только две параллельные сети с размером фильтра 3 и 5.В этой модели используется статическое встраивание слов.На рисунке FigREF8 показана структура предлагаемой модели для коротких новостных сообщений.Для обнаружения фейковых новостей было введено несколько наборов данных.Одним из основных требований для использования нейронных архитектур является наличие большого набора данных для обучения модели.В этой статье мы используем два набора данных, а именно: фейковые новости ISOT BIBREF17.и LIAR BIBREF15, в которых имеется большое количество документов по обучению глубоких моделей.Длина новостных заявлений для ISOT средняя или длинная, а для LIAR – короткая.В 2017 году BIBREF17 представил новый набор данных, собранный из реальных источников.Этот набор данных состоит из новостных статей с Reuters.com и Kaggle.com, посвященных реальным и фейковым новостям соответственно.Каждый экземпляр в наборе данных имеет длину более 200 символов.Для каждой статьи доступны следующие метаданные: тип статьи, текст статьи, заголовок статьи, дата статьи и метка статьи (поддельная или настоящая).В таблице TABREF12 показаны типы и размеры статей для реальных и поддельных категорий.Как упоминалось в разделе SECREF2, один из последних хорошо известных наборов данных предоставлен BIBREF15.BIBREF15 представил новый большой набор данных под названием LIAR, который включает 12,8 тыс. коротких операторов, помеченных человеком, из API POLITIFACT.COM.Каждое утверждение проверяется редактором POLITIFACT.COM на предмет его достоверности.Для оценки степени правдивости учитываются шесть детальных ярлыков, в том числе «глупый», «ложный», «почти правдивый», «полуправдивый», «в основном правдивый» и «правдивый».Распределение ярлыков в этом наборе данных следующее: 1050 ярлыков «штаны» и диапазон от 2063 до 2638 для других ярлыков.Помимо новостных заявлений, этот набор данных состоит из нескольких метаданных в виде профилей докладчиков для каждой новости.Эти метаданные включают ценную информацию о субъекте, докладчике, работе, штате, партии и общей кредитной истории докладчика новостей.Общий подсчет кредитной истории, включая едва ли правдивые подсчеты, ложные подсчеты, полуправдивые подсчеты, в основном верные подсчеты и подсчеты «пожаров в штанах».Статистика набора данных LIAR показана в таблице TABREF14.Некоторые выдержки из набора данных LIAR представлены в таблице.TABREF15. Эксперименты в этой статье проводились на ПК с процессором Intel Core i7 6700k, 3,40 ГГц; 16 ГБ ОЗУ; Графический процессор Nvidia GeForce GTX 1080Ti на рабочей станции Linux.Для реализации предложенной модели использовалась библиотека Keras BIBREF36, которая представляет собой API нейронной сети высокого уровня. Метрикой оценки в наших экспериментах является точность классификации.Точность представляет собой отношение правильных прогнозов к общему количеству образцов и рассчитывается следующим образом: где TP представляет собой количество истинно положительных результатов, FP представляет количество ложноположительных результатов, TN представляет количество истинно отрицательных результатов, а FN представляет собой количество ложноотрицательных результатов.Для оценки эффективности предложенной модели была проведена серия экспериментов на двух наборах данных.Эти эксперименты объясняются в этом разделе, а результаты сравниваются с другими базовыми методами.Мы также обсуждаем результаты для каждого набора данных отдельно.Как упоминалось в разделе SECREF4, BIBREF17 представил набор данных ISOT.В соответствии с базовым документом мы рассматриваем 1000 статей для каждого набора реальных и фейковых статей, всего 2000 статей для тестового набора, а модель обучается на остальных данных.Сначала предлагаемая модель оценивается с использованием различных вложений слов, описанных в разделе SECREF1.В таблице TABREF20 показаны результаты применения различных вложений слов для предложенной модели ISOT, которая состоит из новостных сообщений средней и большой длины.Наилучший результат достигается применением нестатического встраивания.BIBREF17 оценил различные методы машинного обучения для обнаружения фейковых новостей в наборе данных ISOT, включая машину опорных векторов (SVM), линейную машину опорных векторов (LSVM), K-ближайший сосед (KNN), дерево решений (DT), Методы стохастического градиентного спуска (SGD) и логистической регрессии (LR).В таблице TABREF21 показана производительность нестатической капсульной сети для обнаружения фейковых новостей по сравнению с другими методами.Точность нашей модели на 7,8% выше, чем лучший результат, достигнутый LSVM. Предлагаемая модель может предсказывать истинные метки с высокой точностью, достигая очень небольшого количества неправильных прогнозов.В таблице TABREF23 показаны заголовки двух ошибочно предсказанных образцов для обнаружения фейковых новостей.Чтобы проанализировать наши результаты, мы исследуем влияние образцов слов, представленных в обучающих утверждениях, которые помечены как настоящие и фальшивые отдельно.Для этой работы все слова и их частоты извлекаются из двух неправильных выборок, а также реальных и поддельных меток обучающих данных.В таблице TABREF24 показана информация об этих данных.Затем для каждого ошибочно предсказанного образца стоп-слова опускаются и перечисляются слова с частотой более двух.После этого извлекаются все эти слова и их частота в реальных и поддельных наборах обучающих данных.В этой части частоты этих слов нормируются.Таблица TABREF25а таблица TABREF28 показывает нормализованные частоты слов для каждого образца.В этих таблицах для удобства сравнения нормированные частоты реальных и фальшивых меток обучающих данных и нормализованная частота для каждого слова в каждой неправильной выборке умножаются на 10. Метка Выборки 1 прогнозируется как фальшивая, но она настоящая. .В таблице TABREF25 перечислены шесть наиболее часто встречающихся слов выборки 1, слово «налог» представлено в 2 раза чаще, чем каждое из остальных слов в выборке 1, и это слово в обучающих данных с реальными метками явно встречается чаще.Помимо этого слова, для других слов, таких как «государство», существует то же наблюдение.Текст Примера 2 прогнозируется как реальная новость, но это фейк.В таблице TABREF28 перечислены шесть часто встречающихся слов образца 2.Два наиболее часто встречающихся слова в этом тексте — «трамп» и «сандерс».Эти слова чаще встречаются в обучающих данных с поддельными метками, чем в обучающих данных с настоящими метками.«Все» и «даже» — еще два часто встречающихся слова. Мы используем слово «даже» для обозначения чего-то удивительного, неожиданного, необычного или экстремального, а «все» означает каждое, полное число, количество или целое.следовательно, текст, включающий эти слова, имеет больше шансов быть классифицированным как фейковая новость.Эти эксперименты показывают сильное влияние частоты выборочных слов на предсказание меток.Как упоминалось в разделе SECREF13, набор данных LIAR представляет собой набор данных с несколькими метками и короткими новостными сообщениями.По сравнению с набором данных ISOT задача классификации для этого набора данных является более сложной.Мы оцениваем предложенную модель, используя различные метаданные, которые рассматриваются как профили говорящих.В таблице TABREF30 показана производительность капсульной сети для обнаружения фейковых новостей путем добавления всех метаданных.Наилучший результат модели достигается при использовании истории в качестве метаданных.Результаты показывают, что эта модель может работать лучше, чем современные базовые модели, включая гибридные CNN BIBREF15 и LSTM с вниманием BIBREF16 на 3,1% в проверочном наборе и на 1% в тестовом наборе.Рисунок ФИГРЕФ32показывает матрицу путаницы лучшей классификации с использованием предложенной модели для тестового набора.Модель с большей точностью классифицирует ложные, полуправдивые и в основном правдивые новости.Тем не менее, трудно провести различие между истинным и в основном истинным, а также между едва истинным и ложным.Наихудшая точность у классификации штанов-пожарных.Для этих ярлыков обнаружение правильного ярлыка является более сложной задачей, и многие тексты о пожаре прогнозируются как ложные.В этой статье мы применяем капсульные сети для обнаружения фейковых новостей.Мы предлагаем две архитектуры для разной длины новостных сообщений.Мы применяем две стратегии для повышения производительности капсульных сетей для выполнения этой задачи.Во-первых, для обнаружения средней или большой длины текста новостей мы используем четыре параллельные капсульные сети, каждая из которых извлекает различные n-граммные характеристики (2,3,4,5) из входных текстов.Во-вторых, мы используем нестатическое внедрение, так что модель внедрения слов постепенно совершенствуется и обновляется на этапе обучения.Более того, в качестве детектора фейковых новостей для коротких новостных сообщений мы используем только две параллельные сети с размерами фильтров 3 и 5 в качестве экстрактора признаков и статической модели для встраивания слов.Для оценки используются два набора данных.Набор данных ISOT в виде текста новостей средней длины или длинного текста, а LIAR — в виде короткого текста заявления.Результаты экспериментов на этих двух хорошо известных наборах данных показали улучшение точности на 7,8% в наборе данных ISOT, на 3,1% в проверочном наборе и на 1% в тестовом наборе данных LIAR.
В последние годы в социальных сетях резко возросло количество фейковых новостей. Это привело к необходимости разработки эффективных алгоритмов обнаружения фейковых новостей. Капсульные нейронные сети добились успеха в компьютерном зрении и привлекают внимание к использованию в обработке естественного языка (НЛП). Целью данной статьи является использование капсульных нейронных сетей в задаче обнаружения фейковых новостей. Мы используем разные модели встраивания для новостей разной длины. Статическое встраивание слов используется для коротких новостей, тогда как нестатическое встраивание слов, позволяющее постепенное повышение квалификации и обновление на этапе обучения, используется для новостных сообщений средней длины или больших размеров. Более того, мы применяем разные уровни n-грамм для извлечения признаков. Предлагаемые нами архитектуры оцениваются на двух последних хорошо известных наборах данных в этой области, а именно ISOT и LIAR. Результаты демонстрируют обнадеживающую производительность, превосходя современные методы на 7,8% по ISOT, на 3,1% по проверочному набору и на 1% по тестовому набору набора данных LIAR.
3,722
QasperSumInstruct
ru
Напиши аннотацию по статье
Чему мы можем научиться с помощью семантической маркировки?. Многозадачное обучение (MTL) — это недавно возродившийся подход к машинному обучению, при котором одновременно изучаются несколько задач.Оптимизируя одновременно несколько функций потерь связанных задач, модели многозадачного обучения могут достичь превосходных результатов по сравнению с моделями, обученными на одной задаче.Ключевой принцип резюмируется BIBREF0 как «MTL улучшает обобщение за счет использования специфичной для предметной области информации, содержащейся в обучающих сигналах связанных задач».Neural MTL становится все более успешным подходом благодаря использованию сходства между задачами обработки естественного языка (NLP) BIBREF1, BIBREF2, BIBREF3.Наша работа основана на BIBREF4, который демонстрирует, что использование семантической маркировки в качестве вспомогательной задачи для маркировки частей речи универсальной зависимости BIBREF5 может привести к повышению производительности.Цель этой статьи — выяснить, может ли обучение прогнозированию лексико-семантических категорий быть полезным для других задач НЛП.Для достижения этой цели мы дополняем однозадачные модели (ST) дополнительным классификатором для прогнозирования семантических тегов и совместной оптимизации как для исходной задачи, так и для вспомогательной задачи семантической маркировки.Наша гипотеза состоит в том, что обучение прогнозированию семантических тегов в качестве вспомогательной задачи может повысить производительность однозадачных систем.Мы считаем, что это, среди прочего, связано со следующими факторами: Мы проверяем нашу гипотезу на трех разрозненных задачах НЛП: (i) универсальная зависимость от тегов частей речи (UPOS), (ii) универсальная зависимость от синтаксического анализа (UD DEP). , сложная синтаксическая задача; и (iii) вывод на естественном языке (NLI) — сложная задача, требующая глубокого понимания естественного языка.Семантическая маркировка BIBREF4, BIBREF7 — это задача присвоения словам нейтральных к языку семантических категорий.Он предназначен для преодоления недостатка семантической информации в синтаксически-ориентированных наборах тегов частей речи, таких как набор тегов Penn Treebank BIBREF8 , который обычно имеется.Такие наборы тегов исключают важные семантические различия, такие как отрицание и модальные глаголы, типы количественной оценки, именованные типы сущностей и вклад глаголов во время, вид или событие.Семантический набор тегов не зависит от языка, абстрагируется от классов частей речи и именованных сущностей и включает детальную семантическую информацию.Набор тегов состоит из 80 семантических тегов, сгруппированных в 13 классов общего назначения.Набор тегов возник в рамках проекта BIBREF9 банка параллельных значений (PMB), где он способствует композиционной семантике и межъязыковому проецированию семантических представлений.Недавняя работа подчеркнула полезность набора тегов как канала для оценки семантики, захваченной векторными представлениями BIBREF10, или использовала его во вспомогательной задаче тегирования BIBREF4, как мы это делаем в этой работе.В последнее время растет интерес к разработке моделей, которые обучаются узнавать, что следует (а что нет) разделять между наборами задач, с общей целью предотвращения отрицательного переноса, когда задачи не тесно связаны между собой BIBREF11. BIBREF12 , BIBREF13 , BIBREF14 .Наш параметр «Изучение того, чем делиться» основан на этой идее и тесно связан с архитектурой общего уровня BIBREF15.В частности, слой $\vec{h}_{X}$, который является общим для основной задачи и вспомогательной задачи, разделяется на два подпространства: общее подпространство $\vec{h}_{X_{S}}$ и частное подпространство $\vec{h}_{X_{P}}$ .Взаимодействие между общими подпространствами модулируется с помощью сигмоидального вентильного блока, применяемого к набору изученных весов, как видно из уравнений (9) и (), где $\vec{h}_{X_{S(main)}}$ и $\vec{h}_{X_{S(aux)}}$ — общие слои основных и вспомогательных задач, $W_{a\rightarrow m}$ и $W_{m\rightarrow a}$ — изученные веса, а $\sigma$ — сигмоидальная функция.$$\vec{h}_{X_{S(main)}} &= \vec{h}_{X_{S(main)}} \sigma (\vec{h}_{X_{S(aux) }} W_{a\rightarrow m})\\ \vec{h}_{X_{S(aux)}} &= \vec{h}_{X_{S(aux)}} \sigma (\vec{h}_{X_{S(main)}} W_{m\rightarrow a})$$ (уравнение 9) В отличие от архитектуры общего уровня BIBREF15, в нашей настройке каждая задача имеет свое собственное общее подпространство, а не один общий общий уровень.Это обеспечивает совместное использование различных параметров в каждом направлении (т. е. от основной задачи к вспомогательной и от вспомогательной к основной задаче), позволяя каждой задаче выбирать, чему учиться у другой, вместо того, чтобы иметь «один общий уровень для сбора общей информации». для всех задач», как в BIBREF15. Мыреализовать три настройки нейронного MTL, показанные на рисунке 1.Они различаются тем, как параметры сети распределяются между задачами: в экспериментах по тегированию UPOS мы используем английский корпус UD 2.0 BIBREF16 для тегирования POS и семантически размеченный выпуск PMB 0.1.0 (sem-PMB) для настроек MTL. .Обратите внимание, что между двумя наборами данных нет пересечения.И наоборот, для экспериментов UD DEP и NLI наблюдается полное перекрытие наборов данных основных и вспомогательных задач, т. е. каждый экземпляр помечен как метками основной задачи, так и семантическими тегами.Мы используем Stanford POS Tagger BIBREF17, обученный на sem-PMB, для маркировки корпусов UD и наборов данных NLI семантическими тегами, а затем используем эти назначенные теги для настроек MTL нашего анализа зависимостей и моделей NLI.Мы обнаружили, что этот подход приводит к лучшим результатам, когда основная задача лишь слабо связана со вспомогательной задачей.В экспериментах UD DEP используется английский корпус UD 2.0, а в экспериментах NLI — наборы данных SNLI BIBREF18 и SICK-E BIBREF19.Предоставленные разделения обучения, разработки и тестирования используются для всех наборов данных.В sem-PMB серебряная и золотая части используются для обучения и тестирования соответственно.Мы проводим четыре эксперимента для каждой из четырех задач (UPOS, UD DEP, SNLI, SICK-E), один с использованием модели ST и по одному для каждой из трех настроек MTL.Каждый эксперимент проводится пять раз, и сообщается среднее значение из пяти запусков.Мы кратко опишем модели ST и отсылаем читателя к оригинальной работе для получения более подробной информации из-за нехватки места.Для воспроизводимости подробные схемы моделей MTL для каждой задачи и их гиперпараметров можно найти в Приложении «Диаграммы настройки MTL, предварительная обработка и гиперпараметры».Модель тегирования использует базовую контекстную однослойную двухуровневую LSTM BIBREF20, которая учитывает встраивание слов и создает последовательность повторяющихся состояний, которые можно рассматривать как контекстуализированные представления.Рекуррентное состояние $r_n$ из bi-LSTM, соответствующее каждому временному шагу $t_n$, передается через плотный слой с активацией softmax для прогнозирования тега токена.В каждую из настроек MTL добавляется классификатор softmax для прогнозирования семантического тега токена, а затем модель совместно обучается на объединении данных тегов sem-PMB и UPOS, чтобы минимизировать сумму потерь перекрестной энтропии softmax обоих основных (тегирование УПОС) и вспомогательные (семантическое тегирование) задачи.Мы используем модель синтаксического анализа, основанную на BIBREF21 BIBREF21 .Уровень внедрений модели представляет собой объединение случайно инициализированных векторных представлений слов и символьных представлений слов, добавленных к предварительно обученным векторным представлениям слов, которые пропускаются через четырехуровневый сложенный bi-LSTM.В отличие от BIBREF21, наша модель совместно учится выполнять тегирование и анализ UPOS, вместо того, чтобы рассматривать их как отдельные задачи.Поэтому вместо внедрения тегов мы добавляем классификатор softmax для прогнозирования тегов UPOS после первого уровня bi-LSTM.Выходные данные этого слоя и векторы прогнозирования softmax UPOS объединяются с исходным слоем внедрения и передаются на второй уровень bi-LSTM.Выходные данные последнего bi-LSTM затем используются в качестве входных данных для четырех плотных слоев с активацией ReLU, создавая четыре векторных представления: слово как зависимое слово, ищущее свою голову; слово как голова ищет всех своих зависимых; слово как зависимое определение своего названия; слово как руководитель, принимающий решение о присвоении ярлыков своим иждивенцам.Эти представления затем передаются в биаффинные и аффинные классификаторы softmax для создания полносвязного помеченного графа вероятностных зависимостей BIBREF21.Наконец, для получения правильно сформированного дерева зависимостей используется непроективный алгоритм анализа максимального связующего дерева BIBREF22, BIBREF23.Подобно тегированию UPOS, дополнительный классификатор softmax используется для прогнозирования семантического тега токена в каждой из настроек MTL, поскольку обе задачи изучаются совместно.В настройках FSN полностью используется четырехуровневый стек bi-LSTM.В настройках PSN семантические теги прогнозируются на основе скрытых состояний второго уровня, а последние два уровня посвящены задаче синтаксического анализа.В настройке LWS первые два уровня bi-LSTM делятся на частный bi-LSTM $_{private}$ и общий bi-LSTM $_{shared}$ для каждой из задач с взаимодействием между общие подпространства модулируются через вентильный блок.Затем сверху накладываются два слоя bi-LSTM, предназначенные только для синтаксического анализа.Мы основываем нашу модель NLI на расширенной модели последовательного вывода BIBREF25, которая использует bi-LSTM для кодирования предпосылки и гипотезы, вычисляет мягкое выравнивание между представлениями предпосылки и гипотезы с использованием механизма внимания и использует композицию вывода bi-LSTM. последовательно составлять локальную информацию вывода.Настройки MTL реализуются путем добавления классификатора softmax для прогнозирования семантических тегов на уровне кодирования bi-LSTM, при этом остальная часть модели не изменяется.В настройке FSN скрытые состояния кодирования bi-LSTM напрямую передаются в качестве входных данных классификатору softmax.В настройках PSN более ранний уровень bi-LSTM используется для прогнозирования семантических тегов, и выходные данные этого сигнала передаются в кодирующий bi-LSTM, который накладывается сверху.Это соответствует иерархическому подходу BIBREF26.В настройке LWS уровень bi-LSTM с частными и общими подпространствами используется для семантической маркировки и для уровня кодирования модели ESIM.Во всех настройках MTL bi-LSTM, используемый для семантической маркировки, предварительно обучается на данных sem-PMB.Результаты по всем задачам представлены в Таблице 1.Согласно выводам BIBREF4, настройка FSN приводит к улучшению маркировки UPOS.Маркировка POS, задача маркировки последовательностей, может рассматриваться как наиболее тесно связанная с семантической маркировкой, поэтому отрицательная передача минимальна, а полное совместное использование параметров полезно.Удивительно, но настройка FSN также приводит к улучшению UD DEP.Действительно, для UD DEP все модели MTL превосходят модель ST за счет увеличения прибыли.Однако для задач NLI наблюдается явное снижение производительности.Настройка PSN показывает неоднозначные результаты и не показывает явного преимущества перед FSN для UPOS и UD DEP.Это говорит о том, что добавление слоев, специфичных для конкретной задачи, после полностью общих слоев не всегда обеспечивает достаточную специализацию задач.Однако для задач NLI PSN явно предпочтительнее FSN, особенно для небольшого набора данных SICK-E, где модель FSN не может адекватно обучаться.Как задача уровня предложения, NLI функционально отличается от семантической маркировки.Однако эта задача требует глубокого понимания семантики естественного языка и, следовательно, может извлечь выгоду из сигнала, обеспечиваемого семантической маркировкой.Наши результаты показывают, что можно использовать этот сигнал при условии избирательного распределения, при котором отрицательная передача может быть сведена к минимуму.Действительно, для задач NLI только настройка LWS приводит к улучшениям по сравнению с моделями ST.Улучшение больше для задачи SICK-E, которая имеет гораздо меньший обучающий набор и, следовательно, может больше узнать из сигнала семантической маркировки.По всем задачам можно заметить, что модели LWS превосходят остальные модели.Это соответствует нашим ожиданиям и результатам предыдущих работ BIBREF12, BIBREF15, согласно которым выборочное совместное использование превосходит полное и частичное сетевое совместное использование.Помимо непосредственной оценки производительности, мы пытаемся определить, как semtags влияют на производительность в отношении каждой настройки SNLI MTL.Тот факт, что NLI представляет собой задачу на уровне предложения, а семантические теги представляют собой аннотации на уровне слов, создает трудности при измерении влияния семантических тегов на производительность системы, поскольку между правильной меткой и определенный семантический тег.Поэтому мы используем следующий метод, чтобы оценить вклад семантических тегов.Учитывая рейтинг производительности всех наших систем — $FSN < ST < PSN < LWS$ — мы проводим попарное сравнение результатов превосходящей системы $S_{sup}$ и низшей системы $S_{inf}$ .Для этого нужно взять пары предложений, которые каждый $S_{sup}$ классифицирует правильно, а некоторые $S_{inf}$ — нет.Учитывая, что FSN является системой с наихудшими показателями и, как таковая, не имеет «худшей» системы для сравнения, у нас остается шесть наборов предложений: ST-FSN, PSN-FSN, PSN-ST, LWS-PSN, LWS-ST. и LWS-FSN.Чтобы понять, где данная система $S_{sup}$ работает лучше, чем данная $S_{inf}$ , мы затем сортируем каждое предложение сравнения, заданное по частоте предсказанных в нем семтегов, которые нормализуются путем деления на их частоту. в полном наборе тестов SNLI.Мы замечаем интересные закономерности, видимые на рисунке 2.В частности, PSN заметно лучше работает в предложениях с именованными сущностями (ART, PER, GEO, ORG) и временными сущностями (DOM), чем ST и FSN.Незначительные улучшения наблюдаются также для предложений с отрицанием и возвратными местоимениями.Настройка LWS продолжает этот шаблон, с дополнительными улучшениями, наблюдаемыми для предложений с тегом HAP для названий событий, SST для подразделных атрибутов и тегом ROL для существительных ролей.Чтобы оценить вклад вспомогательной задачи семантической маркировки независимо от архитектуры и сложности модели, мы проводим три дополнительных эксперимента SNLI — по одному для каждой настройки MTL — где архитектура модели не изменяется, но вспомогательным задачам не присваивается вес (т. е. не влияют на обучение). ).Результаты подтверждают наши предыдущие выводы о том, что для NLI вспомогательная задача семантической маркировки только улучшает производительность при настройке выборочного совместного использования и ухудшает ее в противном случае: i) система FSN, которая работала ниже ST, улучшается, чтобы сравняться с ней, и ii) PSN и В обоих настройках LWS производительность снижается до уровня ST.Мы представляем комплексную оценку MTL, используя недавно предложенную задачу семантической маркировки в качестве вспомогательной задачи.Наши эксперименты охватывают три типа задач НЛП и три настройки MTL.Результаты экспериментов показывают, что использование семантической маркировки в качестве вспомогательной задачи приводит к улучшению производительности UPOS-маркировки и UD DEP во всех настройках MTL.Для задач SNLI, требующих понимания фразовой семантики, настройка выборочного обмена, которую мы называем «Обучение тем, чем делиться», имеет явное преимущество.Наша работа предлагает обобщаемую основу для оценки полезности вспомогательной задачи. На рис:upos показаны три модели MTL, используемые для UPOS.Все гиперпараметры были настроены с учетом потерь в английском наборе проверки UD 2.0 UPOS.Мы обучались в течение 20 эпох с размером пакета 128 и оптимизировали с помощью Adam BIBREF27 со скоростью обучения 0,0001$.Мы взвешиваем потерю вспомогательной семантической разметки с помощью $\lambda $ = $0.1$ .Предварительно обученные векторные представления слов, которые мы использовали, — это векторные представления GloVe BIBREF28 размерности 100, обученные на 6 миллиардах токенов Wikipedia 2014 и Gigaword 5.Мы применили отсев и периодический отсев с вероятностью $0,3$ ко всем bi-LSTM. На рис.:dep показаны три модели MTL для UD DEP.Мы используем золотую токенизацию.Все гиперпараметры были настроены с учетом потерь в английском наборе проверки UD 2.0 UD.Мы обучались в течение 15 эпох с размером пакета 50 и оптимизировали с помощью Adam со скоростью обучения $2e-3$.Мы взвешиваем потерю вспомогательной семантической разметки с помощью $\lambda $ = $0.5$ .Предварительно обученные встраивания слов, которые мы используем, — это встраивания слов GloVe размерности 100, обученные на 6 миллиардах токенов Wikipedia 2014 и Gigaword 5.Мы применили отсев с вероятностью $0,33$ ко всем bi-LSTM, слоям внедрения и плотным слоям без вывода. На рис: nli показаны три модели MTL для NLI.Все гиперпараметры были настроены с учетом потерь в наборах проверочных данных SNLI и SICK-E (отдельно).Для экспериментов SNLI мы обучались 37 эпох с размером пакета 128.Для экспериментов SICK-E мы обучались в течение 20 эпох с размером партии 8.Обратите внимание, что модель ESIM была разработана для набора данных SNLI, поэтому производительность для SICK-E неоптимальна.Для обеих серий экспериментов: мы оптимизировали, используя Адама со скоростью обучения $0,00005$; мы взвешиваем потерю вспомогательной семантической разметки с помощью $\lambda $ = $0.1$ ; предварительно обученные встраивания слов, которые мы используем, — это встраивания слов GloVe размером 300, обученные на 840 миллиардах токенов Common Crawl; и мы применили отсев и рекуррентный отсев с вероятностью $0,3$ ко всем bi-LSTM и плотным слоям без вывода.tab:В примерах показаны наглядные примеры из набора тестов SNLI, в которых модель «Обучение, чем делиться» (LWS) превосходит модель с одной задачей (ST).Примеры охватывают все возможные комбинации классов следствия.tab:semtags объясняет соответствующую часть семантического набора тегов.tab:fscore показывает точность и полноту каждой метки.
Мы исследуем эффекты многозадачного обучения, используя недавно представленную задачу семантической маркировки. Мы используем семантическую маркировку в качестве вспомогательной задачи для трех различных задач НЛП: маркировка частей речи, анализ универсальной зависимости и вывод естественного языка. Мы сравниваем полное совместное использование нейронных сетей, частичное совместное использование нейронных сетей и то, что мы называем обучением, чем делиться, в условиях, когда отрицательный перенос между задачами менее вероятен. Наши результаты показывают значительные улучшения во всех задачах, особенно в настройке «Узнать, чем делиться», которая демонстрирует стабильный прогресс во всех задачах.
2,970
QasperSumInstruct
ru
Напиши аннотацию по статье
TextKD-GAN: генерация текста с использованием KnowledgeDistillation и генеративно-состязательных сетей. Методы на основе рекуррентных нейронных сетей (RNN), такие как языковые модели, являются наиболее популярными подходами для генерации текста.Эти генераторы текста на основе RNN полагаются на решения оценки максимального правдоподобия (MLE), такие как принудительное использование преподавателем BIBREF0 (т. е. модель обучена прогнозировать следующий элемент с учетом всех предыдущих наблюдений); однако в литературе хорошо известно, что MLE является упрощенной целью для этой сложной задачи НЛП BIBREF1.Методы на основе MLE страдают от систематической ошибки воздействия BIBREF2, что означает, что во время обучения модель подвергается воздействию только данных о золоте, но во время тестирования она наблюдает за своими собственными прогнозами.Однако GAN, основанные на состязательной функции потерь и имеющие сети генератора и дискриминатора, меньше страдают от упомянутых проблем.GAN могут обеспечить лучшую основу для генерации изображений по сравнению с традиционными методами на основе MLE и добиться значительных успехов в области компьютерного зрения для создания реалистичных и четких изображений.Этот большой успех побудил исследователей применить эту концепцию и к приложениям НЛП.GAN недавно использовались в различных приложениях НЛП, таких как машинный перевод BIBREF3, BIBREF4, диалоговые модели BIBREF1, ответы на вопросы BIBREF5 и генерация естественного языка BIBREF6, BIBREF2, BIBREF7, BIBREF8, BIBREF9, BIBREF10.Однако применение GAN в НЛП затруднено из-за дискретного характера текста.Следовательно, обратное распространение сигнала невозможно для дискретных выходов, и передать градиенты через дискретные выходные слова генератора непросто.Существующие решения на основе GAN можно разделить на категории в соответствии с методом, который они использовали для решения проблемы дискретной природы текста:Методы, основанные на обучении с подкреплением (RL), решения на основе скрытого пространства и подходы, основанные на непрерывной аппроксимации дискретной выборки.В литературе было представлено несколько версий методов на основе RL, включая Seq-GAN BIBREF11, MaskGAN BIBREF12 и LeakGAN BIBREF13.Однако они часто требуют предварительного обучения и являются более дорогостоящими в вычислительном отношении по сравнению с методами двух других категорий.Решения на основе скрытого пространства получают представление текста в скрытом пространстве с использованием AE и пытаются изучить многообразие данных этого пространства BIBREF8 .Другой подход к генерации текста с помощью GAN — найти непрерывную аппроксимацию дискретной выборки с помощью метода Gumbel Softmax BIBREF14 или аппроксимации недифференцируемого оператора argmax BIBREF9 непрерывной функцией.В этой работе мы представляем TextKD-GAN как новое решение основного узкого места использования GAN для генерации текста с дистилляцией знаний: метод, который передает знания смягченного вывода модели учителя в модель ученика BIBREF15.Наше решение основано на AE (Учитель) для получения плавного представления реального текста.Это гладкое представление подается на дискриминатор TextKD-GAN вместо обычного горячего представления.Генератор (Студент) пытается изучить многообразие смягченного гладкого представления АЭ.Мы показываем, что TextKD-GAN превосходит традиционные генераторы текста на основе GAN, не требующие предварительного обучения.Оставшаяся часть статьи организована следующим образом.В следующих двух разделах будут рассмотрены некоторые предварительные сведения о генеративно-состязательных сетях и связанных с ними работах в литературе.Предлагаемый метод будет представлен в разделе SECREF4.В разделе SECREF5 будут обсуждаться детали эксперимента.Наконец, раздел SECREF6 завершает статью.Генеративно-состязательные сети включают в себя две отдельные глубокие сети: генератор и дискриминатор.Генератор принимает случайную переменную INLINEFORM0, следующую за распределением INLINEFORM1, и пытается сопоставить ее с распределением данных INLINEFORM2.Ожидается, что выходное распределение генератора будет сходиться к распределению данных во время обучения.С другой стороны, дискриминатор должен отличать реальные выборки от сгенерированных, выдавая нули и единицы соответственно.Во время обучения генератор и дискриминатор генерируют выборки и классифицируют их, соответственно, состязательно влияя на производительность друг друга.В связи с этим для обучения используется функция состязательных потерь. BIBREF16: DISPLAYFORM0. Это минимаксная игра для двух игроков, для которой необходимо получить точку равновесия по Нэшу.Найти решение этой игры нетривиально, и этому вопросу посвящено большое количество литературы BIBREF17.Как уже говорилось, использование GAN для генерации текста является сложной задачей из-за дискретной природы текста.Чтобы прояснить проблему, на рисунке FigREF2 изображена упрощенная архитектура генерации текста на основе GAN.Основным узким местом конструкции является оператор argmax, который не является дифференцируемым и блокирует градиентный поток от дискриминатора к генератору.DISPLAYFORM0 Фильтрация знаний изучалась при сжатии модели, когда знания о большой громоздкой модели переносятся в небольшую модель для облегчения развертывания.Было изучено несколько исследований по технике передачи знаний BIBREF15, BIBREF18.Он начинается с обучения большой модели учителя (или модели ансамбля), а затем обучает небольшую модель ученика, которая пытается имитировать характеристики модели учителя, такие как скрытые представления BIBREF18, ее выходные вероятности BIBREF15 или непосредственно предложения, сгенерированные с помощью Модель учителя в нейронном машинном переводе BIBREF19.Первая схема «учитель-ученик» для дистилляции знаний была предложена в BIBREF15 путем введения смягченных результатов работы учителя.В этой статье мы предлагаем структуру GAN для генерации текста, в которой генератор (Студент) пытается имитировать реконструированное выходное представление автокодировщика (Учителя) вместо сопоставления с обычными горячими представлениями.Генерация текста с использованием чистых GAN основана на улучшенной работе Wasserstein GAN (IWGAN) BIBREF6.В IWGAN языковая модель уровня символов разрабатывается на основе состязательного обучения генератора и дискриминатора без использования каких-либо дополнительных элементов, таких как обучение с подкреплением градиента политики BIBREF20.Генератор создает вектор softmax по всему словарю.Дискриминатор отвечает за различие между горячими представлениями реального текста и вектором softmax сгенерированного текста.Метод IWGAN описан на рисунке FigREF6.Недостатком этого метода является то, что дискриминатор может очень легко отличить входной сигнал one-hot от входного сигнала softmax.Следовательно, генератору будет сложно обмануть дискриминатор, и проблема исчезновения градиента весьма вероятна.Новая версия Wasserstein GAN для генерации текста с использованием градиентного штрафа для дискриминатора была предложена в BIBREF6.Их генератор — сеть CNN, генерирующая тексты фиксированной длины.Дискриминатор — это еще одна CNN, получающая трехмерные тензоры в качестве входных предложений.Он определяет, исходит ли тензор от генератора или выбран из реальных данных.Реальные и сгенерированные предложения представлены с использованием представлений one-hot и softmax соответственно.Похожий подход был предложен в BIBREF2 с генератором на основе RNN.Они использовали стратегию обучения по учебной программе BIBREF21 для создания последовательностей постепенно увеличивающейся длины по мере прохождения обучения.В BIBREF7 RNN обучен генерировать текст с помощью GAN, используя обучение по учебной программе.Авторы предложили процедуру, называемую «помощь учителю», которая помогает генератору создавать длинные последовательности, обуславливая более короткие последовательности основной истины.Все эти подходы используют дискриминатор для отделения сгенерированных выходных данных softmax от реальных данных, как показано на рисунке FigREF6, что является для них явным недостатком.Причина в том, что дискриминатор получает входные данные разных представлений: горячий вектор для реальных данных и вероятностный векторный выходной сигнал генератора.Это делает дискриминацию довольно тривиальной.AE использовались вместе с GAN в различных архитектурах приложений компьютерного зрения, таких как AAE BIBREF22, ALI BIBREF23 и HALI BIBREF24.Аналогично, AE можно использовать с GAN для генерации текста.Например, в BIBREF8 был предложен состязательно регуляризованный AE (ARAE).Генератор обучается параллельно с AE для изучения непрерывной версии кодового пространства, создаваемой кодером AE.Тогда дискриминатор будет отвечать за различие между закодированным скрытым кодом и непрерывным кодом генератора.По сути, при этом подходе генерируется непрерывное распределение, соответствующее закодированному коду текста.AE могут быть полезны для шумоподавления текста и его передачи в кодовое пространство (кодирование), а затем восстановления исходного текста из кода.AE можно комбинировать с GAN, чтобы улучшить генерируемый текст.В этом разделе мы представляем технику с использованием AE для замены обычного горячего представления BIBREF6 непрерывным softmax-представлением реальных данных для дискриминации.Как уже говорилось, в традиционном подходе к дискриминации на основе текста BIBREF6 реальные и сгенерированные входные данные дискриминатора будут иметь разные типы (one-hot и softmax), и он может просто отличить их друг от друга.Один из способов избежать этой проблемы — получить непрерывное гладкое представление слов, а не их единое, и научить дискриминатор различать непрерывные представления.В этой работе мы используем обычный AE (Teacher) для замены горячего представления реконструированным выходным сигналом softmax, который представляет собой плавное представление, которое дает меньшую дисперсию градиентов BIBREF15.Предложенная модель изображена на рисунке FigREF8.Как видно, вместо прямого представления реальных слов мы подаем дискриминатору смягченный реконструированный вывод AE.Этот метод значительно усложнит дискриминатору дискриминацию.Генератор GAN (Студент) с выходными данными softmax пытается имитировать выходное распределение AE вместо традиционных представлений «горячего» типа, используемых в литературе.Предположим, мы применяем IWGAN к языковому словарю второго размера: словам INLINEFORM0 и INLINEFORM1.Горячее представление этих двух слов (в виде двух точек в декартовых координатах) и диапазона сгенерированных выходных данных softmax (в виде отрезка линии, соединяющего их) изображено на левой панели рисунка FigREF10.Как видно графически, задача дискриминатора состоит в том, чтобы отличить точки от соединяющей их линии, что является довольно простой и очень легкой задачей.Теперь давайте рассмотрим идею TextKD-GAN на примере языка из двух слов.Как показано на рисунке FigREF10 (правая панель), выходным геометрическим объектом декодера TextKD-GAN будут два сегмента красной линии вместо двух точек (в случае «одного горячего»).Два отрезка лежат на выходном критерии генератора, что позволит генератору более успешно обмануть дискриминатор.Мы обучаем AE и TextKD-GAN одновременно.Для этого мы разбиваем целевую функцию на три члена: (1) член реконструкции для AE, (2) функция потерь дискриминатора со штрафом за градиент, (3) состязательная стоимость для генератора.Математически DISPLAYFORM0 Эти потери обучаются поочередно для оптимизации различных частей модели.Для обучения дискриминатора мы используем подход градиентного штрафа IWGAN BIBREF6.В термине штрафа за градиент нам нужно вычислить норму градиента случайных выборок INLINEFORM0 .Согласно предложению в BIBREF6, эти случайные выборки могут быть получены путем равномерной выборки вдоль линии, соединяющей пары сгенерированных и реальных выборок данных: DISPLAYFORM0 Полный алгоритм обучения описан в SECREF11.TextKD-GAN для генерации текста.[1] Гиперпараметры Адама INLINEFORM0 , INLINEFORM1 , INLINEFORM2 , размер пакета INLINEFORM3 .Начальные параметры AE (кодер ( INLINEFORM4 ), декодер INLINEFORM5 ), параметры дискриминатора INLINEFORM6 и начальные параметры генератора INLINEFORM7 количество итераций обучения AE Обучение: выборка INLINEFORM0 и вычисление кодовых векторов INLINEFORM1 и восстановленный текст INLINEFORM0 .Потери при восстановлении обратного распространения INLINEFORM0 .Обновите с помощью INLINEFORM0 .Обучите дискриминатор: k раз: Sample INLINEFORM1 и Sample INLINEFORM2 .Вычисление сгенерированного текста INLINEFORM0 Потеря дискриминатора обратного распространения INLINEFORM0 .INLINEFORM1 Обучите генератор: образец INLINEFORM0 и образец INLINEFORM1 .Вычисление сгенерированного текста INLINEFORM0 Потери генератора обратного распространения ошибки INLINEFORM0 .INLINEFORM1 Мы провели эксперименты на двух разных наборах данных: 1 миллиард эталонных данных языкового моделирования Google и корпус Стэнфордского вывода естественного языка (SNLI).Генерация текста выполняется на уровне символов с длиной предложения 32.Для набора данных Google мы использовали первый миллион предложений и извлекли 100 наиболее часто встречающихся символов для создания словарного запаса.Для набора данных SNLI мы использовали все предварительно обработанные данные обучения, которые содержат в общей сложности 714667 предложений, а встроенный словарь имеет 86 символов.Мы обучаем AE, используя один слой с 512 ячейками LSTM BIBREF25 как для кодера, так и для декодера.Мы обучаем автоэнкодер с помощью оптимизатора Адама со скоростью обучения 0,001, INLINEFORM0 = 0,9 и INLINEFORM1 = 0,9.Для декодирования выходные данные предыдущего временного шага используются в качестве входных данных для следующего временного шага.Скрытый код INLINEFORM2 также используется в качестве дополнительных входных данных на каждом временном шаге декодирования.Для получения наилучшего результата BIBREF8 применяется подход жадного поиска.Мы сохраняем тот же генератор и дискриминатор на основе CNN с остаточными блоками, что и в BIBREF6.Дискриминатор обучается 5 раз за 1 итерацию генератора GAN.Мы обучаем генератор и дискриминатор с помощью оптимизатора Адама со скоростью обучения 0,0001, INLINEFORM3 = 0,5 и INLINEFORM4 = 0,9. Мы используем оценку BLEU-N для оценки наших методов.Оценка BLEU-N рассчитывается по следующему уравнению BIBREF26, BIBREF27, BIBREF28:DISPLAYFORM0, где INLINEFORM0 — вероятность INLINEFORM1 -граммы и INLINEFORM2.Мы рассчитываем баллы BLEU-n для n-грамм без штрафа за краткость BIBREF10.Мы обучаем все модели на протяжении 200 000 итераций, и в сгенерированных текстах сообщаются результаты с лучшими оценками BLEU-N.Для расчета баллов BLEU-N мы генерируем десять групп предложений в качестве текстов-кандидатов, т. е. 640 предложений (предложения по 32 символа), и используем весь тестовый набор в качестве справочных текстов.Результаты экспериментов представлены в таблицах TABREF20 и TABREF21.Как видно из этих таблиц, предлагаемый подход TextKD-GAN дает значительные улучшения с точки зрения оценок BLEU-2, BLEU-3 и BLEU-4 по сравнению с подходами IWGAN BIBREF6 и ARAE BIBREF8.Следовательно, смягченный сглаженный вывод декодера может быть более полезен для изучения лучшего дискриминатора, чем традиционное представление «горячего типа».Более того, мы видим более низкие оценки BLEU и меньшее улучшение набора данных Google по сравнению с набором данных SNLI.Причина может заключаться в том, что предложения в наборе данных Google более разнообразны и сложны.Наконец, обратите внимание, что горячая дискриминация на основе текста в IWGAN и предлагаемый нами метод лучше, чем традиционный метод ARAE на основе кода BIBREF8. Некоторые примеры сгенерированного текста из эксперимента SNLI перечислены в таблице TABREF22.Как видно, текст, сгенерированный с помощью предложенного подхода TextKD-GAN, более содержателен и содержит больше правильных слов по сравнению с текстом IWGAN BIBREF6. Мытакже предоставьте обучающие кривые расстояний Дженсена-Шеннона (JSD) между INLINEFORM0-граммами сгенерированных предложений и тренировочными (реальными) на рисунке FigREF23.Расстояния получены из экспериментов SNLI и рассчитаны, как в BIBREF6.То есть путем вычисления логарифмических вероятностей INLINEFORM1-грамм сгенерированных и реальных предложений.Как показано на рисунке, подход TextKD-GAN дополнительно минимизирует JSD по сравнению с литературными методами BIBREF6, BIBREF8.В заключение, наш подход изучает более мощный дискриминатор, который, в свою очередь, генерирует распределение данных, близкое к реальному распределению данных.Результаты нашего эксперимента показывают превосходство нашего метода TextKD-GAN над другими традиционными методами на основе GAN.Мы сравнили нашу методику с теми генераторами на базе GAN, которые не требуют предварительного обучения.Это объясняет, почему мы не включили в результаты методы, основанные на RL.Мы показали преимущество непрерывных гладких представлений над хорошо известными трюками, позволяющими обойти разрывы текста в GAN.Использование AE в TextKD-GAN добавляет к нашей методике еще одно важное измерение — скрытое пространство, которое можно моделировать и использовать как отдельный сигнал для различения сгенерированного текста от реальных данных.Стоит отметить, что наши наблюдения во время экспериментов показывают, что обучение текстовых генераторов намного проще, чем обучение методам, основанным на коде, таким как ARAE.Более того, мы заметили, что штраф за градиент играет значительную роль с точки зрения уменьшения коллапса мод в сгенерированном тексте GAN.Кроме того, в этой работе мы сосредоточились на техниках, основанных на персонажах; однако TextKD-GAN применим и к настройкам на основе слов.Имейте в виду, что чистые методы генерации текста на основе GAN все еще находятся на стадии новорожденности и не очень эффективны с точки зрения изучения семантики сложных наборов данных и больших предложений.Это может быть связано с отсутствием возможности сбора долгосрочной информации с помощью сетей CNN.Чтобы решить эту проблему, в качестве следующего шага можно использовать RL, чтобы расширить возможности таких чистых методов, основанных на GAN, таких как TextKD-GAN.В этой работе мы представили TextKD-GAN как новое решение, использующее дистилляцию знаний для устранения основного узкого места использования GAN для генерации текста, а именно разрыва текста.Наше решение основано на AE (учитель) для получения непрерывного плавного представления реального текста.Это гладкое представление преобразуется в дискриминатор GAN вместо обычного горячего представления.Мы продемонстрировали обоснование этого подхода, который заключается в том, чтобы усложнить задачу распознавания реального и сгенерированного текста и, следовательно, предоставить генератору более богатый сигнал.Во время обучения генератор TextKD-GAN (Студент) попытается изучить многообразие гладкого представления, которое позже можно будет сопоставить с реальным распределением данных, применив оператор argmax.Мы оценили TextKD-GAN на двух эталонных наборах данных, используя оценки BLEU-N, показатели JSD и качество выходного сгенерированного текста.Результаты показали, что предлагаемый подход TextKD-GAN превосходит традиционные методы генерации текста на основе GAN, которые не требуют предварительного обучения, такие как IWGAN и ARAE.Наконец, мы резюмируем наш план будущей работы следующим образом:
Генерация текста представляет особый интерес во многих приложениях НЛП, таких как машинный перевод, языковое моделирование и обобщение текста. Генеративно-состязательные сети (GAN) достигли замечательных успехов в создании высококачественных изображений в компьютерном зрении, а в последнее время GAN также вызвали большой интерес со стороны сообщества НЛП. Однако добиться аналогичного успеха в НЛП будет сложнее из-за дискретной природы текста. В этой работе мы представляем метод, использующий дистилляцию знаний для эффективного использования настройки GAN для генерации текста. Мы демонстрируем, как автокодировщики (AE) могут использоваться для обеспечения непрерывного представления предложений, которое представляет собой плавное представление, присваивающее ненулевые вероятности более чем одному слову. Мы перерабатываем это представление, чтобы обучить генератор синтезировать подобные гладкие представления. Мы проводим ряд экспериментов, чтобы проверить нашу идею, используя различные наборы данных, и показываем, что предлагаемый нами подход дает лучшую производительность с точки зрения оценки BLEU и меры расстояния Дженсена-Шеннона (JSD) по сравнению с традиционными подходами к генерации текста на основе GAN без предварительного обучения. .
2,802
QasperSumInstruct
ru
Напиши аннотацию по статье
Выравнивание, маска и выбор: простой метод включения здравого смысла в модели языкового представления. Предварительно обученные модели языкового представления, включая методы на основе функций BIBREF0, BIBREF1 и методы точной настройки BIBREF2, BIBREF3, BIBREF4, могут извлекать богатую языковую информацию из текста и затем приносить пользу во многих задачах НЛП.Представления двунаправленного кодировщика от трансформаторов (BERT) BIBREF4, как одна из последних разработанных моделей, дали самые современные результаты за счет простой тонкой настройки различных задач НЛП, включая распознавание именованных объектов (NER) BIBREF5, текст классификация BIBREF6 , вывод на естественном языке (NLI) BIBREF7 , ответы на вопросы (QA) BIBREF8 , BIBREF9 и достигли производительности на человеческом уровне на нескольких наборах данных BIBREF8 , BIBREF9 . Однако рассуждения на основе здравого смысла по-прежнему остаются сложной задачей для современных методов машинного обучения.Например, недавно BIBREF10 предложил задачу CommonsenseQA, связанную с здравым смыслом, и показал, что точность модели BERT остается на десятки пунктов ниже, чем человеческая точность в вопросах о здравых знаниях.Некоторые примеры из CommonsenseQA показаны в таблице 1, часть A.Как видно из примеров, хотя людям легко отвечать на вопросы, основываясь на своих знаниях об окружающем мире, для машин это является большой проблемой, когда данные для обучения ограничены.Мы предполагаем, что использование графов знаний для здравого смысла в моделировании контроля качества может помочь моделировать выбор правильных ответов.Например, как показано в части B Таблицы 1, некоторые тройки из ConceptNet BIBREF11 вполне связаны с приведенными выше вопросами.Использование этих троек в моделировании контроля качества может помочь моделям контроля качества принять правильное решение.В этой статье мы предлагаем подход к предварительному обучению, который может использовать графы общих знаний, такие как ConceptNet BIBREF11, для улучшения способности логических рассуждений в моделях языкового представления, таких как BERT.И в то же время предлагаемый подход нацелен на поддержание производительности других задач НЛП, сопоставимой с исходными моделями BERT.Встроить знания здравого смысла в модели языкового представления сложно, поскольку знания здравого смысла представлены в виде структурированного формата, такого как (концепция $_1$ , отношение, концепция $_2$ ) в ConceptNet, что несовместимо с данными, используемыми для предварительных вычислений. -обучение модели языкового представления.Например, BERT предварительно обучен на BooksCorpus и английской Википедии, которые состоят из неструктурированных предложений естественного языка.Чтобы решить упомянутую выше задачу, вдохновленную подходом дистанционного контроля BIBREF12, мы предлагаем метод «выравнивания, маски и выбора» (AMS), который может согласовать графики знаний здравого смысла с большим текстовым корпусом для построения набора данных, состоящего из предложений с помеченными концепции.В отличие от задач предварительного обучения для BERT, задач модели языка в маске (MLM) и прогнозирования следующего предложения (NSP), мы используем сгенерированный набор данных в задаче ответа на вопрос с несколькими вариантами ответов.Затем мы предварительно обучаем модель BERT на этом наборе данных с помощью задачи ответа на вопросы с несколькими вариантами ответов и настраиваем ее для различных задач, связанных со здравым смыслом, таких как CommonsenseQA BIBREF10 и Winograd Schema Challenge (WSC) BIBREF13, и добиваемся значительных улучшений.Мы также настраиваем и оцениваем предварительно обученные модели для других задач НЛП, таких как классификация предложений и задачи НЛИ, такие как GLUE BIBREF6, и достигаем производительности, сравнимой с исходными моделями BERT.Таким образом, вклад этой статьи тройной.Во-первых, мы предлагаем подход к предварительному обучению для включения здравого смысла в модели языкового представления для улучшения способностей этих моделей к здравому рассуждению.Во-вторых, мы предлагаем метод «выравнивания, маскировки и выбора» (AMS), вдохновленный подходами дистанционного контроля, для автоматического создания набора данных для ответов на вопросы с несколькими вариантами ответов.В-третьих, эксперименты показывают, что предварительно обученная модель на основе предложенного подхода с тонкой настройкой обеспечивает значительное повышение производительности при выполнении нескольких задач, связанных с здравым смыслом, таких как CommonsenseQA BIBREF10 и Winograd Schema Challenge BIBREF13, и при этом сохраняет сопоставимые характеристики при классификации нескольких предложений и NLI. задачи в GLUE BIBREF6. Модели языкового представления продемонстрировали свою эффективность для улучшения многих задач НЛП.Эти подходы можно разделить на подходы, основанные на признаках, и подходы тонкой настройки.Ранние модели Word2Vec BIBREF14 и Glove BIBREF0 были ориентированы на основанные на признаках подходы к преобразованию слов в распределенные представления.Однако эти методы страдали недостаточностью устранения неоднозначности слов.BIBREF15 далее предложил встраивания из языковых моделей (ELMo), которые извлекают контекстно-зависимые векторы слов из двунаправленного LSTM, который обучается с использованием модели связанной языковой модели (LM) на большом текстовом корпусе.Подходы тонкой настройки отличаются от вышеупомянутых языковых подходов, основанных на функциях, которые используют только предварительно обученные языковые представления в качестве входных функций.BIBREF2 предварительно обучил кодировщики предложений на основе неразмеченного текста и настроил их для контролируемых последующих задач.BIBREF3 предложил генеративный предварительно обученный преобразователь BIBREF16 (GPT) для изучения языковых представлений.BIBREF4 предложил глубокую двунаправленную модель с многоуровневыми преобразователями (BERT), которая обеспечивает современную производительность для широкого спектра задач НЛП.Преимущество этих подходов заключается в том, что мало параметров необходимо изучать с нуля.Хотя как модели языкового представления, основанные на функциях, так и модели с тонкой настройкой, достигли большого успеха, они не включали в себя здравый смысл.В этой статье мы сосредоточимся на включении здравого смысла в предварительное обучение моделей языкового представления.Рассуждения на основе здравого смысла — сложная задача для современных методов машинного обучения.Как показано в недавней работе BIBREF17, включение здравого смысла в модели ответов на вопросы способом интеграции моделей помогло улучшить способность рассуждать на основе здравого смысла.Вместо объединения двух независимых моделей, как в BIBREF17, альтернативным направлением является непосредственное включение здравого смысла в единую модель языкового представления.BIBREF18 предложил непосредственно предварительно обучать BERT тройкам здравых знаний.Для любой тройки (концепт $_1$ , отношение, концепт $_2$ ) они принимали конкатенацию понятия $_1$ и отношения в качестве вопроса и понятия $_2$ в качестве правильного ответа.Отвлекатели формировались путем случайного выбора слов или фраз в ConceptNet.В этой работе мы также исследуем возможность непосредственного включения здравого смысла в единую модель языкового представления.Однако мы предполагаем, что языковые представления, изученные в BIBREF18, могут быть подделаны, поскольку входные данные модели, построенной таким образом, не являются предложениями естественного языка.Чтобы решить эту проблему, мы предлагаем подход к предварительному обучению для включения здравого смысла, который включает в себя метод построения крупномасштабных предложений на естественном языке.BIBREF19 собрал набор данных «Объяснения здравого смысла» (CoS-E) с помощью Amazon Mechanical Turk и применил структуру автоматически генерируемых объяснений здравого смысла (CAGE) к моделям языкового представления, таким как GPT и BERT.Однако сбор этого набора данных потребовал большого количества человеческих усилий.Напротив, в этой статье мы предлагаем метод «выравнивания, маски и выбора» (AMS), вдохновленный подходами дистанционного контроля, для автоматического построения набора данных для ответов на вопросы с несколькими вариантами ответов.Подход дистанционного контроля был первоначально предложен для создания обучающих данных для задачи классификации отношений.Подход дистанционного наблюдения BIBREF12 предполагает, что если две сущности/концепции участвуют в отношении, все предложения, в которых упоминаются эти две сущности/концепции, выражают это отношение.Обратите внимание, что в данных, помеченных дистанционным наблюдением BIBREF20, неизбежно присутствует шум.В этой статье вместо того, чтобы использовать метки отношений, помеченные дистанционным контролем, мы фокусируемся на согласованных сущностях/концепциях.Мы предлагаем метод AMS для создания набора данных QA с множественным выбором, который выравнивает предложения с тройками знаний здравого смысла, маскирует выровненные слова (сущности/понятия) в предложениях и обрабатывает замаскированные предложения как вопросы, а также выбирает несколько сущностей/понятий из графов знаний как выбор кандидата.В этом разделе описывается база знаний здравого смысла, исследованная в наших экспериментах.Мы используем ConceptNet BIBREF11, одну из наиболее широко используемых баз знаний здравого смысла.ConceptNet — это семантическая сеть, которая представляет большие наборы слов и фраз, а также взаимосвязи между ними.Он содержит более 21 миллиона ребер и более 8 миллионов узлов.Его английский словарь содержит примерно 1 500 000 узлов, а для 83 языков он содержит не менее 10 000 узлов для каждого из них соответственно.ConceptNet содержит ядро ​​из 36 отношений.Каждый экземпляр в ConceptNet обычно может быть представлен как тройка $r_i$ = (концепция $_1$ , отношение, концепция $_2$ ), указывающая связь между двумя концепциями: концепция $_1$ и концепция $_2$ .Например, тройка (семикарбазид, IsA, химическое соединение) означает, что «семикарбазид — это разновидность химического соединения»; тройка (приготовление обеда, Причины, приготовленная пища) означает, что «следствием приготовления обеда является приготовленная пища» и т. д. .В этом разделе мы описываем детали построения набора данных для ответов на вопросы, связанные со здравым смыслом.Во-первых, мы фильтруем тройки в ConceptNet, выполнив следующие шаги: (1) Фильтруем тройки, в которых одно из понятий не является английским словом.(2) Тройки фильтров с общими отношениями «RelatedTo» и «IsA», которые занимают большую часть в ConceptNet.(3) Отфильтровать тройки, в которых одно из понятий содержит более четырех слов или расстояние редактирования между двумя понятиями меньше четырех.После фильтрации получаем 606 564 тройки.Каждая обучающая выборка генерируется в три этапа: выравнивание, маска и выбор, что мы называем методом AMS.Каждый образец в наборе данных состоит из вопроса и нескольких возможных ответов, которые имеют ту же форму, что и набор данных CommonsenseQA.Пример построения одной обучающей выборки по маскированию понятия $_2$ показан в таблице 2..Во-первых, мы сопоставляем каждую тройку (концепция $_1$ , отношение, концепция $_2$ ) из ConceptNet с набором данных английской Википедии, чтобы извлечь предложения с помеченными их понятиями.Во-вторых, мы маскируем понятие $_1$/понятие $_2$ в одно предложение специальным токеном [QW] и трактуем это предложение как вопрос, где QW – слово-замена вопросительных слов «что», «где», и т. д.И замаскированная концепция $_1$/концепция $_2$ является правильным ответом на этот вопрос.В-третьих, для создания дистракторов BIBREF18 предложил метод формирования дистракторов путем случайного выбора слов или фраз в ConceptNet.В этой статье, чтобы создать более запутанные дистракторы, чем метод случайного выбора, мы запрашиваем, чтобы эти дистракторы и правильный ответ имели одну и ту же концепцию $_2$ или концепцию $_1$ и отношение.То есть мы ищем ( $\ast $ , отношение, концепция $_2$ ) и (концепция $_2$0 , отношение, $_2$1 ) в ConceptNet, чтобы выбрать отвлекающие факторы вместо случайного выбора, где $_2$2 — это подстановочный знак, который может соответствовать любому слову или фразе.На каждый вопрос мы резервируем четыре дистрактора и один правильный ответ.Если совпадающих дистракторов меньше четырех, мы отбрасываем этот вопрос вместо того, чтобы дополнить его случайным выбором.Если дистракторов больше четырех, из них случайным образом выбираем четыре дистрактора.После применения метода AMS мы создаем 16 324 846 образцов ответов на вопросы с несколькими вариантами ответов.Мы исследуем задачу ответа на вопросы с несколькими вариантами ответов для предварительного обучения английской базы BERT и больших моделей BERT, выпущенных Google, на нашем построенном наборе данных.Полученные модели обозначаются BERT_CS $_{base}$ и BERT_CS $_{large}$ соответственно.Затем мы исследуем эффективность точной настройки моделей BERT_CS для нескольких задач НЛП, включая задачи, связанные со здравым смыслом, и общие задачи НЛП, представленные в разделе «Эксперименты».Чтобы сократить большие затраты на обучение моделей BERT_CS с нуля, мы инициализируем модели BERT_CS (как для моделей BERT $_{base}$, так и для моделей BERT $_{large}$) с весами параметров, выпущенными Google.Мы объединяем вопрос с каждым ответом, чтобы создать стандартную входную последовательность для BERT_CS (т. е. «[CLS] самое большое [QW] на ... ?[сентябрь] город[SEP]», где [CLS] и [SEP] — два специальных токена), а скрытые представления токена [CLS] пропускаются через слой softmax для создания прогнозов.Целевая функция определяется следующим образом: $$L = - {\rm logp}(c_i|s),$$ (уравнение 10) $${\rm p}(c_i|s) = \frac{{\rm exp}(\mathbf {w}^{T}\mathbf {c}_{i})}{\sum _{k=1}^{N}{\rm exp}(\mathbf {w}^{T }\mathbf {c}_{k})},$$ (уравнение 11) где $c_i$ — правильный ответ, $\mathbf {w}$ — параметры в слое softmax, N — общее количество все кандидаты, а $\mathbf {c}_i$ — векторное представление специального токена[CLS].Мы предварительно обучаем модели BERT_CS с размером пакета 160, начальной скоростью обучения $2e^{-5}$ и максимальной длиной последовательности 128 за 1 эпоху.Предварительное обучение проводится на 16 графических картах NVIDIA V100 с памятью 32 ГБ в течение примерно 3 дней для модели BERT_CS $_{large}$ и 1 дня для модели BERT_CS $_{base}$.В этом разделе мы исследуем эффективность точной настройки моделей BERT_CS для нескольких задач НЛП.Обратите внимание, что при точной настройке задач контроля качества с несколькими вариантами ответов, например, CommonsenseQA и Winograd Schema Challenge (см. раздел 5.3), мы точно настраиваем все параметры в BERT_CS, включая последний слой softmax из токена.[CLS]; тогда как для других задач мы случайным образом инициализируем слой классификатора и обучаем его с нуля.Кроме того, как описано в BIBREF4, точная настройка BERT иногда оказывается нестабильной на небольших наборах данных, поэтому мы проводим эксперименты с 5 различными случайными начальными числами и выбираем лучшую модель на основе набора разработки для всех экспериментов по точной настройке в эта секция.В этом подразделе мы проводим эксперименты с тестом ответов на вопросы с несколькими вариантами ответов, связанным со здравым смыслом, — набором данных CommonsenseQA BIBREF10.Набор данных CommonsenseQA состоит из 12 247 вопросов с одним правильным ответом и четырьмя отвлекающими ответами.Этот набор данных состоит из двух разделений: разделения токенов вопроса и случайного разделения.Наши эксперименты проводятся с использованием более сложного случайного разделения, которое является основным оценочным разделением согласно BIBREF10.Статистика набора данных CommonsenseQA показана в таблице 3. Как и на этапе предварительного обучения, входные данные для точной настройки моделей BERT_CS формируются путем объединения каждой пары вопрос-ответ в последовательность.Скрытые представления токена [CLS] пропускаются через слой softmax для создания прогнозов.Целевая функция такая же, как в уравнениях 10 и 11.Мы настраиваем модели BERT_CS в CommonsenseQA для двух эпох со скоростью обучения 1e-5 и размером пакета 16. В таблице 4 показаны точности тестового набора CommonsenseQA на основе базовых моделей BERT, выпущенных Google, предыдущего состояния. новейшая модель CoS-E BIBREF19 и наши модели BERT_CS.Обратите внимание, что модель CoS-E требует больших человеческих усилий для сбора набора данных «Объяснения здравого смысла» (CoS-E).Для сравнения, мы автоматически создаем наш набор данных с вопросами-ответами с несколькими вариантами ответов.Модели BERT_CS значительно превосходят аналоги базовой модели BERT.BERT_CS.$_{large}$ демонстрирует абсолютное улучшение на 5,5 % по набору тестов CommonsenseQA по сравнению с базовой моделью BERT $_{large}$ и абсолютное улучшение на 4 % по сравнению с предыдущей моделью SOTA CoS-E.Введен конкурс Wingrad Schema Challenge (WSC) BIBREF13 для тестирования агентов ИИ на предмет здравого смысла.WSC состоит из 273 примеров проблемы устранения неоднозначности местоимений (PDP).Например, для предложения «Грузовик доставки проехал мимо школьного автобуса, потому что он ехал очень быстро».и на соответствующий вопрос «Что означает это слово?», машина, как ожидается, ответит «грузовик доставки» вместо «школьный автобус».В этой задаче мы следуем BIBREF22 и используем набор данных WSCR BIBREF23 в качестве дополнительных обучающих данных.Набор данных WSCR разделен на обучающий набор из 1322 примеров и тестовый набор из 564 примеров.Мы используем эти данные для точной настройки и проверки моделей BERT_CS соответственно и тестируем точно настроенные модели BERT_CS в наборе данных WSC.Мы преобразуем проблему устранения неоднозначности местоимений в задачу ответа на вопрос с несколькими вариантами ответов.Маскируем местоименное слово специальным токеном[QW], чтобы построить вопрос и поместить два абзаца-кандидата в качестве ответов-кандидатов.Остальные процедуры аналогичны задачам контроля качества.Мы используем ту же функцию потерь, что и BIBREF22, то есть, если c $_1$ верен, а c $_2$ нет, потеря равна $$\begin{aligned} L = &- {\rm logp}(c_1|s) + \\ &\alpha \cdot max(0, {\rm logp}(c_2|s)-{\rm logp}(c_1|s)+\beta ), \end{aligned}$$ (уравнение 16) где $p (c_1|s)$ следует уравнению 11 с $N=2$ , $\alpha $ и $\beta $ — два гиперпараметра.Подобно BIBREF22, мы ищем $\alpha\in\lbrace 2.5,5,10,20\rbrace $ и $\beta \in \lbrace 0.05,0.1,0.2,0.4\rbrace.$ путем сравнения точности тестового набора WSCR (т. е. набора разработки для набора данных WSC).Мы установили размер пакета 16 и скорость обучения $1e^{-5}$ .Мы оцениваем наши модели на наборе данных WSC, а также на различных разделах набора данных WSC, как описано в BIBREF24.Мы также оцениваем точно настроенную модель BERT_CS (без использования данных обучения WNLI для дальнейшей точной настройки) на тестовом наборе WNLI, одной из задач GLUE.Сначала мы преобразуем примеры в WNLI из формата предпосылок-гипотез в формат задачи устранения неоднозначности местоимений, а затем преобразуем его в формат QA с множественным выбором BIBREF22. Результаты для набора данных WSC и его различных разделов, а также набора тестов WNLI показаны на рисунке. Таблица 5 .Обратите внимание, что результаты для BIBREF21 точно настраиваются для всего набора данных WSCR, включая обучающий и тестовый наборы.Результаты для ансамбля LM BIBREF25 и Knowledge Hunter BIBREF26 взяты из BIBREF24.Результаты для «BERT $_{large}$ + MTP» взяты из BIBREF22 в качестве основы для применения BERT к задаче WSC.Как видно из таблицы 5, «BERT $_{large}$ + MCQA» обеспечивает лучшую производительность, чем «BERT $_{large}$ + MTP» по четырем из семи критериев оценки и обеспечивает значительное улучшение по сравнению с ассоциированным.и состоять.разделы, что демонстрирует, что MCQA является лучшим методом предварительной обработки, чем MTP, для задачи WSC.Кроме того, «BERT_CS $_{large}$ + MCQA» достигает наилучшей производительности по всем критериям оценки, но соответствует. И обеспечивает абсолютное улучшение набора данных WSC на 3,3% по сравнению с предыдущими результатами SOTA из BIBREF22.Тест общей оценки понимания языка (GLUE) BIBREF6 представляет собой набор разнообразных задач на понимание естественного языка, включая MNLI, QQP, QNLI, SST-2, CoLA, STS-B, MRPC, из которых CoLA и SST-2 представляют собой задачи, состоящие из одного предложения. , MRPC, STS-B и QQP — задачи на сходство и перефразирование, а MNLI, QNLI, RTE и WNLI — задачи вывода на естественном языке.Чтобы выяснить, снижает ли наш подход к предварительному обучению на основе множественного выбора качества производительность при выполнении общих задач классификации предложений, мы оцениваем модели BERT_CS $_{base}$ и BERT_CS $_{large}$ на 8 наборах данных GLUE и сравниваем производительность с те, которые взяты из базовых моделей BERT.Следуя BIBREF4, мы используем размер пакета 32 и точные настройки для 3 эпох для всех задач GLUE, а также выбираем скорость обучения точной настройки (среди 1e-5, 2e-5 и 3e-5) на основе производительности на развивающий набор.Результаты представлены в таблице 6 .Мы наблюдаем, что модель BERT_CS $_{large}$ обеспечивает сопоставимую производительность с моделью BERT $_{large}$, а модель BERT_CS $_{base}$ демонстрирует немного лучшую производительность, чем модель BERT $_{base}$.Мы предполагаем, что здравый смысл может не потребоваться для задач GLUE.С другой стороны, эти результаты показывают, что предложенная нами задача предварительного обучения QA с множественным выбором не ухудшает возможности представления предложений моделей BERT.В этом подразделе мы проводим несколько сравнительных экспериментов с использованием разных данных и разных задач предварительного обучения по модели BERT $_{base}$.Для простоты в этом подразделе мы опустим индекс $base$.Первая серия экспериментов призвана сравнить эффективность нашего подхода к созданию данных с подходом к созданию данных в BIBREF18.Сначала, как и в случае с BIBREF18, мы собираем 606 564 тройки из ConceptNet и конструируем 1 213 128 вопросов, каждый из которых имеет правильный ответ и четыре отвлекающих фактора.Этот набор данных обозначается набором данных TRIPLES.Мы предварительно обучаем модели BERT в наборе данных TRIPLES с теми же гиперпараметрами, что и модели BERT_CS, и полученная модель обозначается BERT_triple.Мы также создаем несколько аналогов моделей на основе нашего созданного набора данных: Дистракторы формируются путем случайного выбора концепции $_1$/концепции $_2$ в ConceptNet вместо тех, которые разделяют ту же концепцию $_2$/концепцию $_1$ и связи с правильным ответы.Получившуюся модель из этого набора данных мы обозначим BERT_CS_random.Вместо предварительного обучения BERT с помощью задачи контроля качества с несколькими вариантами ответов, которая выбирает правильный ответ из нескольких возможных ответов, мы маскируем концепцию $_1$ и концепцию $_2$ и предварительно обучаем BERT с помощью задачи модели языка в маске (MLM).Мы обозначаем результирующую модель из этой задачи предварительного обучения BERT_MLM. Мы случайным образом маскируем 15% токенов WordPiece BIBREF27 вопроса, как в BIBREF4, а затем одновременно выполняем задачу QA с множественным выбором и задачу MLM.Полученная модель обозначается BERT_CS_MLM. Все эти модели BERT точно настраиваются на наборе данных CommonsenseQA с теми же гиперпараметрами, что описаны в разделе «CommonsenseQA», а результаты показаны в таблице 7.Из таблицы 7 мы наблюдаем следующее. Сравнивая модель 1 и модель 2, мы обнаруживаем, что предварительное обучение в ConceptNet приносит пользу задаче CommonsenseQA даже с тройками в качестве входных данных вместо предложений.Далее сравнивая модель 2 и модель 6, мы обнаруживаем, что построение предложений в качестве входных данных для предварительного обучения BERT лучше справляется с задачей CommonsenseQA, чем использование троек для предварительного обучения BERT.Мы также проводим более детальное сравнение точной настройки модели 1 и модели 2 для задач GLUE.Результаты показаны в Таблице 6 .BERT_triple $_{base}$ дает гораздо худшие результаты, чем BERT $_{base}$ и BERT_CS $_{base}$ , что демонстрирует, что предварительное обучение непосредственно на тройках может повредить возможностям представления предложений BERT. Сравнение модели 3 и Используя модель 6, мы обнаруживаем, что предварительное обучение BERT выигрывает от более сложного набора данных.В нашем методе отбора все ответы кандидатов имеют одно и то же (понятие $_1$, отношение) или (отношение, понятие $_2$), то есть эти кандидаты имеют близкие значения.Эти более запутанные кандидаты заставляют BERT_CS различать значения синонимов, что приводит к более мощной модели BERT_CS.Сравнивая модель 5 и модель 6, мы обнаруживаем, что задача контроля качества с множественным выбором работает лучше, чем замаскированная задача LM, в качестве задачи предварительного обучения для целевой задачи контроля качества с множественным выбором.Мы утверждаем, что для задачи LM в маске BERT_CS требуется для независимого прогнозирования каждой замаскированной части слова (в понятиях), а для задачи контроля качества с множественным выбором BERT требуется для моделирования целых фраз-кандидатов.Таким образом, BERT может моделировать концепции целиком, вместо того, чтобы уделять много внимания отдельным словам в предложениях.Сравнивая модель 4 и модель 6, мы видим, что добавление замаскированной задачи LM может снизить производительность BERT_CS.Вероятно, это связано с тем, что замаскированные слова в вопросах могут оказать негативное влияние на задачу контроля качества с несколькими вариантами ответов.Наконец, предлагаемая нами модель BERT_CS обеспечивает лучшую производительность в наборе разработки CommonsenseQA среди аналогов этой модели.В этом подразделе мы построим кривую производительности набора разработки CommonsenseQA из BERT_CS на этапах предварительного обучения.На каждые 10 000 шагов обучения мы сохраняем модель как исходную для тонкой настройки.Для каждой из этих моделей мы повторяем эксперименты 10 раз со случайным перезапуском, то есть мы используем одну и ту же предварительно обученную контрольную точку, но выполняем различную точную настройку перетасовки данных.Из-за нестабильности тонкой настройки BERT BIBREF4 мы удаляем результаты, которые существенно ниже среднего.В наших экспериментах мы убираем точность ниже 0,57 для BERT_CS $_{base}$ и 0,60 для BERT_CS $_{large}$.Мы наносим значения среднего и стандартного отклонения на рисунок 1.Мы наблюдаем, что производительность BERT_CS $_{base}$ сходится около 50 000 шагов обучения, а BERT_CS $_{large}$ сходится к концу этапа предварительного обучения или, возможно, не сходится, что демонстрирует, что BERT_CS $_{ big}$ более эффективно объединяет здравые знания.Мы также сравниваем с моделями BERT_CS предварительного обучения для двух эпох.Однако наша модель дает худшую производительность, вероятно, из-за переобучения.Предварительное обучение на более крупном корпусе (с большим количеством образцов контроля качества) может принести пользу моделям BERT_CS, и мы оставляем это на будущее.В Таблице 8 показано несколько случаев из набора данных Wingrad Schema Challenge.Вопросы 1 и 2 отличаются только словами «сострадательный» и «жестокий».Наша модель BERT_CS $_{large}$ выбирает правильные ответы на оба вопроса, в то время как BERT $_{large}$ выбирает один и тот же вариант «Счет» для обоих вопросов.Мы предполагаем, что BERT $_{large}$ имеет тенденцию выбирать более близких кандидатов.Мы разделили набор тестов WSC на две части CLOSE и FAR в зависимости от того, находится ли правильный кандидат ближе или дальше к местоимению в предложении, чем другой кандидат.Как показано в Таблице 9, наша модель BERT_CS $_{large}$ достигает той же производительности на наборе CLOSE и лучшей производительности на наборе FAR, чем BERT $_{large}$.То есть BERT_CS $_{large}$ более устойчив к положению слов и больше фокусируется на семантике предложения.Вопросы 3 и 4 отличаются только словами «большой» и «маленький».Однако ни BERT_CS $_{large}$, ни BERT $_{large}$ не выбирают правильные ответы.Мы предполагаем, что, поскольку «чемодан большой» и «трофей маленький», вероятно, довольно часто встречаются в языковых моделях, модели BERT $_{large}$ и BERT_CS $_{large}$ допускают ошибки.В будущей работе мы будем исследовать другие подходы для преодоления чувствительности языковых моделей и улучшения здравого смысла.В этой статье мы разрабатываем подход к предварительному обучению для включения здравого смысла в модели языкового представления, такие как BERT.Мы создаем набор данных ответов на вопросы, связанные со здравым смыслом, с несколькими вариантами ответов для предварительного обучения BERT.Набор данных создается автоматически с помощью предложенного нами метода «выравнивание, маска и выбор» (AMS).Результаты экспериментов показывают, что модели предварительного обучения с использованием предложенного подхода с последующей точной настройкой позволяют добиться значительных улучшений в различных задачах, связанных со здравым смыслом, таких как CommonsenseQA и Winograd Schema Challenge, сохраняя при этом сопоставимую производительность в других задачах НЛП, таких как классификация предложений и естественные вычисления. задачи языкового вывода (NLI) по сравнению с исходными моделями BERT.В будущей работе мы включим информацию о взаимосвязях между двумя понятиями в модели языкового представления.Мы также рассмотрим другие структурированные графы знаний, такие как Freebase, чтобы включить информацию об объектах в модели языкового представления.Мы также планируем включить информацию, основанную на здравом смысле, в другие модели языкового представления, такие как XLNet BIBREF28.authors would like to thank Lingling Jin, Pengfei Fan, Xiaowei Lu for supporting 16 NVIDIA V100 GPU cards.
Модели представления нейронного языка, такие как представления двунаправленного кодировщика от трансформаторов (BERT), предварительно обученные на крупномасштабных корпусах, могут хорошо улавливать богатую семантику из простого текста и могут быть точно настроены для последовательного повышения производительности при различной обработке естественного языка (NLP). задания. Однако существующие предварительно обученные модели языкового представления редко предусматривают явное включение здравого смысла или других знаний. В этой статье мы разрабатываем подход к предварительному обучению для включения здравого смысла в модели языкового представления. Мы создаем связанный со здравым смыслом набор данных ответов на вопросы с несколькими вариантами ответов для предварительного обучения модели представления нейронного языка. Набор данных создается автоматически с помощью предложенного нами метода «выравнивание, маска и выбор» (AMS). Мы также исследуем различные предтренировочные задачи. Результаты экспериментов показывают, что модели предварительного обучения с использованием предложенного подхода с последующей точной настройкой позволяют добиться значительных улучшений в различных задачах, связанных со здравым смыслом, таких как CommonsenseQA и Winograd Schema Challenge, сохраняя при этом сопоставимую производительность в других задачах НЛП, таких как классификация предложений и естественные вычисления. задачи языкового вывода (NLI) по сравнению с исходными моделями BERT.
5,012
QasperSumInstruct
ru
Напиши аннотацию по статье
Зацепки в заголовке: учимся создавать заголовки с помощью контролируемых стилей. Каждой хорошей статье нужен хороший заголовок, который должен не только отражать основной смысл текста, но и звучать привлекательно для читателей, обеспечивая большую наглядность и запоминаемость.Однако в настоящее время даже самая лучшая система генерации заголовков (HG) может удовлетворить только вышеуказанное требование, но плохо справляется с последним.Например, на рисунке FigREF2 простой заголовок модели HG «Сумма: в Нью-Йорке найдена леопардовая лягушка» менее привлекателен, чем стильные заголовки, такие как «Что это за смех вы слышите?»Это может быть новая лягушка из Нью-Йорка». Чтобы преодолеть разрыв между практическими потребностями в привлекательных заголовках и простым HG с помощью существующих систем резюмирования, мы предлагаем новую задачу — создание стилистических заголовков (SHG).Целью статьи является создание заголовка с таким целевым стилем, как юмористический, романтический и клик-приманка.Он имеет широкое применение в создании заголовков, адаптированных к читателям, предложении слоганов, автозаполнении заголовков онлайн-сообщений и многих других.ГСП — это высококвалифицированный творческий процесс, которым обычно обладают только опытные писатели.Таким примером мог бы стать один из самых известных заголовков американских изданий «Sticks Nix Hick Pix».Напротив, современные лучшие системы реферирования в лучшем случае сравнимы с начинающими авторами, которые обеспечивают простое описательное представление тела текста в виде заголовков BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4.Эти системы обычно используют модель генерации языка, которая смешивает стили с другими лингвистическими шаблонами и по своей сути не имеет механизма для явного управления стилем.Более того, данные обучения состоят из смеси стилей (например, набора данных Gigaword BIBREF5), что не позволяет моделям изучить отдельный стиль.В этой статье мы предлагаем новую задачу SHG, чтобы подчеркнуть явный контроль стиля при создании заголовков.Мы представляем новую модель генерации заголовков TitleStylist, позволяющую создавать привлекательные заголовки с целевыми стилями, включая юмористический, романтический и кликбейтовый.Наша модель использует многозадачную структуру для обучения как модели реферирования на парах заголовок-статья, так и автоэнкодера шумоподавления (DAE) на корпусе стилей.В частности, на основе архитектуры преобразователя BIBREF6 мы используем зависящую от стиля нормализацию слоев и внимание кодировщика, управляемое стилем, чтобы отделить факторы стиля языка от текста.Такой дизайн позволяет нам использовать общий контент для создания заголовков, более соответствующих статьям, а также управлять стилем, подключив набор параметров, специфичных для стиля.Мы проверяем модель на трех задачах: создание юмористических, романтических заголовков и кликбейтных заголовков.Как автоматические, так и человеческие оценки показывают, что TitleStylist может генерировать заголовки с желаемыми стилями, которые больше нравятся читателям-людям, как показано на рисунке FigREF2. Основные достижения нашей статьи перечислены ниже: Насколько нам известно, это первое исследование по создание привлекательных заголовков новостей со стилями без каких-либо контролируемых данных о паре статей и заголовков, специфичных для стиля.С помощью как автоматической, так и человеческой оценки мы продемонстрировали, что предлагаемый нами TitleStylist может генерировать релевантные, плавные заголовки с тремя стилями (юмор, романтика и кликбейт), и они даже более привлекательны, чем написанные человеком.Наша модель может гибко включать несколько стилей, тем самым эффективно и автоматически предоставляя людям различные креативные варианты заголовков для ссылок и вдохновляя их мыслить нестандартно.Наша работа связана с обобщением и передачей стиля текста.Генерация заголовков — очень популярная область исследований.Традиционные методы создания заголовков в основном сосредоточены на стратегиях извлечения с использованием лингвистических особенностей и созданных вручную правил BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11, BIBREF12, BIBREF13.Чтобы обогатить разнообразие экстрактивного обобщения, затем были предложены абстрактные модели.С помощью нейронных сетей BIBREF14 предложил суммирование на основе внимания (ABS), чтобы сделать структуру обобщения BIBREF15 более мощной.Многие недавние работы расширили ABS за счет использования дополнительных функций BIBREF16, BIBREF17, BIBREF18, BIBREF19, BIBREF20, BIBREF21, BIBREF22.Другие варианты стандартной настройки создания заголовков включают заголовки для ответов на вопросы сообщества BIBREF23, генерацию нескольких заголовков BIBREF24, генерацию для конкретного пользователя с использованием пользовательских вложений в системах рекомендаций BIBREF25, генерацию двуязычных заголовков BIBREF26 и генерацию заголовков в стиле вопроса BIBREF27. Лишь в нескольких работах есть недавно начал фокусироваться на повышении привлекательности генерируемых заголовков BIBREF28, BIBREF29.BIBREF28 фокусируется на управлении некоторыми особенностями текста сводки, такими как длина текста и стиль двух разных новостных агентств, CNN и DailyMail.Эти элементы управления служат способом повышения производительности модели, а элементы управления в стиле CNN и DailyMail демонстрируют незначительное улучшение.BIBREF29использовал обучение с подкреплением, чтобы побудить систему генерации заголовков генерировать более сенсационные заголовки, используя в качестве награды оценку комментариев читателей, которая, однако, не может явно контролировать или манипулировать стилями заголовков.BIBREF30 предложил подход к переносу стиля, позволяющий преобразовать заголовок, не являющийся кликбейтом, в заголовок, не являющийся кликбейтом.Этот метод требует парных данных новостных статей-заголовков для целевого стиля; однако для многих стилей, таких как юмор и романтика, заголовки отсутствуют.Наша модель не имеет этого ограничения, что позволяет использовать множество других стилей.Наша работа также связана с переносом стиля текста, целью которого является изменение атрибута стиля текста при сохранении его содержания.Впервые предложенный BIBREF31, он добился большого прогресса за последние годы BIBREF32, BIBREF33, BIBREF34, BIBREF35, BIBREF36, BIBREF37, BIBREF38.Однако все эти методы требуют наличия текстового корпуса для целевого стиля; однако в нашем случае собирать заголовки новостей с юмористическим и романтическим стилями дорого и технически сложно, что делает данную категорию методов неприменимыми к нашей задаче.Модель обучается на исходном наборе данных $S$ и целевом наборе данных $T$. Исходный набор данных $S=\lbrace (\mathbf {a^{(i)}},\mathbf {h^{(i)}})\rbrace _{i=1}^N$ состоит из пар новостей статья $\mathbf {a}$ и ее простой заголовок $\mathbf {h}$. Мы предполагаем, что исходный корпус имеет распределение $P(A, H)$, где $A=\lbrace \mathbf {a^{(i)}}\rbrace _{i=1}^N$ и $H =\lbrace \mathbf {h^{(i)}}\rbrace _{i=1}^N$. Целевой корпус $T=\lbrace \mathbf {t^{(i)}}\rbrace _{i=1}^{M}$ состоит из предложений $\mathbf {t}$, написанных в определенном стиле (например, юмор).Мы предполагаем, что оно соответствует распределению $P(T)$. Обратите внимание, что целевой корпус $T$ содержит только стилистические предложения, а не обязательно заголовки — это может быть просто книжный текст.Также ни одно предложение $\mathbf {t}$ не сочетается с новостной статьей.В целом наша задача — изучить условное распределение $P(T|A)$, используя только $S$ и $T$. Эта задача полностью неконтролируема, поскольку нет выборки из совместного распределения $P(A, T)$. Для обобщения мы принимаем модель последовательности к последовательности (Seq2Seq), основанную на архитектуре Transformer BIBREF6.Как и на рисунке FigREF8, он состоит из 6-слойного кодера $E(\mathbf {\cdot }; \mathbf {\theta _E})$ и 6-слойного декодера $G(\mathbf {\cdot }; \mathbf {\theta _G})$ со скрытым размером 1024 и размером фильтра прямой связи 4096.Для лучшего качества генерации мы инициализируем модель MASS BIBREF3.MASS предварительно обучается путем маскировки фрагмента предложения в кодере, а затем его прогнозирования в декодере на крупномасштабных одноязычных английских данных.Такое предварительное обучение применяется в современных системах для различных эталонных задач реферирования, включая HG. Чтобы отделить скрытый стиль от текста, мы применяем структуру многозадачного обучения BIBREF39, одновременно обучая реферированию и DAE (как показано на рисунке). Рисунок FigREF10). Используя набор данных исходной области $S$, основанный на архитектуре кодировщика-декодера, мы можем изучить условное распределение $P(H|A)$, обучая $\mathbf {z}_S=E_S(A)$. и $H_S=G_S(\mathbf {z_S})$ для решения контролируемой задачи обучения Seq2Seq, где $\mathbf {z_S}$ — изученное скрытое представление в исходной области.Функция потерь этой задачи имеет вид, где $\mathbf {\theta _{E_S}}$ и $\mathbf {\theta _{G_S}}$ — набор параметров модели кодера и декодера в исходной области, а $p (\mathbf {h}|\mathbf {a})$ обозначает общую вероятность создания выходной последовательности $\mathbf {h}$ с учетом входного статьи $\mathbf {a}$, которую можно дополнительно расширить следующим образом: где $L$ — длина последовательности.Для целевого корпуса стилей $T$, поскольку у нас есть только предложение $\mathbf {t}$ без парных новостных статей, мы обучаем $\mathbf {z_T}=E_T(\mathbf {\tilde{t}})$ и $\mathbf {t}=G_T(\mathbf {z_T})$ путем решения задачи обучения реконструкции без учителя, где $\mathbf {z_T}$ – изученное скрытое представление в целевой области, а $\mathbf {\tilde{ t}}$ — это поврежденная версия $\mathbf {t}$, в результате случайного удаления или пропуска некоторых слов и перетасовки порядка слов.Для обучения модели минимизируем ошибку реконструкции $\mathcal {L}_T$:где $\mathbf {\theta _{E_T}}$ и $\mathbf {\theta _{G_T}}$ — множество модели параметры для кодера и генератора в целевом домене.Мы обучаем всю модель, совместно минимизируя контролируемые потери при обучении Seq2Seq $\mathcal {L}_S$ и неконтролируемые потери при автокодировании с шумоподавлением $\mathcal {L}_T$ посредством многозадачного обучения, поэтому общие потери становятся где $\lambda $ является гиперпараметром.В процессе многозадачного обучения необходимы дополнительные ограничения.Мы стремимся вывести условное распределение как $ P(T|A)=G_T(E_S(A))$. Однако без выборок из $P(A, T)$ это сложная или даже невыполнимая задача, если $E_S$ и $E_T$ или $G_S$ и $G_T$ полностью независимы друг от друга.Следовательно, нам нужно добавить в сеть некоторые ограничения, связав $E_S$ и $E_T$, а также $G_S$ и $G_T$. Самый простой вариант — разделить все параметры между $E_S$ и $E_T$ и применить одну и ту же стратегию к $G_S$ и $G_T$. Интуиция, лежащая в основе этого дизайна, заключается в том, что, подвергая модель как задаче реферирования, так и задаче реконструкции текста со стилем, модель приобретет некоторое представление о целевом стиле при резюмировании статьи.Однако, чтобы побудить модель лучше различать содержание и стиль текста и более явно изучать стиль, содержащийся в целевом корпусе $T$, мы разделяем все параметры кодировщика между двумя доменами, то есть между $E_S$ и $E_T. $, тогда как мы разделяем параметры декодера на два типа: независимые от стиля параметры $\mathbf {\theta _{\mathrm {ind}}}$ и зависящие от стиля параметры $\mathbf {\theta _{\mathrm { деп}}}$. Это означает, что только параметры, независимые от стиля, являются общими для $G_S$ и $G_T$, а параметры, зависящие от стиля, — нет.Более конкретно, параметры модулей нормализации уровня и внимания кодировщика становятся зависимыми от стиля, как подробно описано ниже.Вдохновленные предыдущей работой по передаче стилей изображений BIBREF40, мы делаем параметры масштабирования и сдвига для нормализации слоев в архитектуре преобразователя необщими для каждого стиля.Этот подход к нормализации слоя стиля направлен на преобразование активации слоя $\mathbf {x}$ в нормализованную активацию $\mathbf {z}$, специфичную для стиля $s$: где $\mu $ и $\sigma $ являются средними значениями. и стандартное отклонение пакета $\mathbf {x}$, а $\gamma _s$ и $\beta _s$ — это параметры, специфичные для стиля, полученные из данных.В частности, для архитектуры декодера преобразователя мы используем нормализацию уровня самообслуживания для конкретного стиля и нормализацию финального уровня для исходного и целевого доменов на всех шести уровнях декодера.Наша архитектура модели содержит механизм внимания, где декодер определяет вероятность следующего слова не только на основе предыдущих слов, но также на скрытых состояниях закодированного ввода.Паттерны внимания должны быть разными для задач резюмирования и реконструкции в силу их разной природы.Мы вставляем это мышление в модель, вводя внимание кодировщика, управляемого стилем, в модуль многоголового внимания, который определяется следующим образом: где $\mathbf {\mathrm {query}}$, $\mathbf {\mathrm {key }}$ и $\mathbf {\mathrm {value}}$ обозначают тройку входов в модуль многоголового внимания; $\mathbf {W_q^s}$, $\mathbf {W_k}$ и $\mathbf {W_v}$ обозначают масштабированную матрицу скалярного произведения для аффинного преобразования; $d_{\mathrm {model}}$ — размерность скрытых состояний.Мы специализируем матрицу скалярного произведения $\mathbf {W_q^s}$ запроса для разных стилей, так что $\mathbf {Q}$ может быть разным, чтобы вызывать различные модели внимания.Мы собираем богатый набор исходных данных, объединяя New York Times (NYT) и CNN, а также три целевых набора стилей юмористического, романтического и кликбейтового текста.Средняя длина предложения в наборах данных NYT, CNN, Humor, Romance и Clickbait составляет 8,8, 9,2, 12,6, 11,6 и 8,7 слов соответственно.Исходный набор данных содержит новостные статьи с соответствующими заголовками.Чтобы обогатить обучающий корпус, мы объединили два набора данных: New York Times (56 тыс.) и CNN (90 тыс.).После объединения этих двух наборов данных мы случайным образом выбрали 3000 пар в качестве набора для проверки и еще 3000 пар в качестве тестового набора.Сначала мы извлекли архивные рефераты и заголовки из корпуса BIBREF41 New York Times (NYT) и рассматривали их как новостные статьи.Следуя стандартным процедурам предварительной обработки BIBREF42, мы отфильтровали статьи, связанные с рекламой (поскольку они сильно отличаются от новостных репортажей), в результате чего было получено 56 899 пар тезисов новостей и заголовков.Затем мы добавляем в наш исходный набор набор данных суммирования CNN, который широко используется для обучения абстрактных моделей суммирования BIBREF43.Мы используем краткие сводки в исходном наборе данных в качестве рефератов новостей и автоматически анализируем заголовки для каждой новости со сброшенных новостных веб-страниц и в общей сложности собрали 90 236 пар новостных рефератов и заголовков.Для целевых наборов данных по стилям мы следуем BIBREF44, чтобы использовать коллекции юмористических и любовных романов в BookCorpus BIBREF45 в качестве наборов данных «Юмор» и «Романтика».Мы разбили документы на предложения, токенизировали текст и собрали 500 тысяч предложений в качестве наших наборов данных.Мы также попытались изучить стиль письма по кликбейтным заголовкам, поскольку они оказывают большую привлекательность для читателей.Таким образом, мы использовали набор данных The Examiner — SpamClickBait News, обозначенный как набор данных Clickbait.Мы собрали для нашего использования 500 тысяч заголовков.Некоторые примеры из каждого корпуса стилей перечислены в таблице TABREF32. Мы сравнили предлагаемый TitleStylist со следующими пятью надежными базовыми подходами.Мы обучаем современную модель обобщения MASS BIBREF3 на собранных нами парных данных «тезисы новостей-заголовки».Мы тестируем готовую модель генерации заголовков MASS от BIBREF3, которая уже обучена на Gigaword, крупномасштабном наборе данных для генерации заголовков, насчитывающем около 4 миллионов статей.Задача разбивается на два этапа: сначала генерируются заголовки на основе вышеупомянутой модели NHG, затем применяются методы изменения стиля для создания заголовков, специфичных для конкретного стиля (BIBREF46).Короче говоря, этот метод использует модель Skip-Thought для кодирования предложения в вектор представления, а затем манипулирует его стилем с помощью линейного преобразования.После этого этот преобразованный вектор представления используется для инициализации языковой модели, предварительно обученной на корпусе, специфичном для конкретного стиля, чтобы можно было сгенерировать стилистический заголовок.Более подробную информацию об этом методе можно найти на официальном сайте.Сначала мы обучаем модель NHG, как упоминалось выше, а затем дорабатываем ее на корпусе целевых стилей с помощью обучения DAE.Мы разделяем все параметры между $E_S$ и $E_T$, а также между $G_S$ и $G_T$ и обучаем модель как задачам суммирования, так и задачам DAE.Архитектура модели такая же, как у NHG. Чтобы оценить эффективность предлагаемого TitleStylist в создании привлекательных заголовков с помощью стилей, мы предлагаем комплексную двойную стратегию: автоматической оценки и оценки человеком.Мы случайным образом выбрали 50 отрывков новостей из тестового набора и попросили трех аннотаторов-носителей языка оценить сгенерированные заголовки.В частности, мы выполняем две задачи для оценки по четырем критериям: (1) актуальность, (2) привлекательность, (3) свободное владение языком и (4) сила стиля.Для первой задачи оценщикам предлагается оценить эти результаты по первым трем аспектам: релевантность, привлекательность и свободное владение языком по шкале Лайкерта от 1 до 10 (целые значения).Для релевантности аннотаторов просят оценить, насколько семантически релевантным заголовок является текст новости.Для привлекательности аннотаторов спрашивают, насколько привлекательны заголовки.Для проверки беглости мы просим аннотаторов оценить, насколько беглый и читабельный текст.После сбора результатов человеческой оценки мы усредняли баллы и получали окончательный результат.Кроме того, у нас есть еще одна независимая задача по оценке силы стиля — мы представляем сгенерированные из TitleStylist заголовки и базовые линии судьям-людям и позволяем им выбрать тот, который больше всего соответствует целевому стилю, например юмор.Затем мы определяем показатель силы стиля как долю вариантов выбора.Помимо комплексной человеческой оценки, мы используем автоматическую оценку для измерения качества генерации по двум традиционным аспектам: качество обобщения и свободное владение языком.Обратите внимание, что цель этой двусторонней автоматической оценки — подтвердить, что производительность нашей модели находится в приемлемом диапазоне.Хорошие результаты автоматической оценки являются необходимым доказательством, дополняющим человеческие оценки эффективности модели.Для обобщения мы используем стандартные метрики автоматической оценки, используя в качестве ссылки исходные заголовки: BLEU BIBREF47, METEOR BIBREF48, ROUGE BIBREF49 и CIDEr BIBREF50.Для ROUGE мы использовали набор инструментов Files2ROUGE, а для других показателей мы использовали набор инструментов pycocoeval.Мы настроили среднюю модель GPT-2 BIBREF51 на основе собранных нами заголовков, а затем использовали ее для измерения степени недоумения (PPL) сгенерированных результатов.Мы использовали базу кода fairseq BIBREF52.Во время обучения мы используем оптимизатор Adam с начальной скоростью обучения $5\times 10^{-4}$, а размер пакета установлен как 3072 токена для каждого графического процессора с частотой обновления параметров, установленной как 4.Для случайного повреждения при обучении DAE мы следуем стандартной практике: случайно удаляем или очищаем слово с равномерной вероятностью $0,2$ и случайным образом меняем порядок слов в пределах 5 токенов.Все наборы данных имеют нижний регистр.В экспериментах $\lambda$ устанавливается равным 0,5.Для каждой итерации обучения мы случайным образом извлекаем пакет данных либо из исходного набора данных, либо из целевого корпуса стилей, а стратегия выборки следует равномерному распределению с вероятностью, равной $\lambda $. Человеческая оценка должна иметь комплексное измерение производительности.Мы проводим эксперименты по четырем критериям: релевантность, привлекательность, беглость речи и сила стиля.Мы суммируем результаты оценки человека по первым трем критериям в таблице TABREF51 и последнему критерию в таблице TABREF57.Обратите внимание, что при автоматической оценке базовые методы NST, Fine-tuned и Gigaword-MASS работают хуже, чем другие методы (в разделе SECREF58), поэтому мы исключили их из оценки человеком, чтобы сэкономить ненужную работу оценщикам.Сначала мы посмотрим на оценки релевантности в таблице TABREF51.Интересно, но неудивительно, что модель чистого обобщения NHG достигает наивысшего балла релевантности.Результаты NHG обычно представляют собой органическую реорганизацию нескольких ключевых слов в контексте источника (как показано в таблице TABREF52), поэтому они выглядят наиболее релевантными.Примечательно, что сгенерированные заголовки нашего TitleStylist для всех трех стилей близки к исходным заголовкам, написанным человеком, с точки зрения релевантности, что подтверждает, что результаты нашей генерации квалифицированы в этом аспекте.Еще один вывод заключается в том, что более привлекательные или более стилистические заголовки потеряют некоторую актуальность, поскольку для повышения креативности в них необходимо использовать больше слов за пределами текста новости.Что касается показателей привлекательности в таблице TABREF51, у нас есть три вывода: (1) Написанные человеком заголовки более привлекательны, чем заголовки от NHG, что согласуется с нашим наблюдением в разделе SECREF1.(2) Наш TitleStylist может генерировать более привлекательные заголовки по сравнению с базовыми показателями NHG и Multitask для всех трех стилей, демонстрируя, что адаптация модели к этим стилям может улучшить привлекательность, а специализация некоторых параметров модели для разных стилей может еще больше повысить привлекательность.(3) Адаптация модели к стилю «Кликбейт» может создать наиболее привлекательные заголовки, даже перевешивая исходные, что согласуется с тем фактом, что заголовки-кликбейты лучше привлекают внимание читателей.Следует отметить, что, хотя мы внедрили стиль «Кликбейт» в нашу систему реферирования, мы все равно позаботились о том, чтобы генерировать релевантные заголовки, а не слишком преувеличенные, что можно проверить по нашим оценкам релевантности.Оценки беглости, аннотированные человеком, в таблице TABREF51 подтвердили, что заголовки, сгенерированные нашим TitleStylist, сопоставимы или превосходят заголовки, написанные человеком, с точки зрения читабельности.Мы также подтвердили, что наш TitleStylist может содержать больше стилей по сравнению с базовыми вариантами Multitask и NHG, суммируя процент выбора людьми наиболее юмористических или романтических заголовков в таблице TABREF57. Помимо человеческой оценки общего качества генерации по четырем критериям, мы также провели традиционную автоматическую оценку, чтобы оценить только качество обобщения.Эта оценка не принимает во внимание другие меры, такие как сила стиля, но она служит важным дополнительным доказательством того, что модель имеет приемлемый уровень способности к обобщению.В таблице TABREF59 суммированы результаты автоматической оценки предложенной нами модели TitleStylist и всех базовых показателей.Мы используем метрики оценки, связанные с обобщением, то есть BLEU, ROUGE, CIDEr и METEOR, чтобы измерить, насколько релевантны сгенерированные заголовки новостным статьям, в некоторой степени, путем сравнения их с исходными заголовками, написанными людьми.В таблице TABREF59 первая строка «NHG» показывает эффективность текущей современной модели суммирования наших данных, а в таблице TABREF52 представлены два примера результатов ее генерации.Наша конечная цель — создавать более привлекательные заголовки, сохраняя при этом актуальность для основной массы новостей.Судя по таблице TABREF59, базовый показатель Gigaword-MASS оказался хуже, чем NHG, что показывает, что прямое применение готовой модели генерации заголовков к новым внутренним данным невозможно, хотя эта модель была обучена на более чем в 20 раз большем наборе данных. .И NST, и Fine-tuned baselines демонстрируют очень низкую производительность суммирования, и причина может заключаться в том, что оба они разделяют проблему на два этапа: суммирование и перенос стиля, причем последний этап отсутствует в задаче суммирования, что не позволяет модели сохранение способности к обобщению.Напротив, базовый вариант многозадачности включает в себя процессы обобщения и передачи стиля (посредством обучения реконструкции) одновременно и демонстрирует превосходную производительность обобщения даже по сравнению с NHG.Это показывает, что задача неконтролируемой реконструкции действительно может помочь улучшить задачу контролируемого суммирования.Что еще более важно, мы используем два разных типа корпусов для задачи реконструкции: один состоит из заголовков, похожих на новостные данные для задачи обобщения, а другой состоит из текста из романов, которые полностью отличаются от новостных данных.Тем не менее, обучение реконструкции без учителя на обоих типах данных может способствовать решению задачи обобщения, что проливает свет на потенциальную будущую работу по обобщению за счет включения обучения без учителя в качестве дополнения.Мы находим это в таблице TABREF59.TitleStylist-F обеспечивает наилучшую производительность резюмирования.Это означает, что по сравнению с базовой версией многозадачности, где обе задачи имеют общие параметры, специализация параметров нормализации слоев и внимания кодировщика может заставить $G_S$ больше сосредоточиться на суммировании.Примечательно, что оценки по суммированию TitleStylist ниже, чем у TitleStylist-F, но все же сопоставимы с NHG.Это согласуется с тем фактом, что ветвь $G_T$ больше фокусируется на добавлении стилистических лингвистических шаблонов в генерируемые сводки, поэтому выходные данные в некоторой степени будут отклоняться от чистого обобщения.Однако степень их актуальности остается близкой к базовому уровню NHG, который является отправной точкой, которую мы хотим улучшить.Позже в следующем разделе мы проверим соответствие этих заголовков новой статье посредством человеческой оценки.Мы также сообщили о недоумении (PPL) сгенерированных заголовков для оценки беглости языка, как показано в таблице TABREF59.Все выходные данные базовых показателей NHG и Multitask, а также предлагаемого нами TitleStylist показывают аналогичный PPL по сравнению с тестовым набором (используемым на этапе тонкой настройки) PPL 42.5, что указывает на то, что все они являются беглыми выражениями для заголовков новостей.Мы постепенно расширяем TitleStylist, включив в него все три целевых стиля (юмор, романтика и кликбейт), чтобы продемонстрировать гибкость нашей модели.То есть мы одновременно обучали задачу обобщения на данных заголовков и задачу DAE на трех целевых корпусах стилей.И мы сделали параметры нормализации слоя и внимания кодировщика специализированными для этих четырех стилей (факт, юмор, романтика и кликбейт) и поделились остальными параметрами.Мы сравнили эту версию с несколькими стилями TitleStylist-Versatile с ранее представленным аналогом с одним стилем, как показано в таблице TABREF61.Из этой таблицы мы видим, что оценки BLEU и ROUGE-L для TitleStylist-Versatile сопоставимы с TitleStylist для всех трех стилей.Кроме того, мы провели еще одно исследование с участием людей, чтобы определить лучший заголовок между двумя моделями с точки зрения привлекательности, и позволяем комментаторам выбирать оба варианта, если они считают их эквивалентными.Результат представлен в последнем столбце таблицы TABREF61, где показано, что привлекательность результатов TitleStylist-Versatile конкурирует с TitleStylist.Таким образом, TitleStylist-Versatile генерирует несколько заголовков в разных стилях, что является новой и эффективной функцией.Мы предложили новую задачу «Генерация стилистических заголовков» (SHG), чтобы подчеркнуть явный контроль стилей при создании заголовков для повышения их привлекательности.С этой целью мы представили многозадачную структуру для создания стилей при обобщении и предложили схему совместного использования параметров для расширения возможностей суммирования и стилизации.Путем экспериментов мы подтвердили, что предлагаемый нами TitleStylist может генерировать более привлекательные заголовки, чем современные модели HG.Мы благодарим всех добровольцев-носителей языка (Шрея Карпур, Лиза Ории, Абхишек Мохан, Палома Кирога и т. д.) за человечную оценку нашего исследования и благодарим рецензентов за их вдохновляющие комментарии.Джоуи Тяньи Чжоу частично поддерживается Агентством по науке, технологиям и исследованиям (A*STAR) в рамках его схемы программного финансирования AME (проект № A18A1b0045).
Современные системы резюмирования создают только простые, основанные на фактах заголовки, но не отвечают практическим потребностям создания запоминающихся заголовков для повышения узнаваемости. Мы предлагаем новую задачу «Генерация стилистических заголовков» (ГСП), чтобы обогатить заголовки тремя вариантами стиля (юмор, романтика и кликбейт), чтобы привлечь больше читателей. Не имея пары «статья-заголовок», специфичной для стиля (только стандартный набор данных для обобщения заголовков и корпуса с одним стилем), наш метод TitleStylist генерирует заголовки для конкретного стиля, объединяя задачи обобщения и реконструкции в многозадачную структуру. Мы также представили новую схему совместного использования параметров, чтобы еще больше отделить стиль от текста. С помощью автоматической и человеческой оценки мы показываем, что TitleStylist может генерировать релевантные, плавные заголовки с тремя целевыми стилями: юмор, романтика и кликбейт. Показатель привлекательности заголовков, генерируемых нашей моделью, превосходит показатель привлекательности современной модели резюмирования на 9,68% и даже превосходит ссылки, написанные человеком.
4,763
QasperSumInstruct
ru
Напиши аннотацию по статье
Многозадачное обучение с повторным взвешиванием выборки для понимания машинного чтения. Машинное чтение (MRC) вызывает растущий интерес в исследовательском сообществе BIBREF0, BIBREF1.В задаче MRC машина читает отрывок текста и вопрос и генерирует (или выбирает) ответ на основе отрывка.Это требует, чтобы машина обладала сильными способностями к пониманию, умозаключению и рассуждению.За последние несколько лет достигнут значительный прогресс в построении сквозных моделей нейронных сетей BIBREF2 для MRC.Однако большинство общедоступных наборов данных MRC (например, SQuAD, MS MARCO, TriviaQA) обычно невелики (менее 100 КБ) по сравнению с размером модели (например, SAN BIBREF3, BIBREF4 с примерно 10 млн параметров).Чтобы предотвратить переобучение, недавно были проведены некоторые исследования по использованию предварительно обученных вложений слов BIBREF5 и контекстных вложений в обучении модели MRC, а также подходов обратного перевода BIBREF1 для увеличения данных.Многозадачное обучение BIBREF6 — это широко изучаемая область машинного обучения, направленная на лучшее обобщение модели путем объединения наборов обучающих данных из нескольких задач.В этой работе мы исследуем структуру многозадачного обучения (MTL), позволяющую обучать одну универсальную модель различным задачам MRC для лучшего обобщения.Интуитивно, эту многозадачную модель MRC можно рассматривать как метод неявного увеличения данных, который может улучшить обобщение целевой задачи за счет использования обучающих данных из вспомогательных задач.Мы видим, что простое добавление большего количества задач не может существенно улучшить выполнение целевой задачи.Таким образом, мы предлагаем два алгоритма обучения MTL для повышения производительности.Первый метод просто использует схему выборки, которая случайным образом выбирает обучающие данные из вспомогательных задач, контролируемых гиперпараметром отношения; Второй алгоритм включает в себя последние идеи отбора данных в машинном переводе BIBREF7.Он автоматически изучает веса выборки из вспомогательных задач с помощью языковых моделей.До этой работы во многих исследованиях использовались восходящие наборы данных для повышения производительности моделей MRC, включая встраивание слов BIBREF5, языковые модели (ELMo) BIBREF8 и машинный перевод BIBREF1.Эти методы направлены на получение надежного семантического кодирования как отрывков, так и вопросов.Наш метод MTL ортогонален этим методам: вместо того, чтобы обогащать семантическое внедрение внешними знаниями, мы используем существующие наборы данных MRC в разных областях, что помогает сделать весь процесс понимания более надежным и универсальным.Наши эксперименты показывают, что MTL может обеспечить дальнейшее повышение производительности в сочетании с контекстными представлениями из предварительно обученных языковых моделей, например, ELMo BIBREF8.Toнасколько нам известно, это первая работа, в которой систематически исследуется многозадачное обучение для MRC.В предыдущих методах, использующих языковые модели и внедрение слов, внешние модели внедрения/языка предварительно обучаются отдельно и остаются фиксированными во время обучения модели MRC.С другой стороны, нашу модель можно более гибко обучать различным задачам MRC.MTL также быстрее и проще в обучении, чем методы внедрения/LM: наш подход не требует предварительно обученных моделей, тогда как обратный перевод и ELMo полагаются на большие модели, для обучения которых потребуются дни на нескольких графических процессорах BIBREF9, BIBREF8. Мыпроверить нашу структуру MTL с помощью двух современных моделей на четырех наборах данных из разных областей.Эксперименты показывают, что наши методы приводят к значительному увеличению производительности по сравнению с базовыми показателями однозадачности на SQuAD BIBREF0, NewsQA BIBREF10 и Who-Did-What.BIBREF11 , добившись при этом высочайшей производительности на последних двух.Например, на NewsQA BIBREF10 наша модель превзошла человеческие способности на 13,4 (46,5 против 59,9) и 3,2 (72,6 против 69,4) абсолютных баллов с точки зрения точного соответствия и F1.Вклад этой работы тройной.Во-первых, мы применяем многозадачное обучение к задаче MRC, что приводит к значительным улучшениям по сравнению с базовыми показателями для одной задачи.Во-вторых, прирост производительности от MTL можно легко объединить с существующими методами для получения дальнейшего прироста производительности.В-третьих, предлагаемая схема выборки и повторного взвешивания может еще больше улучшить эффективность многозадачного обучения.Исследования в области понимания машинного чтения в основном сосредоточены на проектировании архитектуры нейронных сетей, таких как двунаправленное внимание BIBREF2, динамическое мышление BIBREF12 и распараллеливание BIBREF1.В некоторых недавних работах изучалось трансферное обучение, которое использует данные из внешней области для изучения моделей MRC, когда для целевого домена BIBREF13 нет данных обучения.В этой работе мы изучаем многозадачное обучение, чтобы использовать данные из других областей, в то время как у нас все еще есть доступ к данным обучения целевой области.Многозадачное обучение BIBREF6 широко используется в машинном обучении для улучшения обобщения с использованием данных из нескольких задач.Для обработки естественного языка MTL успешно применяется для задач низкоуровневого анализа BIBREF14, последовательного обучения BIBREF15 и веб-поиска BIBREF16.Совсем недавно BIBREF17 предложил рассматривать все задачи от синтаксического анализа до перевода как задачу контроля качества и использовать единую сеть для их решения.Однако их результаты показывают, что многозадачное обучение ухудшает выполнение большинства задач при их совместном решении.Иными словами, мы фокусируемся на применении MTL к задаче MRC и демонстрируем значительное улучшение по сравнению с базовыми показателями для одной задачи.Наша примерная схема повторного взвешивания имеет некоторое сходство с предыдущими методами MTL, которые присваивают веса задачам BIBREF18.Однако наш метод дает более детальную оценку для каждого образца и обеспечивает лучшую производительность при многозадачном обучении MRC. Мы называем нашу модель Multi-Task-SAN (MT-SAN), которая представляет собой вариант модели SAN BIBREF3 с двумя основными отличиями. : i) мы добавляем уровень сети автомагистралей после слоя внедрения, уровня кодирования и уровня внимания; ii) во время оценки мы используем экспоненциальное скользящее среднее BIBREF2.Архитектура SAN и наши модификации кратко описаны ниже и в разделе «Детали эксперимента», а подробное описание можно найти в BIBREF3. Аналогично MT-SAN, мы добавляем сеть магистралей после уровня кодирования лексикона и уровня контекстного кодирования и используем отдельный модуль ответов для каждого набора данных.Мы применяем MT-DrQA к более широкому спектру наборов данных.Для наборов данных обнаружения интервалов, таких как SQuAD, мы используем тот же модуль ответа, что и DrQA.Для наборов данных типа «Кто-Дид-Что» мы используем считыватель суммы внимания BIBREF39 в качестве модуля ответов.Для задач классификации, требуемых SQuAD v2.0 BIBREF42, мы применяем softmax к последнему состоянию в слое памяти и используем его в качестве прогноза.Для большинства рассматриваемых нами задач наша модель MRC принимает на вход тройку $(Q,P,A)$, где $Q=(q_1,...,q_m), P=(p_1,...,p_n)$ — это словесные индексные представления вопроса и отрывка соответственно, а $A=(a_{\text{begin}}, a_{\text{end}})$ — индекс диапазона ответов.Цель состоит в том, чтобы предсказать $A$ по заданному $(Q,P)$. Мыотображает индексы слов $P$ и $Q$ в их 300-тусклые векторы перчаток BIBREF5 .Мы также используем следующую дополнительную информацию для встраивания слов: i) встраивание 16-мерных тегов части речи (POS); ii) 8-мерное внедрение распознавания именованных объектов (NER); iii) 3-мерное встраивание точного совпадения: $f_{\text{exact\_match}}(p_i)=\mathbb {I}(p_i\in Q)$ , где соответствие определяется на основе исходного слова, записанного строчными буквами, и форма леммы соответственно; iv) Вопрос о встраивании слов в расширенный отрывок: $f_{\text{align}}(p_i)=\sum _{j} \gamma _{i,j} h(\text{GloVe}(q_j))$ , где $ ${0.89}{!}{ \gamma _{i,j}=\frac{\exp (h(\text{GloVe}(p_j)),h(\text{GloVe}(q_i)))}{\sum _{j^{\prime }}\exp (h(\text{GloVe}(p_{j^{\prime }})),h(\text{GloVe}(q_i)))}}$$ (уравнение 3) — это сходство между слова $p_j$ и $q_i$ , а $g(\cdot )$ — это однослойная нейронная сеть с яркостью 300 пикселей и выпрямленной линейной единицей (ReLU) $g(x)=\text{ReLU}(W_1x)$ ; v) Встраивание вопросительных слов с расширенными проходами: то же, что и iv), но вычисляется в обратном направлении.Чтобы уменьшить размерность ввода на следующий слой, входные векторы отрывков и вопросов размером 624 тусклых пропускаются через слой ReLu, чтобы уменьшить их размеры до 125. После сети ReLU мы пропускаем векторы 125 тусклых через шоссе. network BIBREF19 , чтобы адаптироваться к настройке многозадачности: $g_i = \text{sigmoid}(W_2p_i^t), p_i^t=\text{ReLU}(W_3p_i^t)\odot g_i+ g_i\odot p_i^t$ , где $p_i^t$ — вектор после преобразования ReLU.Интуитивно понятно, что сеть шоссе здесь обеспечивает нейронное взвешивание, которое потенциально может справиться с большими различиями в данных, вносимыми несколькими наборами данных.Кодирование отрывков и вопросов проходит через двухуровневую сеть двунаправленной долговременной памяти (BiLSTM, BIBREF20, BIBREF20) на этом уровне.Мы добавляем вектор CoVe BIBREF21 с яркостью 600 яростей к выходным данным уровня кодирования лексикона в качестве входных данных для контекстных кодировщиков.Для экспериментов с ELMo мы также добавляем вектор ELMo 1024 тусклости.Подобно уровню кодирования лексикона, выходные данные обоих слоев передаются через сеть магистралей для многозадачности.Затем мы объединяем выходные данные двух слоев, чтобы получить $H^q\in \mathbb {R}^{2d\times m}$ для вопроса и $H^p=\mathbb {R}^{2d\times n }$ проход, где $d$ — размерность BiLSTM. Мы объединяем $H^p$ и $H^q$ посредством перекрестного внимания и генерируем рабочую память в этом слое.Мы берем функцию внимания из BIBREF22 и вычисляем матрицу внимания как $C=\text{dropout}\left(f_{\text{attention}}(\hat{H}^q, \hat{H}^p)\ справа) \in \mathbb {R}^{m\times n}.$Затем мы используем $C$ для вычисления представления отрывка с учетом вопросов как $U^p = \text{concat}(H^p, H^qC)$ .Поскольку отрывок обычно включает в себя несколько сотен токенов, мы используем метод BIBREF23, чтобы привлечь внимание к представлениям отрывка и переупорядочить его информацию: $ \hat{U}^p = U^p\text{drop}_{\text {diag}}(f_{\text{attention}}(U^p, U^p)),$ где $\text{drop}_{\text{diag}}$ означает, что мы отбрасываем только диагональные элементы на матрица сходства (т. е. внимания с самим собой).Затем мы объединяем $U^p$ и $\hat{U}^p$ и пропускаем их через BiLSTM: $M=\text{BiLSTM}([U^p];\hat{U}^p]) $ .Наконец, выходные данные BiLSTM (после объединения двух направлений) проходят через уровень магистрали для создания памяти.Базовый модуль ответа аналогичен SAN, который вычисляет распределение по промежуткам прохода.Сначала мы вычисляем начальное состояние $s_0$ самостоятельно на $H^q$ : $s_0\leftarrow \text{Highway}\left(\sum _{j} \frac{\exp (w_4H^q_j)}{ \sum _{j^{\prime }}\exp {w_4H^q_{j^{\prime }}}}\cdot H^q_j\right)$ .Окончательный ответ вычисляется с помощью временных шагов $T$.На шаге $t\in \lbrace 1,...,T-1\rbrace $ мы вычисляем новое состояние, используя GRU, BIBREF24, BIBREF24 ) $s_t=\text{GRU}(s_{t -1},x_t)$ , где $x_t$ вычисляется путем внимания между $M$ и $s_{t-1}$ : $x_t=\sum _{j} \beta _j M_j, \beta _j=\text{softmax}(s_{t-1}W_5M)$ .Затем каждый шаг дает прогноз начала и конца интервалов ответа с помощью билинейной функции: $H^q$0 $H^q$1 Окончательный прогноз представляет собой среднее значение каждого временного шага: $H^q$2 .Мы случайным образом применяем отсев на уровне шага на каждом временном шаге во время обучения, как это сделано в BIBREF3.Во время обучения целью является логарифмическое правдоподобие основной истины: $H^q$3 .Мыопишите наши алгоритмы обучения MTL в этом разделе.Мы начнем с очень простого и понятного алгоритма, который выбирает одну задачу и один мини-пакет из этой задачи на каждой итерации.Чтобы улучшить производительность MTL на целевом наборе данных, мы предлагаем два метода повторного взвешивания выборок в соответствии с их важностью.Первый предложенный метод напрямую снижает вероятность выборки из конкретной вспомогательной задачи; однако эту вероятность необходимо выбирать с помощью поиска по сетке.Затем мы предлагаем другой метод, который позволяет избежать такого поиска, используя языковую модель.[h!]Многозадачное обучение MRC[1] k различных наборов данных $\mathcal {D}_1,...,\mathcal {D}_K$ , max_epochИнициализировать модель $\mathcal {M}$ epoch $=1,2,...$ , max_epoch Разделить каждый набор данных $\mathcal {D}_k$ на $N_k$ мини-пакеты $\mathcal {D}_k=\ lbrace b_1^k,...,b_{N_k}^k\rbrace $ , $1\le k\le K$Соберите все мини-партии вместе и случайным образом перетасуйте их порядок, чтобы получить последовательность $B=(b_1,...,b_L)$ , где $L=\sum _kN_k$ каждого мини-пакета $b\in B$ Выполнить обновление градиента на $\mathcal {M}$0 с потерями $\mathcal {M}$1 Оценить производительность набора разработки Модель с наилучшей производительностью оценки Предположим, что у нас есть $K$ различных задач, Самая простая версия нашей процедуры обучения MTL показана в алгоритме «Алгоритмы многозадачного обучения».В каждую эпоху мы берем все мини-пакеты из всех наборов данных и перемешиваем их для обучения модели, при этом для всех задач используется один и тот же набор параметров.Возможно, это удивительно, но, как мы покажем в результатах эксперимента, этот простой метод определения базовых показателей уже может привести к значительному улучшению по сравнению с базовыми показателями для одной задачи.Одним из наблюдений является то, что производительность нашей модели, использующей алгоритм «Алгоритмы многозадачного обучения», начинает ухудшаться по мере того, как мы добавляем все больше и больше данных из других задач в наш обучающий пул.Мы предполагаем, что внешние данные неизбежно будут смещать модель в сторону вспомогательных задач вместо целевой задачи.[h!]Многозадачное обучение MRC с соотношением смеси, ориентированное на $\mathcal {D}_1$ [1] K различных наборов данных $\mathcal {D}_1,...,\mathcal {D}_K$ , max_epoch, соотношение смеси $ \alpha $ Инициализируйте модель $\mathcal {M}$ epoch $=1,2,...$ , max_epoch Разделите каждый набор данных $\mathcal {D}_k$ на $N_k$ мини-пакеты $\mathcal {D} _k=\lbrace b_1^k,...,b_{N_k}^k\rbrace $ , $1\le k\le K$ $S\leftarrow \lbrace b_1^1,...,b_{N_1}^1 \rbrace$ Случайным образом выбрать мини-пакеты $\mathcal {D}_1,...,\mathcal {D}_K$0 из $\mathcal {D}_1,...,\mathcal {D}_K$1 и добавить к $\ mathcal {D}_1,...,\mathcal {D}_K$2 Назначьте мини-пакеты в $\mathcal {D}_1,...,\mathcal {D}_K$3 в случайном порядке, чтобы получить последовательность $ \mathcal {D}_1,...,\mathcal {D}_K$4 , где $\mathcal {D}_1,...,\mathcal {D}_K$5 каждый мини-пакет $\mathcal {D}_1 ,...,\mathcal {D}_K$6 Выполнить обновление градиента на $\mathcal {D}_1,...,\mathcal {D}_K$7 с потерей $\mathcal {D}_1,...,\ mathcal {D}_K$8 Оценка производительности набора разработки Модель с наилучшей производительностью оценки. Чтобы избежать такого неблагоприятного эффекта, мы вводим параметр соотношения смеси во время обучения.Алгоритм обучения с соотношением смеси представлен в алгоритме «Модуль ответов для WDW», где $\mathcal {D}_1$ является целевым набором данных.В каждую эпоху мы используем все мини-пакеты из $\mathcal {D}_1$ , в то время как для обучения модели используется только определенное количество мини-пакетов $\alpha $ из внешних наборов данных.В нашем эксперименте мы используем поиск по гиперпараметрам, чтобы найти лучший $\alpha $ для каждой комбинации наборов данных.Этот метод напоминает предыдущие методы многозадачного обучения для снижения веса по-разному (например, BIBREF18, BIBREF18), и его очень легко реализовать.В наших экспериментах мы используем алгоритм «Модуль ответа для WDW» для обучения нашей сети, когда мы используем только 2 набора данных для MTL. Соотношение смеси (алгоритм «Модуль ответа для WDW») значительно повышает производительность нашей системы.Однако для этого требуется найти идеальное соотношение путем поиска гиперпараметров, что отнимает много времени.Более того, это соотношение придает одинаковый вес всем вспомогательным данным, но значимость каждой точки данных для целевой задачи может сильно различаться.Мы разрабатываем новый метод повторного взвешивания для решения этих проблем, используя идеи, вдохновленные отбором данных в машинном переводе BIBREF26, BIBREF7.Мы используем $(Q^{k},P^{k},A^{k})$ для представления точки данных из $k$ -й задачи для $1\le k\le K$ , где $k= 1$ является целевой задачей.Поскольку стили прохождения сложно оценить, мы оцениваем только точки данных на основе $Q^{k}$ и $A^k$ .Обратите внимание, что повторно взвешиваются только данные из вспомогательной задачи ( $2\le k\le K$ ); Данные целевой задачи всегда имеют вес 1. Наши оценки состоят из двух частей: одна за вопросы, другая за ответы.Для вопросов мы создаем языковые модели (подробно описанные в разделе «Детали эксперимента»), используя вопросы из каждого задания, которые мы представляем как $LM_k$ для $k$-го задания.Для каждого вопроса $Q^{k}$ из вспомогательных задач вычисляется показатель перекрестной энтропии: $$H_{C,Q}(Q^{k})=-\frac{1}{m}\sum _ {w\in Q^{k}}\log (LM_{C}(w)),$$ (уравнение 10) где $C\in \lbrace 1,k\rbrace $ — целевая или вспомогательная задача, $ m$ — длина вопроса $Q^{k}$ , а $w$ перебирает все слова в $Q^{k}$ . Построить языковые модели для ответов сложно, поскольку они обычно очень короткие (например, ответы на SQuAD в большинстве случаев включают только одно-два слова).Вместо этого мы просто используем длину ответов в качестве сигнала для оценки.Пусть $l_{a}^{k}$ — длина $A^{k}$ , оценка ответа перекрестной энтропии определяется как: $$H_{C,A}(A^{k})=- \log \text{freq}_C(l_a^{k}),$$ (уравнение 11) где freq $_C$ — частота длин ответов в задаче $C\in \lbrace 1,k\rbrace $ . Затем показатели перекрестной энтропии нормализуются по всем выборкам в задаче $C$, чтобы создать сопоставимую метрику для всех вспомогательных задач: $$H_{C,Q}^{\prime }(Q^k)=\frac{H_{C, Q}(Q^k)-\min (H_{C,Q})}{\max (H_{C,Q})-\min (H_{C,Q})} \\ H_{C,A}^{\prime }(A^k)=\frac{H_{C,A}(A^k)-\min (H_{C,A})}{\max (H_{C ,A})-\min (H_{C,A})}$$ (уравнение 12) для $C\in \lbrace 1,2,...,K\rbrace $ .Для $C\in \lbrace 2,...,K\rbrace $ максимум и минимум берутся по всем выборкам в задаче $k$.Для $C=1$ (целевая задача) берутся все доступные выборки.Интуитивно, $H^{\prime }_{C,Q}$ и $H^{\prime }_{C,A}$ представляют собой сходство текста $Q,A$ с задачей $C$ ; низкий $H^{\prime }_{C,Q}$ (соответственно.$H^{\prime }_{C,A}$ ) означает, что $Q^k$ (соответственно.$A^k$ ) легко предсказать и похоже на $C$ , и наоборот.Нам нужны образцы, которые наиболее похожи на данные в целевом домене (низкий $H^{\prime }_1$ ) и наиболее отличаются (информативны) от данных вспомогательной задачи (высокий $H^{\prime }_{ C,A}$0).Таким образом, мы вычисляем следующую разницу перекрестной энтропии для каждого внешнего данных: $$\text{CED}(Q^{k},A^{k})=&(H^{\prime }_{1,Q}( Q^{k})-H^{\prime }_{k,Q}(Q^{k}))+\nonnumber \\ &(H^{\prime }_{1,A}(A^{k})-H^{\prime }_{k,A}(A^{k}))$$ (уравнение 13) для $k\in \lbrace 2,...,K\rbrace $ .Обратите внимание, что низкий балл CED указывает на высокую важность.Наконец, мы преобразуем оценки в веса, принимая отрицательные значения, и нормализуем их между $[0,1]$ : $${0.89}{!}{\displaystyle \text{CED}^{\prime }(Q^{k} ,А^{к}) =1-\frac{\text{CED}(Q^{k},A^{k})-\min (\text{CED})}{\max (\text{CED})-\min (\ text{CED})}.}$$ (уравнение 14)Здесь берется максимум и минимум по всем доступным выборкам и задаче.Наш алгоритм обучения такой же, как в алгоритме 1, но для мини-пакета $b$ вместо этого мы используем потерю $$l(b)=\sum _{(P,Q,A)\in b} \text{CED}^{ \prime }(Q,A)l(P,Q,A)$$ (уравнение 15) на этапе «Алгоритмы многозадачного обучения» .Мы определяем $\text{CED}^{\prime }(Q^1,A^1)\equiv 1$ для всех целевых образцов $(P^1,Q^1,A^1)$. Наши эксперименты разработаны ответить на следующие вопросы по многозадачному обучению для MRC:1.Можем ли мы улучшить производительность существующих систем MRC, используя многозадачное обучение?2.Как многозадачное обучение повлияет на производительность, если мы объединим его с другими внешними данными?3.Как алгоритм обучения меняет производительность многозадачного MRC?4.Чем наш метод отличается от существующих методов MTL? Сначала мы представляем детали и результаты нашего эксперимента для MT-SAN.Затем мы приводим всестороннее исследование эффективности различных алгоритмов MTL в разделе «Сравнение различных алгоритмов MTL».Наконец, мы приводим некоторые дополнительные результаты по объединению MTL с DrQA BIBREF29, чтобы продемонстрировать гибкость нашего подхода.провел эксперименты на SQuAD (BIBREF0, BIBREF0), NewsQA BIBREF10, MS MARCO (v1, BIBREF30, BIBREF30) и WDW BIBREF11.Статистика набора данных показана в Таблице 1.Хотя эти наборы данных схожи по размеру, они сильно различаются по предметам, длине текста и типам задач.В следующих экспериментах мы проверим, помогает ли включение внешних наборов данных в качестве дополнительной входной информации (например, предварительно обученной языковой модели на этих наборах данных) повысить производительность систем MRC.В основном мы ориентируемся на наборы данных на основе промежутков для MT-SAN, а именно SQuAD, NewsQA и MS MARCO.Мы конвертируем MS MARCO в набор данных по диапазону ответов, чтобы он соответствовал SQuAD и NewsQA, в соответствии с BIBREF3.Для каждого вопроса мы ищем лучший интервал, используя оценку ROUGE-L во всех текстах отрывков, и используем этот интервал для обучения нашей модели.Мы исключаем вопросы с максимальным баллом ROUGE-L менее 0,5 во время обучения.Для оценки мы используем нашу модель, чтобы найти интервал во всех отрывках.Оценка прогноза умножается на оценку ранжирования, обученную по методу BIBREF31 для определения окончательного ответа.Мы обучаем наши сети, используя алгоритмы из раздела «Алгоритмы многозадачного обучения», используя SQuAD в качестве целевой задачи.Для экспериментов с двумя наборами данных мы используем Алгоритм «Модуль ответов для WDW»; для экспериментов с тремя наборами данных мы обнаружили, что механизм повторного взвешивания, описанный в разделе «Перевзвешивание выборки», имеет лучшую производительность (детальное сравнение будет представлено в разделе «Сравнение различных алгоритмов MTL»).Для генерации весов выборки мы строим языковую модель LSTM на вопросах после реализации BIBREF32 с теми же гиперпараметрами.Мы сохраняем только 10 000 наиболее часто встречающихся слов и заменяем остальные слова специальным токеном, выходящим за пределы словарного запаса.Параметры MT-SAN в основном такие же, как и в оригинальной статье BIBREF3.Мы используем SpaCy для токенизации текста и создания меток частей речи и именованных объектов.В качестве BiLSTM во всей модели мы используем двухслойный BiLSTM со 125 скрытыми блоками.Во время обучения мы сбрасываем активацию каждого нейрона с вероятностью 0,3.Для оптимизации мы используем Adamax BIBREF33 с размером пакета 32 и скоростью обучения 0,002.Для прогнозирования мы вычисляем экспоненциальное скользящее среднее (EMA, BIBREF2 BIBREF2) параметров модели со скоростью затухания 0,995 и используем его для расчета производительности модели.Для экспериментов с ELMo мы используем модель, реализованную AllenNLP.Во время обучения мы усекаем фрагмент, чтобы он содержал не более 1000 токенов, и удаляем те данные, ответы на которые расположены после 1000-го токена.Обучение занимает примерно 50 эпох для моделей без ELMo (аналогично однозадачной SAN); Для моделей с ELMo сходимость происходит намного быстрее (около 30 эпох). В следующих подразделах мы сообщаем о наших результатах на наборах разработки SQuAD и MARCO, а также на наборах разработки и тестирования NewsQA.Все результаты относятся к характеристикам одной модели, если не указано иное.Результаты многозадачного обучения SAN на SQuAD обобщены в Таблице 2.Используя MTL в SQuAD и NewsQA, мы можем улучшить показатели точного соответствия (EM) и F1 на (2%, 1,5%) соответственно как с ELMo, так и без него.Подобный выигрыш указывает на то, что наш метод ортогонален ELMo.Обратите внимание, что производительность нашей отдельной модели немного выше, чем у оригинальной SAN, за счет включения EMA и шоссейных сетей.В сочетании с многозадачным обучением это еще больше повышает производительность.Прирост производительности за счет добавления MARCO относительно меньше: 1% в EM и 0,5% в F1.Мы предполагаем, что MARCO менее полезен из-за различий в стиле вопросов и ответов.Например, вопросы в MS MARCO — это реальные поисковые запросы в Интернете, короткие и могут содержать опечатки или сокращения; в то время как вопросы в SQuAD и NewsQA более формальны и хорошо написаны.Использование трех наборов данных в целом дает еще одно незначительное улучшение.Наша модель дает лучшие результаты среди существующих методов, которые не используют большую языковую модель (например, ELMo).Наша версия ELMo также превосходит любые другие модели с такими же настройками.Мы отмечаем, что BERT BIBREF28 использует гораздо большую модель, чем наша (около 20x), и оставляем производительность объединения BERT с MTL как интересную будущую работу.Результаты многозадачного обучения на NewsQA представлены в Таблице 3.Прирост производительности при многозадачном обучении еще больше на NewsQA: более 2% как в EM, так и в F1.Эксперименты с ELMo и без него дают схожие результаты.Стоит отметить, что наш подход не только позволяет достичь новых современных результатов с большим отрывом, но и превосходит человеческие возможности в NewsQA. Наконец, мы сообщаем о производительности MT-SAN в MS MARCO в Таблице 4.Многозадачность в SQuAD и NewsQA обеспечивает такой же прирост производительности по показателям BLEU-1 и ROUGE-L, как и в случае NewsQA и SQuAD.Наш метод не обеспечивает очень высокой производительности по сравнению с предыдущей работой, вероятно, потому, что мы не применяем общие методы, такие как классификация «да/нет» или перекрестное ранжирование.BIBREF36 .Мытакже проверьте надежность нашего алгоритма, выполнив еще одну серию экспериментов на SQuAD и WDW.WDW гораздо сильнее отличается от трех других датасетов (SQuAD, NewsQA, MS MARCO): WDW гарантирует, что ответом всегда будет человек, тогда как процент таких вопросов в SQuAD составляет 12,9%.Более того, WDW — это замкнутый набор данных, тогда как в SQuAD и NewsQA ответы — это промежутки в проходе.В этом эксперименте мы используем уровень ответов для конкретных задач и алгоритм «Модуль ответов для WDW»; модуль ответов WDW такой же, как и в AS Reader BIBREF39, который для полноты картины мы опишем в приложении.Несмотря на большую разницу между наборами данных, наши результаты (таблица 5) показывают, что MTL все же может обеспечить умеренный прирост производительности при совместном обучении на SQuAD (около 0,7%) и WDW (около 1%). Сравнение методов с использованием внешних данных.В качестве метода увеличения данных мы сравниваем наш подход с предыдущими методами MRC в таблице 6.Наша модель обеспечивает лучшую производительность, чем обратный перевод.Мы также наблюдаем, что языковые модели, такие как ELMo, дают более высокий прирост производительности, чем многозадачное обучение, однако их объединение с многозадачным обучением приводит к наиболее значительному приросту производительности.Это подтверждает наше предположение о том, что многозадачное обучение является более надежным и отличается от предыдущих методов, таких как языковое моделирование.В этом разделе мы приводим исследования абляции, а также сравнение с другими существующими алгоритмами стратегии MTL.Мы ориентируемся на MT-SAN без ELMo для эффективного обучения.В Таблице 7 сравниваются различные стратегии многозадачного обучения для MRC.Как соотношение смеси (раздел «Модуль ответов для WDW»), так и повторное взвешивание выборки (раздел «Повторное взвешивание выборки») улучшаются по сравнению с простым базовым уровнем простого объединения всех данных (алгоритм «Алгоритмы многозадачного обучения»).На SQuAD+MARCO они обеспечивают прирост производительности примерно на 0,6% как для EM, так и для F1, и примерно на 1% для всех трех наборов данных.Мы отмечаем, что это составляет около половины нашего общего улучшения.Хотя повторное взвешивание выборки действует аналогично соотношению смеси, оно значительно сокращает время обучения, поскольку устраняет необходимость поиска наилучшего соотношения по сетке.Кендал и др. (BIBREF18) используют неопределенность задачи, чтобы по-разному взвешивать задачи для MTL; наши эксперименты показывают, что это имеет некоторый положительный эффект, но не так эффективно, как предложенные нами два метода.Отметим, что Кендал и др.(как и другие предыдущие методы MTL) оптимизирует сеть для обеспечения хорошей производительности для всех задач, тогда как наш метод фокусируется на интересующей нас целевой области, например, SQuAD. Чувствительность соотношения смеси.Мы также исследуем влияние соотношения смеси на производительность модели.На рисунке 1 мы построили график оценки EM/F1 для набора разработчиков SQuAD в зависимости от соотношения смеси для MT-SAN при обучении на всех трех наборах данных.Максимум кривой составляет $\alpha =0,4$; однако если мы используем $\alpha =0.2$ или $\alpha =0.5$ , производительность падает примерно на $0,5\%$ , что значительно отстает от производительности повторного взвешивания выборки.Это показывает, что производительность MT-SAN чувствительна к изменениям $\alpha $ , что еще больше усложняет поиск гиперпараметров.Такая чувствительность предполагает предпочтение использования нашей методики повторного взвешивания выборки.С другой стороны, подход, основанный на соотношениях, довольно прост в реализации.Анализ весов выборок.Сравнение наборов данных в таблице 1 и производительности в таблице 2 позволяет предположить, что NewsQA имеет больше сходства с SQuAD, чем с MARCO.Следовательно, для более высокой производительности система MTL должна взвешивать образцы NewsQA больше, чем образцы MARCO.Мы пытаемся убедиться в этом в Таблице 8, показывая примеры и статистику весов выборки.Мы представляем оценки CED $^{\prime }$, а также нормализованную версию оценок за вопросы и ответы (соответственно.$(H^{\prime }_{1,Q}-H^{\prime }_{k,Q})$ и $(H^{\prime }_{1,A}-H^{\prime }_{k,A})$ в (13), а затем инвертируется и нормализуется по всем выборкам в NewsQA и MARCO так же, как и в (14)).Высокий балл $H_Q$ указывает на высокую важность вопроса, а $H_A$ — на ответ; CED $^{\prime }$ представляет собой краткое изложение этих двух.Сначала мы покажем один пример от NewsQA и один от MARCO.Вопрос NewsQA — это естественный вопрос (похожий на SQuAD) с коротким ответом, приводящий к высоким баллам как за вопросы, так и за ответы.Вопрос MARCO — это фраза с очень длинным ответом, приводящая к снижению баллов.Из общей статистики мы также видим, что образцы в NewsQA имеют более высокий балл, чем образцы в MARCO.Однако если мы посмотрим на вопросы MARCO, которые начинаются со слов «когда» или «кто» (т. е. естественные по вероятности вопросы с короткими ответами), баллы резко возрастут.Мы предложили структуру многозадачного обучения для обучения систем MRC с использованием наборов данных из разных областей и разработали два подхода к повторному взвешиванию выборок для многозадачного обучения по задачам MRC.Эмпирические результаты показали, что наши подходы превосходят существующие методы MTL, а также базовые тесты для одной задачи.Интересные будущие направления включают объединение более крупных языковых моделей, таких как BERT и MTL, с более широкими задачами, такими как языковой вывод BIBREF40 и машинный перевод.Ичун Сюй частично поддерживается DARPA (FA8750-17-2-0130). Для полноты картины мы описываем здесь модуль ответов для WDW.Для WDW нам нужно выбрать ответ из списка кандидатов; кандидаты — это имена людей, которые фигурируют в отрывке.Мы используем тот же способ суммирования информации в вопросах, что и в моделях на основе пролетов: $s_0\leftarrow \text{Highway}\left(\sum _{j} \frac{\exp (w_4H^q_j)}{\sum _ {j^{\prime }}\exp {w_4H^q_{j^{\prime }}}}\cdot H^q_j\right)$ .Затем мы вычисляем оценку внимания с помощью простого скалярного произведения: $s=\text{softmax}(s_0^TM)$ .Вероятность того, что кандидат даст правильный ответ, представляет собой совокупность оценок внимания для всех появлений кандидата: $\Pr (c|Q,P)\propto \sum _{1\lei\le n} s_i\mathbb {I}(p_i\in C) $ для каждого кандидата $C$ .Напомним, что $n$ — длина прохода $P$, а $p_i$ — i-е слово; следовательно, $\mathbb {I}(p_i\in C)$ является индикаторной функцией $p_i$, появляющейся в кандидате $C$ .В качестве предсказанного ответа выбирается кандидат с наибольшей вероятностью.Чтобы продемонстрировать гибкость нашего подхода, мы также адаптируем DrQA BIBREF29 в нашу структуру MTL.Мы тестируем DrQA только с использованием базового алгоритма «Модуль ответов для WDW», поскольку нашей целью является в основном тестирование платформы MTL.
Мы предлагаем структуру многозадачного обучения для изучения совместной модели машинного чтения (MRC), которую можно применять к широкому спектру задач MRC в разных областях. Вдохновленные недавними идеями отбора данных в машинном переводе, мы разрабатываем новую схему повторного взвешивания выборки, чтобы присвоить потерям веса, специфичные для выборки. Эмпирическое исследование показывает, что наш подход можно применить ко многим существующим моделям MRC. В сочетании с контекстными представлениями из предварительно обученных языковых моделей (таких как ELMo) мы достигаем новых современных результатов на наборе эталонных наборов данных MRC. Мы публикуем наш код по адресу https://github.com/xycforgithub/MultiTask-MRC.
6,514
QasperSumInstruct
ru
Напиши аннотацию по статье
Многомасштабные октавные свертки для надежного распознавания речи. Глубокие сверточные нейронные сети (CNN) с двумерными свертками и небольшими ядрами BIBREF1 достигли современных результатов для нескольких задач распознавания речи BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6.Точность этих моделей растет с их сложностью, что приводит к избыточным скрытым представлениям.В литературе было предложено несколько подходов для уменьшения этой избыточности BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11 и, следовательно, для повышения их эффективности.Октавные сверточные слои BIBREF0 решают проблему пространственной избыточности в картах объектов путем изучения представлений объектов в высоком и низком разрешении.Путь обработки с низким разрешением увеличивает размер воспринимающего поля в исходном входном пространстве, что является правдоподобным объяснением улучшенной производительности классификации изображений.Мы расширяем концепцию октавной свертки на многомасштабные октавные сверточные слои, которые включают в себя карты объектов с более низким разрешением с более высокой степенью сжатия (уменьшение более чем на одну октаву) и использование более двух тензорных групп карт объектов для изучения. представления в нескольких масштабах.Многомасштабная обработка ранее предлагалась для различных задач распознавания речи BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16.В глубоких акустических моделях CNN некоторым картам признаков может потребоваться представлять информацию, которая меняется с меньшей скоростью, например характеристики говорящего или фоновый шум, по сравнению с информацией, необходимой для фонетической дискриминации.Объединение пространственных средних значений в группе карт объектов с низким разрешением можно интерпретировать как форму низкочастотной фильтрации, обеспечивающую сглаженное представление наблюдаемых данных, что потенциально приводит к повышению производительности.Мы исследуем использование многомасштабных октавных сверточных слоев для надежного распознавания речи и пытаемся пролить больше света на объяснимость моделей, оценивая надежность изученных представлений с использованием потерь аффинного преобразования для измерения сходства между чистым и зашумленным кодированием. .Октавный сверточный слой BIBREF0 факторизует выходные карты объектов сверточного слоя на две группы.Разрешение карт низкочастотных признаков уменьшается на октаву – размеры высоты и ширины делятся на 2.В этой работе мы исследуем пространственное сокращение до 3 октав – деление на $2^t$, где $t=1,2,3$ – и до 4 групп.Мы называем такой слой многооктавным сверточным слоем (MultiOctConv), а пример с тремя группами и сокращениями в одну и две октавы изображен на рис.РИС. 1. В стандартной CNN свертки имеют одинаковое пространственное разрешение по всей сети.Октавный сверточный слой (OctConv) разделен на карты высокочастотных и низкочастотных объектов, а многооктавный сверточный слой (MultiOctConv) содержит карты объектов, уменьшенные на несколько октав.Пусть тензор входных признаков равен $X \in \mathbb {R}^{c_{in} \times h \times w}$, где $c_{in}$ обозначает количество входных каналов, а $h$ и $w $ соответствуют пространственным размерам.В слое MultiOctConv, работающем с тремя разрешениями, $X$ факторизуется по размеру канала в $X = \lbrace X^1, X^2, X^3\rbrace $.Тензор первой тензорной группы, $X^1$, представляет собой представление в том же пространственном масштабе, что и $X$. Пространственные размерности тензоров второй и третьей групп $X^2$ и $X^3$ уменьшены на одну и две октавы соответственно.Размеры входных тензоров $X^1$, $X^2$ и $X^3$ описаны на рис.FIGREF1.Доля каналов для каждой группы обозначается $\alpha _{n} \in[0,1]$, где $\sum _{n=1}^{N} \alpha _{n} = 1$ для $N$ групп разрешения в слое MultiOctConv.Для простоты мы используем один и тот же $\alpha _{n}$ для входных и выходных представлений в пределах одной масштабной группы.Аналогично, выходные тензоры также разлагаются на $Y = \lbrace Y^1, Y^2, Y^3\rbrace $.Их размеры аналогичны размерам входных тензоров и описаны на рис.FIGREF1.Чтобы вычислить $Y^1$, $Y^2$ и $Y^3$, мы работаем непосредственно с факторизованными входными тензорами $X^1$, $X^2$ и $X^3$. Межчастотное обновление информации реализовано как сумма карт признаков из разных групп разрешения.Чтобы иметь возможность суммировать эти представления для желаемого выходного масштаба, пространственные размеры входных тензоров должны быть одинаковыми.По этой причине используются две операции: пул пространственного среднего пула ($X, p$) и повышающая дискретизация билинейной интерполяции ($X, u$), где $p$ — размер ядра и шаг для слоя 2D пула, а $ u$ — коэффициент повышения дискретизации.Таким образом, выходные представления MultiOctConv вычисляются следующим образом: где $f(.)$ — функция свертки, а $W^{n_{in}\rightarrow {n_{out}}}\in \mathbb {R}^{c_{in} \ раз k\times k \times c_{out}}$ — фильтр свертки для ядра $k \times k$.Обновление информации мы называем «внутричастотным», когда $n_{in} = n_{out}$, и «межчастотным», когда $n_{in}\ne n_{out}$.Важно отметить, что свертка $f(.)$ работает с тензорами, сжатыми с помощью среднего пула, и с тензорами перед повышающей дискретизацией, что делает проект более эффективным.Количество параметров в слое MultiOctConv такое же, как и в обычном сверточном слое.Чтобы оценить надежность изученных представлений, мы сравниваем проекции чистых и зашумленных образцов Авроры-4.Сходство между ними измеряется с помощью потери среднеквадратической ошибки (MSE) аффинной проекции $y$ $N$, чистой к зашумленным выборкам (уравнение DISPLAY_FORM3), чтобы учесть перестановки скрытых представлений и обеспечить инвариантность метрика для аффинных преобразований кодировок.Количество единиц в слое $y$ и размерность $D$ $\mathbf {x}_{h}$ равна 1024. Мы используем наборы тестов Авроры-4 и сравниваем чистые кодировки $\mathbf {x}_{ h,clean}$ с шумными кодировками $\mathbf {x}_{h,noise}$, полученными как активации последнего сверточного слоя с прямым проходом через обученную модель.Оба скрытых представления были получены для моделей CNN и октавной CNN (OctCNN) для сравнения представлений между моделями.Также для внутримодельного сравнения мы оцениваем потери при кодировках из групп высокого и низкого разрешения (пути $Y^{1\rightarrow 1}$ и $Y^{2\rightarrow 1}$).Этот анализ направлен на то, чтобы оценить, действительно ли группы с низким разрешением для зашумленных выборок больше похожи на чистые, чем на кодировки с высоким разрешением, что предполагает более надежные представления.Мы оптимизируем параметры $y$ с помощью обратного распространения ошибки, используя фиксированное количество из трех эпох, и сообщаем о потерях при проверке для тестовых наборов Aurora-4.Аврора-4 BIBREF17: Мы оцениваем наши модели на смоделированном наборе данных Aurora-4 с множеством условий, состоящем из $\sim $15 часов аудио для обучения и $\sim $9 часов для тестирования.Тестовый набор разделен на 4 подмножества: A, B, C и D. Подмножество A содержит записи в чистом состоянии, подмножество B имеет 6 типов шума, добавленных к записям (автомобиль, лепет, ресторан, улица, аэропорт, поезд), подмножество C записано с использованием несоответствующего микрофона, а подмножество D записано с использованием несоответствующего микрофона и с добавлением шума.В наших экспериментах мы используем принудительное выравнивание GMM-HMM с множеством условий в качестве целей для обучения CNN.Количество состояний компакт-диска для Авроры-4 составляет 3422.AMI BIBREF18: AMI содержит $\sim $100 часов записей встреч, записанных независимым микрофоном гарнитуры (IHM), одним удаленным микрофоном (SDM) и несколькими удаленными микрофонами (MDM). , где микрофоны объединяются с помощью набора инструментов BeamformIt BIBREF19.Мы обучаем наши модели, используя данные MDM, и оцениваем модели для всех трех типов записей, чтобы проанализировать влияние несовпадающих условий обучения/тестирования.Мы используем предложенное разделение данных обучения/разработки/оценки BIBREF20 и оцениваем модели как в наборах разработки, так и в наборах оценки.Число состояний CD для AMI составляет 3984. Особенности: В наших экспериментах мы используем 40-мерные функции набора мелкомасштабируемых фильтров (FBANK) с контекстом {-5,..,5} для сращивания, в результате чего получается $40\times 11. $ входная карта объектов.Модели:Наша базовая модель CNN BIBREF21 состоит из 15 сверточных и одного полносвязного слоя.Мы используем ядра $3\times 3$ по всей сети.Мы начинаем с 64 выходных каналов в первом слое и удваиваем их после 3 и 9 слоев.Мы используем пакетную нормализацию на каждом сверточном слое, а затем ReLU (если не указан обратный порядок).Начальная скорость обучения составляет 0,001.Мы используем раннюю остановку для обучения.Мы представляем наши результаты с точки зрения точности и надежности на Авроре-4 и AMI, а также с точки зрения вычислительных затрат, которые рассчитываются как количество операций умножения-накопления (MACC), выполняемых для одной входной карты объектов.Снижение затрат при использовании октавных сверток связано с меньшими размерами $c_{in}$, $c_{out}$, $h$ и $w$ по сравнению с ванильным сверточным слоем. Аврора-4:Результаты для «Авроры-4» представлены в таблице TABREF4.Мы заменяем ванильные сверточные слои нашей базовой модели (CNN) слоями OctConv и MultiOctConv.Сначала мы оцениваем, какие слои можно заменить, и обнаруживаем, что для достижения наилучшей производительности следует заменить все слои, кроме первого, работающего непосредственно с входным представлением.Этот подход (L2-L15) также является наименее затратным.Уменьшение соотношения представлений с низким разрешением до 0,125 улучшает WER для сценария C с несогласованным микрофоном, но не для всех условий испытаний.Применение пакетной нормализации после ReLU полезно для тестовых наборов C и D. Для моделей OctCNN WER для тестового набора D упал на $\sim 0,4\%$ со сжатием на одну октаву и на другую $\sim 0,4\%$ с обратной пакетной нормализацией и порядком ReLU.Наибольшие различия между моделями MultiOctCNN можно наблюдать для тестового набора D. Модели с самыми низкими WER — это модели с пространственным сокращением на 2 или 3 октавы и с 2 или 3 группами.Это указывает на то, что многомасштабные октавные свертки кажутся эффективным, а также действенным решением для обработки речи с фоновым шумом и несоответствием каналов.Для MultiOctCNN пакетная нормализация после ReLU также дает прирост производительности для тестового набора D со снижением до $13,57\%$. Для дальнейшей оценки надежности скрытых представлений мы измерили MSE между (прогнозируемыми) представлениями, описанными выше (рис. РИСУНОК 5).Потери для активаций на выходе Conv15 («все») аналогичны для моделей CNN и OctCNN для тестовых наборов B и C, но ниже для тестового набора D для OctCNN, что указывает на то, что изученные представления более устойчивы, что способствует снижению WER.Как и ожидалось, сравнение потерь внутри модели показывает, что представления с низким разрешением больше похожи на чистые кодировки из тестового набора A, чем на представления с высоким разрешением.Мы считаем, что этот эффект повышает надежность скрытых представлений и приводит к снижению WER.AMI: Результаты для AMI представлены в таблице TABREF6.В отличие от результатов Авроры-4, лучшая производительность была достигнута при использовании модели, состоящей только из OctCNN (L1-L15).Это интересный вывод, и мы считаем, что многомасштабная обработка пространства входных признаков выгодна для AMI MDM из-за реверберации данных.Входное представление time$\times $freq с реверберацией можно рассматривать как пространственно избыточное, поэтому слой OctConv, примененный к входному представлению, эффективен.К сожалению, единственная модель MultiOctConv, превосходящая базовую CNN, — это модель с 3 группами с пространственным сокращением на 1 и 2 октавы.Этот результат указывает на то, что пространственная избыточность для этой архитектуры для AMI MDM не ухудшает производительность.Однако с точки зрения вычислительных затрат мы можем уменьшить #MACC в 1,8 раза лишь с небольшим увеличением WER для модели с 4 группами разрешения.Мы представили многомасштабные октавные модели CNN для надежного и эффективного распознавания речи.Мы опираемся на Chen et al BIBREF0, применяя этот метод к надежному ASR и распространяя его на несколько групп разрешения с пространственным сокращением более чем на одну октаву.Наши эксперименты подтверждают, что многомасштабная обработка скрытых представлений не только более эффективна в вычислительном отношении, но и улучшает распознавание.Меры сходства между чистым и шумным кодированием показывают, что многомасштабная обработка в глубокой акустической модели CNN повышает надежность изученных представлений, особенно в сценарии аддитивного шума и несогласованного микрофона.Усиление октавных сверток также наблюдалось для данных AMI MDM со значительной реверберацией при применении к пространству входных признаков.Однако производительность модели AMI MDM не была улучшена за счет многооктавных сверток.Более тщательная настройка гиперпараметра $\alpha$ может улучшить результаты, поскольку он контролирует соотношение многомасштабных карт признаков в модели, позволяя как изучать мелкозернистые представления, сохраняя детали, необходимые для фонетического распознавания, так и сглаживать их. , больше инвариантных представлений, повышающих надежность модели.Также можно было бы установить $\alpha $ послойно, чтобы доли каналов с разными разрешениями изменялись в зависимости от глубины представления.Мы предложили потерю MSE в одном проекционном слое для измерения аффинных отношений чистых и зашумленных скрытых представлений.С помощью этого подхода мы оценили надежность кодировок и улучшили объяснимость наших моделей.Более тщательный анализ полученных представлений является интересным будущим направлением.Мы подтвердили, что зашумленные представления с низким разрешением больше похожи на чистые аналоги, чем на представления с высоким разрешением, и, следовательно, более устойчивы.Однако мы не исследовали причину повышенного сходства, оставив будущую работу, чтобы выяснить, соответствует ли группа с более низким разрешением лучшим характеристикам динамика или шума или более инвариантным фонетическим представлениям.
Мы предлагаем многомасштабный слой октавной свертки для эффективного изучения надежных представлений речи. Октавные свертки были введены Ченом и др. [1] в области компьютерного зрения, чтобы уменьшить пространственную избыточность карт признаков путем разложения выходных данных сверточного слоя на карты признаков с двумя разными пространственными разрешениями, с интервалом в одну октаву. Этот подход повысил эффективность и точность моделей CNN. Увеличение точности было связано с увеличением рецептивного поля в исходном входном пространстве. Мы утверждаем, что октавные свертки также повышают надежность изученных представлений благодаря использованию пула средних значений в группе с более низким разрешением, действующего как фильтр нижних частот. Мы проверяем эту гипотезу, оценивая два шумных речевых корпуса — Аврору-4 и АМИ. Мы расширяем концепцию октавной свертки на несколько групп разрешения и несколько октав. Чтобы оценить надежность выведенных представлений, мы сообщаем о сходстве между чистым и зашумленным кодированием, используя потери аффинной проекции в качестве показателя надежности прокси. Результаты показывают, что предлагаемый метод снижает WER до 6,6% относительно Авроры-4 и 3,6% для AMI, одновременно повышая эффективность вычислений акустических моделей CNN.
2,429
QasperSumInstruct
ru
Напиши аннотацию по статье
Torch-Struct: библиотека глубокого структурированного прогнозирования. Структурное предсказание — это область машинного обучения, в которой основное внимание уделяется представлениям пространств с комбинаторной структурой, а также алгоритмам вывода и оценки параметров этих структур.Основные методы включают в себя как простые точные подходы, такие как динамическое программирование и алгоритмы связующего дерева, так и эвристические методы, такие как расслабление линейного программирования и жадный поиск.Структурированное предсказание сыграло ключевую роль в истории обработки естественного языка.Примеры методов включают в себя методы маркировки последовательностей и сегментации BIBREF0, BIBREF4, дискриминативную зависимость и анализ группировок BIBREF10, BIBREF8, обучение без учителя для маркировки и выравнивания BIBREF11, BIBREF12, приблизительное трансляционное декодирование с лучевым поиском BIBREF9 и многие другие.В последние годы исследования в области глубокого структурированного прогнозирования показали, как эти подходы можно интегрировать с нейронными сетями и предварительно обученными моделями.В одном направлении работы структурированное прогнозирование использовалось в качестве финального слоя для глубоких моделей BIBREF13, BIBREF14.Другой включил структурированное прогнозирование в модели глубокого обучения, исследуя новые модели обучения со скрытой структурой, обучения без учителя или управления моделями BIBREF15, BIBREF16, BIBREF17.Мы стремимся сделать оба этих варианта использования такими же простыми в использовании, как и стандартные нейронные сети.Практическая проблема использования структурированного прогнозирования заключается в том, что многие необходимые алгоритмы сложно реализовать эффективно и правильно.Большинство проектов переопределяют собственные версии стандартных алгоритмов или фокусируются на одном четко определенном классе модели.Такой стиль исследования затрудняет объединение и опробование новых подходов, и эта проблема усугубляется сложностью исследований в области глубокого структурированного прогнозирования.Учитывая эту проблему, мы представляем Torch-Struct с тремя конкретными преимуществами: Модульность: модели представлены в виде дистрибутивов со стандартным гибким API, интегрированным в среду глубокого обучения.Полнота: реализован широкий спектр классических алгоритмов, и в Python можно легко добавлять новые модели.Эффективность: реализации нацелены на эффективность вычислений и памяти для графических процессоров, а серверная часть включает расширения для оптимизации.В этом описании системы мы сначала мотивируем подход, использованный библиотекой, затем представляем техническое описание используемых методов и, наконец, представляем несколько примеров использования.Несколько программных библиотек предназначены для структурированного прогнозирования.Инструменты оптимизации, такие как SVM-struct BIBREF18, ориентированы на оценку параметров.Библиотеки моделей, такие как CRFSuite BIBREF19 или CRF++ BIBREF20, реализуют логический вывод для фиксированного набора популярных моделей, таких как CRF с линейной цепочкой.Библиотеки вывода общего назначения, такие как PyStruct BIBREF21 или TurboParser BIBREF22, используют внешние решатели для вывода (в основном MAP), такие как решатели целочисленного линейного программирования и ADMM.Языки вероятностного программирования, например языки, которые интегрируются с глубоким обучением, такие как Pyro BIBREF23, позволяют определять спецификации и делать выводы по некоторым дискретным областям.Наиболее амбициозно то, что библиотеки вывода, такие как Dyna BIBREF24, позволяют декларативные спецификации алгоритмов динамического программирования для поддержки вывода для общих алгоритмов.Torch-Struct использует другой подход и интегрирует библиотеку оптимизированных структурированных распределений в векторизованную систему глубокого обучения.Мы начнем с обоснования этого подхода на примере конкретного случая.Хотя структурированное прогнозирование традиционно представляется на выходном уровне, в недавних приложениях структурированные модели широко используются в нейронных сетях BIBREF15, BIBREF25, BIBREF16.Torch-Struct стремится поощрять этот общий вариант использования.Для иллюстрации мы рассмотрим модель скрытого дерева.ListOps BIBREF26 — это набор данных математических функций.Каждая точка данных состоит из префиксного выражения $x$ и его результата $y$, например, такие модели, как плоская RNN, не смогут отразить иерархическую структуру этой задачи.Однако если модель может вызвать явное скрытое $z$, дерево разбора выражения, то задачу легко изучить с помощью древовидной модели RNN $p(y | x, z)$ BIBREF16, BIBREF27. Популярный метод Подход представляет собой модель RL со скрытым деревом, которую мы кратко резюмируем.Цель состоит в том, чтобы максимизировать вероятность правильного прогноза в соответствии с ожиданием априорной древовидной модели $p(z|x ;\phi )$. Вычисление ожиданий сложно, поэтому используется политический градиент.Сначала производится выборка дерева $\tilde{z} \sim p(z | x;\phi )$, затем градиент относительно $\phi $ аппроксимируется как, где $b$ — базовая линия уменьшения дисперсии.Распространенным выбором является самокритичный базовый уровень BIBREF28. Наконец, к цели, поощряющей исследование различных деревьев, добавляется член регуляризации энтропии, $ O+\lambda \mathbb {H}(p(z\ |\ x;\phi))$.Даже в этом кратком обзоре мы видим, насколько сложной может быть скрытая проблема структурированного обучения.Чтобы вычислить эти члены, нам нужны 5 различных свойств древовидной модели $p(z\ | x; \phi )$:[description]font=[itemsep=-2pt]Градиент политики, $\tilde{z} \sim p(z \ |\ x ; \phi )$Score примеры политики, $p(z \ | \ x; \phi ) $Обратное распространение ошибки, $\frac{\partial }{\partial \phi } p(z\ |\ x; \phi )$Самокритичность, $\arg \max _z p(z \ |\ x;\phi )$Objective регуляризатор, $\mathbb {H}(p(z\ |\ x;\phi))$Для структурированных моделей вычисление каждого из этих членов нетривиально.Цель Torch-Struct — обеспечить беспрепятственное развертывание структурированных моделей для таких сложных условий.Чтобы продемонстрировать это, Torch-Struct включает реализацию подхода скрытого дерева.При минимальном объеме пользовательского кода реализация обеспечивает почти идеальную точность набора данных ListOps.Дизайн библиотеки Torch-Struct соответствует API дистрибутива, используемому как TensorFlow, так и PyTorch BIBREF29.Для каждой структурированной модели в библиотеке мы определяем объект распределения условного случайного поля (CRF).С точки зрения пользователя этот объект предоставляет все необходимые свойства распространения.Учитывая выходные данные лог-потенциалов (оценок) из глубокой сети $\ell $, пользователь может запросить образцы $z \sim \textsc {CRF}(\ell )$, вероятности $\textsc {CRF}(z;\ell ) $, режимы $\arg \max _z \textsc {CRF}(\ell )$ или другие свойства распределения, такие как $\mathbb {H}(\textsc {CRF}(\ell ))$.Библиотека не зависит от того, как они используются, и, когда это возможно, они допускают обратное распространение ошибки для обновления входной сети.Один и тот же объект распределения можно использовать для прогнозирования стандартных результатов, а также для более сложных операций, таких как внимание или обучение с подкреплением.На рисунке FigREF11 показан этот API для CRF двоичного дерева над упорядоченной последовательностью, такой как $p(z \ | \ y ;\phi )$ из предыдущего раздела.Распределение принимает лог-потенциалы $\ell $, которые оценивают каждый возможный диапазон входных данных.Распределение преобразует их в вероятности конкретного дерева.Это распределение можно запросить для прогнозирования по набору деревьев, выборки дерева для определения структуры модели или даже вычисления энтропии по всем деревьям.В таблице TABREF2 показаны все структуры и распределения, реализованные в Torch-Struct.Хотя каждый из них внутренне реализован с использованием различных специализированных алгоритмов и оптимизаций, с точки зрения пользователя все они используют один и тот же внешний API-интерфейс дистрибутива и проходят общий набор тестов дистрибутива.Такой подход скрывает внутреннюю сложность процедуры вывода, предоставляя пользователю полный доступ к модели.Теперь мы опишем технический подход, лежащий в основе библиотеки.Чтобы установить обозначения, сначала рассмотрим реализацию категориального распределения Cat($\ell $) с горячими категориями $z$ с $z_i = 1$ из набора $\cal Z$ и вероятностями, заданными softmax, Определите лог-раздел как $A(\ell ) = \mathrm {LSE}(\ell )$, т.е. log знаменателя, где $\mathrm {LSE}$ — оператор log-sum-exp.Вычисление вероятностей или выборка из этого распределения требует перечисления $\cal Z$ для вычисления лог-раздела $A$.Полезное тождество состоит в том, что производные от $A$ дают вероятности категорий. Другие свойства распределения можно аналогичным образом извлечь из вариантов логарифмического разделения.Например, определите $A^*(\ell )= \log \max _{j=1}^K \exp \ell _j$тогда: $\mathbb {I}(z^*_i = 1) = \frac{\partial }{\partial \ell _i} A^*(\ell ) $.Условные случайные поля, CRF($\ell $) , распространим softmax на комбинаторные пространства, где ${\cal Z}$ имеет экспоненциальный размер.Каждый $z$ теперь представлен как двоичный вектор над набором частей полиномиального размера, $\cal P$, т.е. ${\cal Z} \subset \lbrace 0, 1\rbrace ^{|\cal P|} $. Аналогично теперь лог-потенциалы определяются над частями $\ell \in \mathbb {R}^{|\cal P|}$. Например, на рисунке FigREF11 каждый диапазон является частью, а вектор $\ell$ показан на верхнем левом рисунке.Определите вероятность структуры $z$ как: Вычисление вероятностей или выборка из этого распределения требует вычисления члена логарифмического разделения $A$.В общих вычислениях этот термин сейчас трудноразрешим, однако для многих основных алгоритмов НЛП существуют эффективные комбинаторные алгоритмы для этого термина (перечисленные в таблице TABREF2). Производные лог-раздела снова обеспечивают свойства распределения.Например, предельные вероятности частей определяются как: Аналогично производные от $A^*$ соответствуют тому, появляется ли часть в структуре argmax.$\mathbb {I}(z^*_p = 1) = \frac{\partial }{\partial \ell _p} A^*(\ell ) $. Хотя эти градиентные тождества хорошо известны BIBREF30, они не являются обычно развернуты.Вычисление свойств CRF обычно выполняется с помощью двухэтапных специализированных алгоритмов, таких как прямой-назад, внутри-внешний или аналогичных вариантов, таких как обратные указатели Витерби BIBREF31.В наших экспериментах мы обнаружили, что использование этих идентификаторов с автоматическим дифференцированием на графическом процессоре часто оказывается быстрее и намного проще, чем специальные двухпроходные подходы.Таким образом, Torch-Struct спроектирован с использованием градиентов для вычислений распределения.Torch-Struct — это набор общих алгоритмов вывода CRF.Каждый объект распределения CRF, $\textsc {CRF}(\ell )$, создается путем предоставления $\ell \in \mathbb {R}^{|{\cal P}|}$, где части $\cal P$ специфичны для типа распределения.Внутри каждое распределение реализуется с помощью одной функции Python для вычисления функции разделения журнала $A(\ell )$.Из этой функции библиотека использует автодифференциацию и идентификаторы из предыдущего раздела, чтобы определить полный объект распространения.Основные модели, реализованные библиотекой, показаны в таблице TABREF2. Чтобы конкретизировать подход, мы рассмотрим пример CRF.latent](a)$z_1$ с линейной цепочкой; скрытый, правый = of a](b)$z_2$; скрытый, правый = of b](c)$z_3$; (a) – (b) – (c); Модель имеет $C$ меток на узел с длиной $T=2$ ребер, используя модель линейной цепи первого порядка (Марковскую).Эта модель имеет части $2\times C \times C$, соответствующие ребрам в цепочке, и поэтому требует $\ell \in \mathbb {R}^{2\times C\times C}$.Функция логарифмического разделения $A(\ell )$ разбивается на два сокращения. Вычисление этой функции слева направо с использованием динамического программирования дает стандартный прямой алгоритм для моделей последовательностей.Как мы видели, градиент по $\ell$ дает маргиналы для каждой части, т.е. вероятность определенного помеченного ребра.Мы можем дополнительно расширить ту же функцию для поддержки общего динамического программирования полукольца BIBREF34.Полукольцо определяется парой $(\oplus , \otimes )$ с коммутативными $\oplus $, распределением и соответствующими тождествами.Раздел журнала использует $\oplus , \otimes = \mathrm {LSE}, +$, но мы можем заменить альтернативы.Например, использование полукольца log-max $(\max , +)$ в прямом алгоритме дает максимальный результат.Как мы видели, ее градиент по отношению к $\ell$ представляет собой последовательность argmax, что устраняет необходимость в отдельном алгоритме argmax (Витерби).Некоторые свойства распределения не могут быть вычислены напрямую с помощью градиентных тождеств, но они все равно используют структуру вычислений в прямом и обратном стиле.Например, выборка требует сначала вычисления термина раздела журнала, а затем выборки каждой части (прямая фильтрация/обратная выборка).Мы можем вычислить это значение, переопределив каждую операцию обратного распространения ошибки для $\bigoplus$, чтобы вместо этого вычислить выборку.В таблице TABREF16 показан набор полуколец и шагов обратного распространения ошибки для вычисления различных интересующих условий.Отметим, что многие из членов, необходимых в данном примере, могут быть вычислены с помощью различных полуколец, что устраняет необходимость в специализированных алгоритмах.Torch-Struct стремится к повышению эффективности вычислений и памяти.Алгоритмы динамического программирования в Python, реализованные наивно, непомерно медленны.Таким образом, Torch-Struct предоставляет ключевые примитивы, помогающие группировать и векторизировать эти алгоритмы, чтобы использовать преимущества вычислений на графическом процессоре и минимизировать накладные расходы на обратное распространение ошибки посредством динамического программирования на основе диаграмм.На рисунке FigREF17 показано влияние этих оптимизаций на основные алгоритмы.Коммутативные свойства полукольцевых алгоритмов обеспечивают гибкость в порядке вычисления $A(\ell )$.Типичные реализации алгоритмов динамического программирования являются последовательными по длине последовательности.На параллельном оборудовании привлекательным подходом является параллельное сканирование с упорядочением BIBREF35, обычно используемое для вычисления сумм префиксов.Чтобы вычислить $A(\ell )$ таким способом, мы сначала дополняем длину последовательности $T$ до ближайшей степени двойки, а затем вычисляем сбалансированное параллельное дерево по частям, как показано на рисунке FigREF21.Конкретно каждый уровень узла будет вычислять умножение матрицы полукольца, например $ \bigoplus _c \ell _{t, \cdot , c} \otimes \ell _{t^{\prime }, c, \cdot }$.При таком подходе нам нужно только $O(\log N)$ шагов в Python, а для остальных можно использовать параллельные операции графического процессора.Подобный параллельный подход также можно использовать для расчета выравнивания последовательностей и полумарковских моделей.Вычислительная сложность представляет собой еще большую проблему для алгоритмов синтаксического анализа, которые не так легко распараллелить.Раздел журнала для анализа вычисляется с помощью алгоритма Inside.Этот алгоритм должен последовательно вычислять каждую ширину от 1 до T; однако важно распараллелить каждый внутренний шаг.Предполагая, что мы вычислили все внутренние промежутки шириной меньше $d$, вычисление внутреннего промежутка шириной $d$ требует вычислений для всех $i$. Чтобы векторизовать этот цикл по $i, j$, мы переиндексируем диаграмму.Вместо использования одной диаграммы $C$ мы разбили ее на две части: правую $C_r[i, d] = C[i, i+d]$ и левую $C_l[i+d, T-d] = C[i, i+d]$. После этой переиндексации можно будет записать обновление.В отличие от оригинала, эту формулу можно легко вычислить как векторизованное скалярное произведение полукольца.Это позволяет вычислять $C_r[\cdot , d]$ за одну операцию.Варианты этого же подхода можно использовать для всех используемых моделей синтаксического анализа.Две предыдущие оптимизации уменьшают большую часть затрат на умножение полукольцевой матрицы.В конкретном случае полукольца $(\sum , \times )$ их можно очень эффективно вычислить с помощью умножения матриц, которое тщательно настроено на аппаратном обеспечении графического процессора.К сожалению, для других полуколец, таких как log и max, эти операции либо медленны, либо очень неэффективны с точки зрения памяти.Например, для матриц $T$ и $U$ размера $N \times M$ и $M \times O$ мы можем транслировать с $\otimes $ тензору размера $N \times M \times O$ а затем уменьшить dim $M$ на $\bigoplus $ с огромными затратами памяти.Чтобы избежать этой проблемы, мы реализуем собственные ядра CUDA, предназначенные для быстрых и эффективных с точки зрения использования памяти тензорных операций.Для log это соответствует вычислениям, где $q = \max _n T_{m,n} + U_{n, o}$. Чтобы оптимизировать эту операцию на графическом процессоре, мы используем язык TVM BIBREF36 для компоновки циклов CUDA и настройки его на аппаратное обеспечение.Мы представляем Torch-Struct, библиотеку для глубокого структурированного прогнозирования.Библиотека достигает модульности за счет использования универсального дистрибутивного API, полноты за счет использования CRF и полуколец, упрощающих добавление новых алгоритмов, а также эффективности за счет оптимизации ядра для векторизации важных этапов динамического программирования.В дополнение к проблемам, обсуждавшимся до сих пор, Torch-Struct также включает несколько других примеров реализации, включая контролируемый анализ зависимостей с помощью BERT, неконтролируемую маркировку, структурированное внимание и коннекционистскую временную классификацию (CTC) для речи.Полная библиотека доступна по адресу https://github.com/harvardnlp/pytorch-struct. В будущем мы надеемся поддерживать исследовательские и производственные приложения, использующие структурированные модели.Мы также считаем, что библиотека обеспечивает прочную основу для создания универсальных инструментов для интерпретации, управления и визуализации с помощью вероятностного API.Наконец, мы надеемся изучить дальнейшие оптимизации, чтобы сделать основные алгоритмы конкурентоспособными с высокооптимизированными компонентами нейронных сетей.Мы благодарим Юн Кима, Сян Лизу Ли, Себастьяна Германа, Юнтяна Денга и Джастина Чиу за обсуждение и отзывы о проекте.Проект был поддержан NSF CAREER 1845664, NSF 1901030, а также исследовательскими наградами Sony и AWS.
Литература по структурированному прогнозированию для НЛП описывает богатую коллекцию распределений и алгоритмов для последовательностей, сегментаций, выравниваний и деревьев; однако эти алгоритмы сложно использовать в средах глубокого обучения. Мы представляем Torch-Struct, библиотеку для структурированного прогнозирования, предназначенную для использования и интеграции с векторизованными платформами на основе автодифференциации. Torch-Struct включает в себя обширную коллекцию вероятностных структур, доступ к которым осуществляется через простой и гибкий API на основе распределения, который подключается к любой модели глубокого обучения. Библиотека использует пакетные векторизованные операции и автодифференциацию для создания читаемого, быстрого и тестируемого кода. Внутри мы также включаем ряд оптимизаций общего назначения для обеспечения эффективности перекрестных алгоритмов. Эксперименты показывают значительный прирост производительности по сравнению с быстрыми базовыми показателями, а тематические исследования демонстрируют преимущества библиотеки. Torch-Struct доступен по этому URL-адресу https.
3,180
QasperSumInstruct
ru
Напиши аннотацию по статье
Анализ алгоритмов визуального ответа на вопросы. В открытом визуальном ответе на вопросы (VQA) алгоритм должен выдавать ответы на произвольные текстовые вопросы об изображениях BIBREF0 , BIBREF1 .VQA — это интересная задача компьютерного зрения, требующая, чтобы система могла выполнять множество задач.Действительное решение VQA стало бы важной вехой в развитии искусственного интеллекта и значительно продвинуло бы взаимодействие человека с компьютером.Однако для адекватного измерения прогресса наборы данных VQA должны проверять широкий спектр способностей.Всерьез исследования VQA начались в конце 2014 года, когда был выпущен набор данных DAQUAR BIBREF0.Включая DAQUAR, было выпущено шесть основных наборов данных VQA, и алгоритмы быстро улучшились.В самом популярном наборе данных «Набор данных VQA» BIBREF1 лучшие алгоритмы сейчас приближаются к точности 70% BIBREF2 (производительность человека составляет 83%).Хотя эти результаты являются многообещающими, существуют серьезные проблемы с существующими наборами данных, связанные с множественными видами систематических ошибок.Более того, поскольку существующие наборы данных не группируют экземпляры в значимые категории, сравнивать возможности отдельных алгоритмов непросто.Например, один метод может лучше подходить к вопросам о цветах по сравнению с ответами на вопросы, требующие пространственного мышления.Поскольку вопросы о цвете гораздо чаще встречаются в наборе данных, алгоритм, который хорошо работает в пространственном рассуждении, не будет должным образом вознагражден за это из-за используемых показателей оценки.Вклад: В нашей статье есть четыре основных вклада, направленных на лучший анализ и сравнение алгоритмов VQA: 1) Мы создаем новый набор эталонных данных VQA, в котором вопросы разделены на 12 различных категорий в зависимости от задачи, которую они решают; 2) Мы предлагаем две новые метрики оценки, которые компенсируют формы систематической ошибки набора данных; 3) Мы балансируем количество вопросов с ответами «да/нет» на обнаружение присутствия объекта, чтобы оценить, может ли сбалансированное распределение помочь алгоритмам лучше учиться; и 4) мы вводим абсурдные вопросы, которые заставляют алгоритм определять, действителен ли вопрос для данного изображения.Затем мы используем новый набор данных для повторного обучения и оценки как базовых, так и современных алгоритмов VQA.Мы обнаружили, что предлагаемый нами подход позволяет проводить более детальные сравнения алгоритмов VQA и помогает нам лучше понять преимущества конкретных методов.Кроме того, это также позволило нам ответить на несколько ключевых вопросов об алгоритмах VQA, таких как: «Сдерживает ли способность алгоритмов к обобщению предвзятость в наборе данных?», «Помогает ли использование пространственного внимания ответить на конкретные типы вопросов». ?», «Насколько успешно алгоритмы VQA отвечают на менее распространенные вопросы?» и «Могут ли алгоритмы VQA различать реальные и абсурдные вопросы?» В период с 2014 по 2016 год было выпущено шесть наборов данных для VQA с естественными изображениями: DAQUAR BIBREF0 , COCO-QA BIBREF3 , FM-IQA BIBREF4 , набор данных VQA BIBREF1 , Visual7W BIBREF5 и Visual Genome BIBREF6 .FM-IQA нуждается в судьях-людях и не получил широкого распространения, поэтому мы не обсуждаем его дальше.В таблице 1 представлена ​​статистика по другим наборам данных.Следуя другим BIBREF7, BIBREF8, BIBREF9, мы называем часть набора данных VQA, содержащую естественные изображения, COCO-VQA.Подробные обзоры наборов данных можно найти в BIBREF10 и BIBREF11.Всеиз вышеупомянутых наборов данных VQA являются предвзятыми.DAQUAR и COCO-QA небольшие и имеют ограниченное количество типов вопросов.Visual Genome, Visual7W и COCO-VQA крупнее, но имеют несколько предубеждений.Предвзятость принимает форму как типов задаваемых вопросов, так и ответов, которые люди на них дают.Для COCO-VQA система, обученная с использованием только вопросов, обеспечивает точность 50 % BIBREF7.Это говорит о том, что на некоторые вопросы есть предсказуемые ответы.Без более детального анализа сложно определить, какие вопросы в большей степени зависят от изображения.Для наборов данных, созданных с помощью Mechanical Turk, аннотаторы часто задают вопросы по распознаванию объектов, например: «Что изображено на изображении?» или «Есть ли на изображении слон?».Обратите внимание, что в последнем примере аннотаторы редко задают подобные вопросы, если только объект не находится на изображении.На COCO-VQA 79% вопросов, начинающихся с «Есть ли?», будут иметь «да» в качестве основного правдивого ответа.В 2017 году был представлен набор данных VQA 2.0 BIBREF12.В VQA 2.0 один и тот же вопрос задается для двух разных изображений, а аннотаторам предлагается давать противоположные ответы, что помогает уменьшить языковую предвзятость.Однако, помимо языковой предвзятости, эти наборы данных также необъективны в распределении различных типов вопросов и распределении ответов внутри каждого типа вопросов.Существующие наборы данных VQA используют метрики производительности, которые рассматривают каждый экземпляр теста с одинаковой ценностью (например, простая точность).Хотя некоторые из них рассчитывают дополнительную статистику для основных типов вопросов, общая производительность не рассчитывается на основе этих подоценок BIBREF1 , BIBREF3 .Это усугубляет проблемы с предвзятостью, поскольку типы вопросов, которые с большей вероятностью будут предвзятыми, также более распространены.Вопросы, начинающиеся со слов «Почему» и «Где», комментаторы задают редко, по сравнению с вопросами, начинающимися со слов «Есть» и «Находятся».Например, в COCO-VQA повышение точности ответов на вопросы «Есть/Являются» на 15 % повысит общую точность более чем на 5 %, но правильный ответ на все вопросы «Почему/Где» повысит точность всего на 4,1 % BIBREF10.Из-за неспособности существующих показателей оценки должным образом учитывать эти предвзятости, алгоритмы, обученные на этих наборах данных, учатся использовать эти предвзятости, в результате чего создаются системы, которые плохо работают при развертывании в реальном мире.По этим причинам основные тесты, выпущенные за последнее десятилетие, не используют простую точность для оценки распознавания изображений и связанных с ним задач компьютерного зрения, а вместо этого используют такие показатели, как средняя точность по классу, которая компенсирует несбалансированные категории.Например, в Caltech-101 BIBREF13, даже при сбалансированных обучающих данных, простая точность не учитывает тот факт, что некоторые категории было гораздо легче классифицировать, чем другие (например, лица и плоскости были простыми, а также содержали наибольшее количество тестовых изображений). .Средняя точность по классам компенсирует это, требуя от системы хороших результатов по каждой категории, даже если количество тестовых экземпляров в категориях значительно различается.Существующие тесты не требуют точности отчетов по различным типам вопросов.Даже когда о них сообщается, типы вопросов могут быть слишком грубыми, чтобы быть полезными, например, «да/нет», «число» и «другое» в COCO-VQA.Чтобы улучшить анализ алгоритмов VQA, мы классифицируем вопросы по значимым типам, рассчитываем промежуточные баллы и включаем их в наши показатели оценки.Предыдущие работы изучали предвзятость в VQA и предлагали контрмеры.В BIBREF14 набор данных Инь и Ян был создан для изучения эффекта наличия равного количества бинарных вопросов (да/нет) о мультипликационных изображениях.Они обнаружили, что отвечать на вопросы из сбалансированного набора данных сложнее.Эта работа значительна, но она ограничивалась вопросами «да/нет», и их подход с использованием мультипликационных изображений не может быть напрямую распространен на изображения реального мира.Одна из целей этой статьи — определить, на какие вопросы алгоритм может легко ответить.В BIBREF15 был предложен набор данных SHAPES, преследующий аналогичные цели.SHAPES — это небольшой набор данных, состоящий из 64 изображений, составленных путем расположения цветных геометрических фигур в различных пространственных ориентациях.Каждое изображение содержит одинаковые 244 вопроса «да/нет», в результате чего получается 15 616 вопросов.Хотя SHAPES служит важным дополнительным средством оценки, одного этого недостаточно для тестирования алгоритма VQA.Основным ограничением SHAPES является то, что все его изображения имеют двумерную форму, которая не соответствует изображениям реального мира.Аналогичным образом, «Композиционный язык и элементарное визуальное мышление» (CLEVR) BIBREF16 также предлагает использование трехмерных геометрических объектов для изучения логических способностей модели.CLEVR больше, чем SHAPES, и использует 3D-рендеринг геометрических объектов.Помимо формы и цвета, он придает объектам материальные свойства.В CLEVR есть пять типов вопросов: запрос атрибутов, сравнение атрибутов, сравнение целых чисел, подсчет и существование.И SHAPES, и CLEVR были специально разработаны для композиционных языковых подходов BIBREF15 и преуменьшают важность визуального мышления.Например, вопрос CLEVR: «Какого размера цилиндр, оставшийся от коричневой металлической штуки, оставшейся от большой сферы?»требует требовательных языковых способностей к рассуждению, но для анализа простых геометрических объектов требуется лишь ограниченное визуальное понимание.В отличие от этих трех синтетических наборов данных, наш набор данных содержит естественные изображения и вопросы.Чтобы улучшить анализ и сравнение алгоритмов, в нашем наборе данных имеется больше (12) явно определенных типов вопросов и новые показатели оценки.За последние два года многочисленные публично опубликованные наборы данных стимулировали исследования VQA.Однако из-за предвзятости и проблем с показателями оценки интерпретация и сравнение производительности систем VQA может быть непрозрачным.Мы предлагаем новый набор эталонных данных, который четко распределяет вопросы по 12 различным категориям.Это позволяет измерить производительность в каждой категории и понять, какие вопросы являются простыми, а какие сложными для лучших современных систем.Кроме того, мы используем метрики оценки, которые еще больше компенсируют систематические ошибки.Мы называем этот набор данных Задача понимания изображений, управляемых задачами (TDIUC).Общая статистика и примеры изображений этого набора данных показаны в Таблице 1 и Рис. 2 соответственно.В TDIUC есть 12 типов вопросов, которые были выбраны для представления как классических задач компьютерного зрения, так и новых задач высокого уровня, требующих различной степени понимания изображений и рассуждений.Типы вопросов: Количество вопросов каждого типа в TDIUC указано в Таблице 2.Вопросы поступают из трех источников.Сначала мы импортировали подмножество вопросов из COCO-VQA и Visual Genome.Во-вторых, мы создали алгоритмы, которые генерировали вопросы из аннотаций семантической сегментации COCO BIBREF17 и аннотаций объектов и атрибутов Visual Genome BIBREF6.В-третьих, мы использовали людей-аннотаторов для определенных типов вопросов.В следующих разделах мы кратко опишем каждый из этих методов.Мы импортировали вопросы из COCO-VQA и Visual Genome, относящиеся ко всем типам вопросов, кроме «полезностей и возможностей объекта».Мы сделали это, используя большое количество шаблонов и регулярных выражений.Для Visual Genome мы импортировали вопросы, ответы на которые состояли из одного слова.Для COCO-VQA мы импортировали вопросы с ответами из одного или двух слов, с которыми согласились пять или более аннотаторов.Для вопросов о цветах вопрос будет импортирован, если он содержит слово «цвет» и ответом является широко используемый цвет.Вопросы классифицировались как вопросы по распознаванию активности или спорта, если ответом был один из девяти распространенных видов спорта или один из пятнадцати распространенных видов деятельности, и вопрос содержал общие глаголы, описывающие действия или виды спорта, например, игра, метание и т. д.Для подсчета вопрос должен был начинаться со слова «Сколько», а ответом должно было быть небольшое счетное целое число (1–16).Остальные категории определялись с использованием регулярных выражений.Например, вопрос формы «Чувствуете?» классифицировалось как понимание чувств и «Что находится справа/слева/позади?» было классифицировано как позиционное рассуждение.Аналогично: «Что такое <КАТЕГОРИЯ ОБЪЕКТА> на изображении?» и аналогичные шаблоны использовались для заполнения вопросов по распознаванию подчиненных объектов.Этот метод также использовался для вопросов о времени года и погоде, например: «Какой сейчас сезон?», «Сейчас дождливо/солнечно/облачно?» или «Какая погода?» были импортированы в классификацию сцен.Изображения в наборе данных COCO и Visual Genome имеют отдельные области с прикрепленными к ним семантическими знаниями.Мы используем эту информацию для создания новых вопросов с использованием шаблонов вопросов.Чтобы внести разнообразие, мы определяем несколько шаблонов для каждого типа вопросов и используем аннотации для их заполнения.Например, для подсчета мы используем 8 шаблонов, например: «Сколько <объектов>?»', `Сколько <объектов> на фотографии?' и т. д.Поскольку COCO и Visual Genome используют разные форматы аннотаций, мы обсуждаем их отдельно.Распознавание спортивных событий, счет, распознавание подчиненных объектов, наличие объектов, понимание сцены, позиционное мышление и абсурдные вопросы были созданы из COCO, аналогично схеме, используемой в BIBREF18.Для подсчета мы подсчитываем количество экземпляров объекта в аннотации к изображению.Чтобы свести к минимуму двусмысленность, это делалось только в том случае, если объекты занимали площадь не менее 2000 пикселей.Для распознавания подчиненных объектов мы создаем вопросы, которые требуют определения классификации объектов подчиненного уровня объекта на основе его более широкой семантической категории.Для этого мы используем суперкатегории COCO, которые представляют собой семантические понятия, охватывающие несколько объектов общей темы, например, суперкатегория «мебель» содержит стул, диван и т. д.Если на изображении присутствует только один вид мебели, то вопрос типа «Какая мебель на картинке?» генерируется, потому что ответ не является двусмысленным.Используя аналогичную эвристику, мы создаем вопросы об идентификации продуктов питания, электронных приборов, кухонной техники, животных и транспортных средств.Что касается вопросов о наличии объектов, мы находим изображения с объектами, площадь которых превышает 2000 пикселей, и задаем вопрос, похожий на «Есть ли <объект> на изображении?»На эти вопросы будет ответ «да».Чтобы создать отрицательные вопросы, мы задаем вопросы об объектах COCO, которых нет на изображении.Чтобы усложнить задачу, мы отдаем приоритет созданию вопросов, касающихся отсутствующих объектов, принадлежащих к той же суперкатегории объектов, которые присутствуют на изображении.Уличная сцена скорее будет содержать грузовики и автомобили, чем диваны и телевизоры.Поэтому сложнее ответить на вопрос: «Есть ли грузовик?».в уличной сцене, чем отвечать на вопрос: «Есть ли диван?». Для вопросов о распознавании спорта мы обнаруживаем наличие определенного спортивного инвентаря в аннотациях и задаем вопросы о виде спорта, которым занимаются.Изображения должны содержать спортивное оборудование только для одного конкретного вида спорта.Аналогичный подход использовался для создания вопросов на понимание сцены.Например, если в аннотациях присутствуют туалет и раковина, комната является ванной, и можно создать соответствующий вопрос для распознавания сцены.Кроме того, мы используем суперкатегории «в помещении» и «на улице», чтобы задать вопросы о том, где была сделана фотография.Для создания вопросов на позиционное рассуждение мы используем относительное расположение ограничивающих рамок, чтобы создать вопросы, подобные «Что находится слева/справа от <объекта>?»Это может быть неоднозначно из-за перекрывающихся объектов, поэтому для устранения неоднозначности мы используем следующие эвристики: 1) Вертикальное разделение между двумя ограничивающими рамками должно находиться в пределах небольшого порога; 2)Объекты не должны перекрываться более чем на половину длины своего аналога; и 3)Объекты не должны быть разделены по горизонтали более чем на пороговое расстояние, определяемое путем субъективной оценки оптимального разделения, чтобы уменьшить двусмысленность.Мы попытались сгенерировать вопросы выше/ниже, но результаты оказались недостоверными.Абсурдные вопросы проверяют способность алгоритма определять, когда на вопрос нет ответа, основываясь на содержании изображения.Для этого мы составляем список объектов, отсутствующих на данном изображении, а затем находим вопросы от остальных TDIUC, которые задают об этих отсутствующих объектах, за исключением вопросов «да/нет» и вопросов со счетом.Сюда входят вопросы, импортированные из COCO-VQA, автоматически созданные вопросы и вопросы, созданные вручную.Мы составляем список всех возможных вопросов, которые были бы «абсурдными» для каждого изображения, и равномерно выбираем по три вопроса на каждое изображение.По сути, один и тот же вопрос будет повторяться несколько раз по всему набору данных, причем это может быть как настоящий вопрос, так и бессмысленный вопрос.Алгоритм должен ответить «Не применяется», если вопрос абсурден.Аннотации Visual Genome содержат описания регионов, графики отношений и границы объектов.Однако аннотации могут быть как неполными, так и дублироваться, что затрудняет их использование для автоматического создания пар контроля качества.Мы используем Visual Genome только для составления вопросов на рассуждение о цвете и положении.Используемые нами методы аналогичны тем, которые использовались с COCO, но потребовались дополнительные меры предосторожности из-за особенностей их аннотаций.Дополнительная информация представлена ​​в Приложении.Создание вопросов о понимании настроений и полезности/доступности объекта не может быть легко выполнено с использованием шаблонов, поэтому для их создания мы использовали аннотации вручную.Двенадцать добровольцев-аннотаторов были обучены генерировать эти вопросы и использовали разработанный нами веб-инструмент для аннотирования.Им показывали случайные изображения из COCO и Visual Genome, а также они могли загружать изображения.Постобработка проводилась по вопросам из всех источников.Все числа были преобразованы в текст, например, 2 превратилось в два.Все ответы были переведены в нижний регистр, а конечные знаки препинания удалены.Повторяющиеся вопросы к одному и тому же изображению были удалены.На все вопросы должны были быть ответы, которые появлялись как минимум дважды.Набор данных был разделен на поезда и тесты: 70% для поездов и 30% для тестов.Одна из основных целей исследований VQA — создание систем компьютерного зрения, способных выполнять множество задач, вместо того, чтобы иметь опыт только для решения одной конкретной задачи (например, распознавание объектов).По этой причине некоторые утверждают, что VQA — это своего рода визуальный тест Тьюринга BIBREF0.Однако если для оценки производительности используется простая точность, то трудно узнать, достигает ли система этой цели, поскольку некоторые типы вопросов содержат гораздо больше вопросов, чем другие.В VQA следует ожидать неравномерного распределения типов вопросов.Если каждый вопрос теста рассматривается одинаково, то трудно оценить результаты по более редким типам вопросов и компенсировать предвзятость.Мы предлагаем несколько мер для компенсации систематической ошибки и искаженного распределения.Чтобы компенсировать неравномерное распределение типов вопросов, мы вычисляем точность для каждого из 12 типов вопросов отдельно.Однако также важно иметь окончательную унифицированную метрику точности.Нашими общими показателями являются средние арифметические и гармонические средние по всем типам вопросов, называемые средней арифметической точностью для каждого типа (Arithmetic MPT) и гармонической средней точностью для каждого типа (Harmonic MPT).В отличие от арифметического MPT, гармонический MPT измеряет способность системы получать высокие баллы по всем типам вопросов и смещен в сторону категорий с наименьшими показателями.Мы также используем нормализованные метрики, которые компенсируют систематическую ошибку в виде дисбаланса в распределении ответов внутри каждого типа вопросов, например, наиболее повторяющийся ответ «два» охватывает более 35% всех вопросов счетного типа.Для этого мы вычисляем точность для каждого уникального ответа отдельно в пределах типа вопроса, а затем усредняем их вместе для этого типа вопроса.Для расчета общей производительности мы вычисляем нормализованное среднее арифметическое значение для каждого типа (N-MPT) и гармоническое значение N-MPT.Большое расхождение между ненормализованными и нормализованными оценками предполагает, что алгоритм не обобщает более редкие ответы.Хотя существуют альтернативные формулировки (например, BIBREF4, BIBREF19), большинство систем VQA формулируют ее как задачу классификации, в которой системе даются изображение и вопрос, а ответы представлены в виде категорий.BIBREF1, BIBREF3, BIBREF2, BIBREF20, BIBREF21, BIBREF22, BIBREF23, BIBREF24, BIBREF25, BIBREF26, BIBREF9, BIBREF27, BIBREF28, BIBREF8, BIBREF19, BIBREF29.Почти все системы используют функции CNN для представления изображения и либо рекуррентную нейронную сеть (RNN), либо модель «мешка слов» для вопроса.Мы кратко рассмотрим некоторые из этих систем, уделив особое внимание моделям, которые мы сравниваем в экспериментах.Более полный обзор см. в BIBREF10 иBIBREF11 .ДваПростые базовые линии VQA — это линейные или многоуровневые классификаторы перцептрона (MLP), которые принимают в качестве входных данных вложения вопроса и изображения, объединенные друг с другом BIBREF1 , BIBREF7 , BIBREF8 , где функции изображения берутся из последнего скрытого слоя CNN.Эти простые подходы часто работают хорошо и могут конкурировать со сложными моделями внимания BIBREF7, BIBREF8. Пространственное внимание тщательно исследовалось в моделях VQA BIBREF2, BIBREF20, BIBREF28, BIBREF30, BIBREF27, BIBREF24, BIBREF21.Эти системы взвешивают визуальные функции на основе их значимости для вопроса, вместо того, чтобы использовать глобальные функции, например, из последнего скрытого слоя CNN.Например, чтобы ответить «Какого цвета медведь?»они стремятся подчеркнуть визуальные особенности вокруг медведя и подавить другие черты.Система MCB BIBREF2 стала победителем конкурса VQA Workshop Challenge CVPR-2016.Помимо использования пространственного внимания, он неявно вычисляет внешнее произведение между изображением и характеристиками вопроса, чтобы гарантировать взаимодействие всех их элементов.Явное вычисление внешнего произведения будет медленным и чрезвычайно многомерным, поэтому оно выполняется с использованием эффективного приближения.Для внедрения вопроса он использует сети долговременной кратковременной памяти (LSTM).Сеть нейронных модулей (NMN) представляет собой особенно интересный композиционный подход к VQA BIBREF15, BIBREF31.Основная идея состоит в том, чтобы составить серию дискретных модулей (подсетей), которые можно выполнять коллективно для ответа на заданный вопрос.Для этого они используют различные модули, например, модуль find(x) выводит тепловую карту для обнаружения $x$ .Чтобы упорядочить модули, вопрос сначала разбивается на краткое выражение (называемое S-выражением), например: «Что находится справа от машины?» разбирается на (какая машина);(какое право);(какое (и правильное авто)).Используя эти выражения, модули объединяются в последовательность для ответа на запрос.Модель многошаговых повторяющихся автоответчиков (RAU) для VQA — это еще один современный метод BIBREF32.Каждый шаг вывода в RAU состоит из полного блока ответов, который включает изображение, вопрос и выходные данные предыдущего шага LSTM.Каждый из них является частью более крупной сети LSTM, которая постепенно обдумывает этот вопрос.Мы обучили несколько базовых моделей, а также современным методам VQA на TDIUC.Мы используем следующие методы:Для функций изображений для всех моделей использовался ResNet-152 BIBREF33 с изображениями $448 \times 448$.QUES и IMG предоставляют информацию об отклонениях в наборе данных.QUES, Q+I и MLP используют 4800-мерные векторы пропуска мыслей BIBREF34 для внедрения вопроса, как это было сделано в BIBREF7.Для функций изображения все они используют слой «pool5» ResNet-152, нормализованный до единичной длины.MLP — это 4-слойная сеть с выходным слоем softmax.Три скрытых слоя ReLU содержат 6000, 4000 и 2000 единиц соответственно.Во время обучения для скрытых слоев использовался дропаут (0,3).Для MCB, MCB-A, NMN и RAU мы использовали общедоступный код для обучения TDIUC.Экспериментальная установка и гиперпараметры остались неизменными по сравнению с вариантами по умолчанию в коде, за исключением обновления визуального представления NMN и RAU для использования ResNet-152. Результаты TDIUC для этих моделей приведены в таблице 3.Оценки точности даны для каждого из 12 типов вопросов в Таблице 3, а оценки, нормализованные с использованием среднего значения на уникальный ответ, приведены в Таблице 5 приложения. Изучая Таблицу 3, мы видим, что некоторые типы вопросов сравнительно просты ($>90$ %) при MPT: распознавание сцены, распознавание спорта и присутствие объекта.Высокая точность достигается и на абсурде, о котором подробнее речь пойдет в разд.«Последствия включения абсурдных вопросов».Распознавание подчиненных объектов умеренно высокое ($>80$ %), несмотря на большое количество уникальных ответов.Точность подсчета низкая для всех методов, несмотря на большое количество обучающих данных.Для остальных типов вопросов необходим дополнительный анализ, чтобы определить, вызвано ли более низкие результаты меньшим объемом обучающих данных, предвзятостью или ограничениями моделей.Далее мы исследуем, в какой степени хорошие результаты обусловлены предвзятостью в распределении ответов, которую компенсирует N-MPT.Одной из наших главных целей было компенсировать тот факт, что алгоритмы могут достигать высоких результатов, просто научившись отвечать на более популярные и простые типы вопросов.Для существующих наборов данных более ранняя работа показала, что простые базовые методы обычно превосходят более сложные методы, использующие простую точность BIBREF7 , BIBREF8 , BIBREF19 .В TDIUC MLP превосходит MCB и NMN с точки зрения простой точности, но более пристальный анализ показывает, что оценка MLP во многом определяется производительностью по категориям с большим количеством примеров, таких как «абсурд» и «присутствие объекта».Используя MPT, мы обнаружили, что и NMN, и MCB превосходят MLP.Проверка нормализованных баллов для каждого типа вопросов (Таблица 5 в Приложении) показывает еще более выраженные различия, что также отражается в арифметическом балле N-MPT, представленном в Таблице 3.Это указывает на то, что MLP склонен к переоснащению.Аналогичные наблюдения можно сделать для MCB-A по сравнению с RAU, где RAU превосходит MCB-A с точки зрения простой точности, но имеет более низкие баллы по всем показателям, предназначенным для компенсации искаженного распределения ответов и систематической ошибки.Сравнение ненормализованных и нормализованных показателей может помочь нам определить способность алгоритмов VQA к обобщению для данного типа вопросов.Большая разница в этих оценках предполагает, что алгоритм полагается на асимметричное распределение ответов для получения высоких оценок.Мы обнаружили, что для MCB-A точность распознавания подчиненных объектов падает с 85,54% с ненормализованным до 23,22% с нормализованным, а для распознавания сцен - с 93,06% (ненормализованный) до 38,53% (нормализованный).Обе эти категории имеют сильно перекошенное распределение ответов; 25 лучших ответов по распознаванию подчиненных объектов и 5 лучших ответов по распознаванию сцен охватывают более 80% всех вопросов в соответствующих типах вопросов.Это показывает, что типы вопросов, которые кажутся простыми, могут быть просто результатом того, что алгоритмы изучают статистику ответов.По-настоящему простой тип вопросов будет иметь одинаковую эффективность как для ненормализованных, так и для нормализованных показателей.Например, распознавание спорта показывает снижение только на 17,39% по сравнению с падением на 30,21% при подсчете, несмотря на то, что подсчет имеет такое же количество уникальных ответов и гораздо больше данных о тренировках.Сравнивая относительное падение производительности между нормализованными и ненормализованными показателями, мы также можем сравнить способность алгоритмов к обобщению, например, для распознавания подчиненных объектов RAU имеет более высокий ненормализованный балл (86,11%) по сравнению с MCB-A (85,54%).Однако по нормализованным показателям MCB-A имеет значительно более высокую производительность (23,22%), чем RAU (21,67%).Это показывает, что RAU может в большей степени зависеть от распределения ответов.Аналогичные наблюдения можно сделать для MLP по сравнению с MCB. В предыдущем разделе мы видели, что модели VQA с трудом могут правильно предсказать более редкие ответы.Действительно ли на менее повторяющиеся вопросы сложнее ответить, или алгоритмы просто склонны к более частым ответам?Чтобы изучить это, мы создали подмножество TDIUC, состоящее только из вопросов, ответы на которые повторяются менее 1000 раз.Мы называем этот набор данных TDIUC-Tail, который содержит 46 590 обучающих и 22 065 тестовых вопросов.Затем мы обучили MCB: 1) полному набору данных TDIUC; и 2) TDIUC-хвост.Обе версии были оценены на этапе проверки TDIUC-Tail.Мы обнаружили, что MCB, обученный только по TDIUC-Tail, превзошел MCB, обученный по всем TDIUC, по всем типам вопросов (подробности приведены в таблицах 6 и 7 в приложении).Это показывает, что MCB способен научиться правильно предсказывать более редкие ответы, но он просто склонен предсказывать более распространенные ответы, чтобы максимизировать общую точность.Использование нормализованной точности снижает зависимость алгоритмов VQA от статистики ответов, и для развертывания системы VQA может быть полезно оптимизировать непосредственно для N-MPT. Абсурдные вопросы вынуждают систему VQA смотреть на изображение, чтобы ответить на вопрос.В TDIUC эти вопросы выбираются из остального набора данных, и на них имеется высокая априорная вероятность ответа «Не применимо».Это подтверждается моделью QUES, которая достигает высокой точности абсурда; однако для тех же вопросов, если они являются подлинными для изображения, точность ответов на эти вопросы достигает только 6,77%.Хорошая абсурдная производительность достигается за счет принесения в жертву производительности по другим категориям.Надежная система VQA должна быть способна обнаруживать абсурдные вопросы, не допуская при этом ошибок при ответе на другие.Исследуя точность реальных вопросов, которые идентичны абсурдным, мы можем количественно оценить способность алгоритма отличать абсурдные вопросы от реальных.Мы обнаружили, что более простые модели имели гораздо меньшую точность по этим вопросам (QUES: 6,77%, Q+I: 34%) по сравнению с более сложными моделями (MCB: 62,44%, MCB-A: 68,83%). Для дальнейшего изучения этого вопроса , мы обучили две системы VQA, Q+I и MCB, как с абсурдом, так и без него.Результаты представлены в таблице 3 .Для Q+I, обученных без абсурдных вопросов, точность других категорий значительно увеличивается по сравнению с Q+I, обученных с полным TDIUC, особенно для типов вопросов, которые используются для выборки абсурдных вопросов, например, распознавание действий (24% при обучении с абсурдными и абсурдными вопросами). 48% без).Арифметическая точность MPT для модели Q+I, обученной без абсурда (57,03%), также существенно выше, чем MPT для модели, обученной с абсурдом (51,45% для всех категорий, кроме абсурда).Это говорит о том, что Q+I не проводит должного различия между абсурдными и реальными вопросами и склонен ошибочно идентифицировать подлинные вопросы как абсурдные.Напротив, MCB, более эффективная модель, дает худшие результаты для абсурда, но версия, обученная без абсурда, показывает гораздо меньшие различия, чем Q + I, что показывает, что MCB более способна идентифицировать абсурдные вопросы.«Могут ли алгоритмы предсказывать редкие ответы?» , мы увидели, что неравномерное распределение ответов может повлиять на обобщение.Этот эффект силен даже для простых вопросов и влияет даже на самые сложные алгоритмы.Рассмотрим MCB-A, когда он обучен как COCO-VQA, так и Visual Genome, то есть победителем конкурса VQA Workshop Challenge CVPR-2016.Когда он оценивается по вопросам присутствия объекта из TDIUC, который содержит 50% вопросов «да» и 50% «нет», он правильно предсказывает ответы «да» с точностью 86,3%, но только 11,2% для вопросов с «нет» в качестве ответа. отвечать.Однако после обучения на TDIUC MCB-A способен достичь 95,02% для ответа «да» и 92,26% для ответа «нет».MCB-A плохо справился с изучением систематических ошибок в наборе данных COCO-VQA, но он способен работать хорошо, когда набор данных является несмещенным.Аналогичные наблюдения по поводу баланса вопросов «да/нет» были сделаны в BIBREF14.Наборы данных могли бы сбалансировать простые категории, такие как наличие объектов, но распространение той же идеи на все другие категории является сложной задачей и подрывает естественную статистику реального мира.Принятие среднего значения по классу и нормализованных показателей точности может помочь компенсировать эту проблему.Разбивая вопросы на типы, мы можем оценить, какие типы больше всего выигрывают от внимания.Мы делаем это, сравнивая модель MCB с вниманием и без него, то есть MCB и MCB-A. Как видно из Таблицы 3, внимание помогло улучшить результаты по нескольким категориям вопросов.Наиболее заметное увеличение наблюдается в распознавании цвета, распознавании атрибутов, абсурде и счете.Все эти типы вопросов требуют, чтобы алгоритм обнаружил указанный объект(ы) (или его отсутствие) для правильного ответа.MCB-A вычисляет внимание, используя локальные функции из разных пространственных мест, а не глобальные функции изображения.Это помогает локализовать отдельные объекты.Механизм внимания запоминает относительную важность этих особенностей.RAU также использует пространственное внимание и демонстрирует аналогичные приросты.NMN и, в меньшей степени, RAU предлагают композиционные подходы к VQA.Для COCO-VQA NMN показал худшие результаты, чем некоторые модели MLP BIBREF7, при использовании простой точности.Мы надеялись, что она обеспечит лучшую производительность, чем другие модели, для вопросов, требующих пошагового логического анализа изображения, например, позиционного рассуждения.Однако, хотя NMN показал лучшие результаты, чем MLP, при использовании показателей MPT и N-MPT, мы не увидели каких-либо существенных преимуществ в конкретных типах вопросов.Это может быть связано с тем, что NMN ограничен качеством анализатора S-выражений, который во многих случаях производит неверный или вводящий в заблуждение анализ.Например: «Какого цвета куртка у человека крайнего слева?» анализируется как (цвет куртки);(цвет отпуска);(цвет (и отпуск куртки)).Это выражение не только не позволяет проанализировать слово «мужчина», которое является важнейшим элементом, необходимым для правильного ответа на вопрос, но также ошибочно интерпретирует слово «left» как прошедшее время отпуска.RAU выполняет логические выводы на нескольких участках, и поскольку каждый переход содержит полную систему VQA, он может научиться решать различные задачи на каждом этапе.Поскольку он обучается сквозным образом, ему не нужно полагаться на жесткий анализ вопросов.Он показал очень хорошие результаты в обнаружении абсурдных вопросов, а также хорошие результаты в других категориях.Мы представили TDIUC, набор данных VQA, который состоит из 12 явно определенных типов вопросов, включая абсурдные вопросы, и использовали его для тщательного анализа последних алгоритмов VQA.Мы предложили новые метрики оценки, чтобы компенсировать систематические ошибки в наборах данных VQA.Результаты показывают, что абсурдные вопросы и новые метрики оценки позволяют глубже понять поведение алгоритма VQA.В этом разделе мы предоставим дополнительную информацию о создании набора данных TDIUC и дополнительную статистику, которая была опущена в основной статье из-за нехватки места.Как упоминалось в основном тексте, аннотации Visual Genome не являются исчерпывающими и дублируются.Это затрудняет их использование для автоматического создания пар вопрос-ответ (QA).Из-за этих проблем мы использовали их только для составления вопросов двух типов: атрибуты цвета и позиционное рассуждение.Кроме того, необходимо было установить ряд ограничений, которые изложены ниже.Для создания вопросов об атрибутах цвета мы используем метаданные атрибутов в аннотациях Visual Genome для заполнения шаблона «Какого цвета <объект>?»Однако метаданные Visual Genome могут содержать несколько атрибутов цвета для одного и того же объекта, а также разные имена для одного и того же объекта.Поскольку аннотаторы вводят имя объекта вручную, а не выбирают из заранее определенного набора объектов, один и тот же объект может называться разными именами, например, «контроллер Xbox», «игровой контроллер», «джойстик» и «контроллер». все могут относиться к одному и тому же объекту на изображении.Имя объекта иногда также сопровождается его цветом, например, «белая лошадь» вместо «лошадь», что заставляет задавать вопрос об атрибуте цвета: «Какого цвета белая лошадь?»бессмысленно.Одним из возможных решений является использование синсета wordnet, который сопровождает каждую аннотацию объекта в аннотациях Visual Genome.Синсеты используются для группировки различных вариантов имен общих объектов под одним существительным из Wordnet.Однако мы обнаружили, что во многих случаях сопоставление синсетов было ошибочным, когда категория объекта неверно представлялась данным синсетом.Например, «контроллер» сопоставляется с синсетом «бухгалтер», даже если «контроллер» относится к игровому контроллеру.Аналогично, «cd» сопоставляется с синтаксисом «cadmium».Чтобы избежать этих проблем, прежде чем задавать вопросы, мы установили ряд строгих требований: Выбранный объект должен иметь только один атрибут, принадлежащий набору часто используемых цветов.Выбранное имя объекта или синсет должно быть одним из 91 общего объекта в аннотациях MS-COCO.Должен быть только один экземпляр выбранного объекта.Используя эти критерии, мы обнаружили, что можем смело задавать вопрос в форме «Какого цвета <объект>?».Аналогичным образом, для составления вопросов на позиционное мышление мы использовали метаданные отношений в аннотациях визуального генома.Метаданные отношений связывают два объекта с помощью фразы отношения.Многие из этих отношений описывают положения двух объектов, например, A находится «справа» от B, где «справа» — это один из примеров предложений отношений из Visual Genome, где объект A является субъектом, а объект B. как объект.Это можно использовать для создания вопросов позиционного рассуждения.Опять же, мы принимаем ряд мер, чтобы избежать двусмысленности.Во-первых, мы используем только те объекты, которые появляются на изображении один раз, потому что «То, что находится слева от А», может быть неоднозначным, если существует два экземпляра объекта А.Однако, поскольку визуальные аннотации генома не являются исчерпывающими, все же (редко) может существовать более одного экземпляра объекта A, который не был аннотирован.Чтобы устранить неоднозначность в таких случаях, мы используем метаданные атрибутов для дальнейшего уточнения объекта, где это возможно, например, вместо вопроса «Что находится справа от автобуса?», мы спрашиваем: «Что находится справа от зеленого автобуса?» Учитывая эти строгие критерии, мы смогли создать лишь небольшое количество вопросов с использованием аннотаций Visual Genome по сравнению с другими источниками.Количество вопросов, заданных каждым источником, показано в Таблице 4. На Рисунке 3 показано распределение ответов для разных типов вопросов.Мы видим, что некоторые категории, такие как счет, распознавание сцен и понимание настроений, содержат очень большую долю вопросов, на которые приходится лишь несколько основных ответов.В таких случаях производительность алгоритма VQA может быть завышена, если метрика оценки не компенсирует это смещение.В других случаях, таких как позиционное рассуждение, полезность и возможности объекта, ответы гораздо более разнообразны: ответы из топ-50 охватывают менее 60% всех ответов.У нас полностью сбалансированное распределение ответов на вопросы о присутствии объекта: ровно на 50% вопросов отвечают «да», а на оставшиеся 50% вопросов — «нет».Для других категорий мы постарались разработать алгоритмы генерации вопросов таким образом, чтобы один ответ не имел значительного большинства в пределах типа вопроса.Например, в то время как понимание сцены включает топ-4 ответов, охватывающих более 85% всех вопросов, вопросов «нет» (наиболее распространенный ответ) примерно столько же, сколько вопросов «да» (второй по распространенности ответ).Аналогичное распределение можно наблюдать и при подсчете, где «два» (наиболее распространенный ответ) повторяется почти столько же раз, сколько «один» (второй по распространенности ответ).Имея, по крайней мере, два лучших ответа, разделенных почти поровну, мы устраняем стимул для хорошей работы алгоритма при использовании простого режима угадывания, даже при использовании простого показателя точности.В статье мы упоминали, что разделили всю коллекцию на 70% обучения и 30% тестирования/проверки.Для этого нам не только нужно иметь примерно равное распределение типов вопросов и ответов, но также необходимо убедиться, что несколько вопросов для одного и того же изображения не попадают в два разных разделения, т. е. одно и то же изображение не может встречаться в как поезд, так и тестовые разделы.Итак, мы приняли следующие меры, чтобы разделить вопросы на группы поезд-тест.Сначала мы разбили все изображения на три отдельных кластера.Изображения, загруженные вручную, включая все изображения, загруженные вручную нашими аннотаторами-добровольцами.Изображения из набора данных COCO, включая все изображения для вопросов, созданных на основе аннотаций COCO, а также изображения, импортированные из набора данных COCO-VQA.Кроме того, большое количество вопросов о визуальном геноме также относится к изображениям COCO.Таким образом, некоторые вопросы, созданные и импортированные из Visual Genome, также включены в этот кластер.Изображения исключительно в наборе данных Visual Genome, который включает изображения для части вопросов, импортированных из Visual Genome, а также вопросов, созданных с использованием этого набора данных.Мы следуем простым правилам, чтобы разделить каждый из этих кластеров изображений на принадлежащие поезду или тестовые разделения.Все вопросы, принадлежащие изображениям, поступающим из разделения изображений COCO «train2014», назначаются разделению поезда, а все вопросы, принадлежащие изображениям из разделения «val2014», назначаются тестовому разделению.Для изображений вручную и визуального генома мы случайным образом разделяем 70% изображений для обучения и остальных для тестирования.В этом разделе мы представляем дополнительные экспериментальные результаты, которые были опущены в основной статье из-за нехватки места.Во-первых, подробные нормализованные баллы для каждого типа вопросов представлены в Таблице 3.Чтобы вычислить эти баллы, точность каждого уникального ответа рассчитывается отдельно для каждого типа вопроса и усредняется.Во-вторых, мы представляем результаты эксперимента в разделе «Могут ли алгоритмы предсказывать редкие ответы?»в таблице 6 (ненормализованная) и таблице 7 (нормализованная).Результаты оцениваются с помощью TDIUC-Tail, который представляет собой подмножество TDIUC, состоящее только из вопросов, ответы на которые повторяются менее 1000 раз (редкие ответы).Обратите внимание, что TDIUC-Tail исключает абсурдные типы вопросов и вопросы о присутствии объекта, поскольку они не содержат вопросов с необычными ответами.Алгоритмы идентичны в таблицах 6 и 7 и называются следующим образом:
При визуальном ответе на вопросы (VQA) алгоритм должен отвечать на текстовые вопросы об изображениях. Хотя с конца 2014 года было создано несколько наборов данных для VQA, все они имеют недостатки как в содержании, так и в способах оценки алгоритмов на их основе. В результате оценочные баллы раздуваются и определяются преимущественно путем ответов на более простые вопросы, что затрудняет сравнение различных методов. В этой статье мы анализируем существующие алгоритмы VQA, используя новый набор данных. Он содержит более 1,6 миллиона вопросов, сгруппированных в 12 различных категорий. Мы также вводим вопросы, которые бессмысленны для данного изображения, чтобы заставить систему VQA рассуждать о содержании изображения. Мы предлагаем новые схемы оценки, которые компенсируют перепредставленные типы вопросов и упрощают изучение сильных и слабых сторон алгоритмов. Мы анализируем производительность как базовых, так и современных моделей VQA, включая мультимодальные компактные билинейные пулы (MCB), сети нейронных модулей и повторяющиеся отвечающие блоки. Наши эксперименты показывают, как внимание помогает определенным категориям больше, чем другим, определяют, какие модели работают лучше других, и объясняют, как простые модели (например, MLP) могут превзойти более сложные модели (MCB), просто научившись отвечать на большие и простые категории вопросов.
7,012
QasperSumInstruct
ru
Напиши аннотацию по статье
Зависимость или диапазон, сквозная унифицированная семантическая маркировка ролей. Целью разметки семантических ролей (SRL) является получение представления значения предложения, что полезно для широкого спектра задач обработки естественного языка (NLP) BIBREF0 , BIBREF1 .SRL может быть сформирован как четыре подзадачи, включая обнаружение предикатов, устранение неоднозначности предикатов, идентификация аргументов и классификация аргументов.Для аннотации аргументов есть две формулировки.Один из них основан на текстовых диапазонах, а именно SRL на основе интервалов.Другой — SRL на основе зависимостей, который аннотирует синтаксическую заголовок аргумента, а не весь диапазон аргументов.На рисунке FigREF1 показаны примеры аннотаций.Большой прогресс был достигнут в синтаксическом анализе BIBREF2, BIBREF3, BIBREF4.Большинство традиционных методов SRL в значительной степени полагаются на синтаксические функции.Чтобы облегчить неудобства, недавние работы BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11 предлагают сквозные модели для SRL, оставляя в стороне синтаксис и при этом достигая благоприятных результатов.Однако эти системы ориентированы либо на SRL промежутков, либо на зависимости, что мотивирует нас к изучению единообразного подхода.И диапазон, и зависимость являются эффективными формальными представлениями семантики, хотя долгое время оставалось неизвестным, какая форма, диапазон или зависимость, будут лучше для удобства и эффективности семантического машинного обучения и последующих приложений.Более того, исследователей интересуют две формы моделей SRL, которые могут извлечь выгоду друг из друга, а не из их отдельного развития.Эта тема широко обсуждалась в BIBREF19, который пришел к выводу, что (лучшая) система SRL на основе зависимостей на тот момент явно превосходила по производительности (лучшую) систему на основе интервалов посредством преобразования синтаксической структуры Gold.Однако BIBREF19 johansson2008EMNLP, как и все другие традиционные модели SRL, сами должны были использовать богатые синтаксические функции, и их сравнение проводилось между двумя системами в совершенно разных стилях строительства.Вместо этого в этой работе будут разработаны полностью синтаксически независимые системы SRL с одинаковым способом представления как интервалов, так и зависимостей, так что мы сможем вернуться к этому вопросу на более прочной эмпирической основе.Кроме того, большинство усилий сосредоточено на идентификации и классификации аргументов, поскольку в корпусах SRL диапазонов и зависимостей уже отмечены позиции предикатов.Хотя идентификация предиката не требуется, она недоступна во многих последующих приложениях.Следовательно, идентификация предикатов должна тщательно обрабатываться в полноценной практической системе SRL.Чтобы решить эту проблему, BIBREF9 he2018 совместно предложил сквозной подход для совместного прогнозирования предикатов и аргументов для SRL диапазона.Аналогичным образом, в BIBREF11 cai2018full представлена ​​сквозная модель, которая естественным образом охватывает все подзадачи идентификации предикатов/аргументов и классификации для SRL зависимостей. Для совместного прогнозирования предикатов и аргументов мы представляем сквозную структуру как для SRL диапазона, так и для зависимостей.Наша модель совместно расширяет модель SRL диапазона BIBREF9 he2018, напрямую рассматривая все слова в предложении как возможные предикаты, рассматривая все диапазоны или слова как потенциальные аргументы и изучая распределения по возможным предикатам.Однако мы отличаемся тем, что (1) вводим единое представление аргументов для обработки двух разных типов задач SRL и (2) используем биаффинную систему оценки для принятия решений для отношений предикат-аргумент.Предложенные модели оцениваются на наборах данных SRL диапазона: данных CoNLL 2005 и 2012, а также наборе данных зависимостей SRL общих задач CoNLL 2008 и 2009.Для диапазона SRL наша единственная модель превосходит предыдущие лучшие результаты на 0,3% и 0,5% F INLINEFORM0 -показатель на наборах тестов CoNLL 2005 и 2012 соответственно.Что касается SRL зависимостей, мы достигли нового уровня 85,3% F INLINEFORM1 и 90,4% F INLINEFORM2 по тестам CoNLL 2008 и 2009 года соответственно.SRL является пионером BIBREF20 gildea2002, который использует соглашения PropBank BIBREF21.Условно SRL состоит из двух подзадач: идентификации аргументов и классификации.Первый идентифицирует аргументы предиката, а второй присваивает им семантические ролевые метки, а именно, определяющие отношения между аргументами и предикатами.PropBank определяет набор семантических ролей для обозначения аргументов, которые делятся на две категории: основные и дополнительные роли.Основные роли (A0-A5 и AA) указывают на различную семантику в структуре предикат-аргумент, тогда как неосновные роли являются модификаторами (AM-adj), где adj указывает тип дополнения, например временной (AM-TMP) и локативный (AM-adj). AM-LOC) дополнения.Например, как показано на рисунке FigREF1, A0 — это протоагент, представляющий заемщика.Немного отличаясь от SRL span в аннотации аргументов, SRL зависимостей помечает синтаксические заголовки аргументов, а не фразовые аргументы, что было популяризировано общими задачами CoNLL-2008 и CoNLL-2009 BIBREF22, BIBREF23.Более того, когда предикат не задан, двумя другими обязательными подзадачами SRL зависимостей являются идентификация предиката и устранение неоднозначности.Один из них — идентифицировать все предикаты в предложении, а другой — определить смыслы предикатов.Как показано на рисунке 1, 01 указывает на первое значение из репозитория значений PropBank для предиката, заимствованного в предложении.Традиционные подходы к SRL заключались в основном в разработке вручную созданных шаблонов функций с последующим использованием линейных классификаторов, таких как BIBREF24, BIBREF25, BIBREF12.Несмотря на то, что были представлены нейронные модели, в ранних работах больше внимания уделялось синтаксическим особенностям.Например, BIBREF14 Fitzgerald2015 интегрировал синтаксическую информацию в нейронные сети со встроенными лексикализованными функциями, а BIBREF15 roth2016 внедрил пути синтаксической зависимости между предикатами и аргументами.Аналогичным образом, BIBREF16 MarcheggianiEMNLP2017 использовал сверточную сеть графов для кодирования синтаксиса для SRL зависимостей.Недавно BIBREF17 Strubell2018 представил многозадачную нейронную модель для включения вспомогательной синтаксической информации для SRL, BIBREF18 li2018unified принял несколько типов синтаксического кодировщика для кодирования синтаксиса, а BIBREF10 he:2018Syntax использовал синтаксическое дерево для сокращения аргументов.Однако иногда использование синтаксиса может быть весьма неудобным, поэтому в недавних исследованиях была предпринята попытка создать системы SRL без или с небольшими синтаксическими рекомендациями.BIBREF5 zhou-xu2015 предложил первую синтаксически-агностическую модель для SRL диапазона с использованием маркировки последовательностей LSTM, а BIBREF7 he-acl2017 дополнительно усовершенствовал свою модель с использованием двунаправленных LSTM шоссе с ограниченным декодированием.Позже BIBREF8 selfatt2018 представил нейронную сеть глубокого внимания, позволяющую применять самовнимание для решения задач SRL.Аналогично и для SRL зависимостей, BIBREF6 Marcheggiani2017 предложил синтаксически-агностическую модель с эффективным представлением слов и получил положительные результаты.BIBREF11 cai2018full создал полноценную комплексную модель с биаффинным вниманием и превзошел по производительности предыдущую современную модель.Совсем недавно совместное предсказание как предикатов, так и аргументов привлекло широкий интерес из-за важности идентификации предикатов, включая BIBREF7, BIBREF17, BIBREF9, BIBREF11 и эту работу.В наших предварительных экспериментах мы пытались интегрировать самообслуживание в нашу модель, но оно не обеспечивает какого-либо значительного прироста производительности при SRL диапазона или зависимости, что не согласуется с выводом в BIBREF8 и позволяет нам исключить его из этой работы.В целом вышеизложенная работа суммирована в Таблице TABREF2.Что касается мотивации, наша работа наиболее тесно связана с работой BIBREF14 Fitzgerald2015, которая также единообразным образом занимается SRL промежутков и зависимостей.Существенное отличие состоит в том, что их модель использует синтаксические функции и принимает заранее определенные предикаты в качестве входных данных, тогда как наша модель откладывает синтаксис в сторону и совместно изучает и прогнозирует предикаты и аргументы.Учитывая предложение INLINEFORM0, мы пытаемся предсказать набор кортежей отношений предикат-аргумент INLINEFORM1, где INLINEFORM2 — это набор всех возможных токенов предикатов, INLINEFORM3 включает в себя все диапазоны аргументов-кандидатов или зависимости, а INLINEFORM6 — это набор семантических ролей. .Чтобы упростить задачу, мы вводим нулевую метку INLINEFORM7, чтобы указать отсутствие связи между произвольной парой предикат-аргумент после BIBREF9 he2018совместно.Как показано на рисунке FigREF5, наша унифицированная модель SRL включает в себя четыре основных модуля: компонент представления токена INLINEFORM0 для построения представления токена INLINEFORM1 из слова INLINEFORM2, INLINEFORM0 — кодер BiHLSTM, который напрямую принимает последовательные входные данные, модуль представления предиката и аргумента INLINEFORM0 для изучения представлений-кандидатов, INLINEFORM0 биаффинный оценщик, который принимает представления-кандидаты в качестве входных данных и прогнозирует семантические роли.Мы следуем двунаправленной архитектуре LSTM-CNN BIBREF26, где сверточные нейронные сети (CNN) кодируют символы внутри слова INLINEFORM0 в представление на уровне символов INLINEFORM1, а затем объединяются с его INLINEFORM2 на уровне слова в контекстно-независимое представление.Для дальнейшего улучшения представления слов мы используем внешнее представление INLINEFORM3 из предварительно обученных слоев ELMo (встраивания из языковых моделей) в соответствии с BIBREF27 ELMo.В конечном итоге результирующее представление токена объединяется в DISPLAYFORM0. Кодер в нашей модели использует двунаправленный LSTM с соединениями магистралей (BiHLSTM) для контекстуализации представления в представление для конкретной задачи: INLINEFORM0 , где закрытые соединения магистралей используются для облегчения проблемы исчезающего градиента. при обучении очень глубоких BiLSTM.Мы используем контекстуализированные представления для всех возможных аргументов и предикатов.Как указано в BIBREF2, применение многоуровневого перцептрона (MLP) к повторяющимся выходным состояниям перед классификатором имеет преимущество, заключающееся в удалении ненужной информации для текущего решения.Поэтому, чтобы отличить рассматриваемый в данный момент предикат от его аргументов-кандидатов в контексте SRL, мы добавляем уровень MLP к контекстуальным представлениям для конкретных представлений кандидатов аргумента INLINEFORM0 и предиката INLINEFORM1 соответственно с ReLU BIBREF28 в качестве функции активации: INLINEFORM2 INLINEFORM3 Чтобы выполнить единый SRL, мы ввести единое представление аргументов.Для зависимости SRL мы предполагаем диапазон аргументов в одно слово, ограничивая длину аргумента-кандидата равным 1, поэтому наша модель напрямую использует INLINEFORM0 в качестве окончательного представления аргумента INLINEFORM1.В то время как для SRL диапазона мы используем подход представления диапазона из BIBREF29 lee2017end.Каждое представление-кандидат интервала INLINEFORM2 создается с помощью DISPLAYFORM0, где INLINEFORM0 и INLINEFORM1 — представления границ, INLINEFORM2 указывает диапазон, INLINEFORM3 — вектор признаков, кодирующий размер интервала, а INLINEFORM4 — это особое понятие направления, которое изучается механизмом внимания BIBREF30 по словам. в каждом диапазоне (где INLINEFORM5 — позиция внутри диапазона) следующим образом: INLINEFORM6 INLINEFORM7 Для предикатов и аргументов мы вводим две унарные оценки для их кандидатов:INLINEFORM0 INLINEFORM1 Для семантической роли мы принимаем оценщик отношений с биаффинным вниманием BIBREF2:DISPLAYFORM0, где INLINEFORM0 и INLINEFORM1 соответственно обозначают весовую матрицу билинейных и линейных членов, а INLINEFORM2 — элемент смещения.Биаффинный скорер отличается от скорера сетей прямой связи билинейным преобразованием.Поскольку SRL можно рассматривать как задачу классификации, распределение классов неравномерно, и проблема усугубляется после введения нулевых меток.Выходной уровень модели обычно включает в себя термин смещения, предназначенный для определения априорной вероятности каждого класса, а остальная часть модели фокусируется на изучении вероятности появления каждого класса в данных.Биаффинное внимание, как Дозат и Мэннинг (2017) в нашей модели, напрямую присваивает балл каждой конкретной семантической роли и может быть полезно для прогнозирования семантической роли.На самом деле (He et al., 2018a) использовал оценщик в виде уравнения (2), которое является лишь частью нашего оценщика, включая оба уравнения ( EQREF14 ) и ().Таким образом, наша система оценки будет более информативной, чем предыдущие модели, такие как BIBREF9 . Модель обучена оптимизации вероятности INLINEFORM0 кортежей предикат-аргумент-отношение INLINEFORM1 с учетом предложения INLINEFORM2 , которое можно факторизовать как: DISPLAYFORM0 где INLINEFORM0 представляет модель параметры, а INLINEFORM1 — это оценка кортежа предикат-аргумент-отношение, включая оценку предиката INLINEFORM2, оценку аргумента INLINEFORM3 и оценку отношения INLINEFORM4. Наша модель использует биаффинную систему оценки для прогнозирования меток семантических ролей, которая реализуется как потеря перекрестной энтропии. .Более того, наша модель обучена минимизировать отрицательное подобие золотой структуры INLINEFORM0: INLINEFORM1.Оценка нулевых меток принудительно применяется в INLINEFORM2 .Для прогнозирования предикатов и аргументов мы обучаем отдельные системы оценки ( INLINEFORM3 и INLINEFORM4 ), параллельно передаваемые в биаффинную систему оценки для предсказания предикатов и аргументов соответственно, что помогает уменьшить вероятность распространения ошибок.Число аргументов-кандидатов для предложения длиной INLINEFORM0 равно INLINEFORM1 для SRL диапазона и INLINEFORM2 для зависимости.Поскольку модель имеет дело с возможными предикатами INLINEFORM3, вычислительная сложность составляет INLINEFORM4 для диапазона и INLINEFORM5 для зависимости, что слишком дорого в вычислительном отношении.Чтобы решить эту проблему, мы пытаемся отсечь кандидатов, используя два луча для хранения аргументов и предикатов кандидатов с размером INLINEFORM6 и INLINEFORM7, вдохновленным BIBREF9 he2018, совместно, где INLINEFORM8 и INLINEFORM9 — это два пороговых значения, устанавливаемые вручную.Сначала кандидаты на предикат и аргумент ранжируются в соответствии с их прогнозируемой оценкой ( INLINEFORM10 и INLINEFORM11 ) соответственно, а затем мы сокращаем кандидатов на предикат и аргумент с помощью определенных лучей.Наконец, мы берем кандидатов из лучей для участия в предсказании метки.Такое сокращение уменьшит общее количество кортежей-кандидатов до INLINEFORM12 для обоих типов задач.Кроме того, для SRL диапазона мы устанавливаем максимальную длину аргументов-кандидатов на INLINEFORM13, что может уменьшить количество аргументов-кандидатов до INLINEFORM14.Согласно семантическому соглашению PropBank, структура предиката-аргумента должна соответствовать нескольким глобальным ограничениям BIBREF25, BIBREF7, поэтому мы включаем ограничения на выходную структуру с помощью динамического программирования декодера во время вывода.Эти ограничения описываются следующим образом: INLINEFORM0 Уникальные основные роли (U): каждая основная роль (A0–A5, AA) должна появляться не более одного раза для каждого предиката.INLINEFORM0 Роли продолжения (C): Роль продолжения C-X может существовать только в том случае, если ее базовая роль X реализуется до нее.INLINEFORM0 Эталонные роли (R): Эталонная роль R-X может существовать только тогда, когда ее базовая роль X реализована (не обязательно до R-X).INLINEFORM0 Неперекрывающиеся (O):Семантические аргументы для одного и того же предиката не перекрываются в SRL диапазона. Поскольку ограничения C и R приводят к ухудшению производительности наших моделей по результатам наших предварительных экспериментов, мы применяем ограничения U и O только для SRL диапазона и ограничения U для SRL зависимостей. Наши модели оцениваются по двум задачам SRL в стиле PropBank: диапазон и зависимость.Для SRL пролета мы тестируем модель на общих наборах данных SRL пролета из CoNLL-2005 BIBREF32.и общие задачи CoNLL-2012 BIBREF31.Для зависимости SRL мы экспериментируем с тестами CoNLL 2008 BIBREF22 и 2009 BIBREF23.Что касается устранения неоднозначности предикатов в задаче SRL зависимостей, мы следуем предыдущей работе BIBREF15. Мырассмотрим две настройки SRL: сквозной и предварительно идентифицированный предикат.В первом случае наша система совместно прогнозирует все предикаты и их аргументы за один раз, что превращается в настройку CoNLL-2008 для SRL зависимостей.Для сравнения с предыдущими моделями мы также сообщаем результаты с заранее идентифицированными предикатами, где предикаты были заранее идентифицированы в корпусах.Таким образом, результаты экспериментов делятся на две категории: сквозные результаты и результаты с заранее выявленными предикатами.CoNLL 2005 и 2012. Общая задача CoNLL-2005 была сосредоточена на глагольных предикатах только для английского языка.Набор данных CoNLL-2005 использует раздел 2–21 данных Wall Street Journal (WSJ) в качестве обучающего набора, а раздел 24 — в качестве набора для разработки.Набор тестов состоит из раздела 23 WSJ для внутридоменной оценки и трех разделов из корпуса Брауна для внедоменной оценки.Более крупный набор данных CoNLL-2012 извлечен из корпуса OntoNotes v5.0, который содержит как вербальные, так и именные предикаты.CoNLL 2008 и 2009 CoNLL-2008 и английская часть общих задач CoNLL-2009 используют один и тот же корпус английского языка, который объединяет два древовидных банка: PropBank и NomBank.NomBank является дополнением к PropBank с аналогичным семантическим соглашением для аннотации номинальной структуры предиката-аргумента.Кроме того, разделение данных на английском языке для обучения, разработки и тестирования идентично таковому в CoNLL-2005. В наших экспериментах встраивание слов представляет собой 300-мерные векторы GloVe BIBREF33.Представления символов с размерностью 8 инициализируются случайным образом.В символьном CNN свертки имеют размеры окон 3, 4 и 5, каждый из которых состоит из 50 фильтров.Более того, мы используем 3 сложенных двунаправленных LSTM с 200-мерными скрытыми состояниями.В выходных данных BiLSTM используются два 300-мерных слоя MLP с ReLU в качестве функции активации.Кроме того, мы используем два 150-мерных скрытых слоя MLP с ReLU для оценки предикатов и аргументов соответственно.Для сокращения кандидатов мы совместно следуем настройкам BIBREF9 he2018, моделируя диапазоны длиной до INLINEFORM0 для SRL диапазона и INLINEFORM1 для SRL зависимостей, используя INLINEFORM2 для сокращения предикатов и INLINEFORM3 для сокращения аргументов.Детали обучения Во время обучения мы используем категориальную перекрестную энтропию в качестве цели, при этом начальная скорость обучения оптимизатора Адама BIBREF34 равна 0,001.Мы применяем отсев 0,5 к встраиваниям слов и выводам символов CNN, а отсев 0,2 — ко всем скрытым слоям и встраиваниям объектов.В LSTM мы используем вариационные маски отсева, которые являются общими для всех временных шагов BIBREF35, с коэффициентом отсева 0,4.Все модели обучаются до 600 эпох с размером пакета 40 на одном графическом процессоре NVIDIA GeForce GTX 1080Ti, который занимает 8 ГБ графической памяти и занимает от 12 до 36 часов.Мы представляем все результаты, используя официальный сценарий оценки из общих задач CoNLL-2005 и CoNLL-2009, и сравниваем нашу модель с предыдущими современными моделями.В таблице Span SRL TABREF15 показаны результаты наборов тестов внутри домена (WSJ) и вне домена (Браун) CoNLL-2005, а также набора тестов CoNLL-2012 (OntoNotes).В верхней части таблицы представлены результаты отдельных моделей.Наша модель превосходит предыдущие модели с абсолютным улучшением показателя F INLINEFORM0 на 0,3% в тесте CoNLL-2005.Кроме того, наша одиночная модель работает даже намного лучше, чем все предыдущие ансамблевые системы.Таблица зависимостей SRL TABREF19 представляет результаты CoNLL-2008.J&N (2008b) BIBREF36 получила наивысший рейтинг в общей задаче CoNLL-2008.Мы получаем сопоставимые результаты с недавним современным методом BIBREF11, и наша модель превосходит модель BIBREF10 на 2% по показателю F INLINEFORM0.Для сравнения с предыдущими системами с заранее определенными предикатами мы также сообщаем результаты наших моделей.Таблица Span SRL TABREF22 показывает, что наша модель превосходит все опубликованные системы, даже ансамблевую модель BIBREF8, достигая лучших результатов 87,7%, 80,5% и 86,0% по показателю F INLINEFORM0 соответственно.Таблица зависимостей SRL TABREF29 сравнивает результаты зависимости SRL с английскими данными CoNLL-2009.Наша единственная модель дает новый современный результат 90,4% F INLINEFORM0 на WSJ.Для данных Брауна предложенная независимая от синтаксиса модель дает прирост производительности на 1,7% F INLINEFORM1 по сравнению с моделью с учетом синтаксиса BIBREF18.ToЧтобы исследовать вклад представлений ELMo и показателя биаффинности в нашу сквозную модель, мы проводим серию исследований абляции на тестовых наборах WSJ CoNLL-2005 и CoNLL-2008, если не указано иное.В таблице TABREF31 сравниваются оценки F INLINEFORM0 BIBREF9 he2018 совместно и нашей модели без представлений ELMo.Мы видим, что эффект ELMo несколько удивителен: удаление ELMo резко снижает производительность на 3,3-3,5 F INLINEFORM1 на CoNLL-2005 WSJ.Однако наша модель обеспечивает довольно стабильную производительность для SRL зависимостей независимо от того, объединен ли ELMo или нет.Результаты показывают, что ELMo более полезен для охвата SRL. Чтобы лучше понять, как показатель биаффинной оценки влияет на производительность нашей модели, мы обучаем нашу модель с помощью различных функций оценки.Чтобы обеспечить справедливое сравнение с моделью BIBREF9, мы заменяем биаффинный показатель оценки их функциями оценки, реализованными с помощью сетей прямой связи, а результаты удаления биаффинного показателя оценки также представлены в таблице TABREF31.Мы видим снижение производительности INLINEFORM0 на 0,5% и 1,6% на CoNLL 2005 и 2008 WSJ соответственно.Сравнение показывает, что биаффинный оценщик более эффективен для оценки отношений между предикатами и аргументами.Более того, эти результаты показывают, что биаффинный механизм внимания применим к SRL диапазона. Очень трудно сказать, какой стиль семантического формального представления, зависимость или диапазон, будет более удобным для машинного обучения, поскольку они используют несравнимые метрики оценки.Недавние исследования BIBREF37 предложили изучить семантические парсеры из нескольких наборов данных в семантике стиля Framenet, в то время как наша цель — сравнить качество различных моделей в SRL диапазона и зависимостей для семантики стиля Propbank.Следуя BIBREF19 johansson2008EMNLP, мы решили напрямую сравнить их производительность с точки зрения метрики стиля зависимостей с помощью метода преобразования.Используя алгоритм поиска головок в BIBREF19, который использует синтаксис золотого стандарта, мы можем определить набор головных узлов для каждого пролета.Этот процесс выведет верхнюю границу показателя производительности преобразования диапазона благодаря использованию золотого синтаксиса.Мы не обучаем новые модели преобразованию и приведенному сравнению.Вместо этого мы выполняем работу с набором тестов CoNLL 2005 в стиле span и набором тестов CoNLL 2009 в стиле зависимостей (WSJ и Brown), учитывая, что эти два набора тестов имеют одинаковое текстовое содержимое.Поскольку первый содержит только вербальные структуры предикат-аргумент, для второго мы отбрасываем все номинальные результаты, связанные с предикатом-аргументом, и результаты устранения неоднозначности предиката во время статистики производительности.Таблица TABREF33 показывает сравнение.При более строгой настройке результаты нашей той же модели для SRL диапазона и зависимостей подтверждают тот же вывод BIBREF19 johansson2008EMNLP, а именно, форма зависимости говорит в пользу эффективности машинного обучения для SRL даже по сравнению с верхней границей преобразования формы диапазона. .В этой статье представлена ​​сквозная нейронная модель для SRL промежутков и зависимостей, которая может совместно изучать и прогнозировать все предикаты и аргументы.Мы расширяем существующую модель и вводим унифицированное представление аргументов с биаффинным оценщиком в унифицированный SRL как для форм представления интервалов, так и для зависимостей.Наша модель достигает новых современных результатов по тестам CoNLL 2005, 2012 и CoNLL 2008, 2009.Наши результаты показывают, что SRL между диапазонами и зависимостями можно эффективно обрабатывать единым образом, что впервые позволяет нам удобно исследовать полезную связь между двумя типами форм семантического представления.
Маркировка семантических ролей (SRL) направлена ​​​​на обнаружение структуры предикатов-аргументов предложения. Большое внимание уделялось сквозному SRL без синтаксического ввода. Однако большинство из них сосредоточены на форме семантического представления на основе диапазонов или зависимостей и показывают только конкретную оптимизацию модели соответственно. Между тем, единообразное решение этих двух задач SRL оказалось менее успешным. В этом документе представлена ​​сквозная модель SRL для зависимостей и промежутков с унифицированным представлением аргументов для единообразной работы с двумя разными типами аннотаций аргументов. Кроме того, мы совместно прогнозируем все предикаты и аргументы, особенно включая долгосрочно игнорируемую подзадачу идентификации предикатов. Наша единая модель достигает новых современных результатов как по тестам SRL (CoNLL 2005, 2012), так и по зависимостям (CoNLL 2008, 2009).
3,667
QasperSumInstruct
ru
Напиши аннотацию по статье
На пути к пониманию гендерной предвзятости в извлечении отношений. В связи с тем, что в Интернете ежедневно публикуется огромное количество информации, извлечение отношений (RE) становится все более важным.Целью RE является извлечение отношений из необработанных предложений и представление их в виде кратких кортежей отношений в форме (голова, отношение, хвост).Примером может служить (Барак Обама, супруга, Мишель Обама). Краткие представления, предоставляемые моделями RE, использовались для расширения баз знаний (KB) BIBREF0, BIBREF1.Эти базы знаний затем активно используются в системах НЛП, таких как системы диалога на основе задач.В последние годы большое внимание в сообществе NRE было сосредоточено на повышении точности моделей и уменьшении шума BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6.Тем не менее, мало внимания уделяется справедливости таких систем.В этой статье мы делаем первый шаг к пониманию и оценке гендерных предубеждений в системах NRE.Мы анализируем гендерную предвзятость, измеряя различия в эффективности модели при извлечении отношений из предложений, написанных о женщинах, и предложений, написанных о мужчинах.Значительные различия в производительности между полами могут снизить справедливость систем и исказить результаты приложений, которые их используют.Например, если модель прогнозирует род занятий с более высоким уровнем отзыва для лиц мужского пола, это может привести к тому, что базы знаний будут иметь больше информации о занятиях для мужчин.Последующие поисковые задачи, использующие эту базу знаний, могут давать необъективные прогнозы, например, ранжирование статей о женщинах-компьютерщиках ниже статей об их коллегах-мужчинах.Мы предоставляем первую оценку социальной предвзятости в моделях NRE; в частности, мы оцениваем гендерную предвзятость в прогнозах на английском языке для набора широко используемых моделей NRE с открытым исходным кодом BIBREF2, BIBREF4, BIBREF3, BIBREF5.Мы оцениваем OpenNRE по двум направлениям: (1) изучение равенства возможностей BIBREF7, когда OpenNRE обучается на немодифицированном наборе данных, и (2) изучение влияния, которое различные варианты устранения смещения BIBREF8, BIBREF9, BIBREF10, BIBREF11, BIBREF12 оказывают как на абсолютный балл F1, так и на абсолютный показатель F1, и разница в баллах F1 по мужским и женским точкам данных.Однако провести такую ​​оценку сложно с использованием существующих наборов данных NRE, таких как набор данных NYT из BIBREF13, поскольку не существует надежного способа получить гендерную информацию об организациях.Таким образом, мы создаем новый набор данных, специально предназначенный для оценки гендерной предвзятости для NRE, точно так же, как предыдущая работа была сделана для других задач, таких как Coreference Резолюция BIBREF14, BIBREF9.Мы называем наш набор данных WikiGenderBias и делаем его общедоступным.Наш вклад таков: WikiGenderBias — это первый набор данных, предназначенный для обучения и оценки систем NRE на предмет гендерных предубеждений.Он содержит основные метки истинности для тестового набора и в общей сложности около 45 000 предложений.Мы проводим первую оценку систем NRE на предмет гендерной предвзятости и обнаруживаем, что она демонстрирует гендерную предвзятость.Мы демонстрируем, что использование как смены пола, так и несмещенных вложений эффективно снижает предвзятость в прогнозах модели и что использование смены пола повышает производительность модели, когда обучающие данные содержат контекстуальные смещения.Изучение гендерных предубеждений в НЛП все еще находится на стадии зарождения; гендерная предвзятость не изучалась во многих задачах НЛП.Обычно предыдущая работа сначала выявляет гендерную предвзятость, а затем пытается смягчить ее BIBREF15.В этой статье мы предпринимаем первый шаг наблюдения для задачи RE. Поскольку для наблюдения требуется определенная форма измерения, в предыдущей работе были созданы методы измерения гендерной предвзятости BIBREF16, BIBREF9, BIBREF10, BIBREF17, BIBREF11, BIBREF12, BIBREF18.Гендерная предвзятость измерялась в основном в обучающих наборах и в прогнозах.Измерить последнее просто: измерьте разницу в производительности модели на мужских и женских точках данных, при этом определение пола точки данных зависит от предметной области BIBREF11, BIBREF12.Для оценки справедливости предикторов и смещения распределения ресурсов BIBREF19, BIBREF7 были предложены и другие показатели, такие как равенство возможностей.Мы используем оба этих метода для оценки моделей NRE.После обнаружения существования гендерной предвзятости в предыдущей работе были разработаны методы смягчения этой предвзятости.Методы устранения смещения могут устранить смещение обучающего набора, встраивания слов или алгоритмов прогнозирования или обучения.В случае устранения смещения обучающего набора или алгоритма обучения модель необходимо переобучить.Мы используем два метода устранения смещения обучающего набора (контрфактическое увеличение данных BIBREF10 и анонимизация имен BIBREF10) и метод устранения смещения встраивания слов (жесткое устранение смещения BIBREF8) и анализируем их влияние на предвзятость в прогнозах моделей NRE.В сфере RE стало популярным использование моделей машинного обучения с учителем.Данные обучения для этих моделей обычно получаются с помощью дистанционного наблюдения или его варианта: для данного отношения (e1, r, e2) в базе данных предположим, что любое предложение, содержащее как e1, так и e2, выражает r BIBREF20.Многие модели NRE направлены на смягчение воздействия шума в обучающих данных, представленных Distant Supervision, для повышения производительности BIBREF21, BIBREF22, BIBREF2, BIBREF3, BIBREF5.В недавней работе КБ используются для дальнейшего повышения производительности NRE BIBREF6, BIBREF23.Несмотря на эти значительные усилия по улучшению производительности NRE, насколько нам известно, исследований по предвзятости или этике в NRE не проводилось.Мы предоставляем такое исследование.Чтобы оценить гендерную предвзятость в моделях RE, нам нужна определенная мера того, как пол влияет на прогнозы в моделях RE.Чтобы добиться этого, нам нужен какой-то способ определения пола в тестовых экземплярах.В текущих наборах данных по RE отсутствует гендерная информация по субъектам.Получение гендерной информации для текущих наборов данных может быть дорогостоящим или невозможным.Поэтому мы решили создать WikiGenderBias с этой гендерной информацией.В частности, мы хотели измерить, насколько различаются предсказания предложений из статей Википедии о мужских сущностях и предложений о женских сущностях.Поскольку большая часть данных об объекте в базе знаний генерируется со страницы этого объекта, если бы модель NRE работала лучше для мужских статей, то, вероятно, субъекты мужского пола имели бы больше информации в базе знаний.Эта предвзятость может распространиться на последующие прогнозы для моделей, использующих базу знаний, поэтому по этой причине полезно оценивать различия в производительности статей о сущностях разного пола.Разделения WikiGenderBias приведены в таблице TABREF6. Чтобы сгенерировать WikiGenderBias, мы используем вариант предположения дистанционного наблюдения: для заданного отношения между двумя объектами предположим, что любое предложение из статьи, написанной об одном из этих объектов, в котором упоминается другой объект, выражает связь.Например, если мы знаем, что (Барак, супруга, Мишель) является родственником, и мы находим предложение «Он и Мишель были женаты» в статье Барака в Википедии, то мы предполагаем, что это предложение выражает отношение (Барак, супруга, Мишель).Это предположение аналогично предположению, сделанному BIBREF20, и позволяет нам масштабировать создание набора данных.Мы используем Википедию, потому что многие объекты в Википедии содержат информацию о гендерной принадлежности, а также потому, что Википедия содержит статьи, написанные об этих объектах.Это в сочетании с информацией об отношениях об этих сущностях, полученной из DBPedia, базы знаний Википедии, позволило нам создать WikiGenderBias, используя наш вариант предположения о дистанционном наблюдении.В WikiGenderBias мы используем четыре отношения: супруг, гиперним, дата рождения и место рождения.Мы выбирали из заданного набора отношений, хранящегося в DBPedia.Мы предположили, что модели могут использовать пол в качестве показателя для влияния на прогнозы отношений супругов и гиперонимов, поскольку слова, относящиеся к браку, чаще упоминаются в женских статьях, а слова, относящиеся к гиперониму (который похож на род занятий), чаще упоминаются в статьях о кобели БИБРЕФ24, БИБРЕФ25.Мы предположили, что дата рождения и место рождения будут действовать как контрольные группы, и считали, что пол не будет коррелировать ни с одним из отношений.Мы также создаем отрицательные примеры для этих четырех отношений, получая точки данных для трех несвязанных отношений: родители, DeathDate и almaMater.Мы используем сущности, для которых мы могли бы получить данные по всем четырем отношениям.Мы организовали наш эксперимент таким образом, чтобы головные сущности не повторялись в наборах поездов, разработчиков и тестовых наборах, чтобы модель видела только новые головные сущности во время тестирования.Поскольку мы получаем удаленно контролируемые предложения для отношения из статьи головного объекта, это гарантирует, что модель не увидит предложения из одной и той же статьи в наборах данных.Однако возможно, что головная сущность появится в других отношениях как хвостовая сущность, поэтому сущности могут появиться в нескольких наборах данных.Гендерное разделение WikiGenderBias представлено в таблице TABREF6.Сначала мы обучаем OpenNRE на необработанных, гендерно-сбалансированных обучающих данных, чтобы отразить производительность модели без изменений.Затем мы вводим методы смягчения предвзятости, такие как смена пола, анонимизация имен и жесткое устранение предвзятости на основе предыдущей работы, чтобы оценить компромисс между производительностью модели и гендерным паритетом.Мы разделили тестовый набор на два подмножества: одно с предложениями из женских статей и одно с предложениями из мужских статей (см. Таблицу TABREF6).Мы собираем данные, используя наш вариант предположения о дистанционном надзоре (см. раздел SECREF7).Однако, как отмечалось ранее, некоторые предложения могут быть шумными.Оценка моделей на основе зашумленных данных несправедлива, поскольку модель может быть оштрафована за правильное предсказание отношения, не выраженного в предложении.Таким образом, нам нужно было получить основные истинные метки.Чтобы выяснить правду, мы собрали аннотации работников АМТ.Мы попросили этих работников определить, выражает ли данное предложение данное отношение.Если большинство ответило «нет», то мы пометили это предложение как не выражающее никакой связи.(Мы обозначаем отсутствие отношений как NA в WikiGenderBias.)Каждое предложение было аннотировано тремя разными работниками.Каждому работнику платили 15 центов за аннотацию.Мы принимали только работников из Англии, США или Австралии, у которых уровень одобрения HIT превышает $95\%$ и количество HIT превышает 100.Мы обнаружили, что парное согласие между аннотаторами, измеренное с помощью Kappa BIBREF26 $\kappa $ Фляйсса, составляет 0,44, что соответствует представителям обоих полов и свидетельствует об умеренном согласии.Мы отмечаем, что на наше значение $\kappa $ влияет требование к работникам провести двоичную классификацию, что ограничивает степень согласия, достижимую выше случайности.Мы также обнаружили, что парное согласие между аннотаторами составляет 84%. При создании WikiGenderBias мы провели некоторый статистический анализ полученных нами данных из Википедии.Мы опираемся на работу BIBREF25, которая обнаружила, что более высокая доля информационных блоков Википедии на страницах Википедии, посвященных женщинам, содержит информацию о супруге, чем инфобоксы Википедии на страницах Википедии, посвященных мужчинам.Однако рисунок FigREF9 демонстрирует еще одно несоответствие: среди статей для женщин и мужчин, содержащих информацию о супругах, в статьях, написанных о женщинах, супруги женщин упоминаются гораздо чаще, чем в статьях, написанных о мужчинах.Кроме того, мы показываем, что среди женских и мужских статей, которые мы выбрали, гиперонимы упоминаются гораздо чаще в мужских статьях, чем в женских.Тот факт, что в женских статьях супруги упоминаются чаще, чем в мужских, указывает на гендерную предвзятость в составе Википедии; авторы не пишут об обоих полах одинаково.Мы оцениваем модели NRE из популярного репозитория с открытым исходным кодом OpenNRE BIBREF27.Модели OpenNRE сочетают в себе методы, включая использование избирательного внимания для придания веса предложениям с соответствующей информацией BIBREF2, а также методы уменьшения шума на уровне пары сущностей BIBREF2 и инновации в состязательном обучении моделей NRE BIBREF4.OpenNRE позволяет пользователям выбирать селектор (Внимание или Среднее) и кодировщик (PCNN, CNN, RNN или Bi-RNN) для каждой модели.Каждая из этих моделей требует встраивания слов для создания распределенных представлений предложений.Следует отметить, что PCNN — это просто CNN, которая имеет операцию кусочного максимального объединения, где предложение разбивается на три раздела в зависимости от положения головного и хвостового объектов BIBREF28. Как упоминалось в разделе SECREF1, мы используем OpenNRE и различия в производительности для оценки моделей.Мы обучаем каждую комбинацию кодировщик-селектор на обучающем наборе WikiGenderBias и используем встраивания Word2Vec BIBREF29, также обученные на WikiGenderBias, и тестируем каждую комбинацию на тестовом наборе WikiGenderBias.Мы также используем принцип равенства возможностей BIBREF7.В нашем случае $A = \lbrace Male,female\rbrace $, поскольку пол — это наш защищенный атрибут, и мы предполагаем, что он двоичный.Мы оцениваем EOP для каждого отношения, по принципу «один против остальных».Таким образом, мы вычисляем один EOP, где супруг — положительный класс, а все остальные классы — отрицательные; в этом случае $Y=1$ соответствует истинной метке «супруга», а $Y=0$ соответствует истинной метке «гиперним», «Дата рождения», «Место рождения» или «НД».Затем мы выполняем еще одно вычисление для каждого отношения, где $Y=1$ соответствует выраженному этому отношению, а $Y=0$ соответствует любому другому выражаемому отношению.Обратите внимание, что это эквивалентно измерению запоминания каждого отношения для каждого пола.Затем мы оцениваем модель внимания PCNN, используя методы устранения смещений, упомянутые ниже.Контексты, в которых пишут о мужчинах и женщинах, могут различаться; например, в Википедии о женщинах чаще пишут словами, связанными с сексуальностью, чем о мужчинах BIBREF25.Контрфактическое увеличение данных (CDA) смягчает эти контекстуальные предвзятости.CDA состоит из замены слов мужского рода в предложении соответствующими словами женского рода и наоборот для всех предложений корпуса, а затем тренировки на объединении исходного и дополненного корпусов.Это уравнивает контексты слов женского и мужского рода; если раньше 100 врачей назывались он, а 50 — она, то в новой обучающей выборке они она обратится к врачу по 150 раз каждый.Иногда модели используют имена сущностей в качестве показателя пола; если модель связывает женщин с политиками, а Джона с мужчинами, то вероятность того, что Джон является выражением политика (Джон, гиперним, политик), может быть предсказана с меньшей вероятностью, чем если бы она ассоциировала Джона с женщинами.Анонимизация имен (NA) смягчает эту проблему.NA заключается в поиске всех физических лиц с помощью системы распознавания именованных объектов BIBREF30 и последующей замене имен этих объектов соответствующими анонимизациями.Например, предыдущий пример может выглядеть следующим образом: E1 — политик, тем самым не позволяя модели использовать имена в качестве показателя пола.Встраивание слов может кодировать гендерные предубеждения BIBREF8, BIBREF31, BIBREF32, и это может повлиять на предвзятость в последующих прогнозах для моделей, использующих встраивания BIBREF10.Hard-Debiasing смягчает гендерную предвзятость во встраиваниях.Жесткое устранение смещения включает в себя поиск направления, представляющего пол в векторном пространстве, затем удаление компонента в этом направлении для всех гендерно-нейтральных слов, а затем выравнивание расстояния от этого направления для всех пар слов (мужского и женского рода) BIBREF8.Мы применили жесткое смещение к встраиваниям Word2Vec BIBREF29, которые мы обучали на предложениях в WikiGenderBias.Каждый раз, когда мы применяли CDA, NA или какую-либо их комбинацию, мы также обучали новую модель внедрения на этом несмещенном наборе данных.Как упоминалось в разделе SECREF2, гендерную предвзятость можно измерить как разницу в показателе эффективности модели при оценке по мужчинам и женщинам.Используя это, мы оцениваем влияние этих методов на модели NRE.Мы определяем мужские (женские) точки данных как отношения, для которых головной сущностью является мужчина (женщина), что означает, что удаленно контролируемое предложение берется из мужской (женской) статьи.В предыдущей работе для измерения производительности модели NRE использовалась площадь под кривой точности отзыва и показатель F1 BIBREF33, BIBREF27, BIBREF34; После предыдущей работы мы используем показатель F1 в качестве показателя производительности.Модели OpenNRE не удовлетворяют принципу равенства возможностей, хотя и близки к этому (см. таблицу TABREF11).Прогнозы по дате рождения меньше всего удовлетворяют принципу равенства возможностей во всех случаях, за исключением случая RNN с вниманием, когда прогнозы по супругу были наиболее предвзятыми.Примечательно, что Bi-RNN со средним значением почти идеально обеспечивает равенство возможностей для супруга.Мы также обнаружили, что селекторы «Среднее» немного лучше справляются с предотвращением предвзятости, чем селекторы «Внимание».Для каждого кодера, кроме PCNN, архитектуры, использующие селектор «Среднее», продемонстрировали значительно меньшую гендерную предвзятость, чем модели, использующие тот же кодировщик и селектор «Внимание».В случае BiRNN разрыв F1 для прогнозов о супруге с селектором «Среднее» был менее половины разрыва для селектора «Внимание».Усредненные селекторы не обеспечивают столь существенного улучшения равенства возможностей и фактически усиливают гендерную предвзятость для гиперонима.Все архитектуры имеют одинаковые уровни смещения, но по метрике F1 CNN с селектором «Среднее», по-видимому, лучше всего смягчает смещение в отношениях супругов, в то время как Bi-RNN с селектором «Среднее» лучше всего справляется с метрикой равенства возможностей.Стоит также отметить, что средний селектор работал немного лучше, чем селектор внимания по всем направлениям, что интригует, учитывая, что средний селектор используется в качестве базового уровня, поскольку он одинаково взвешивает предложения в обучающих данных для каждого отношения.Оценки F1 между предсказаниями мужских и женских предложений по всем отношениям различаются для каждой комбинации селектора кодера, хотя разница относительно невелика (см. крайний левый столбец на фиг.16).Мы обнаружили, что прогнозы относительно супруга обычно демонстрируют самую высокую разницу в баллах F1, как мы и предсказывали.Однако, что удивительно, прогнозы по гиперниму демонстрируют наименьшую гендерную предвзятость, а прогнозы по месту рождения в некоторых случаях демонстрируют более значительную гендерную предвзятость, чем прогнозы по супругу.Прогнозы по дате рождения, как и предполагалось, показали очень небольшую гендерную предвзятость.Анонимизация имени неожиданно существенно увеличивает разрыв в баллах F1 для гипернимного отношения, но немного уменьшает разрыв в баллах F1 для всех других отношений.Анонимизация имен, по-видимому, эффективна для устранения предвзятости во всех отношениях, кроме гиперонима, хотя и не так эффективна, как смена пола или использование смещенных вложений.Эти результаты показывают, что предвзятость субъекта, вероятно, не сильно влияет на гендерную предвзятость в первоначальных прогнозах моделей.Технология Hard-Debiased Word Embeddings также чрезвычайно эффективна для смягчения разницы в оценках F1 для всех отношений.Хотя смена пола немного лучше сработала для уменьшения этой разницы для отношений супругов, смещенные вставки лучше смягчили смещение для отношений «Дата рождения» и «Гипернимы».Мы отмечаем, что использование смещенных вложений увеличивает абсолютные оценки так же, как и смена пола, хотя и увеличивает их немного меньше.Смена пола существенно уменьшает разрыв в баллах F1 для супругов, а также для всех других отношений (см. Рисунок РИС. 16).Интересно, что абсолютные баллы F1 как для мужских, так и для женских приговоров для всех отношений увеличились, когда применялась смена пола (см. Рисунок FigREF19).Таким образом, смена пола чрезвычайно эффективна не только для смягчения предвзятости, но и для повышения производительности.Вероятно, это связано с двумя вещами: 1) данные Википедии изобилуют контекстуальными гендерными предубеждениями и 2) смена пола успешно устраняет эти предубеждения.Предыдущие исследования показали, что многие корпуса содержат схожие предубеждения, включая даже новостные статьи, подобные новостям Google BIBREF8.Наши результаты показывают, что смена пола может быть эффективным инструментом для борьбы с этой контекстной предвзятостью в сфере NRE.Оказалось, что сочетание смещенных вложений и смены пола привело к самой высокой относительной разнице в баллах F1 между мужскими и женскими предложениями для супруга, а также уменьшило предвзятость в других отношениях (см. Рисунок FigREF19).Все модели, использующие анонимизацию имен (модели 1–4), имеют значительно более высокие разрывы в баллах F1 для отношения гиперонимов.Хотя все комбинации в разной степени снижали гендерную предвзятость, гендерная предвзятость в отношениях с супругами смягчалась в одинаковой степени всеми комбинациями.Удивительно, но применение смены пола само по себе снижает гендерную предвзятость примерно так же или даже лучше, чем любая комбинация методов.Совокупные результаты Таким образом, при всех комбинациях вариантов устранения смещения модель PCNN с вниманием достигает более высокого балла F1 для супружеских отношений при прогнозировании предложений мужского пола, чем для женских предложений.Что касается места рождения, то разрыв в баллах Формулы-1 гораздо ниже, как мы и прогнозировали.К нашему удивлению, разрыв в баллах F1 был самым низким у гипернима, который, как мы предсказывали, будет иметь более высокий разрыв, как и у супруга.Также удивительно, что разрыв в F1 по месту рождения был почти таким же большим, как и по супругу.Несмотря на то, что вся модель демонстрировала предвзятость в прогнозах для всех отношений, мы отмечаем, что использование встраивания с заменой пола и смещением позволило значительно уменьшить разрыв в оценках F1 для прогнозов модели для мужских и женских предложений.Однако, в то время как разрыв в баллах F1 для места рождения сильно отреагировал на методы устранения предвзятости, супруг отреагировал не так сильно.Смена пола также смогла повысить абсолютные баллы модели в Формуле-1.Таким образом, мы отмечаем, что смягчение контекстной предвзятости в данном случае сработало очень хорошо.Анонимизация имени была столь же эффективной и даже усиливала гендерную предвзятость в отношении гиперонима; кажется, что удаление предвзятости по отношению к сущности увеличило разрыв в баллах F1 для гипернима.Мы отмечаем, что наилучшей комбинацией как для смягчения предвзятости, так и для абсолютной эффективности модели было использование смены пола отдельно.В нашем исследовании мы создаем WikiGenderBias: насколько нам известно, самый большой на сегодняшний день набор данных для оценки гендерной предвзятости по всем задачам НЛП.Мы обучаем модели OpenNRE на наборе данных WikiGenderBias и тестируем их на наборах тестов, разделенных по полу.Мы обнаружили существенную разницу в баллах F1 для супружеских отношений между прогнозами мужских и женских предложений для всех архитектур моделей OpenNRE.Мы обнаружили, что эту гендерную предвзятость можно существенно смягчить, просто выполнив предварительную обработку набора данных и встраивания слов, используемых моделями, и обнаружили, что лучшей комбинацией, снижающей предвзятость, была смена пола в сочетании со смещенными вложениями.Также отметим, что такое сочетание существенно увеличивает и производительность модели в целом.Наконец, мы опираемся на работу BIBREF25 и обнаруживаем дополнительную контекстную предвзятость, скрытую в Википедии.Хотя эти результаты помогут будущей работе избежать гендерных предубеждений, данное исследование носит предварительный характер.Мы рассматриваем только бинарный гендер, но в будущей работе следует учитывать и небинарные гендеры.Кроме того, будущая работа должна дополнительно изучить источник гендерной предвзятости в прогнозах модели, возможно, путем визуализации внимания или более внимательного изучения результатов модели.
Недавние разработки в области извлечения нейронных связей (NRE) позволили добиться значительных успехов в области автоматизированного построения баз знаний (AKBC). Хотя большое внимание было уделено повышению точности, насколько нам известно, в литературе не было попыток оценить социальные предубеждения в системах NRE. Мы создаем WikiGenderBias, набор данных, контролируемый удаленно, с тестовым набором, аннотированным человеком. В WikiGenderBias есть предложения, специально подобранные для анализа гендерных предубеждений в системах извлечения отношений. Мы используем WikiGenderBias для оценки систем на предмет предвзятости и обнаруживаем, что системы NRE демонстрируют гендерно-предвзятые прогнозы и закладывают основу для будущей оценки предвзятости в NRE. Мы также анализируем, как анонимизация имен, жесткое устранение искажений при встраивании слов и контрфактическое увеличение данных влияют на гендерную предвзятость в прогнозах и производительности.
3,858
QasperSumInstruct
ru
Напиши аннотацию по статье
Использование языка имеет значение: анализ лингвистической структуры текстов вопросов может охарактеризовать возможность ответа в Quora. Из группы небольших пользователей на момент своего создания в 2009 году Quora за последние несколько лет превратилась в один из крупнейших сайтов вопросов и ответов, управляемых сообществом, с разнообразными сообществами пользователей.Благодаря эффективной политике модерации/проверки контента, активной внутренней команде проверки и эффективным ботам Quora этот сайт превратился в один из крупнейших и надежных источников вопросов и ответов в Интернете.На Quora пользователи могут публиковать вопросы, следить за вопросами, делиться вопросами, отмечать их соответствующими темами, следить за темами, следить за пользователями, помимо ответов, комментариев, голосований за/против и т. д.Интегрированная социальная структура, лежащая в основе, и тематическая организация богатого контента сделали Quora уникальным по сравнению с другими сайтами вопросов и ответов, такими как Stack Overflow, Yahoo!Ответы и т. д.и это некоторые из основных причин его популярности в последнее время.Качественная публикация вопросов и получение ответов на них — ключевые цели любого сайта вопросов и ответов.В этом исследовании мы фокусируемся на возможности ответа на вопросы на Quora, то есть на том, будет ли в конечном итоге получен ответ на опубликованный вопрос.В Quora вопросы без ответов называются «открытыми вопросами».Эти открытые вопросы необходимо изучать отдельно, чтобы понять причину отсутствия на них ответа, а точнее, существуют ли какие-либо характерные различия между «открытыми» вопросами и ответами на них.Например, вопрос «Каковы наиболее перспективные достижения в лечении черепно-мозговых травм?» был опубликован на Quora 23 июня 2011 г. и получил первый ответ спустя почти два года 22 апреля 2013 г.Причиной того, что этот вопрос так долго оставался открытым, может быть сложность ответа на него, а также отсутствие известности и экспертов в этой области.Поэтому важно выявлять открытые вопросы и принимать меры в зависимости от их типов: вопросы плохого качества можно удалять из Quora, а вопросы хорошего качества можно продвигать, чтобы они стали более заметными и в конечном итоге направлялись экспертам по темам для получения более качественных ответов. .Характеризация вопросов на основе качества вопросов требует вмешательства эксперта, который часто оценивает, останется ли вопрос открытым, на основе таких факторов, как, является ли он субъективным, противоречивым, открытым, расплывчатым/неточным, плохо сформулированным, не по теме, двусмысленным, неинтересным. и т. д.Сбор данных о суждениях для тысяч постов с вопросами — очень дорогостоящий процесс.Поэтому такой эксперимент можно провести только для небольшого набора вопросов и масштабировать его на всю коллекцию постов на сайте вопросов и ответов будет практически невозможно.В этой работе мы показываем, что соответствующая количественная оценка различных языковых действий может естественным образом соответствовать многим факторам суждения, упомянутым выше (примеры см. в таблице 2).Эти величины, кодирующие такую ​​языковую деятельность, можно легко измерить для каждого сообщения с вопросом, что помогает нам иметь альтернативный механизм для характеристики возможности ответа на сайте вопросов и ответов.В разделе «Вопросы и ответы» проведено несколько исследовательских работ, посвященных содержанию сообщений.BIBREF0 использует отзывы сообщества для выявления высококачественного контента на Yahoo!Answers.BIBREF1 использует текстовые функции для прогнозирования качества ответов на Yahoo!Answers.BIBREF2 , исследуйте предикторы качества ответов посредством сравнительного контролируемого полевого исследования ответов пользователей.BIBREF3 изучает проблему того, как долго вопросы остаются без ответа.BIBREF4 предлагает модель прогнозирования количества ответов на вопрос.BIBREF5 анализирует и прогнозирует вопросы, оставшиеся без ответа, в Yahoo Answers.BIBREF6 изучает качество вопросов в Yahoo!Answers.Мы получили наш набор данных Quora BIBREF7 посредством веб-сканирования в период с июня по август 2014 года.В результате этого сканирования был накоплен огромный набор данных вопросов и ответов за период более четырех лет, начиная с января 2010 года по май 2014 года.Мы начали сканирование со 100 вопросов, случайно выбранных из разных тем, чтобы можно было охватить вопросы разных жанров.Сканирование вопросов осуществляется по шаблону BFS через ссылки на соответствующие вопросы.Мы получили 822 040 уникальных вопросов по 80 253 различным темам и в общей сложности получили 1 833 125 ответов на эти вопросы.Для каждого вопроса мы отдельно просматриваем журналы изменений, которые содержат различные типы информации об изменении вопроса, а также журнал активности задавшего вопрос.В этом разделе мы определяем различные лингвистические действия на Quora и предлагаем количественную оценку моделей использования языка на этом сайте вопросов и ответов.В частности, мы показываем, что существуют существенные различия в языковой структуре открытых и ответных вопросов.Обратите внимание, что большинство определяемых нами показателей просты, интуитивно понятны и могут быть легко получены автоматически из данных (без ручного вмешательства).Таким образом, структура является практичной, недорогой и легко масштабируемой.Содержание текста вопроса важно для привлечения людей и повышения их заинтересованности в нем.Лингвистическая структура (т. е. использование тегов POS, использование слов за пределами словарного запаса, использование символов и т. д.)которые принимаются, являются ключевыми факторами для ответа на вопросы.Мы обсудим лингвистическую структуру, которая часто отражает стиль письма того, кто задает вопрос.На рис. 1 (а) мы видим, что те, кто задает открытые вопросы, обычно чаще используют «нет». слов по сравнению с ответами на вопросы.Чтобы понять природу слов (стандартных английских слов или слов, похожих на чат, часто используемых в социальных сетях), используемых в тексте, мы сравниваем слова со словарем GNU Aspell, чтобы увидеть, присутствуют они в словаре или нет.Мы наблюдаем, что как открытые вопросы, так и отвеченные вопросы имеют одинаковое распределение (см. рис. 1 (b)).Теги части речи (POS) являются индикаторами грамматических аспектов текста.Чтобы наблюдать, как теги части речи распределяются в текстах вопросов, мы определяем показатель разнообразия.Мы используем стандартный теггер POS CMU BIBREF8 для идентификации тегов POS составляющих слов в вопросе.Мы определяем разнообразие тегов POS (POSDiv) вопроса $q_i$ следующим образом: $POSDiv(q_i) = -\sum _{j \in pos_{set}}p_j\times \log (p_j)$ где $p_j$ — вероятность наличия $j^{th}$ POS в наборе POS-тегов.На рис. 1 (c) показано, что ответы на вопросы имеют меньшее разнообразие тегов POS по сравнению с открытыми вопросами.Тексты вопросов подвергаются нескольким изменениям, чтобы повысить их читаемость и заинтересованность в них.Интересно определить, насколько такие изменения могут сделать вопрос отличным от его первоначальной версии.Чтобы отразить это явление, мы использовали отзыв ROUGE-LCS BIBREF9 из области обобщения текста.Чем выше ценность запоминания, тем меньше изменений в тексте вопроса.На рис. 1 (d) мы видим, что открытые вопросы, как правило, имеют более высокую запоминаемость по сравнению с ответами на вопросы, что говорит о том, что они не подвергались значительной части редактирования текста, что практически не позволяет улучшить читаемость.Психолингвистический анализ: то, как человек говорит или пишет, дает нам представление о его языковом, эмоциональном и когнитивном состоянии.Языковое, эмоциональное, когнитивное состояние спрашивающего также раскрывается через язык, который он использует в тексте вопроса.Чтобы уловить такие психолингвистические аспекты спрашивающего, мы используем метод лингвистического исследования и подсчета слов (LIWC) BIBREF10, который анализирует различные эмоциональные, когнитивные и структурные компоненты, присутствующие в письменных текстах людей.LIWC принимает текстовый документ в качестве входных данных и выводит оценку для каждой из категорий LIWC, таких как лингвистические (часть речи слов, служебные слова и т. д.) и психологические категории (социальные, гнев, положительные эмоции, отрицательные эмоции). эмоции, грусть и т. д.)на основе стиля письма и психометрических свойств документа.В таблице 1 проведен сравнительный анализ психолингвистического состояния спрашивающего при задании открытого вопроса и ответа на вопрос.Те, кто задает открытые вопросы, в среднем используют больше служебных слов, безличных местоимений и артиклей, тогда как те, кто задает вопросы с ответами, используют больше личных местоимений, союзов и наречий для описания своих вопросов.По сути, в открытых вопросах отсутствуют содержательные слова по сравнению с ответами на вопросы, что, в свою очередь, влияет на читабельность вопроса.Что касается психологических аспектов, те, кто задает ответ на вопрос, как правило, используют в среднем больше социальных, семейных, человеческих слов по сравнению с тем, кто задает открытый вопрос.Те, кто задает открытый вопрос, выражают больше положительных эмоций, тогда как те, кто задает ответ, как правило, выражают в своих текстах больше отрицательных эмоций.Кроме того, те, кто задает вопросы с ответами, более эмоционально вовлечены, и в их вопросах обнаруживается более частое использование слов, связанных с гневом, грустью и тревогой, по сравнению с открытыми вопросами.С другой стороны, открытые вопросы содержат больше слов, связанных с сексом, телом и здоровьем, что может быть причиной того, что они не привлекают ответов.В таблице 2 мы показываем набор примеров открытых вопросов, чтобы проиллюстрировать, что многие из приведенных выше величин, основанных на лингвистической деятельности, описанной в этом разделе, естественным образом соответствуют факторам, которые человеческие судьи считают ответственными за то, что вопрос остается без ответа.Это одна из основных причин, почему эти количества считаются соответствующими индикаторами ответственности.В этом разделе мы подробно опишем структуру прогнозирования.Наша цель — предсказать, будет ли дан ответ на данный вопрос через период времени $t$ или нет.Языковые стили задающего вопрос Содержание и способ постановки вопроса важны для получения ответов.В предыдущем разделе мы заметили, что эти лингвистические, а также психолингвистические аспекты того, кто задает вопрос, являются дискриминационными факторами.Для прогнозирования мы используем следующие функции:
Quora — один из самых популярных сайтов вопросов и ответов в последнее время. Однако многие вопросы на этом сайте вопросов и ответов часто не получают ответа. В этой статье мы количественно оцениваем различные лингвистические действия, которые отличают отвеченный вопрос от вопроса без ответа. Наш главный вывод заключается в том, что то, как пользователи используют язык при написании текста вопроса, может быть очень эффективным средством характеристики способности к ответу. Эта характеристика помогает нам заранее предсказать, будет ли в конечном итоге дан ответ на вопрос, оставшийся без ответа в течение определенного периода времени t, и достичь точности 76,26% (t = 1 месяц) и 68,33% (t = 3 месяца). Примечательно, что функции, отражающие модели использования языка пользователями, являются наиболее различительными, и их точность составляет 74,18%. Мы также сравниваем наш метод с некоторыми аналогичными работами (Дрор и др., Ян и др.), достигая максимального улучшения точности примерно на 39%.
1,688
QasperSumInstruct
ru
Напиши аннотацию по статье
Крупнозернистая мелкозернистая сеть покрытия для ответов на вопросы с множеством доказательств. Требованием к масштабируемым и практичным системам ответов на вопросы (QA) является способность анализировать несколько документов и комбинировать содержащуюся в них информацию для ответа на вопросы.Хотя существующие наборы данных позволили разработать эффективные комплексные нейронные системы ответов на вопросы, они, как правило, сосредотачиваются на рассуждениях над локализованными разделами одного документа BIBREF0, BIBREF1, BIBREF2, BIBREF3.Например, BIBREF4 обнаружил, что на 90% вопросов в Стэнфордском наборе данных ответов на вопросы можно ответить, учитывая одно предложение в документе.Вместо этого в этой работе мы сосредоточимся на обеспечении качества с использованием нескольких доказательств, при котором для ответа на вопрос требуется агрегирование доказательств из нескольких документов BIBREF5 , BIBREF6 . Большая часть этой работы была проделана, когда Виктор Чжун работал в Salesforce Research.Наша модель обеспечения качества с несколькими доказательствами () осуществляет выбор среди набора возможных ответов с учетом набора подтверждающих документов и запроса.Вдохновлен и .В модели строится приблизительная сводка вспомогательных документов на основе запроса, не зная, какие кандидаты доступны, а затем оценивается каждый кандидат.В модели модель сопоставляет конкретные детализированные контексты, в которых кандидат упоминается в запросе, чтобы оценить релевантность кандидата.Эти две стратегии рассуждения соответственно моделируются крупнозернистыми и мелкозернистыми модулями .В каждом модуле используется новая иерархия внимания — иерархия внимания и самовнимания — для объединения информации из вспомогательных документов, обусловленной запросом и кандидатами.На рисунке 1 показана архитектура .The .The достигает нового результата в слепом наборе тестов точности Qangaroo WikiHop, превзойдя предыдущий лучший результат по точности, несмотря на отсутствие использования предварительно обученных контекстных кодировщиков.Кроме того, в задаче ответа на вопросы TriviaQA, состоящей из нескольких абзацев, BIBREF6, переранжирование результатов традиционной модели извлечения интервалов BIBREF7 с использованием улучшает точность точного соответствия на 3,1%, а F1 - на 3,0%. Наш анализ показывает, что компоненты в иерархиях внимания грубого а мелкозернистые модули учатся концентрироваться на отдельных частях входных данных.Это позволяет более эффективно представлять большую коллекцию длинных документов.Наконец, мы очерчиваем распространенные типы ошибок, вызванных сложностью агрегирования большого количества ссылок, шумом при удаленном надзоре и сложными типами отношений.Крупнозернистый модуль и мелкозернистый модуль соответствуют стратегиям и .Модуль грубого анализа обобщает вспомогательные документы, не зная кандидатов: он создает взаимозависимые представления вспомогательных документов и запроса, используя внимание, а затем создает обобщенное резюме, используя самообслуживание.Напротив, детальный модуль извлекает конкретные контексты, в которых встречается каждый кандидат: он идентифицирует кореферентные упоминания кандидата, затем использует внимание для построения взаимозависимых представлений между этими упоминаниями и запросом.Хотя низкоуровневое кодирование входных данных является общим для всех модулей, мы показываем, что такое разделение труда позволяет иерархии внимания в каждом модуле сосредотачиваться на различных частях входных данных.Это позволяет модели более эффективно представлять большое количество потенциально длинных вспомогательных документов.Предположим, нам дан запрос, набор $$ вспомогательных документов и набор $$ кандидатов.Без ограничения общности рассмотрим $i$-й документ и $j$-го кандидата.Пусть $\in {\times }$ , $\in {\times }$ и $\in {\times }$ соответственно обозначают вложения слов запроса, $i$-й вспомогательный документ и $j$ ответ кандидата.Здесь $$, $$0 и $$1 — количество слов в соответствующей последовательности.$$2 — размер встраивания слова.Мы начинаем с кодирования каждой последовательности с использованием двунаправленных GRU (GRU) BIBREF8.$$&=& {\tanh (W_q + b_q) } \in {\times } \\ &=& {} \in {\times } \\ &=& {} \in {\times }$$ (уравнение 2) Здесь $$, $$ и $$ — кодировки запроса, поддержки и кандидата.$W_q$ и $b_q$ — параметры слоя проекции запроса.$$ — это размер двунаправленного GRU. Грубозернистый модуль модуля , показанный на рисунке 2, строит созависимые представления вспомогательных документов $$ и запроса $$ с использованием внимания, а затем суммирует контекст взаимодействия, используя самовнимание для сравните его с кандидатом $$ .Коатирование и подобные методы имеют решающее значение для моделей ответов на вопросы по одному документу BIBREF9, BIBREF10, BIBREF11.Мы начинаем с вычисления матрицы сходства между документом и запросом как $$= {\left( \right)} ^\intercal \in {\times }$$ (уравнение 5)Векторы сводки поддержки и векторы сводки запросов определяются как $$&=& \left( \right) \in {\times } \\ &=& \left( ^\intercal \right) \in {\times }$$ (уравнение 6), где $(X)$ нормализует $X$ по столбцам.Мы получаем контекст документа как $$&=& { ~\left( \right) } \in {\times }$$ (уравнение 7)Контекст покрытия в таком случае представляет собой покомпонентное объединение контекста документа $$ и вектора сводки документа $$.$$&=& [; ] \in {\times 2}$$ (уравнение 8) Для простоты изложения мы сокращаем сокращение, которое принимает в качестве входных данных кодировку документа $$ и кодировку запроса $$ и создает контекст покрытия $$ , как $$ {}{} \rightarrow $$ (уравнение 9)Далее мы суммируем контекст взаимодействия — взаимозависимое кодирование подтверждающего документа и запроса — используя иерархическое самовнимание.Во-первых, мы используем самовнимание для создания сводного вектора фиксированной длины контекста внимания.Мы вычисляем оценку для каждой позиции контекста внимания, используя двухслойный многослойный перцептрон (MLP).Этот показатель нормализуется и используется для вычисления взвешенной суммы в контексте покрытия.$$a_{si} &=& \tanh \left( W_2 \tanh \left( W_1 U_{si} + b_1 \right) +b_2 \справа) \in {} \\ \hat{a}_{s} &=& (a_{s}) \\ &=& \sum ^{}_i \hat{a}_{si} U_{si} \in {2}$$ (уравнение 10) Здесь $a_{si}$ и $\hat{a}_ {si}$ — это соответственно ненормализованная и нормализованная оценка для $i$-й позиции контекста внимания.$W_2$ , $b_2$ , $W_1$ и $b_1$ — параметры для бомбардира MLP.$U_{si}$ — $i$-я позиция контекста внимания.Мы сокращаем самовнимание, которое принимает в качестве входных данных последовательность $$ и выдает итоговую информацию, обусловленную запросом $\hat{a}_{si}$0 , как $${} \rightarrow $$ (уравнение 11)Напомним, что $$ предоставляет сводку $i$-го из $$ вспомогательных документов.Мы применяем еще один уровень самообслуживания для вычисления сводного вектора фиксированной длины всех вспомогательных документов.Затем эта сводка умножается на сводку ответа кандидата для получения грубой оценки.Пусть $\in {\times 2}$ представляет собой последовательность сводок для всех подтверждающих документов.У нас есть $$G_c &=& {} \in {} \\ G^\prime &=& {} \in {2} \\ &=& \tanh \left( G^\prime + \right) G_c \in {}$$ (уравнение 12), где $$ и $G_c$ — соответственно кодирование и сводка внимания кандидата.$G^\prime $ — это суммарный вектор фиксированной длины всех вспомогательных документов.$$ и $$ — параметры слоя проекции, который уменьшает сводку вспомогательных документов с 2 до ${}$.В отличие от модуля грубой обработки, модуль мелкой детализации, показанный на рисунке 3, находит конкретный контекст, в котором кандидат встречается во вспомогательных документах, используя разрешение кореферентности.Затем каждое упоминание обобщается с использованием уровня внутреннего внимания для формирования представления упоминания.Затем мы вычисляем взаимосвязь между представлениями упоминаний и запросом.Этот контекст внимания, который представляет собой взаимозависимое кодирование упоминаний и запроса, снова суммируется с помощью самовнимания, чтобы получить детальное резюме для оценки кандидата.Предположим, что в $i$-м документе поддержки имеется $m$ упоминаний кандидата.Пусть $k$-е упоминание соответствует токенам от $$ до $$ в документе поддержки.Мы представляем это упоминание с использованием внутреннего внимания в пределах кодировки вспомогательного документа, соответствующего этому упоминанию.$$_k = {[:]} \in {}$$ (уравнение 16) Предположим, что всего имеется $$ упоминаний кандидата.Мы извлекаем каждое представление упоминания, используя самообладание, чтобы создать последовательность представлений упоминания $\in {\times }$ .Контекст покрытия и сводка этих упоминаний $$ относительно запроса $$: $$U_m &=& {M}{} \in {\times 2} \\ G_m &=& {U_m} \in {2}$$ (уравнение 17)Мы используем линейный слой для определения мелкозернистой оценки кандидата $$= G_m + \in {}$$ (уравнение 18).Мы берем сумму общих и детальных оценок $= + $ в качестве оценки кандидата.Напомним, что наше предыдущее представление касалось $j$-го из $$-кандидатов.Мы объединяем баллы каждого кандидата, чтобы сформировать окончательный вектор оценок $Y \in {}$ .Модель обучается с использованием перекрестной энтропийной потери.Мы оцениваем работу по двум задачам, чтобы оценить ее эффективность.Первая задача — это ответы на вопросы с несколькими доказательствами по открытой и замаскированной версии набора данных WikiHop BIBREF5.Вторая задача — это задача TriviaQA с извлечением ответов на вопросы, состоящая из нескольких абзацев, которую мы оформляем как задачу изменения ранжирования интервала BIBREF6.В первом случае достигается новый результат.В последнем случае переранжирование результатов модели извлечения интервалов BIBREF7 с использованием результатов значительного улучшения производительности.BIBREF5 предложил задачу Qangaroo WikiHop, чтобы облегчить изучение ответов на вопросы с множеством доказательств.Этот набор данных создается путем связывания объектов в корпусе документов (Википедия) с базой знаний (Викиданные).В результате получается двудольный граф документов и сущностей, край которого отмечает появление сущности в документе.Тройка фактов базы знаний, следовательно, соответствует пути от субъекта к объекту в результирующем графе.Документы на этом пути составляют подтверждающие документы для тройки фактов.Задача Qangaroo WikiHop, показанная на рисунке 4, заключается в следующем: учитывая запрос, то есть субъект и отношение тройки фактов, набор вероятных объектов-кандидатов и соответствующие подтверждающие документы для кандидатов, выберите правильного кандидата. как ответ.Версия WikiHop без маски представляет ответы кандидатов с оригинальным текстом, а версия с маской заменяет их случайно выбранными заполнителями, чтобы устранить корреляцию между частыми ответами и подтверждающими документами.Официальная слепая оценка результатов тестирования проводится с использованием немаскированной версии.Мы токенизируем данные с помощью Stanford CoreNLP BIBREF12.Мы используем фиксированные внедрения GloVe BIBREF13, а также внедрения символов ngram BIBREF14.Мы разбиваем символические отношения запроса на слова.Все модели обучены с использованием ADAM BIBREF15.Мы перечисляем подробную схему эксперимента и гиперпараметры наиболее эффективной модели в Приложении.Мы сравниваем производительность модели с другими моделями в таблице лидеров WikiHop в таблице 1.Результаты достигаются как в замаскированной, так и в немаскированной версиях WikiHop.В частности, на слепом, отложенном тестовом наборе WikiHop достигается новая лучшая точность — 0,000.Предыдущий результат BIBREF16 использует предварительно обученные контекстные кодировщики, что привело к последовательному улучшению задач НЛП BIBREF19.Мы превосходим этот результат, несмотря на то, что не используем предварительно обученные контекстные кодировщики.Кроме того, мы показываем, что разделение труда между модулями грубого и мелкозернистого управления позволяет иерархии внимания каждого модуля сосредотачиваться на разных частях входных данных.Это позволяет более эффективно моделировать большую коллекцию потенциально длинных документов, найденных в WikiHop.Для дальнейшего изучения эффективности нашей модели мы также экспериментируем с TriviaQA BIBREF6, еще одним крупномасштабным набором данных для ответов на вопросы, который требует агрегирования данных из нескольких предложений.Подобно BIBREF20, BIBREF21, мы разбиваем исходную задачу TriviaQA на две подзадачи: предложение правдоподобных ответов-кандидатов и изменение ранжирования ответов-кандидатов.Мы решаем первую подзадачу, используя BiDAF++, модель ответов на вопросы с конкурентным извлечением интервалов от BIBREF7, а вторую подзадачу, используя .Чтобы вычислить список кандидатов для повторного ранжирования, мы получаем 50 лучших кандидатов на ответы из BiDAF++.Во время обучения мы используем кандидата на ответ, который дает максимальное значение F1, в качестве золотой метки для обучения CFC. Наши экспериментальные результаты в таблице 2 показывают, что изменение ранжирования с использованием CFC обеспечивает стабильный прирост производительности по сравнению с использованием только модели ответа на вопрос с извлечением интервала.В частности, изменение ранжирования с использованием улучшает производительность независимо от того, содержит ли набор ответов-кандидатов, полученный из модели извлечения интервала, правильные ответы.Во всем наборе разработчиков TriviaQA переоценка результатов с использованием результатов дает прирост в 3,1% EM и 3,0% F1, что предполагает, что их можно использовать для дальнейшего уточнения результатов, получаемых с помощью моделей ответов на вопросы с извлечением интервалов.В таблице 3 показан вклад в производительность модуля грубого и мелкого зерна, а также таких модельных решений, как самообслуживание и двунаправленные GRU.Как крупнозернистый, так и мелкозернистый модуль вносят значительный вклад в производительность модели.Замена слоев самообслуживания на объединение средних значений и двунаправленных GRU на однонаправленные GRU приводит к меньшему снижению производительности.Замена кодировщика проекцией на встраивание слов приводит к значительному падению производительности, что говорит о том, что контекстное кодирование, фиксирующее позиционную информацию, имеет решающее значение для этой задачи.На рисунке 5 показано распределение ошибок прогнозирования модели по разной длине набора данных для модели только с грубой детализацией (-fine) и модели только с мелкой детализацией (-coarse).Модель только с мелкозернистой структурой стабильно уступает модели с только крупнозернистой структурой практически по всем измерениям длины.Вероятно, это связано со сложностью разрешения кореференций кандидатов в вспомогательных документах — используемый нами метод точного лексического сопоставления имеет тенденцию обеспечивать высокую точность и низкую запоминаемость.Однако модель только с мелким уровнем детализации соответствует или превосходит модель с большим количеством детализации на примерах с большим количеством сопроводительных документов или с длинными сопроводительными документами.Вероятно, это связано с тем, что используемое нами разрешение кореферентности при сопоставлении сущностей более точно фиксирует внутридокументные и междокументные зависимости, чем иерархическое внимание.Мы рассмотрим иерархические карты внимания, созданные на примерах из набора разработки WikiHop.Мы обнаружили, что уровни внимания последовательно фокусируются на фразах, которые схожи в документе и запросе, в то время как слои самообслуживания более низкого уровня фиксируют фразы, которые характеризуют объект, описанный в документе.Поскольку эти карты внимания очень велики, мы не включаем их в основной текст и вместо этого отсылаем читателей к Приложению.Грубое обобщение самообслуживания, описанное в (12), имеет тенденцию сосредотачиваться на вспомогательных документах, которые представляют информацию, относящуюся к объекту в запросе.Рисунок 6 иллюстрирует пример этого, когда внимание фокусируется на документах, имеющих отношение к литературному произведению «Тролль», а именно на документах о Тролле, его авторе Джулии Дональдсон и древнескандинавском языке.Напротив, детальное внимание к представлениям упоминаний, описанное в (), имеет тенденцию сосредотачиваться на реляционной части запроса.Рисунок 7 иллюстрирует пример этого, в котором внимание сосредоточено на взаимосвязи между упоминаниями и фразой «находится в административно-территориальной единице».Карты внимания с дополнительными примерами можно найти в Приложении.Мы исследуем ошибки, возникающие в наборе разработки WikiHop, и делим их на четыре типа.Идентификаторы и примеры этих ошибок мы перечисляем в Приложении.Первый тип (% ошибок) возникает в результате того, что модель объединяет неверную ссылку.Например, для запроса Country_of_citizenship Джейми Бернетт модель правильно обращается к документам о том, что Джейми Бернетт родился в Южном Ларнакшире, а Ланаркшир находится в Шотландии.Однако в последнем документе ошибочно акцентируется внимание на слове «Англия» вместо ответа «Шотландия».Мы предполагаем, что способы уменьшения ошибок этого типа включают использование более надежных предварительно обученных контекстных кодировщиков BIBREF22, BIBREF19 и разрешения кореференции.Второй тип (% ошибок) возникает в результате вопросов, на которые нет ответа.Например, в вспомогательных документах не указано место повествования пьесы «Любимый бродяга» по запросу повествование_локация.любимый бродяга.Третий тип (% ошибок) возникает в результате запросов, дающих несколько правильных ответов.Примером может служить запрос instance_of qilakitsoq, для которого модель предсказывает «археологический памятник», что является более конкретным, чем ответ «город».Второй и третий типы ошибок подчеркивают сложность использования дистанционного контроля для создания крупномасштабных наборов данных, таких как WikiHop.Четвертый тип (% ошибок) возникает из-за сложных типов отношений, таких как родительский_таксон, которые трудно интерпретировать с использованием предварительно обученных векторных представлений слов.Одним из методов устранения ошибок такого типа является встраивание отношений с использованием настраиваемых символических вложений, а также встраивания фиксированных слов.Мы представили новую модель ответов на вопросы, основанные на множественных доказательствах, вдохновленную и .При выполнении задачи ответа на вопросы WikiHop достигается точность теста, превосходящая по точности предыдущие методы.В нашем анализе мы показали, что взаимодополняющие крупнозернистые и мелкозернистые модули фокусируются на различных аспектах ввода и являются эффективным средством представления больших коллекций длинных документов.Авторы благодарят Люка Зеттлмойера за его отзывы и советы, а также Севон Мин за помощь в предварительной обработке набора данных TriviaQA.
Сквозные нейронные модели добились значительного прогресса в ответах на вопросы, однако недавние исследования показывают, что эти модели неявно предполагают, что ответ и доказательства находятся близко друг к другу в одном документе. В этой работе мы предлагаем крупнозернистую мелкозернистую сеть покрытия (CFC), новую модель ответов на вопросы, которая объединяет информацию из доказательств из нескольких документов. CFC состоит из модуля грубой детализации, который интерпретирует документы относительно запроса, а затем находит соответствующий ответ, и модуля детализации, который оценивает каждый возможный ответ путем сравнения его вхождений во всех документах с запросом. Мы разрабатываем эти модули, используя иерархии внимания и внимания к себе, которые учат подчеркивать различные части входных данных. В задаче ответа на вопросы Qangaroo WikiHop с множественными доказательствами CFC получает новый современный результат 70,6% на наборе слепых тестов, что превосходит предыдущий лучший результат на 3% по точности, несмотря на то, что не используются предварительно обученные контекстные кодировщики.
3,175
QasperSumInstruct
ru
Напиши аннотацию по статье
Условное контекстное расширение BERT. Модели на основе глубоких нейронных сетей легко переобучать, что приводит к потере их обобщения из-за ограниченного размера обучающих данных.Чтобы решить эту проблему, часто применяются методы увеличения данных для создания большего количества обучающих выборок.Последние годы стали свидетелями больших успехов в применении увеличения данных в области речевой области BIBREF0, BIBREF1 и компьютерного зрения BIBREF2, BIBREF3, BIBREF4.Увеличение данных в этих областях можно легко выполнить с помощью таких преобразований, как изменение размера, зеркальное отображение, случайное кадрирование и изменение цвета.Однако применение этих универсальных преобразований к текстам во многом рандомизировано и неконтролируемо, что не позволяет обеспечить семантическую инвариантность и корректность разметки.Например, учитывая рецензию на фильм «Актеры хороши», зеркально отображая, мы получаем «doog si srotca ehT», или путем случайного кадрирования мы получаем «актеры хорошие», оба из которых бессмысленны.Существующие методы увеличения данных для текста часто теряют общность и разрабатываются с использованием вручную созданных правил или конвейеров для конкретных областей.Общим подходом к дополнению текстовых данных является метод, основанный на замене, который генерирует новые предложения путем замены слов в предложениях соответствующими словами (например, синонимами).Однако слова с синонимами из созданной вручную лексической базы данных, такой как WordNet BIBREF5, очень ограничены, а дополнение синонимами на основе замены может создать лишь ограниченное разнообразие шаблонов из исходных текстов.Чтобы устранить ограничения методов, основанных на замене, Кобаяши BIBREF6 предложил контекстное дополнение для помеченных предложений, предлагая широкий спектр слов-заменителей, которые прогнозируются с помощью двунаправленной языковой модели, условной по меткам, в зависимости от контекста.Но контекстное расширение страдает от двух недостатков: двунаправленная языковая модель представляет собой просто неглубокую конкатенацию прямой и обратной модели, а использование моделей LSTM ограничивает их способность прогнозирования небольшим диапазоном.BERT, что означает «представления двунаправленного кодировщика от трансформаторов», предварительно обучает глубокие двунаправленные представления путем совместной обработки левого и правого контекста на всех уровнях.BERT устранил однонаправленное ограничение, предложив цель «модели языка в маске» (MLM), маскируя некоторый процент входных токенов случайным образом и предсказывая замаскированные слова на основе их контекста.Это очень похоже на то, как контекстное увеличение предсказывает замену слов.Но было предложено BERT предварительно обучать текстовые представления, поэтому задача MLM выполняется без присмотра, не принимая во внимание дисперсию меток.В этой статье основное внимание уделяется методам, основанным на замене, и предлагается новый метод увеличения данных, называемый условным контекстным увеличением BERT.Этот метод применяет контекстное дополнение с помощью условного BERT, который точно настроен на BERT.Мы используем BERT в качестве предварительно обученной языковой модели по двум причинам.Во-первых, BERT основан на Transformer.Transformer предоставляет нам более структурированную память для обработки долговременных зависимостей в тексте.Во-вторых, BERT, как глубокая двунаправленная модель, строго более мощная, чем неглубокая конкатенация моделей слева направо и справа налево.Поэтому мы применяем BERT для контекстного расширения помеченных предложений, предлагая более широкий диапазон слов-заменителей, предсказанных задачей модели языка в маске.Однако модель замаскированного языка предсказывает замаскированное слово только на основе его контекста, поэтому предсказанное слово может быть несовместимо с аннотированными метками исходных предложений.Чтобы решить эту проблему, мы вводим новую цель тонкой настройки: «модель условного маскированного языка» (C-MLM).Модель условного языка с масками случайным образом маскирует некоторые токены из входных данных, и цель состоит в том, чтобы предсказать слово, совместимое с метками, на основе как его контекста, так и метки предложения.В отличие от работы Кобаяши, цель C-MLM допускает глубокие двунаправленные представления путем совместного определения левого и правого контекста на всех уровнях.Чтобы оценить, насколько хорошо наш метод расширения повышает производительность моделей глубоких нейронных сетей, следуя Кобаяши BIBREF6, мы экспериментируем с ним на двух наиболее распространенных структурах нейронных сетей, LSTM-RNN и CNN, в задачах классификации текста.Посредством экспериментов с шестью различными задачами классификации текста мы демонстрируем, что предложенная условная модель BERT дополняет предложение лучше, чем базовые модели, а метод условного контекстного дополнения BERT можно легко применить как к сверточному, так и к рекуррентному классификатору нейронных сетей.Далее мы исследуем связь нашей условной задачи MLM с задачей переноса стиля и демонстрируем, что наш условный BERT также можно применять и для переноса стиля.Наш вклад заключается в следующем: Насколько нам известно, это первая попытка изменить BERT на условный BERT или применить BERT к задачам генерации текста.Предварительное обучение языковой модели привлекло широкое внимание, а точная настройка предварительно обученной языковой модели оказалась эффективной для улучшения многих последующих задач обработки естественного языка.Dai BIBREF7 предварительно обучил немаркированные данные для улучшения последовательного обучения с помощью рекуррентных сетей.Говард BIBREF8 предложил общий метод трансферного обучения — «Точная настройка универсальной языковой модели» (ULMFiT) с ключевыми методами точной настройки языковой модели.Рэдфорд BIBREF9 предположил, что путем генеративного предварительного обучения языковой модели на разнообразном корпусе неразмеченного текста можно добиться больших успехов в решении широкого круга задач.Radford BIBREF9 добился значительных улучшений во многих задачах на уровне предложений по сравнению с тестом GLUE BIBREF10.BERT BIBREF11 получил новые современные результаты по широкому кругу разнообразных задач.BERT предварительно обучил глубокие двунаправленные представления, которые совместно учитывали левый и правый контекст на всех уровнях, после чего проводилась дискриминационная тонкая настройка для каждой конкретной задачи.В отличие от предыдущих работ по точной настройке предварительно обученной языковой модели для выполнения распознавательных задач, мы стремимся применить предварительно обученный BERT к генеративным задачам, выполняя задачу модели языка в маске (MLM).Чтобы генерировать предложения, совместимые с заданными метками, мы модифицируем BERT на условный BERT, вводя задачу условной маскировочной языковой модели и настраивая BERT для этой задачи.Увеличение текстовых данных широко изучалось при обработке естественного языка.Методы, основанные на выборке, включают понижающую выборку из большинства классов и передискретизацию из класса меньшинства, оба из которых на практике работают слабо.Методы, основанные на генерации, используют глубокие генеративные модели, такие как GAN BIBREF12 или VAE BIBREF13, BIBREF14, пытаясь генерировать предложения из непрерывного пространства с желаемыми атрибутами настроения и времени.Однако в предложениях, созданных с помощью этих методов, очень сложно гарантировать качество как с точки зрения совместимости меток, так и с точки зрения читаемости предложений.В некоторых конкретных областях BIBREF15, BIBREF16, BIBREF17.была применена аугментация замены слов.Ван BIBREF18 предложил использовать соседние слова в непрерывных представлениях для создания новых экземпляров каждого слова в твите и расширения набора обучающих данных.Чжан BIBREF19 извлек все заменяемые слова из данного текста и случайным образом выбрал $r$ из них для замены, а затем заменил заменяемые слова синонимами из WordNet BIBREF5.Коломиец BIBREF20 заменил только заголовки, исходя из предположения, что временные триггерные слова обычно встречаются в качестве заголовков.Коломиец BIBREF20 выбрал слова-заменители с наивысшими оценками $K$, полученными с помощью LM BIBREF21 «Скрытые слова», который представляет собой LM, основанный на контекстах фиксированной длины.Фадаи BIBREF22 сосредоточился на проблеме редких слов в машинном переводе, заменяя слова в исходном предложении только редкими словами.Слово в переведенном предложении также заменяется с использованием метода выравнивания слов и LM вправо.Наиболее похожая на наше исследование работа — Kobayashi BIBREF6.Кобаяши использовал контекст с заполнением пробелов для увеличения данных, заменяя каждое слово в предложении языковой моделью.Чтобы предотвратить переворачивание сгенерированными словами информации, связанной с метками предложений, Кобаяши BIBREF6 ввел условное ограничение для управления заменой слов.В отличие от предыдущих работ, мы используем глубокую двунаправленную языковую модель для применения замены, а механизм внимания в нашей модели обеспечивает более структурированную память для обработки долгосрочных зависимостей в тексте, что приводит к более общему и надежному улучшению различных последующих задач.В общем, языковая модель (LM) моделирует вероятность создания предложений или документов на естественном языке.Учитывая последовательность $\textbf {\textit {S}}$ N токенов, $<t_1,t_2,...,t_N>$ , прямая языковая модель позволяет нам предсказать вероятность последовательности как: $$p (t_1,t_2,...,t_N)= \prod _{i=1}^{N}p(t_i|t_1, t_2,..., t_{i-1}).$$ (уравнение 8)Аналогично, обратная языковая модель позволяет нам предсказать вероятность предложения как: $$p(t_1,t_2,...,t_N)= \prod _{i=1}^{N}p(t_i|t_{i+1}, t_{i+2},..., t_N).$$ (уравнение 9) Традиционно двунаправленный язык смоделируйте неглубокую конкатенацию независимо обученных прямых и обратных LM.Для обучения глубокой двунаправленной языковой модели BERT предложил задачу Masked Language Model (MLM), которая также называлась Cloze Task BIBREF23.Задача MLM случайным образом маскирует некоторый процент входных токенов, а затем прогнозирует только эти замаскированные токены в соответствии с их контекстом.Учитывая замаскированный токен ${t_i}$, контекстом являются токены, окружающие токен ${t_i}$ в последовательности $\textbf {\textit {S}}$, т. е. замыкающее предложение ${\textbf {\textit {S} }\обратная косая черта \lbrace t_i \rbrace }$ .Окончательные скрытые векторы, соответствующие токенам маски, передаются в выходной softmax по словарю для создания слов с распределением вероятностей ${p(\cdot |\textbf {\textit {S}}\обратная косая черта \lbrace t_i \rbrace )} $ .Задача MLM предсказывает только замаскированные слова, а не реконструирует весь ввод, что предполагает, что для сходимости модели требуется больше шагов предварительного обучения.Предварительно обученный BERT может дополнять предложения с помощью задачи MLM, предсказывая новые слова в замаскированных позициях в соответствии с их контекстом.Как показано на рис. 1, наш условный BERT имеет ту же архитектуру модели, что и исходный BERT.Различия заключаются во входном представлении и процедуре обучения.Входные внедрения BERT представляют собой сумму внедрений токенов, внедрений сегментации и внедрений позиции.Для встраивания сегментации в BERT изученное вложение предложения A добавляется к каждому токену первого предложения, а если второе предложение существует, встраивание предложения B будет добавлено к каждому токену второго предложения.Однако встраивания сегментации не имеют связи с фактическими аннотированными метками предложения, такими как смысл, тональность или субъективность, поэтому предсказанное слово не всегда совместимо с аннотированными метками.Например, если в фильме есть положительное замечание «этот актер хорош», мы замаскируем слово «хороший».Благодаря задаче BERT «Модель языка в маске» предсказанное слово в замаскированной позиции может оказаться отрицательным словом, например «плохим» или «скучным».Такие новые предложения, созданные путем замены замаскированных слов, неправдоподобны по отношению к их исходным меткам, что будет вредно, если они будут добавлены в корпус для применения дополнения.Для решения этого вопроса мы предлагаем новую задачу: «модель условного маскированного языка».Модель условного замаскированного языка случайным образом маскирует некоторые токены из помеченного предложения, и цель состоит в том, чтобы предсказать исходный словарный индекс замаскированного слова на основе как его контекста, так и его метки.Учитывая замаскированный токен ${t_i}$ , рассматриваются как контекст ${\textbf {\textit {S}}\обратная косая черта \lbrace t_i \rbrace }$, так и метка ${y}$ с целью вычисления ${p( \cdot |y,\textbf {\textit {S}}\обратная косая черта \lbrace t_i \rbrace )}$ , вместо вычисления ${p(\cdot |\textbf {\textit {S}}\обратная косая черта \lbrace t_i \ rbrace )}$ .В отличие от предварительного обучения MLM, условная цель MLM позволяет представлению объединять контекстную информацию и информацию метки, что позволяет нам дополнительно обучать глубокие двунаправленные представления, условные метками.Для выполнения условной задачи MLM мы настраиваем предварительно обученный BERT.Мы изменяем встраивания сегментации на встраивания меток, которые изучаются в соответствии с их аннотированными метками в помеченных наборах данных.Обратите внимание, что BERT разработан с встраиванием сегментации, которое представляет собой встраивание A или встраивание B, поэтому, когда набор данных последующих задач содержит более двух меток, мы должны адаптировать размер встраивания к совместимому размеру метки.Мы обучаем условный BERT, используя условную задачу MLM на помеченном наборе данных.Ожидается, что после того, как модель сойдется, она сможет предсказывать слова в замаскированном положении как с учетом контекста, так и с учетом метки.После того, как условный BERT хорошо обучен, мы используем его для дополнения предложений.Учитывая помеченное предложение из корпуса, мы случайным образом маскируем несколько слов в предложении.С помощью условного BERT условный BERT прогнозирует различные слова, совместимые с меткой предложения.После замены замаскированных слов предсказанными словами генерируется новое предложение, которое имеет аналогичный контекст и ту же метку, что и исходное предложение.Затем к исходному корпусу добавляются новые предложения.Весь процесс мы подробно описываем в алгоритме «Условное контекстное увеличение BERT». Алгоритм условного контекстного расширения BERT.Выполнив точную настройку предварительно обученного BERT, мы модифицируем BERT на условный BERT, используя условную задачу MLM для помеченного набора данных.После того как модель сходится, мы используем ее для расширения предложений.Новые предложения добавляются в набор данных для расширения набора данных.[1] Измените вложения сегментации для встраивания меток. Точная настройка предварительно обученного BERT с использованием условной задачи MLM для помеченного набора данных D до сходимости на каждой итерации i = 1,2,...,M. Выборка предложения $s$ из D Случайным образом. маска $k$ слов. Использование точно настроенного условного BERT для прогнозирования совместимых по меткам слов в замаскированных позициях для создания нового предложения. $S^{\prime }$ Добавьте новые предложения в набор данных $D$, чтобы получить расширенный набор данных $D^{\ prime }$ Выполнение последующей задачи над расширенным набором данных $D^{\prime }$ В этом разделе мы представляем настройки условных параметров BERT и, следуя Кобаяши BIBREF6, мы применяем различные методы дополнения к двум типам нейронных моделей с помощью шести задач классификации текста.Предварительно обученная модель BERT, которую мы использовали в нашем эксперименте, — это BERT $_{BASE}$ с количеством слоев (т. е. блоков Transformer) $L = 12$, скрытым размером $ H = 768$ и количеством самостоятельных -внимание головы $A = 12$ , общие параметры $= 110M$ .Подробную настройку параметров предварительной подготовки можно найти в оригинальной статье BIBREF11.Для каждой задачи мы выполняем следующие шаги независимо.Сначала мы оцениваем возможности расширения исходной модели BERT, предварительно обученной на задаче MLM.Мы используем предварительно обученный BERT для расширения набора данных, используя только предсказанные замаскированные слова в зависимости от контекста для каждого предложения.Во-вторых, мы настраиваем исходную модель BERT на условный BERT.Хорошо обученный условный BERT дополняет каждое предложение в наборе данных прогнозируемым условием замаскированных слов как в контексте, так и в метке.В-третьих, мы сравниваем производительность двух методов с результатами контекстного дополнения BIBREF6 Кобаяши.Обратите внимание, что исходный уровень внедрения сегментации BERT совместим с набором данных с двумя метками.Если набор данных для конкретной задачи содержит более двух разных меток, нам следует повторно обучить слой внедрения меток, совместимый с размером метки, вместо прямой точной настройки предварительно обученного слоя.Шесть наборов базовых классификационных данных перечислены в таблице 1.Следуя Киму BIBREF24, для набора данных без данных проверки мы используем 10% его обучающего набора для набора проверки.Сводная статистика шести наборов классификационных данных представлена ​​в таблице 1.SST.BIBREF25 SST (Stanford Sentiment Treebank) — это набор данных для классификации настроений в обзорах фильмов, которые помечены пятью метками (SST5: очень позитивный, позитивный, нейтральный, негативный или очень негативный) или двумя метками (SST2: позитивный или негативный). Тема BIBREF26Subj (набор данных субъективности) помечается тем, является ли предложение субъективным или объективным.MPQA BIBREF27MPQA Opinion Corpus — это набор данных для обнаружения полярности мнений, состоящий из коротких фраз, а не предложений, который содержит новостные статьи из самых разных источников новостей, вручную аннотированные для мнений и других частных состояний (т. е. убеждений, эмоций, настроений, предположений и т. д.). RT BIBREF28 RT — это еще один набор данных о настроениях в обзорах фильмов, содержащий коллекцию коротких отрывков из обзоров из Rotten Tomatoes, собранных Бо Пангом и Лилиан Ли.TREC BIBREF29 TREC — это набор данных для классификации шести типов вопросов (будь то вопрос о человеке, местоположении, числовой информации и т. д.). Мы оцениваем улучшение производительности, вызванное условным контекстным дополнением BERT при выполнении задач классификации предложений, поэтому нам необходимо заранее подготовьте два классификатора общих предложений.Для сравнения, следуя Kobayashi BIBREF6, мы принимаем две типичные архитектуры классификатора: CNN или LSTM-RNN.Классификатор BIBREF24 на основе CNN имеет сверточные фильтры размером 3, 4, 5 и встраивание слов.Все выходные данные каждого фильтра объединяются перед применением с максимальным объединением с течением времени, а затем подаются в двухслойную сеть прямой связи с ReLU, за которой следует функция softmax.Классификатор на основе RNN имеет однослойный LSTM и встраивание слов, выходные данные которых передаются в выходной аффинный слой с помощью функции softmax.Для обеих архитектур во время обучения применяются исключения BIBREF30 и оптимизация Адама BIBREF31.Процесс обучения завершается ранней остановкой с проверкой в ​​каждой эпохе.Гиперпараметры классификатора предложений, включая скорость обучения, размерность внедрения, размер единицы или фильтра и коэффициент отсева, выбираются с помощью поиска по сетке для каждого набора данных для конкретной задачи.Мы ссылаемся на реализацию Кобаяши в выпущенном коде.Для BERT все гиперпараметры остаются такими же, как у Devlin BIBREF11, все коды в Tensorflow и PyTorch доступны на github, а также можно загрузить предварительно обученную модель BERT.Количество эпох условного обучения BERT колеблется в пределах [1–50], а количество замаскированных слов — в [1–2]. Мы сравниваем улучшения производительности, полученные с помощью предложенного нами метода, со следующими базовыми методами: «w/» означает «с ":w/synonym: Слова случайным образом заменяются синонимами из WordNet BIBREF5..w/context: предложенный Кобаяши BIBREF6, который использовал двунаправленную языковую модель для применения контекстного дополнения, каждое слово было заменено вероятностью.w/context+label: метод контекстного дополнения Кобаяши BIBREF6 в архитектуре LM с условными метками.В таблице 2 приведены точности всех методов для двух архитектур классификаторов.Результаты показывают, что для различных наборов данных на разных архитектурах классификаторов наше условное контекстное дополнение BERT больше всего улучшает производительность модели.BERT также может в некоторой степени дополнять предложения, но не так сильно, как условный BERT.Поскольку мы маскировали слова случайным образом, замаскированные слова могут быть чувствительными к меткам или нечувствительными к меткам.Если слова, нечувствительные к меткам, замаскированы, слова, предсказанные с помощью BERT, могут быть несовместимы с исходными метками.Улучшение по сравнению со всеми эталонными наборами данных также показывает, что условный BERT является общим методом дополнения для задач классификации предложений с несколькими метками.Мы также исследуем влияние количества шагов обучения на производительность условного увеличения данных BERT.Диапазон настройки эпохи точной настройки находится в диапазоне [1–50]. В таблице 3 мы перечисляем эпоху точной настройки условного BERT, чтобы превзойти BERT для различных тестов.Результаты показывают, что наше условное контекстное расширение BERT может добиться очевидного улучшения производительности всего за несколько периодов тонкой настройки, что очень удобно применять к последующим задачам.В этом разделе мы углубимся в связь с передачей стилей и применим наш хорошо обученный условный BERT к задаче передачи стиля.Передача стиля определяется как задача перефразирования текста, чтобы он содержал определенные стилистические свойства без изменения намерения или воздействия в контексте BIBREF32.Наша условная задача MLM меняет слова в текстовом состоянии на заданной этикетке, не меняя контекста.С этой точки зрения обе задачи очень близки.Итак, чтобы применить условный BERT к задаче переноса стиля, учитывая конкретное стилистическое предложение, мы разбиваем ее на два этапа: сначала мы находим слова, соответствующие стилю; во-вторых, мы маскируем слова, соответствующие стилю, а затем используем условный BERT для прогнозирования новых заменителей с учетом контекста предложения и целевого свойства стиля.Чтобы найти в предложении слова, соответствующие стилю, мы обращаемся к Xu BIBREF33, который предложил метод, основанный на внимании, для извлечения вклада каждого слова в сентиментальную метку предложения.Например, учитывая положительную ремарку к фильму «Этот фильм смешной и интересный», мы отфильтровываем слова, в значительной степени вносящие вклад в ярлык, и маскируем их.Затем с помощью нашего метода условного контекстного дополнения BERT мы заполняем замаскированную позицию, предсказывая, что слова обусловлены противоположным контекстом метки и предложения, в результате чего получается: «Этот фильм скучный и скучный».Слова «скучный» и «скучный» способствуют тому, что новое предложение считается негативным стилем.Мы выбираем несколько предложений из набора данных SST2, перенося их на противоположную метку, как указано в таблице 4.В этой статье мы настраиваем BERT на условный BERT, вводя новую условную задачу MLM.После хорошей подготовки условный BERT можно применять для увеличения данных для задач классификации предложений.Результаты эксперимента показывают, что наша модель явно превосходит несколько базовых методов.Кроме того, мы демонстрируем, что наш условный BERT также можно применить к задаче передачи стиля.В будущем (1) мы будем изучать, как выполнять дополнение текстовых данных к несбалансированным наборам данных с помощью предварительно обученной языковой модели, (2) мы считаем, что идея условного контекстного дополнения BERT универсальна и будет применяться к данным на уровне абзаца или документа. увеличение.
Мы предлагаем новый метод увеличения данных для помеченных предложений, называемый условным контекстным увеличением BERT. Методы увеличения данных часто применяются для предотвращения переобучения и улучшения обобщения моделей глубоких нейронных сетей. Недавно предложенное контекстное дополнение дополняет помеченные предложения путем случайной замены слов более разнообразными заменами, предсказанными языковой моделью. BERT демонстрирует, что глубокая двунаправленная языковая модель является более мощной, чем однонаправленная языковая модель или неглубокая конкатенация прямой и обратной модели. Мы модифицировали BERT на условный BERT, введя новую модель языка с условными масками\footnote{Термин «модель языка с условными масками» появился однажды в исходной статье BERT, где указано, что контекстно-условная модель эквивалентна термину «модель языка с масками». В нашей статье «условная языковая модель в маске» означает, что мы применяем дополнительное условное ограничение метки к задаче «языковая модель в маске».}. Хорошо обученный условный BERT может применяться для улучшения контекстного дополнения. Эксперименты с шестью различными задачами классификации текста показывают, что наш метод можно легко применить как к классификатору сверточных, так и к рекуррентным нейронным сетям, чтобы получить очевидное улучшение.
3,763
QasperSumInstruct
ru
Напиши аннотацию по статье
У BERT есть рот, и он должен говорить: BERT как языковая модель марковского случайного поля. BERT BIBREF0 — это недавно выпущенная модель последовательностей, используемая для достижения современных результатов в широком спектре задач понимания естественного языка, включая анализ групп BIBREF1 и машинный перевод BIBREF2.Ранние исследования лингвистических возможностей BERT показали, что он на удивление надежен. BIBREF3.BERT обучается с целью моделирования языка в маске.В отличие от традиционной цели моделирования языка, заключающейся в предсказании следующего слова в последовательности с учетом истории, моделирование языка в масках предсказывает слово с учетом его левого и правого контекста.Поскольку модель ожидает контекст в обоих направлениях, не сразу очевидно, как эффективно оценивать BERT как языковую модель (т. е. использовать его для оценки вероятности текстовой последовательности) или как выполнять выборку из нее.Мы пытаемся ответить на эти вопросы, показывая, что BERT представляет собой комбинацию марковской языковой модели случайных полей BIBREF4, BIBREF5 с обучением псевдологарифмического правдоподобия BIBREF6.Эта формулировка автоматически приводит к процедуре выборки, основанной на выборке Гиббса.Пусть $X=(x_1, \ldots , x_T)$ — последовательность случайных величин $x_i$ 's. Каждая случайная величина является категориальной в том смысле, что она может принимать один из $M$ элементов из словаря $V=\left\lbrace v_1, \ldots , v_{M} \right\rbrace $ .Эти случайные величины образуют полносвязный граф с ненаправленными ребрами, что указывает на то, что каждая переменная $x_i$ зависит от всех остальных переменных.Обсуждение до сих пор подразумевало, что BERT на самом деле является моделью языка марковских случайных полей (MRF-LM) и что он изучает распределение по предложениям (некоторой заданной длины).Это говорит о том, что мы можем использовать BERT не только в качестве инициализации параметров для точной настройки, но и как генеративную модель предложений для оценки предложения или выборки предложения.Наши эксперименты демонстрируют потенциал использования BERT в качестве отдельной языковой модели, а не в качестве инициализатора параметров для трансферного обучения BIBREF0, BIBREF2, BIBREF16.Мы показываем, что предложения, выбранные из BERT, правильно сформированы и имеют высокую вероятность с помощью стандартной языковой модели.Мы используем предварительно обученные модели BERT, обученные на смеси Toronto Book Corpus BIBREF17 и Википедии, предоставленной BIBREF0, и ее реализации PyTorch, предоставленной HuggingFace.Мы рассматриваем несколько показателей оценки для оценки качества и разнообразия поколений.Мы следуем BIBREF18, вычисляя BLEU BIBREF19 между поколениями и исходными распределениями данных, чтобы измерить, насколько похожи поколения.Мы используем случайную выборку из 5000 предложений из тестового набора WikiText-103 BIBREF20.и случайная выборка из 5000 предложений из TBC в качестве ссылок.Мы также оцениваем сложность обученной языковой модели на основе поколений как грубого показателя беглости.В частности, мы используем Gated Convolutional Language Model BIBREF21, предварительно обученную на WikiText-103. Следуя BIBREF22, мы вычисляем self-BLEU: для каждого сгенерированного предложения мы вычисляем BLEU, рассматривая остальные предложения как ссылки и усредняя значения по предложениям.Self-BLEU измеряет, насколько каждое сгенерированное предложение похоже на предложения других поколений; высокий уровень self-BLEU указывает на то, что модель имеет низкое разнообразие выборки.Мы также оцениваем процент уникальных $n$-грамм по сравнению с исходным распределением данных и внутри корпуса поколений.Мы отмечаем, что эта метрика несколько противоречит BLEU между поколениями и данными, поскольку меньшее количество уникальных $n$-грамм подразумевает более высокий BLEU. Мы используем непоследовательную схему выборки, поскольку эмпирически это привело к наиболее связным поколениям.Мы показываем поколения последовательного пробоотборника в Таблице 4 в приложении.Мы сравниваем с поколениями высококачественной модели нейронного языка OpenAI Generative Pre-Training Transformer BIBREF23, которая была обучена на TBC и имеет примерно такое же количество параметров, что и базовая конфигурация BERT.Для всех моделей мы генерируем 1000 последовательностей без регистра длиной 40. Мы представляем поколения выборок, результаты качества и результаты разнообразия соответственно в таблицах 1, 2, 3. Мы обнаруживаем, что по сравнению с GPT поколения BERT имеют худшее качество, но более разнообразны.Особенно показательно то, что внешняя языковая модель, обученная на Википедии, менее сбивает с толку поколения GPT, чем поколения BERT.GPT обучался только любовным романам, тогда как BERT обучался любовным романам и Википедии.Однако мы видим, что недоумение в образцах BERT не является абсурдно высоким, и, читая образцы, мы обнаруживаем, что многие из них достаточно связны.Мы обнаружили, что поколения BERT более разнообразны, чем поколения GPT.GPT имеет высокое перекрытие $n$-грамм (меньший процент уникальных $n$-грамм) с TBC, но, что удивительно, также и с WikiText-103, несмотря на то, что он обучен на разных данных.BERT имеет меньшее перекрытие $n$-грамм с обоими корпусами, возможно, из-за худшего качества генерации, но также имеет более низкое само-BLEU. Мы показываем, что BERT представляет собой модель языка марковских случайных полей.Мы даем практический алгоритм генерации из BERT без какого-либо дополнительного обучения и экспериментально проверяем, что алгоритм дает разнообразные и довольно плавные генерации.Дальнейшая работа могла бы изучить методы выборки, которые не требуют прогона модели по всей последовательности на каждой итерации и которые обеспечивают условную генерацию.Чтобы облегчить дальнейшее расследование, мы публикуем наш код на GitHub по адресу https://github.com/kyunghyuncho/bert-gen и демоверсию в виде блокнота Colab по адресу https://colab.research.google.com/drive/1MxKZGtQ9SSBjTK5ArsZ5LKhkztzg52RV.AW. поддерживается стипендией для аспирантов NSF.KC частично поддерживается Институтом передовых технологий Samsung (глубокое обучение следующего поколения: от распознавания образов до искусственного интеллекта) и Samsung Electronics (улучшение глубокого обучения с использованием скрытой структуры). Мы исследовали две другие стратегии выборки: слева направо и генерирование для всех. позиции на каждом временном шаге.См. раздел «Использование BERT в качестве MRF-LM» для объяснения первого.В последнем случае мы начинаем с начальной последовательности всех масок и на каждом временном шаге не маскируем какие-либо позиции, а генерируем для всех позиций.Эта стратегия предназначена для экономии вычислений.Однако мы обнаружили, что это имело тенденцию застревать в не беглых предложениях, из которых невозможно было восстановиться.Мы представляем образцы поколений для стратегии слева направо в таблице 4.
Мы показываем, что BERT (Девлин и др., 2018) представляет собой модель языка марковских случайных полей. Подобная формулировка BERT уступает место естественной процедуре выборки предложения из BERT. Мы выбрали предложения из BERT и обнаружили, что он может генерировать высококачественные и плавные генерации. По сравнению с поколениями традиционной языковой модели с письмом слева направо, BERT генерирует предложения, которые более разнообразны, но немного хуже по качеству.
1,081
QasperSumInstruct
ru
Напиши аннотацию по статье
БЕРТРАМ: Улучшенные встраивания слов оказывают большое влияние на производительность контекстуализированной модели. Поскольку известно, что традиционные алгоритмы встраивания слов BIBREF1 борются с редкими словами, за последние несколько лет было предложено несколько методов улучшения их представления.Эти подходы используют либо контексты, в которых встречаются редкие слова BIBREF2, BIBREF3, BIBREF4, BIBREF5, их поверхностную форму BIBREF6, BIBREF7, BIBREF8, либо обе BIBREF9, BIBREF10.Однако все эти подходы разработаны и оцениваются для неконтекстуализированных вложений слов.В связи с недавним переходом к контекстуализированным представлениям, полученным на основе предварительно обученных моделей глубокого языка BIBREF11, BIBREF12, BIBREF13, BIBREF14, естественно возникает вопрос, сталкиваются ли эти подходы с одной и той же проблемой.Поскольку все они уже неявно обрабатывают редкие слова – используя такие методы, как кодирование пар байтов BIBREF15 и встраивания WordPiece BIBREF16 или даже CNN уровня символов BIBREF17 – неясно, требуют ли эти модели вообще специальной обработки редких слов.Однако перечисленные методы используют только информацию о поверхностной форме, тогда как BIBREF9 обнаружил, что для охвата широкого спектра редких слов крайне важно учитывать как поверхностную форму, так и контексты.Таким образом, BIBREF0 недавно показал, что для BERT BIBREF13, популярной предварительно обученной языковой модели, основанной на архитектуре Transformer BIBREF18, производительность задачи исследования редких слов может быть значительно улучшена за счет повторного изучения представлений редких слов с использованием внимательного подражания BIBREF19.Однако предложенная ими модель ограничена в двух важных отношениях: для обработки контекстов она использует простую модель «мешка слов», отбрасывая большую часть доступной информации.Он объединяет форму и контекст лишь поверхностным образом, тем самым не позволяя обоим входным сигналам обмениваться информацией каким-либо сложным образом.Важно отметить, что это ограничение применимо не только к их модели, но и ко всем предыдущим работам по получению представлений для редких слов путем использования формы и контекста.Хотя использование моделей «мешка слов» является разумным выбором для неконтекстуализированных вложений, которые часто сами основаны на таких моделях BIBREF1, BIBREF7, само собой разумеется, что они неоптимальны для контекстуализированных вложений, основанных на позиционно-ориентированных глубоких нейронных архитектурах.Чтобы преодолеть эти ограничения, мы представляем Bertram (BERT для внимательного подражания), новую архитектуру для понимания редких слов, которая сочетает в себе предварительно обученную языковую модель BERT с внимательным подражанием BIBREF19.В отличие от предыдущих подходов, использующих языковые модели BIBREF5, наш подход комплексно интегрирует BERT и напрямую использует его скрытые состояния.Предоставляя Бертраму доступ как к поверхностной форме, так и к контекстной информации уже на самом нижнем уровне, мы допускаем глубокую связь и обмен информацией между обоими входными сигналами.По разным причинам оценка эффективности таких методов, как Бертрам, в контекстуализированных условиях представляет огромную трудность: хотя большая часть предыдущих работ по редким словам оценивалась на наборах данных, явно ориентированных на такие слова BIBREF6, BIBREF3, BIBREF4, BIBREF5, BIBREF10, все эти наборы данных адаптированы для контекстно-независимых вложений и, следовательно, не подходят для оценки предлагаемой нами модели.Более того, понимание редких слов имеет незначительное значение для наиболее часто используемых наборов данных последующих задач.Поэтому, чтобы оценить предложенную нами модель, мы вводим новую процедуру, которая позволяет нам автоматически превращать произвольные наборы данных классификации текста в такие, в которых редкие слова гарантированно будут важны.Это достигается путем замены частых слов, важных для классификации, редкими синонимами, полученными с использованием семантических ресурсов, таких как WordNet BIBREF20. Используя эту процедуру, мы извлекаем наборы данных редких слов из трех часто используемых наборов классификационных данных текста (или текстовой пары): MNLI BIBREF21, AG's News BIBREF22. и DBPedia BIBREF23.Как в наборе данных WNLaMPro BIBREF0, так и во всех трех полученных таким образом наборах данных предложенная нами модель Бертрама значительно превосходит предыдущую работу.Подводя итог, наш вклад заключается в следующем: мы показываем, что предварительно обученный экземпляр BERT может быть интегрирован в Attentive Mimicking, что приводит к гораздо лучшему представлению контекста и более глубокой связи формы и контекста.Мы разрабатываем процедуру, которая позволяет нам автоматически преобразовывать наборы данных классификации текста в наборы данных, для которых гарантированно важны редкие слова.Мы показываем, что Бертрам достигает нового современного уровня в задаче зондирования WNLaMPro BIBREF0 и превосходит все базовые показатели по редким экземплярам слов AG's News, MNLI и DBPedia, что приводит к абсолютному улучшению до 24% по сравнению с базовым уровнем BERT. .Включение информации о поверхностной форме (например, морфем, символов или $n$-грамм символов) является широко используемым методом улучшения представления слов.Для контекстно-независимых вложений слов эта информация может быть либо введена в заданное пространство внедрения BIBREF6, BIBREF8, либо модели может быть предоставлен прямой доступ к ней во время обучения BIBREF7, BIBREF24, BIBREF25.В области контекстуализированных представлений многие архитектуры используют методы сегментации подслов BIBREF12, BIBREF13, BIBREF26, BIBREF14, тогда как другие используют сверточные нейронные сети для прямого доступа к информации на уровне символов BIBREF27, BIBREF11, BIBREF17. В дополнение к поверхностной форме это еще один полезный источник информации. для понимания редких слов используются контексты, в которых они встречаются BIBREF2, BIBREF3, BIBREF4.Как недавно показали BIBREF19, BIBREF9, объединение формы и контекста приводит к значительно лучшим результатам, чем использование только одного из обоих входных сигналов для широкого круга задач.Хотя все вышеупомянутые методы основаны на простых моделях «мешка слов», BIBREF5 недавно предложил архитектуру, основанную на языковой модели context2vec BIBREF28.Однако, в отличие от нашей работы, они (i) не включают информацию о поверхностной форме и (ii) не имеют прямого доступа к скрытым состояниям языковой модели, а вместо этого просто используют ее выходное распределение.Существует несколько наборов данных, явно ориентированных на редкие слова, например. Стэнфордский набор данных редких слов BIBREF6, набор данных определений Nonce BIBREF3 и набор данных контекстных редких слов BIBREF4.Однако все эти наборы данных подходят только для оценки контекстно-независимых представлений слов.Предлагаемый нами метод генерации наборов данных редких слов во многом связан с методами генерации состязательных примеров, такими как HotFlip BIBREF29, которые манипулируют входными данными для изменения прогноза модели.Мы используем аналогичный механизм, чтобы определить, какие слова в данном предложении являются наиболее важными, и заменяем эти слова редкими синонимами.Мы рассматриваем архитектуру модели контекста формы (FCM) BIBREF9, которая составляет основу нашей модели.Учитывая набор $d$-мерных высококачественных вложений для частых слов, FCM можно использовать для создания вложений для нечастых слов, подходящих для данного пространства вложения.Это делается следующим образом:Учитывая слово $w$ и контекст $C$, в котором оно встречается, вложение $v_{(w,{C})}^\text{form} \in \mathbb {R}^d$ в поверхностную форму имеет вид получено аналогично BIBREF7 усреднением по вложениям всех $n$-грамм в $w$; эти $n$-граммные вложения изучаются во время обучения.Аналогично, вложение контекста $v_{(w,{C})}^\text{context} \in \mathbb {R}^d$ получается усреднением по вложениям всех слов в $C$.Полученные таким образом вложения формы и контекста затем объединяются с помощью вентиля с параметрами $w \in \mathbb {R}^{2d}, b \in \mathbb {R}$ и $\sigma $, обозначающими сигмовидную функцию, что позволяет модель, чтобы решить для каждой пары $(x,y)$ вложений формы и контекста, сколько внимания следует уделять $x$ и $y$ соответственно.Окончательное представление $w$ тогда представляет собой просто взвешенную сумму вложений формы и контекста: где $\alpha = g(v_{(w,C)}^\text{form}, v_{(w,C)}^ \text{context})$ и $A$ — это матрица $d\times d$, которая изучается во время обучения.Хотя контекстная часть FCM способна охватить широкую тему множества редких слов, во многих случаях она не может получить более конкретное и детальное понимание BIBREF9.Это неудивительно, учитывая простоту модели; например, он вообще не использует относительные позиции контекстных слов.Более того, простой механизм пропускания приводит лишь к поверхностному сочетанию формы и контекста.То есть модель не способна комбинировать форму и контекст до самого последнего шага: хотя она может выбирать, насколько сильно уделять внимание форме и контексту, соответственно, соответствующие вложения не передают никакой информации и, следовательно, не могут никоим образом влиять друг на друга. способ.Чтобы преодолеть оба ограничения, описанные выше, мы представляем Bertram — подход, который сочетает в себе предварительно обученную языковую модель BERT BIBREF13 с внимательной имитацией BIBREF19.Для этого пусть $d_h$ — размер скрытого измерения, а $l_\text{max}$ — количество слоев используемой модели BERT.Через $e_{t}$ мы обозначаем (неконтекстуализированное) вложение, присвоенное токену $t$ с помощью BERT, и, учитывая последовательность таких неконтекстуализированных вложений $\mathbf {e} = e_1, \ldots , e_n$, мы обозначаем через $\textbf {h}_j^l(\textbf {e})$ контекстуальное представление $j$-го токена на слое $l$, когда в качестве входных данных модели задан $\mathbf {e}$.Учитывая слово $w$ и контекст $C = w_1, \ldots , w_n$, в котором оно встречается, пусть $\mathbf {t} = t_1, \ldots , t_{m}$ с $m \gen$ — последовательность, полученная из $C$ путем (i) замены $w$ токеном [MASK] и (ii) токенизации полученной таким образом последовательности для соответствия словарю BERT; при этом пусть $i$ обозначает индекс, для которого $t_i = \texttt {[MASK]}$. Возможно, самый простой подход к получению встраивания контекста из $C$ с использованием BERT — это определить, где $\mathbf {e} = e_{t_1}, \ldots, e_{t_m}$. Полученное таким образом внедрение контекста затем можно объединить с его аналогом по форме, как описано в уравнении. DISPLAY_FORM8.Хотя это достигает нашей первой цели — использования более сложной контекстной модели, которая потенциально может обеспечить более глубокое понимание слова, чем просто его широкую тему, полученная таким образом архитектура по-прежнему лишь поверхностно сочетает форму и контекст.Поэтому мы называем его поверхностным вариантом нашей модели и исследуем два альтернативных подхода (заменить и добавить), которые работают следующим образом: Замена: перед вычислением встраивания контекста мы заменяем неконтекстуальное встраивание токена [MASK] поверхностью слова. -встраивание форм: поскольку во время предварительного обучения BERT слова, выбранные для прогнозирования, заменяются токенами [MASK] только в 80% случаев и остаются неизменными в 10% случаев, мы предполагаем, что даже без дальнейшего обучения BERT может использовать формировать вложения, полученные таким образом.Добавьте: перед вычислением встраивания контекста мы предварительно дополняем входные данные встраиванием $w$ в поверхностную форму, за которым следует двоеточие: Мы также экспериментировали с различными другими префиксами, но в итоге выбрали именно эту стратегию, потому что эмпирически обнаружили, что после маскировки токен $t$, добавление последовательности «$t :$» в начало больше всего помогает BERT восстановить этот самый токен в замаскированной позиции.tnode/.style=rectangle, внутренний sep=0.1cm, минимальная высота=4ex, текст по центру, высота текста = 1,5ex, глубина текста = 0,25ex, opnode/.style=draw, прямоугольник, закругленные углы, минимальная высота = 4ex, минимальная ширина = 4ex, текст по центру, стрелка/.style=draw,->, >=stealthВ обоих вариантах информация о форме поверхности напрямую и глубоко интегрирована в вычисление внедрения контекста, нам не требуется какой-либо дополнительный механизм шлюзования и мы можем напрямую установить $v_{(w,C)} = A \cdot v ^\text{context}_{(w,C)}$.Однако мы отмечаем, что для варианта добавления контекстуальное представление токена [MASK] не является единственным естественным кандидатом, который будет использоваться для вычисления окончательного встраивания: С тем же успехом мы могли бы взглянуть на контекстуализированное представление встраивания на основе поверхностных форм, добавленное в самую первую позицию.Поэтому мы также попробуем неглубокую комбинацию обоих вложений.Однако обратите внимание, что в отличие от FCM мы объединяем контекстуализированные представления — то есть часть формы уже находилась под влиянием контекстной части и наоборот, прежде чем объединить их с помощью шлюза.Для этой комбинации мы определяем, что $A^{\prime } \in \mathbb {R}^{d \times d_h}$ является дополнительным обучаемым параметром.Затем мы объединяем два контекстуализированных вложения, аналогично уравнению. DISPLAY_FORM8, где $\alpha = g(h^\text{form}_{(w,C)}, h^\text{context}_{(w,C)})$. Мы называем эту последнюю альтернативу подходом с добавлением шлюзов.Архитектуру модели для этого варианта можно увидеть на рисунке FigREF14 (слева). Поскольку во многих случаях для редкого слова известен не один, а несколько контекстов, мы следуем подходу BIBREF19 для работы с несколькими контекстами: добавьте голову Attentive Mimicing поверх нашей модели, как это видно на рисунке FigREF14 (справа).То есть, учитывая набор контекстов $\mathcal {C} = \lbrace C_1, \ldots, C_m\rbrace $ и соответствующие вложения $v_{(w,C_1)}, \ldots, v_{(w,C_m) }$ мы применяем механизм самообслуживания ко всем вложениям, позволяя модели отличать информативные контексты от неинформативных.Окончательное вложение $v_{(w, \mathcal {C})}$ представляет собой линейную комбинацию вложений, полученных из каждого контекста, где вес каждого вложения определяется на основе уровня самообслуживания.Более подробную информацию об этом механизме можно найти в BIBREF19. Как и в предыдущей работе, мы используем имитацию BIBREF8 в качестве цели обучения.То есть, учитывая частое слово $w$ с известным вложением $e_w$ и набором соответствующих контекстов $\mathcal {C}$, Бертрам обучается минимизировать $\Vert e_w - v_{(w, \mathcal {C} )}\Vert ^2$. Поскольку сквозное обучение Bertram требует большого количества вычислений (обработка одного обучающего экземпляра $(w,\mathcal {C})$ так же затратна, как обработка целого пакета $|\mathcal { C}|$ в исходной архитектуре BERT), мы прибегаем к следующему трехэтапному процессу обучения: Мы обучаем только часть формы, т. е. наши потери для одного примера $(w, \mathcal {C})$ составляют $ \Vert e_w - v^\text{form}_{(w, \mathcal {C})} \Vert ^2$. Обучаем только контекстную часть, минимизируя $\Vert e_w -A \cdot v^\text{context}_{(w, \mathcal {C})} \Vert ^2$, где встраивание контекста получается с использованием поверхностного варианта Бертрама.Более того, мы исключаем все параметры BERT из нашей оптимизации.Мы объединяем предварительно обученную модель только для формы и только для контекста и обучаем все дополнительные параметры.Предварительное обучение частей формы и контекста по отдельности позволяет нам обучить всю модель за гораздо меньшее количество шагов с сопоставимыми результатами.Важно отметить, что на первых двух этапах нашей процедуры обучения нам не нужно выполнять обратное распространение по всей модели BERT, чтобы получить все необходимые градиенты, что резко увеличивает скорость обучения.Чтобы измерить качество представлений редких слов в контекстуализированной среде, в идеале нам потребуются наборы данных классификации текста со следующими двумя свойствами: Модель, которая вообще не понимает редкие слова, должна иметь производительность, близкую к 0%. Модель, которая прекрасно понимает редкие слова. слова должны уметь правильно классифицировать каждый экземпляр.К сожалению, это требование даже отдаленно не выполняется наиболее часто используемыми наборами данных просто потому, что редкие слова встречаются лишь в нескольких записях, а когда они встречаются, они часто имеют незначительное значение.Чтобы решить эту проблему, мы разработали процедуру автоматического преобразования существующих наборов данных классификации текста таким образом, чтобы редкие слова стали важными.Для этой процедуры нам потребуется предварительно обученная языковая модель $M$ в качестве базовой линии, произвольный набор данных классификации текста $\mathcal {D}$, содержащий помеченные экземпляры $(\mathbf {x}, y)$ и словарь подстановки $S$ , отображая каждое слово $w$ в набор редких синонимов $S(w)$. Учитывая эти ингредиенты, наша процедура состоит из трех этапов: (i) разделение набора данных на набор поездов и набор тестовых кандидатов, (ii) обучение базовой модели на наборе поездов и (iii) изменение подмножества тестовых кандидатов. для создания окончательного набора тестов.Мы разделяем $\mathcal {D}$ на набор поездов $\mathcal {D}_\text{train}$ и набор тестовых кандидатов $\mathcal {D}_\text{cand}$, причем последний содержащие все экземпляры $(\mathbf {x},y) \in \mathcal {D}$ такие, что хотя бы для одного слова $w$ в $\mathbf {x}$ $S(w) \ne \emptyset $ .Кроме того, мы требуем, чтобы обучающий набор состоял как минимум из одной трети всех данных.Мы настраиваем $M$ на $\mathcal {D}_\text{train}$. Пусть $(\mathbf {x}, y) \in \mathcal {D}_\text{train}$, где $\mathbf {x} = w_1, \ldots , w_n$ — последовательность слов.Мы отклоняемся от стандартной процедуры тонкой настройки BIBREF13 в трех отношениях: мы случайным образом заменяем 5% всех слов в $\mathbf {x}$ токеном [MASK].Это позволяет модели справиться с пропущенными или неизвестными словами, что является необходимым условием для окончательного создания нашего тестового набора.В качестве альтернативы перезаписи неконтекстуализированных вложений языковой модели для редких слов мы также хотим позволить моделям просто добавлять альтернативное представление во время тестирования, и в этом случае мы просто разделяем оба представления косой чертой.Чтобы приучить языковую модель к такому дублированию слов, мы заменяем каждое слово $w_i$ на «$w_i$/$w_i$» с вероятностью 10%.Чтобы убедиться, что модель не научится всегда фокусироваться на первом экземпляре во время обучения, мы случайным образом маскируем каждое из двух повторений с вероятностью 25%. Мы не настраиваем слой внедрения модели.В ходе предварительных экспериментов мы обнаружили, что это не влияет на производительность.Пусть $p(y \mid \mathbf {x})$ — вероятность того, что точно настроенная модель $M$ присваивает классу $y$ заданный входной сигнал $\mathbf {x}$, и пусть это предсказание модели для входного сигнала $\mathbf {x}$, где $\mathcal {Y}$ обозначает множество всех меток.Для создания нашего тестового набора мы рассматриваем только кандидатов, которые правильно классифицированы базовой моделью, то есть кандидатов $(\mathbf {x}, y) \in \mathcal {D}_\text{cand}$ с $M(\ mathbf {x}) = y$.Для каждой такой записи пусть $\mathbf {x} = w_1, \ldots , w_n$ и пусть $\mathbf {x}_{w_i = t}$ — последовательность, полученная из $\mathbf {x}$ заменой $ w_i$ с $t$. Мы вычисляем т.е., мы выбираем слово $w_i$, маскирование которого отодвигает предсказание модели дальше всего от правильной метки.Если удаление этого слова уже меняет прогноз модели – то есть $M(\mathbf {x}_{w_i = \texttt {[MASK]}}) \ne y$ – мы выбираем случайный редкий синоним $\hat{ w}_i \in S(w_i)$ и добавьте $(\mathbf {x}_{w_i = \hat{w}_i}, y)$ в тестовый набор.В противном случае повторяем описанную выше процедуру; если после маскировки до 5 слов метка все еще не изменилась, мы отбрасываем соответствующую запись.Все полученные таким образом записи тестового набора $(\mathbf {x}_{w_{i_1} = \hat{w}_{i_1}, \ldots , w_{i_k} = \hat{w}_{i_k} }, y)$ имеют следующие свойства: Если каждый $w_{i_j}$ заменяется токеном [MASK], запись классифицируется неправильно по $M$. Другими словами, понимание слов $w_{i_j}$ необходимо для того, чтобы $M$ мог определить правильную метку.Если внутреннее представление модели каждого $\hat{w}_{i_j}$ равно его представлению $w_{i_j}$, запись классифицируется правильно по $M$. То есть, если модель способна понять редкие слова $\hat{w}_{i_j}$ и идентифицировать их как синонимы ${w_{i_j}}$, она предсказывает правильную метку для каждого экземпляра.Важно отметить, что полученный таким образом тестовый набор очень тесно связан с базовой моделью $M$, поскольку мы выбрали слова для замены на основе предсказаний модели.Однако важно отметить, что во время создания тестового набора к модели никогда не запрашивается какой-либо редкий синоним, поэтому ее представления редких слов не учитываются при создании тестового набора.Таким образом, хотя тестовый набор и не подходит для сравнения $M$ с совершенно другой моделью $M^{\prime }$, он позволяет сравнивать различные стратегии представления редких слов в пространстве вложения $M$. Аналогичное ограничение можно найти в наборе данных Definitional Nonce BIBREF3, который привязан к заданному пространству внедрения на основе Word2Vec.BIBREF1. Для оценки Бертрама мы в основном следуем экспериментальной установке BIBREF0.Наша реализация Bertram основана на PyTorch BIBREF30 и библиотеке Transformers BIBREF31.Во всех наших экспериментах мы используем BERT$_\text{base}$ в качестве базовой языковой модели для Bertram.Чтобы получить вложения для часто встречающихся многолексемных слов во время обучения, мы используем однотокенную аппроксимацию BIBREF0.Несколько неожиданно в ходе предварительных экспериментов мы обнаружили, что исключение параметров BERT из процедуры точной настройки, описанной в разделе SECREF17, повышает производительность и одновременно ускоряет обучение; таким образом, мы исключаем их на третьем этапе нашей процедуры обучения.Хотя BERT обучался на BooksCorpus BIBREF32 и большом дампе Википедии, мы следуем предыдущей работе и обучаем Бертрама только на гораздо меньшем по размеру Westbury Wikipedia Corpus (WWC) BIBREF33; это, конечно, дает BERT явное преимущество перед предложенным нами методом.Чтобы хотя бы частично компенсировать это, в наших последующих экспериментах с задачами мы во время вывода собираем набор контекстов $\mathcal {C}$ для данного редкого слова как из WWC, так и из BooksCorpus.Мы оцениваем Бертрама на наборе данных WNLaMPro BIBREF0.Этот набор данных состоит из фраз типа «закрытие», и задача состоит в том, чтобы правильно заполнить слот (____) одним из нескольких приемлемых целевых слов (например, «фрукты», «куст» и «ягода»), что требует знания ключевого слова фразы. («брусника» в приведенном выше примере).Поскольку целью этого набора данных является проверка способности языковой модели понимать редкие слова без какой-либо точной настройки для конкретной задачи, BIBREF0 не предоставляет обучающий набор.Кроме того, набор данных разделен на три подмножества; это разделение основано на частоте ключевого слова: ключевые слова, встречающиеся менее 10 раз в WWC, образуют редкое подмножество, те, которые встречаются от 10 до 100 раз, образуют среднее подмножество, а все оставшиеся слова образуют частое подмножество.Поскольку наше внимание сосредоточено на улучшении представления редких слов, мы оцениваем нашу модель только на первых двух наборах.Результаты по редкому и среднему варианту WNLaMPro показаны в таблице TABREF34, где указан средний реципрокный ранг (MRR) для BERT, внимательного подражания и Бертрама.Как можно видеть, дополнение BERT любым из предложенных методов переобучения приводит к заметным улучшениям для редкого подмножества, при этом add явно превосходит замену.Более того, варианты Bertram с добавлением и добавлением на удивление хорошо работают с более частыми словами, улучшая оценку для WNLaMPro-medium на 50 % по сравнению с BERT$_\text{base}$ и на 31 % по сравнению с Attentive Mimicking.Это имеет смысл, учитывая, что по сравнению с «Внимательным подражанием» ключевое улучшение Бертрама заключается в улучшении представления контекста и взаимосвязи формы и контекста; естественно, чем больше контекстов дано, тем больше это играет роль.Примечательно, что, несмотря на то, что наша архитектура основана на модели BERT$_\text{base}$ и интегрирована в нее, она даже значительно превосходит по производительности автономную модель BERT$_\text{large}$.Чтобы измерить эффект добавления Бертрама к BERT на последующие задачи, мы применяем процедуру, описанную в разделе SECREF4, к обычно используемому набору текстовых данных, а также к двум наборам данных текстовой классификации: MNLI BIBREF21, AG's News BIBREF22 и DBPedia BIBREF23.Для всех трех наборов данных мы используем BERT$_\text{base}$ в качестве базовой модели и создаем словарь подстановки $S$, используя отношение синонимов WordNet BIBREF20.и библиотеку шаблонов BIBREF34, чтобы убедиться, что все синонимы имеют согласованные части речи.В качестве дополнительного источника замен слов мы используем набор данных об орфографических ошибках BIBREF25, основанный на журналах запросов поисковой системы.Чтобы предотвратить доминирование орфографических ошибок в результирующем наборе данных, мы назначаем замены на основе ошибок только случайно выбранным 10% слов, содержащихся в каждом предложении.Вдохновленные результатами на WNLaMPro-medium, мы считаем каждое слово, которое встречается менее 100 раз в WWC и нашей реплике BooksCorpus вместе взятых, редким.Некоторые примеры записей в результирующих наборах данных можно увидеть в таблице TABREF35. Как и в случае с WNLaMPro, наш способ по умолчанию внедрения вложений Бертрама в базовую модель заключается в замене последовательности неконтекстуализированных токенов WordPiece для данного редкого слова на его основанные на Бертраме слова. встраивание.То есть, для данной последовательности неконтекстуальных вложений токенов $\mathbf {e} = e_1, \ldots, e_n$, где $e_{i}, \ldots, e_{i+j}$ с $1 \le i \le i+ j \le n$ — это последовательность вложений WordPiece для одного редкого слова $w$, мы заменяем $\mathbf {e}$ на. По умолчанию набор контекстов $\mathcal {C}$, необходимый для этой замены, получается следующим образом: сбор всех предложений из WWC и BooksCorpus, в которых встречается $w$.Поскольку наша архитектура модели позволяет нам легко включать новые контексты, не требуя какого-либо дополнительного обучения, мы также пробуем вариант, в котором мы добавляем контексты внутри предметной области, предоставляя модели доступ к текстам, найденным в тестовом наборе.В дополнение к процедуре, описанной выше, мы также пробуем вариант, в котором вместо замены исходных вложений WordPiece для данного редкого слова мы просто добавляем встраивание на основе Бертрама, разделяя оба представления одной косой чертой: для редких и средних подмножеств WNLaMPro, мы используем только дополнительный вариант Bertram для всех наборов данных.Результаты можно увидеть в таблице TABREF37, где для каждой задачи мы сообщаем точность всего набора данных, а также оценки, полученные с учетом только тех случаев, когда хотя бы одно слово было заменено орфографической ошибкой или синонимом WordNet соответственно.В соответствии с результатами WNLaMPro, сочетание BERT с Bertram превосходит как отдельную модель BERT, так и модель в сочетании с Attentive Mimicking для всех задач.Хотя сохранение исходных вложений BERT в дополнение к представлению Бертрама не приносит никакой пользы, добавление внутридоменных данных явно помогает для двух из трех наборов данных.Это имеет смысл, поскольку в случае редких слов каждый дополнительный контекст может иметь решающее значение для более глубокого понимания.Чтобы лучше понять, для каких слов полезно использовать Бертрам, см. рисунок FigREF39.мы смотрим на точность BERT как с Бертрамом, так и без него для всех трех задач как функцию частоты слов.То есть мы вычисляем показатели точности для обеих моделей, рассматривая только записи $(\mathbf {x}_{w_{i_1} = \hat{w}_{i_1}, \ldots , w_{i_k} = \hat{ w}_{i_k} }, y)$, где каждое заменяемое слово $\hat{w}_{i_j}$ встречается менее $c_\text{max}$ раз в WWC и BooksCorpus для различных значений $c_\ текст{макс}$. Как и следовало ожидать, $c_\text{max}$ положительно коррелирует с точностью обеих моделей, показывая, что чем реже слово, тем труднее его понять.Возможно, что еще интереснее, для всех трех наборов данных разрыв между Бертрамом и BERT остается более или менее постоянным независимо от $c_\text{max}$.Это указывает на то, что использование Бертрама также может быть полезно для еще более частых слов, чем рассмотренные.Мы представили Bertram, новую архитектуру для повторного изучения высококачественных представлений редких слов.Это достигается за счет использования мощной предварительно обученной языковой модели и глубокой связи поверхностной формы и контекстной информации.Заменяя важные слова редкими синонимами, мы создали различные наборы данных для последующих задач, ориентированные на редкие слова; на всех этих наборах данных Бертрам превосходит модель BERT без специальной обработки редких слов, демонстрируя полезность предложенного нами метода.Поскольку наш анализ показал, что даже для наиболее частых рассматриваемых слов использование Бертрама по-прежнему полезно, будущая работа может дополнительно изучить ограничения предлагаемого нами метода.Кроме того, было бы интересно изучить более сложные способы включения информации о поверхностных формах – например, с использованием CNN уровня символов, аналогичного той, что используется в BIBREF27 – чтобы сбалансировать эффективность частей формы и контекста Бертрама.
Предварительная подготовка глубоких контекстуальных представлений с использованием цели языкового моделирования без учителя привела к значительному увеличению производительности для различных задач НЛП. Несмотря на этот успех, недавняя работа Шика и Шутце (2019) предполагает, что этим архитектурам сложно понять редкие слова. Для контекстно-независимых вложений слов эту проблему можно решить путем отдельного изучения представлений для нечастых слов. В этой работе мы показываем, что та же идея может быть применена и к контекстуализированным моделям и явно улучшает производительность их последующих задач. Большинство подходов к внедрению встраивания слов в существующие пространства встраивания основаны на простых моделях «мешка слов»; следовательно, они не являются подходящим аналогом для языковых моделей глубоких нейронных сетей. Чтобы решить эту проблему, мы представляем BERTRAM, мощную архитектуру, основанную на предварительно обученной языковой модели BERT и способную выводить высококачественные представления для редких слов. В BERTRAM поверхностная форма и контекст слова напрямую взаимодействуют друг с другом в глубокой архитектуре. Как в задаче исследования редких слов, так и в трех последующих наборах данных задач BERTRAM значительно улучшает представление редких и среднечастотных слов по сравнению как с автономной моделью BERT, так и с предыдущей работой.
5,337
QasperSumInstruct
ru
Напиши аннотацию по статье
Надежный гибридный подход к классификации текстовых документов. Классификация текстовых документов является важной задачей для различных приложений, основанных на обработке естественного языка.Традиционные подходы к машинному обучению в основном сосредоточены на уменьшении размерности текстовых данных для выполнения классификации.Хотя это улучшило общую точность классификации, классификаторы по-прежнему сталкивались с проблемой разреженности из-за отсутствия лучших методов представления данных.С другой стороны, классификация текстовых документов на основе глубокого обучения значительно выиграла от изобретения встраивания слов, которое решило проблему разреженности, и внимание исследователей в основном оставалось на разработке глубоких архитектур.Однако более глубокие архитектуры изучают некоторые избыточные функции, которые ограничивают производительность решений на основе глубокого обучения.В этой статье мы предлагаем двухэтапную методологию классификации текстовых документов, которая сочетает в себе традиционную разработку признаков с автоматической разработкой признаков (с использованием глубокого обучения).Предлагаемая методология включает в себя алгоритм выбора признаков на основе фильтра (FSE), за которым следует глубокая сверточная нейронная сеть.Эта методология оценивается на двух наиболее часто используемых общедоступных наборах данных, а именно на данных 20 групп новостей и данных новостей BBC.Результаты оценки показывают, что предлагаемая методология превосходит современные методологии классификации текстовых документов как (традиционного) машинного обучения, так и глубокого обучения, со значительным отрывом в 7,7% на 20 группах новостей и 6,6% на наборах данных новостей BBC.Классификация текстовых документов, выбор функций на основе фильтров, 20 News Group, BBC News, многоканальная классификация CNN. Текстовая классификация широко используется в нескольких приложениях, таких как фильтрация информации, системы рекомендаций, анализ настроений, анализ мнений и веб-поиск BIBREF0.В широком смысле методологии классификации текста делятся на два класса: статистические и основанные на правилах BIBREF1.Статистические подходы используют арифметические знания, тогда как подходы, основанные на правилах, требуют обширных знаний предметной области для разработки правил, на основе которых выборки могут быть классифицированы по заранее определенному набору категорий.Подходы, основанные на правилах, не используются широко, поскольку разработка надежных правил, которые не требуют периодического обновления, является сложной задачей.Ранее исследователи выполняли автоматическую классификацию текста документов с помощью классификаторов машинного обучения, таких как Naive Bayes BIBREF2, SVM, NN, Деревья решений BIBREF3, BIBREF4.В последние годы был предложен ряд алгоритмов выбора признаков, которые значительно улучшают производительность классификации текста BIBREF5, BIBREF6, BIBREF7, BIBREF8.Хотя методы выбора признаков уменьшают размерность данных до определенного уровня, однако традиционные методологии классификации текста, основанные на машинном обучении, все еще сталкиваются с проблемой представления признаков, поскольку тривиальные алгоритмы представления признаков используют модель «мешок слов», которая рассматривает униграммы, n-граммы или определенные шаблоны. как особенности BIBREF9.Таким образом, эти алгоритмы не улавливают полную контекстную информацию данных и сталкиваются с проблемой разреженности данных.Проблема разреженности данных решается с помощью встраивания слов, которые фиксируют не только синтаксическую, но и семантическую информацию текстовых данных, а также BIBREF10.Методологии классификации текста на основе глубокого обучения не только успешно собирают контекстную информацию данных, но и решают проблемы разреженности данных, таким образом, они превосходят современные подходы классификации на основе машинного обучения BIBREF11, BIBREF12. В первую очередь в компьютерном зрении. и НЛП исследователи пытались разработать более глубокие архитектуры нейронных сетей, которые могли бы извлечь лучший набор функций для классификации BIBREF13, BIBREF14.Однако более глубокие архитектуры не только требуют больше вычислительных затрат, но и сложные взаимосвязи, изучаемые более глубокими архитектурами, фактически будут результатом шума выборки в случае небольших наборов данных.Недавние исследования показали, что более глубокие архитектуры извлекают избыточные функции, которые в конечном итоге снижают эффективность классификации. BIBREF15, BIBREF16, BIBREF17. В этой статье предлагается методология двухэтапной классификации текста (TSCNN), которая представляет собой гибридный подход.Первый этап основан на алгоритме выбора функций, цель которого — ранжировать и удалить все ненужные и избыточные функции.В то время как второй этап основан на глубоком обучении, где с первого этапа отличительные признаки передаются в многоканальную модель CNN.В этой новой ситуации предлагаемый подход использует преимущества как традиционной разработки функций, так и автоматизированной разработки функций (с использованием глубокого обучения).Обширная оценка двух широко используемых общедоступных наборов данных показывает, что предлагаемый подход значительно превосходит современные методы.В этом разделе представлен общий обзор современных алгоритмов выбора признаков на основе фильтров, используемых в статистических подходах к классификации текстовых документов.Кроме того, также кратко описаны новейшие методологии классификации текста на основе глубокого обучения.Выбор признаков считается незаменимой задачей при классификации текста, поскольку он удаляет избыточные и нерелевантные признаки корпуса BIBREF18.В общих чертах подходы к выбору функций можно разделить на три класса, а именно: оболочки, встроенные и фильтры BIBREF7, BIBREF8.В последние годы исследователи предложили различные методы выбора признаков на основе фильтров для повышения эффективности классификации текста документа BIBREF19. Частота документов BIBREF20 — это простейшая метрика, используемая для ранжирования признаков в обучающих данных путем использования наличия определенного признака в положительных и отрицательных числах. Классовые документы соответственно.Другой простейший алгоритм выбора функции, а именно точность ($ACC$), представляет собой разницу между истинным положительным и ложным положительным результатом функции BIBREF21.$ACC$ смещен в сторону истинно положительного ($t_p$), поскольку присваивает более высокий балл тем функциям, которые чаще встречаются в положительном классе.Чтобы устранить предвзятость, была введена расширенная версия $ACC$, а именно сбалансированная мера точности (ACC2), которая основана на частоте истинно положительных результатов ($t_{pr}$) и частоте ложных срабатываний ($f_{pr}$). .Хотя $ACC2$ решает проблему дисбаланса классов путем нормализации истинных и ложных срабатываний с соответствующим размером классов, тем не менее, $ACC2$ присваивает одинаковый ранг тем функциям, которые показывают одинаковое значение разницы ($|t_{pr}-fpr |$) несмотря на то, что у них разные $t_{pr}$ или $f_{pr}$. Кроме того, прирост информации ($IG$) — это еще один широко используемый алгоритм выбора признаков в классификации текста BIBREF22.Он определяет, будет ли получена или отклонена информация, необходимая для прогнозирования целевого класса документа, путем добавления или исключения функции.Аналогично, хи-квадрат (CHISQ) считает, что существование или отсутствие признака не зависит от меток классов.CHISQ не демонстрирует многообещающую производительность, когда набор данных обогащен редкими объектами, однако его результаты можно улучшить за счет сокращения BIBREF21, BIBREF23. Отношение шансов (OR) BIBREF24 — это отношение правдоподобия между появлением объекта и отсутствием объекта. в определенном документе.Это дает высший рейтинг редким особенностям.Таким образом, он работает хорошо с меньшим количеством функций, однако его производительность начинает ухудшаться с увеличением количества функций.Аналогичным образом, BIBREF25 средства выбора отличительных функций (DFS) считает более значимыми те функции, которые встречаются чаще в одном классе и реже в других классах.Кроме того, индекс Джини используется для оценки распределения признака по заданным классам.Хотя изначально он использовался для оценки ВВП на душу населения, однако в текстовой классификации он используется для ранжирования функций BIBREF26. Считается, что модели глубокого обучения автоматизируют процесс разработки функций, напротив, недавние исследования в области компьютерного зрения показывают, что глубокое обучение модели извлекают некоторые ненужные и избыточные функции BIBREF17.Чтобы повысить производительность классификации текстовых документов, несколько исследователей использовали различные методологии, основанные на глубоком обучении.Например, Лай и др. BIBREF27 предложил двунаправленную рекуррентную структуру в сверточной нейронной сети для классификации текста.Эта рекуррентная структура захватывает контекстную информацию при изучении представлений слов и создает меньше шума по сравнению с тривиальной сверточной сетью на основе окон.Более того, для отбора высокозначимых слов использовался максимальный уровень пула.Объединив рекуррентную структуру и уровень максимального пула, они использовали преимущества как сверточных, так и рекуррентных нейронных сетей.Подход оценивался по анализу настроений, классификации тем и классификации стилей письма.Азигули и др. BIBREF1 использовал гибридные методы глубокого обучения и предложил глубокую нейронную сеть с шумоподавлением (DDNN) на основе ограниченной машины Больцмана (RBM) и автокодировщика с шумоподавлением (DAE).DDNN снизил уровень шума и повысил производительность извлечения признаков.Аналогично, чтобы решить проблему вычисления многомерной разреженной матрицы для задачи классификации текста, Цзян и др. BIBREF11 предложил гибридную модель классификации текста, которая использовала сеть глубоких убеждений (DBN) для извлечения признаков и регрессию softmax для классификации данного текста.Они заявили, что предложенная гибридная методология работает лучше, чем тривиальные методы классификации на двух контрольных наборах данных.Более того, Хуанг и др. БИБРЕФ28использовали глубокие сети убеждений, чтобы получить эмоциональные характеристики из речевых сигналов.Извлеченные признаки были переданы в классификатор нелинейной машины опорных векторов (SVM), и таким образом была создана гибридная система для задачи идентификации эмоций по речи.Чжоу и др. BIBREF29 представил алгоритм, а именно активную гибридную сеть глубоких убеждений (полуконтролируемую), для задачи классификации настроений.В своей двойной сети они сначала извлекли признаки с помощью ограниченных машин Больцмана, а затем предыдущие скрытые слои изучили комментарии с помощью сверточного RBM (CRBM). Kahou et al. BIBREF30 показал, что производительность отсева можно еще больше повысить, используя единицы Relu, а не единицы с максимальным выходом.Шривастава и др. BIBREF31 показали, что метод исключения повышает производительность всех нейронных сетей при выполнении нескольких контролируемых задач, таких как классификация документов, распознавание речи и вычислительная биология.Лю и др. BIBREF32 представил структуру внимания, основанную на глубокой лингвистике.Эта структура включала концептуальную информацию корпусных слов в модели классификации на основе нейронных сетей.MetaMap и WordNet использовались для аннотирования биомедицинского и общего текста соответственно.Ши и др. БИБРЕФ31задумал новое использование сиамского метода глубокого обучения на основе долгой краткосрочной памяти (LSTM), чтобы лучше изучить представление документов для задач классификации текста.В этом разделе кратко описывается предлагаемая методология двухэтапной классификации текста, показанная на рисунке FigREF1.Первый этап посвящен выбору функций, при котором ненужные и избыточные функции удаляются с использованием нормализованной меры разницы ($NDM$).На втором этапе используется многоканальная модель CNN для классификации текстовых документов по заранее определенным категориям на основе дискриминационных шаблонов, извлеченных с помощью слоев свертки.Чтобы расширить словарь большинства отличительных признаков, мы удаляем все знаки препинания и несущественные слова (стоп-слова) на этапе предварительной обработки.Кроме того, чтобы ранжировать термины по их различительной способности среди классов, мы используем метод выбора признаков на основе фильтра, называемый нормализованной мерой различий (NDM) BIBREF5.Учитывая контурный график особенностей, Rehman et al. BIBREF5 предположил, что все те особенности, которые существуют в верхнем левом и нижнем правом углах контура, чрезвычайно важны по сравнению с теми особенностями, которые существуют вокруг диагоналей.Современные алгоритмы выбора признаков на основе фильтров, такие как ACC2, одинаково обрабатывают все те признаки, которые существуют вокруг диагоналей BIBREF5.Например, ACC2 присваивает одинаковый ранг тем объектам, которые имеют одинаковое значение разницы ($|t_{pr} -f_{pr}|$), но разные значения $t_{pr}$ и $f_{pr}$.Тогда как NDM нормализует разницу ($|t_{pr} -f_{pr}|$) с минимумом $t_{pr}$ и $f_{pr}$ (min($t_{pr}$, $f_{ pr}$)) и присваиваем разные ранги тем терминам, которые имеют одинаковое значение разницы.Нормализованная мера различий (NDM) считает очень значимыми те признаки, которые обладают следующими свойствами: Высокое значение $|t_{pr} - f_{pr}|$. $t_{pr}$ или $f_{pr}$ должны быть близки к нуль.Если два объекта имеют одинаковое значение разницы $|t_{pr} - t_{pr}|$, то больший ранг присваивается тому объекту, который показывает наименьшее значение min($t_{pr}$, $f_{pr}$ ) ценить.Математически NDM представляется следующим образом: где $t_{pr}$ относится к истинно положительному показателю, а $f_{pr}$ относится к ложноположительному показателю.Истинно положительный показатель представляет собой соотношение между количеством документов положительного класса, имеющих срок t, и размером положительного класса.Доля ложноположительных результатов представляет собой соотношение количества документов отрицательного класса со сроком t к размеру отрицательного класса.На втором этапе используется сверточная нейронная сеть (CNN) на основе трех каналов.Каждый канал имеет два широких сверточных слоя с 16 фильтрами размером 5 и 3 соответственно.Мы используем многоканальную модель CNN для извлечения различных функций на каждом канале путем подачи различного представления функций на уровень внедрения.Первый канал содержит функции, полученные в результате встраивания FastText, предоставленного Миколовым и др. БИБРЕФ33.Эти предварительно обученные векторы слов были разработаны после обучения модели пропуска грамм на документах Wikipedia 2017, корпусе веб-базы UMBC и наборе данных новостей statmt.org с использованием Fasttext API.Всего имеется один миллион слов с предварительно обученными векторами слов размером 300, тогда как два других канала используют случайно инициализированные слои внедрения.Наконец, характеристики всех трех каналов объединяются в один вектор.Все широкие слои свертки используют $Tanh$ в качестве функции активации и позволяют каждому объекту в равной степени участвовать в свертке.За каждым слоем свертки следует глобальный максимальный слой пула, который извлекает наиболее отличительный признак из полученных карт объектов.После глобального максимального пула все дискриминационные признаки объединяются и нормализуются с использованием метода нормализации L2.Эти нормализованные функции затем передаются на полносвязный уровень, который имеет 128 выходных блоков и использует relu в качестве функции активации.Наконец, последний полностью связный слой использует softmax в качестве функции активации и действует как классификатор.В этом разделе описывается экспериментальная установка, используемая для оценки целостности предложенной методологии классификации текста на двух эталонных наборах данных, а именно BBC News и 20 NewsGroup.В нашем эксперименте CNN обучается на двух разных версиях каждого набора данных.В первой версии, названной Standard CNN (SCNN), в модель передается весь словарь каждого набора данных, полученный после предварительной обработки.Принимая во внимание, что во второй версии, названной Two Stage CNN (TSCNN), после предварительной обработки словарный запас каждого класса ранжируется с использованием алгоритма выбора признаков на основе фильтра, а именно NDM, а затем для подачи на слой внедрения выбираются только k верхних признаков каждого класса. модели подложки.Выбираются 1000 лучших функций BBC и 10 000 функций из 20 наборов данных групп новостей, и только эти выбранные функции передаются на уровень внедрения каждого канала.Кроме того, поскольку набор данных 20 Newsgroup имеет больше уникальных функций по сравнению с набором данных BBC, поэтому в конечном словаре для набора данных 2o Newsgroup мы выбираем больше функций по сравнению с набором данных BBC news.Сохраняя только 1000 и 10 000 основных функций, для соответствующих наборов данных создаются два словаря размером 4208 и 41701.Поскольку функции ранжируются на уровне классов, многие функции в разных классах совпадают.Для экспериментов мы используем набор данных из 20 групп новостей, который имеет стандартное разделение на 70% обучающих выборок и 30% тестовых выборок.Для проверки мы используем 10% обучающих выборок.Более того, набор данных новостей BBC не имеет стандартного разделения, поэтому мы рассматриваем 60% данных для обучения, 10% для проверки и 30% для тестирования.В таблице TABREF9 суммированы статистические данные двух наборов данных (20NewsGroup, BBC News), использованных в наших экспериментах.RMSprop используется в качестве оптимизатора со скоростью обучения 0,001, а категориальная перекрестная энтропия используется в качестве функции потерь.Используется размер пакета 50, и мы обучаем модель в течение 20 эпох.В этом разделе представлено подробное описание и анализ нескольких экспериментов, проведенных для выявления плюсов и минусов предлагаемого подхода в сравнении со стандартной моделью CNN (SCNN).Чтобы оценить влияние нерелевантных и избыточных функций на производительность сверточной нейронной сети, мы также показали матрицы путаницы, чтобы выявить производительность двухэтапной классификации и стандартных методологий CNN.Кроме того, мы также сравниваем производительность предлагаемой методологии двухэтапной классификации с современными методологиями машинной классификации текста и глубокого обучения.На рисунке FigREF10 показана точность предлагаемой двухэтапной классификации и стандартных методологий классификации CNN на проверочном наборе из 20 групп новостей и наборах данных новостей BBC соответственно.Для набора данных 20 групп новостей точность стандартной методологии классификации CNN начинается с 73% по сравнению с точностью двухэтапной методологии классификации (TSCNN), которая показывает многообещающую цифру 90%.Этот разрыв в производительности возникает из-за отсутствия отличительных функций в стандартной CNN.TSCNN снабжен высокоразборчивыми функциями, тогда как стандартная модель CNN самостоятельно извлекает важные функции из заданного словаря.Вот почему стандартная производительность CNN улучшается до 4 эпох по сравнению с TSCNN, производительность которой увеличивается незначительно.Однако стандартная модель CNN до сих пор не может превзойти многообещающую производительность TSCNN ни в одну эпоху.Аналогично, для набора данных новостей BBC обе модели демонстрируют аналогичную тенденцию производительности, как обсуждалось для набора данных 20 групп новостей.На рисунке FigREF11 сравниваются значения потерь, полученные TSCNN и SCNN в разные эпохи двух наборов данных.Для набора данных групп новостей из 20 в первую эпоху существует разница 0,55 между значениями потерь TSCNN и SCNN из-за того, что словарь уникальных слов, подаваемых в TSCNN, свободен от шума, и ему приходится изучать больше отличительных признаков из словарь не относящихся к делу и избыточных функций.С другой стороны, в SCNN был передан полный словарный запас, содержащий как значимые, так и нерелевантные характеристики.Предполагалось, что SCNN автоматически выберет соответствующие функции и отбросит неважные.Более того, SCNN не смог эффективно удалить шум, поскольку после 8-й эпохи между потерями SCNN и TSCNN существует разрыв почти в 0,2.Аналогично, для набора данных новостей BBC обе модели выявили аналогичную тенденцию, которая обсуждалась для набора данных 20 групп новостей.Чтобы оценить влияние шума на производительность TSCNN и SCNN, мы показали матрицы путаницы для обоих наборов данных.На рисунке FigREF12 показано, что в случае стандартных классов CNN, таких как talk.politics.misc и talk.religion.misc, их слегка путают с классами talk.politics.guns и alt.atheism соответственно.Однако такие классы, как научная электроника и компьютерная графика, путают со многими другими классами.С другой стороны, матрица путаницы TSCNN подтверждает, что путаница между классами разрешается с помощью двухэтапной методологии классификации, которая развивает словарь различающих слов.Это также можно подтвердить, наблюдая за тем, как точность таких классов, как talk.religion.misc, sci.electronics и comp.os.ms-windows.misc, была увеличена с 61%, 69% и 74% до 83%, 91%. и 92% соответственно.Аналогичным образом, матрицы путаницы для наборов данных BBC News также показаны на рисунке FigREF13, который также демонстрирует то же явление, упомянутое ранее.Как можно ясно видеть, классы бизнеса и развлечений путают с другими классами при классификации с использованием стандартного CNN.Тогда как двухэтапная классификация практически полностью исключает межклассовые зависимости, поскольку точность бизнес-классов и развлекательных классов возрастает с 92% до 99% и 100% соответственно.В этом разделе представлено представление о представленном гибридном подходе в сравнении с современными машинными методологиями и методологиями глубокого обучения.В таблице TABREF15 показаны результаты предложенной методологии и 12 хорошо известных из литературы методов, включая новейшие результаты, полученные с помощью методологий машинного и глубокого обучения на 20 наборах данных телеконференций и новостей BBC.Чтобы повысить производительность классификации текста на основе машинного обучения, Рехман и др. BIBREF5 предложил алгоритм выбора признаков на основе фильтра, а именно нормализованную меру различий (NDM).Они сравнили его производительность с семью современными алгоритмами выбора функций (ODDS, CHI, IG, DFS, GINI, ACC2, POISON), используя SVM и классификаторы Наивного Байеса.Их эксперименты доказали, что удаление ненужных и избыточных функций повышает производительность классификации текста.Они сообщили о самом высоком макро-оценке $F_1$, равном 75%, в наборе данных 20 групп новостей.Недавно Рехман и др. BIBREF19 предложил новую версию NDM и назвал ее MMR.MMR превзошла NDM с показателем 9%.Более того, Ширсат и др. BIBREF34 выполнил идентификацию настроений на уровне предложений, используя список положительных и отрицательных слов, предоставленный словарем Бин Лю.Предложенная ими методология показала эффективность 96% с классификатором SVM в наборе данных новостей BBC.Недавно Прадхан и др. БИБРЕФ36сравнили производительность нескольких алгоритмов классификации (SVM, Naive Bayes, Decision Tree, KNN, Rocchio) на ряде наборов новостных данных.Они экстраполировали, что SVM превзошел другие четыре классификатора во всех наборах данных.SVM показала производительность 86% и 97% по 20 новостным группам и наборам данных BBC.Элганнам BIBREF37 использовал частоту биграмм для представления документа в типичной методологии, основанной на машинном обучении.Предложенный подход не требовал каких-либо инструментов НЛП и в значительной степени уменьшал разреженность данных.Они сообщили о показателе $f_1$ в 92% в наборе данных новостей BBC.Ван и др. BIBREF38 представил метод трансферного обучения для выполнения классификации междоменного текста.Они провели эксперименты на шести классах из 20 наборов данных телеконференций и сумели добиться производительности 95%. С другой стороны, исследователи использовали различные методологии, основанные на глубоком обучении, для повышения производительности классификации текста.Например, сверточная нейронная сеть, основанная на двунаправленной рекуррентной структуре BIBREF27, успешно извлекла семантику базовых данных.Его производительность составила 96,49% по четырем классам (политика, компьютер, религия, запись) из 20 наборов данных групп новостей.Аналогично, Азигули и др. BIBREF1 предложил, чтобы глубокие нейронные сети шумоподавления использовали ограниченную машину Больцмана и автокодировщик шумоподавления, чтобы обеспечить производительность 75% и 97% для 20 групп новостей и наборов данных BBC соответственно.Принимая во внимание, что сеть глубоких убеждений и регрессия softmax совместно использовались BIBREF11 для выбора отличительных признаков для классификации текста.Комбинация обоих методов позволила достичь точности 85% в наборе данных 20 групп новостей.Более того, фреймворк BIBREF32, основанный на глубокой лингвистике, использовал WordNet и MetaMap для расширения концептуальной информации подтекста.Этот подход обеспечил точность всего 69% в наборе данных 20 групп новостей.Аналогичным образом, чтобы улучшить обучение представлению документов, была предложена методология глубокого обучения на основе сиамской долгой краткосрочной памяти (LSTM) BIBREF12, которая показала производительность 86% на 20 наборах данных групп новостей.Камачо-Колладос и ПилехварBIBREF35 выявили эффективные методы предварительной обработки для обучения встраиванию слов для задачи категоризации тем.В их экспериментах использовались две версии CNN, а именно стандартная CNN с ReLU и стандартная CNN с добавлением рекуррентного слоя (LSTM), чтобы обеспечить точность 97% на BBC и 90% на 20 наборах данных групп новостей с использованием только 6 классов.Предложенная методология двухэтапной классификации превзошла современные методологии машинного обучения и глубокого обучения.Более того, чтобы выявить влияние добавления словаря, основанного на дискриминационных признаках, мы сравниваем предложенную методологию двухэтапной классификации со стандартной сверточной нейронной сетью.Таблица TABREF15 ясно показывает, что простой CNN дает оценку $F_1$ 94% и 82% на BBC и 20 наборах данных групп новостей соответственно с использованием SCNN.Принимая во внимание, что TSCNN показывает рейтинг f1 99% и 91% на BBC и 20 наборах данных групп новостей с использованием набора функций, ранжированных NDM. В этом документе предлагается двухэтапная методология классификации текста.Во-первых, мы используем алгоритм выбора признаков на основе фильтров (NDM) для разработки бесшумного словаря.Во-вторых, этот словарь подается в многоканальную сверточную нейронную сеть, где каждый канал имеет два фильтра размером 5 и 3 соответственно и 2 плотных слоя.Тривиальные сверточные слои не свертывают все объекты одинаково, поэтому используются широкие сверточные слои.Результаты экспериментов показывают, что вместо подачи всего словаря в модель CNN словарь с большинством отличительных признаков обеспечивает более высокую производительность.В будущем мы оценим эффективность предлагаемой методологии двухэтапной классификации с использованием методологий RNN и гибридного глубокого обучения.Более того, на первом этапе предлагаемой методологии будут применяться другие известные алгоритмы выбора признаков.
Классификация текстовых документов является важной задачей для различных приложений, основанных на обработке естественного языка. Традиционные подходы к машинному обучению в основном сосредоточены на уменьшении размерности текстовых данных для выполнения классификации. Хотя это улучшило общую точность классификации, классификаторы по-прежнему сталкивались с проблемой разреженности из-за отсутствия лучших методов представления данных. С другой стороны, классификация текстовых документов на основе глубокого обучения значительно выиграла от изобретения встраивания слов, которое решило проблему разреженности, и внимание исследователей в основном осталось на разработке глубоких архитектур. Однако более глубокие архитектуры изучают некоторые избыточные функции, которые ограничивают производительность решений на основе глубокого обучения. В этой статье мы предлагаем двухэтапную методологию классификации текстовых документов, которая сочетает в себе традиционную разработку признаков с автоматической разработкой признаков (с использованием глубокого обучения). Предлагаемая методология включает в себя алгоритм выбора признаков на основе фильтра (FSE), за которым следует глубокая сверточная нейронная сеть. Эта методология оценивается на двух наиболее часто используемых общедоступных наборах данных, а именно на данных 20 групп новостей и данных новостей BBC. Результаты оценки показывают, что предлагаемая методология превосходит современные методологии классификации текстовых документов как (традиционного) машинного обучения, так и глубокого обучения, со значительным отрывом в 7,7% на 20 группах новостей и 6,6% на наборах данных новостей BBC.
4,095
QasperSumInstruct
ru
Напиши аннотацию по статье
Искусственная генерация ошибок с помощью машинного перевода и синтаксических шаблонов. Ошибки в написании могут возникать в самых разных формах – от относительно простых ошибок пунктуации и определений до ошибок, включающих время и форму слова, неправильных словосочетаний и ошибочных идиом.Автоматическое выявление всех этих ошибок является сложной задачей, особенно если учесть, что объем доступных аннотированных данных очень ограничен.Rei2016 показал, что, хотя некоторые алгоритмы обнаружения ошибок работают лучше, чем другие, наибольшее влияние на повышение производительности оказывают дополнительные обучающие данные.Возможность генерировать реалистичные искусственные данные позволит преобразовать любой грамматически правильный текст в аннотированные примеры, содержащие ошибки письма, создавая большое количество дополнительных обучающих примеров.Системы контролируемой генерации ошибок также обеспечат эффективный метод анонимизации исходного корпуса: статистику ошибок из частного корпуса можно агрегировать и применять к другому целевому тексту, скрывая конфиденциальную информацию в исходных сценариях экзаменов.Однако задача создания неверных данных несколько сложнее, чем может показаться на первый взгляд: наивные методы генерации ошибок могут создавать данные, не похожие на естественные ошибки, тем самым заставляя последующие системы изучать вводящие в заблуждение или неинформативные шаблоны.Предыдущая работа по искусственной генерации ошибок (AEG) была сосредоточена на конкретных типах ошибок, таких как предлоги и определители BIBREF0 , BIBREF1 или ошибки числа существительных BIBREF2 .Felice2014a исследовал использование лингвистической информации при создании искусственных данных для исправления ошибок, но также ограничил подход только пятью типами ошибок.Исследования по генерированию искусственных данных для всех типов проводились очень ограниченно, что важно для систем обнаружения ошибок общего назначения.Например, типы ошибок, исследованные Felice2014a, охватывают только 35,74% всех ошибок, присутствующих в наборе обучающих данных CoNLL 2014, не предоставляя никакой дополнительной информации для большинства ошибок.В этой статье мы исследуем два контролируемых подхода для генерации всех типов искусственных ошибок.Мы предлагаем структуру генерации ошибок на основе статистического машинного перевода (SMT), обучающую модель переводу правильных предложений в неправильные.Кроме того, мы описываем метод изучения шаблонов ошибок из аннотированного корпуса и трансплантации их в безошибочный текст.Мы оцениваем влияние введения искусственных данных на два теста обнаружения ошибок.Наши результаты показывают, что каждый метод обеспечивает значительные улучшения по сравнению с использованием только доступного обучающего набора, а комбинация обоих дает абсолютное улучшение на 4,3% в INLINEFORM0 без необходимости каких-либо дополнительных аннотированных данных.Мы исследуем два альтернативных метода AEG.Модели получают на вход грамматически правильный текст и изменяют определенные токены для создания неправильных последовательностей.Альтернативные версии каждого предложения выравниваются с использованием расстояния Левенштейна, что позволяет нам идентифицировать конкретные слова, которые необходимо пометить как ошибки.Хотя эти выравнивания не всегда идеальны, мы обнаружили, что их достаточно для практических целей, поскольку альтернативные выравнивания похожих предложений часто приводят к одной и той же двоичной маркировке.В будущих работах можно будет изучить более продвинутые методы выравнивания, такие как предложенные Фелисом-Брайантом-Бриско.В разделе SECREF4 эти автоматически помеченные данные затем используются для обучения моделей обнаружения ошибок.Мы рассматриваем AEG как задачу перевода: если на входе правильное предложение, система научится переводить его так, чтобы оно содержало вероятные ошибки, на основе обучающего корпуса параллельных данных.Существующие подходы SMT уже оптимизированы для выявления шаблонов контекста, соответствующих конкретным выходным последовательностям, что также необходимо для генерации ошибок, подобных человеческим.Было показано, что обратная идея, перевод неправильных предложений в правильные, хорошо работает для задач исправления ошибок BIBREF2 , BIBREF3 , а двусторонний перевод также оказался многообещающим для исправления грамматических ошибок BIBREF4 . После предыдущей работы BIBREF2 , BIBREF5 мы строим систему генерации ошибок SMT на основе фраз.Во время обучения предложения с исправленными ошибками в обучающих данных рассматриваются как исходные, а исходные предложения, написанные изучающими язык, как целевые.Pialign BIBREF6 используется для создания таблицы перевода фраз непосредственно на основе вероятностей модели.В дополнение к функциям по умолчанию мы добавляем расстояние Левенштейна на уровне символов к каждому сопоставлению в таблице фраз, как предложено Felice:2014-CoNLL.Декодирование выполняется с использованием Моисея BIBREF7, а языковая модель, используемая во время декодирования, строится из исходных ошибочных предложений в корпусе учащихся.Набор инструментов IRSTLM BIBREF8 используется для построения 5-граммовой языковой модели с модифицированным сглаживанием Кнезера-Нея BIBREF9. Мытакже опишите метод AEG с использованием шаблонов поверх слов и тегов части речи (POS), извлекая известные неправильные последовательности из корпуса аннотированных исправлений.Этот подход основан на лучшем методе, указанном Felice2014a, с использованием распределений типов ошибок; хотя они охватывали только 5 типов ошибок, мы ослабляем это ограничение и изучаем закономерности генерации всех типов ошибок.Исходные и исправленные предложения в корпусе выравниваются и используются для выявления кратких закономерностей трансформации в виде (неправильная фраза, правильная фраза).Длина каждого шаблона равна затронутой фразе плюс до одного токена контекста с обеих сторон.Если словоформа меняется между неправильным и правильным текстом, она полностью сохраняется в шаблоне, в противном случае для сопоставления используются POS-теги.Например, исходное предложение «Мы ходили в магазин в субботу» и исправленная версия «Мы ходили за покупками в субботу» дадут следующий шаблон: (VVD shop_VV0 II, VVD Shopping_VVG II) После сбора статистики из фонового корпуса могут возникнуть ошибки. вставлен в текст без ошибок.Изученные шаблоны теперь меняются местами: поиск правильной стороны кортежа во входном предложении.Мы используем только шаблоны с частотой INLINEFORM0 , что дает в общей сложности 35 625 шаблонов из наших обучающих данных.Для каждого входного предложения мы сначала решаем, сколько ошибок будет сгенерировано (используя вероятности из фонового корпуса), и пытаемся создать их путем выборки из коллекции применимых шаблонов.Этот процесс повторяется до тех пор, пока не будут сгенерированы все необходимые ошибки или пока предложение не будет исчерпано.Во время генерации мы стараемся сбалансировать распределение типов ошибок, а также сохранить ту же пропорцию неправильных и правильных предложений, что и в фоновом корпусе BIBREF10.Требуемые теги POS были созданы с помощью RASP BIBREF11 с использованием набора тегов CLAWS2.Мы создаем модель маркировки нейронных последовательностей для обнаружения ошибок, следуя предыдущей работе BIBREF12, BIBREF13.Модель получает последовательность токенов в качестве входных данных и выводит прогноз для каждой позиции, указывая, является ли токен правильным или неправильным в текущем контексте.Токены сначала сопоставляются с распределенным векторным пространством, в результате чего получается последовательность вложений слов.Затем внедрения передаются в качестве входных данных для двунаправленного LSTM BIBREF14, чтобы создать контекстно-зависимые представления для каждого токена.Скрытые состояния из прямых и обратных LSTM объединяются для каждой позиции слова, в результате чего возникают представления, обусловленные всей последовательностью.Этот объединенный вектор затем передается через дополнительный уровень прямой связи, и softmax для двух возможных меток (правильной и неправильной) используется для вывода распределения вероятностей для каждого токена.Модель оптимизирована путем минимизации категориальной перекрестной энтропии относительно правильных меток.Мы используем AdaDelta BIBREF15 для расчета скорости адаптивного обучения во время обучения, что обеспечивает более высокую базовую производительность по сравнению с предыдущими результатами.Мы обучили наши модели генерации ошибок на общедоступном обучающем наборе FCE BIBREF16 и использовали их для создания дополнительных данных искусственного обучения.Грамматически правильный текст необходим в качестве отправной точки для вставки искусственных ошибок, и мы использовали два разных источника: 1) исправленную версию того же обучающего набора FCE, на котором обучается система (450 тыс. токенов), и 2) примеры предложений, извлеченные из профиль английского словаря (270 тыс. жетонов).Хотя можно использовать и другие корпуса текстов (например, Википедию и новостные статьи), наши эксперименты по разработке показали, что сохранение стиля письма и словарного запаса, близких к целевой области, дает лучшие результаты по сравнению с простым включением большего количества данных.Мы оценили наши модели обнаружения по трем критериям: тестовым данным FCE (41 000 токенов) и двум альтернативным аннотациям набора данных общих задач CoNLL 2014 (30 000 токенов) BIBREF3.Каждая система генерации искусственных ошибок использовалась для создания трех различных версий искусственных данных, которые затем объединялись с исходным аннотированным набором данных и использовались для обучения системы обнаружения ошибок.Таблица TABREF1 содержит примеры предложений из систем генерации ошибок, в которых выделены все изменения, помеченные как ошибки.Результаты обнаружения ошибок можно увидеть в таблице TABREF4.Мы используем INLINEFORM0 в качестве основной меры оценки, которая была установлена ​​в качестве предпочтительной меры для исправления и обнаружения ошибок общей задачей CoNLL-14 BIBREF3.INLINEFORM1 вычисляет средневзвешенное гармоническое значение точности и полноты, что придает точности в два раза большее значение – это мотивировано практическими приложениями, где точные прогнозы системы обнаружения ошибок более важны по сравнению с охватом.Для сравнения мы также сообщаем о производительности системы обнаружения ошибок Rei2016, обученной с использованием того же набора данных FCE.Результаты показывают, что эффективность обнаружения ошибок существенно улучшается при использовании искусственно сгенерированных данных, созданных любым из описанных методов.Сравнивая систему генерации ошибок Felice2014a (2014 финансовый год) с нашими подходами на основе шаблонов (PAT) и машинного перевода (MT), мы видим, что последние методы, охватывающие все типы ошибок, последовательно повышают производительность.Хотя дополнительные типы ошибок, как правило, встречаются реже и их сложнее обнаружить, добавленный охват действительно полезен для обнаружения ошибок.Сочетание подхода на основе шаблонов с системой машинного перевода (Ann+PAT+MT) дало наилучшую общую производительность для всех наборов данных.Обе платформы учатся генерировать разные типы ошибок, и использование обеих приводит к существенному улучшению обнаружения ошибок.Мы использовали приблизительный тест рандомизации BIBREF17, BIBREF18 для расчета статистической значимости и обнаружили, что улучшение для каждой из систем, использующих искусственные данные, было значительным по сравнению с использованием только ручных аннотаций.Кроме того, окончательная система комбинирования также значительно лучше по сравнению с системой Felice2014a на всех трех наборах данных.Хотя Rei2016 также сообщает об отдельных экспериментах, которые позволили добиться еще более высокой производительности, эти модели были обучены на значительно большем собственном корпусе.В этой статье мы сравниваем системы обнаружения ошибок, обученные на одном и том же общедоступном наборе данных FCE, тем самым устраняя мешающий фактор размера набора данных и сосредотачиваясь только на архитектурах моделей.Методы генерации ошибок могут генерировать альтернативные версии одного и того же входного текста: метод на основе шаблонов случайным образом выбирает места ошибок, а система SMT может предоставить n-лучший список альтернативных переводов.Поэтому мы также исследовали комбинацию нескольких версий входных файлов, сгенерированных ошибками, при обучении моделей обнаружения ошибок.На рисунке FigREF6 показан балл INLINEFORM0 в наборе разработки, поскольку обучающие данные увеличиваются за счет использования большего количества переводов из n-лучших списков системы SMT.Эти результаты показывают, что разрешение модели видеть несколько альтернативных версий одного и того же файла дает явное улучшение — показ модели как правильных, так и неправильных вариантов одних и тех же предложений, вероятно, помогает в изучении дискриминационной модели.Наша работа основана на предыдущих исследованиях AEG.Brockett2006 построил регулярные выражения для преобразования правильных предложений, чтобы они содержали ошибки в числах существительных.Розовская2010а изучила наборы путаницы из аннотированного корпуса, чтобы генерировать ошибки в предлогах.Foster2009 разработал инструмент для генерации ошибок разных типов с использованием шаблонов, предоставленных пользователем или автоматически собранных из аннотированного корпуса.Однако их метод использует ограниченное количество операций редактирования и поэтому не может генерировать сложные ошибки.Cahill2013 сравнил различные методики обучения и показал, что искусственные ошибки помогают исправлять предлоги.Felice2014a изучил распределение типов ошибок для генерации пяти типов ошибок, а система из раздела SECREF3 является расширением этой модели.В то время как предыдущая работа была сосредоточена на генерации определенного подмножества типов ошибок, мы исследовали два целостных подхода к AEG и показали, что они способны значительно улучшить производительность обнаружения ошибок.В этой статье исследовались два метода AEG с целью создания дополнительных обучающих данных для обнаружения ошибок.Сначала мы исследовали метод, использующий текстовые шаблоны, полученные из аннотированного корпуса, которые используются для вставки ошибок в правильный входной текст.Кроме того, мы предложили сформулировать генерацию ошибок как структуру МП, обучающую переводу грамматически правильных предложений в неправильные.Добавление искусственных данных в процесс обучения оценивалось по трем аннотациям обнаружения ошибок с использованием наборов данных FCE и CoNLL 2014.Использование искусственных данных позволило улучшить все методы генерации данных.Ослабляя ограничения типов и генерируя все типы ошибок, наш метод, основанный на шаблонах, постоянно превосходил систему Felice2014a.Сочетание метода на основе шаблонов с подходом машинного перевода дало дальнейшие существенные улучшения и лучшую производительность для всех наборов данных.
Нехватка доступных обучающих данных сдерживает прогресс в области автоматического обнаружения ошибок. В этой статье исследуются два альтернативных метода искусственного создания ошибок письма с целью создания дополнительных ресурсов. Мы предлагаем рассматривать генерацию ошибок как задачу машинного перевода, при которой грамматически правильный текст переводится так, чтобы он содержал ошибки. Кроме того, мы исследуем систему извлечения текстовых шаблонов из аннотированного корпуса, которую затем можно использовать для вставки ошибок в грамматически правильные предложения. Наши эксперименты показывают, что включение искусственно сгенерированных ошибок значительно повышает точность обнаружения ошибок в наборах данных FCE и CoNLL 2014.
2,090
QasperSumInstruct
ru
Напиши аннотацию по статье
Динамическая генерация просодии для синтеза речи с использованием лингвистического выбора акустического встраивания. Адрес электронной почты автора: tshubhi@amazon.com.Документ, представленный на IEEE ICASSP 2020. Недавние достижения в области TTS улучшили достижимую естественность синтетической речи до уровня, близкого к человеческим возможностям BIBREF0, BIBREF1, BIBREF2, BIBREF3.Это означает, что для простых предложений или для ситуаций, в которых мы можем правильно предсказать наиболее подходящую просодическую репрезентацию, системы TTS предоставляют нам речь, практически неотличимую от человеческой.Одним из аспектов, которого до сих пор не хватает большинству систем, является естественная изменчивость человеческой речи, которая рассматривается как одна из причин, почему когнитивная нагрузка синтетической речи выше, чем у человека BIBREF4.Это то, что пытаются решить вариационные модели, такие как модели, основанные на вариационном автоматическом кодировании (VAE) BIBREF3, BIBREF5, используя возможности выборки акустического пространства внедрения во время вывода.Несмотря на преимущества, которые дает вывод на основе VAE, он также страдает от ограничения, заключающегося в том, что для синтеза сэмпла необходимо выбрать для него подходящее акустическое внедрение, что может быть сложной задачей.Возможное решение этой проблемы — исключить процесс выбора и последовательно использовать центроид для представления речи.Это обеспечивает надежные акустические представления, но снова страдает от проблемы монотонности обычного TTS.Другой подход — просто выполнить случайную выборку акустического пространства.Это, безусловно, решило бы проблему монотонности, если бы акустическое вложение было достаточно разнообразным.Однако он может привести к беспорядочным просодическим представлениям более длинных текстов, что может оказаться хуже, чем монотонность.Наконец, можно рассмотреть выбор или прогнозирование на основе текста, как это сделано в этом исследовании.В этой работе мы представляем новый подход к информированному выбору встраивания с использованием лингвистических особенностей.Тесная связь между синтаксической составной структурой и просодией хорошо известна BIBREF6, BIBREF7.В традиционном конвейере обработки естественного языка (NLP) анализ групп создает полные синтаксические деревья.Более поздние подходы, основанные на контекстном внедрении слов (CWE), предполагают, что CWE в значительной степени способны неявно представлять классический конвейер НЛП BIBREF8, сохраняя при этом способность моделировать лексическую семантику BIBREF9.Таким образом, в этой работе мы исследуем, как системы TTS могут повысить качество синтеза речи, используя такие лингвистические особенности для управления просодическим контуром генерируемой речи.Аналогичную недавнюю работу, исследующую преимущества использования синтаксической информации для TTS, можно увидеть в BIBREF10, BIBREF11.В то время как эти исследования, без какого-либо явного акустического сопряжения с лингвистической информацией, вводят ряд тщательно подобранных функций, объединенных с фонетической последовательностью, в качестве способа информирования системы TTS, настоящее исследование использует лингвистическую информацию для управления выбором акустического встраивания, а не чем использовать его в качестве дополнительных функций модели.Исследование того, как использовать лингвистику как способ прогнозирования адекватных акустических вложений, можно увидеть в BIBREF12, где авторы исследуют путь прогнозирования адекватного встраивания, информируя систему набором лингвистической и семантической информации.Основное отличие настоящей работы заключается в том, что в нашем случае вместо прогнозирования точки в многомерном пространстве с использованием разреженной входной информации (что является сложной задачей и потенциально уязвимо для зависимостей обучающей области) мы используем метод лингвистическую информацию для прогнозирования наиболее похожего встраивания в нашем обучающем наборе, что значительно снижает сложность задачи.Основными задачами этой работы являются: i) мы предлагаем новый подход к внедрению отбора в акустическое пространство с использованием лингвистических особенностей; ii) мы демонстрируем, что включение выбора акустического встраивания на основе синтаксической информации улучшает общее качество речи, включая ее просодию; iii) мы сравниваем улучшения, достигнутые за счет использования синтаксической информации, с улучшениями, достигнутыми CWE; iv) мы демонстрируем, что этот подход также улучшает качество TTS в опыте LFR.CWE кажется очевидным выбором для выбора встраивания, поскольку они содержат как синтаксическую, так и семантическую информацию.Однако возможным недостатком использования CWE является то, что пространство лингвистико-акустического отображения является разреженным.Способность таких систем к обобщению в невидимых сценариях будет плохой BIBREF13.Кроме того, поскольку CWE моделирует лексическую семантику, это означает, что два семантически схожих предложения, вероятно, будут иметь схожие представления CWE.Однако это не обязательно соответствует сходству просодии, поскольку структура двух предложений может сильно различаться.Мы предполагаем, что в некоторых сценариях синтаксис будет иметь лучшую способность к обобщению, чем семантика, и что CWE не был оптимально использован для управления просодией в синтезе речи.Мы исследуем эти две гипотезы в наших экспериментах.Цель этой работы — использовать вариации просодии на уровне предложения, доступные в наборе обучающих данных, при синтезе речи для тестового предложения.Шаги, выполняемые в рамках предлагаемого подхода, следующие: (i) Сгенерировать подходящие векторные представления, содержащие лингвистическую информацию для всех предложений в наборе поездов и тестовых наборах, (ii) Измерить сходство тестового предложения с каждым из предложений в наборе поездов.Мы делаем это, используя косинусное сходство между векторными представлениями, как это сделано в BIBREF14, для оценки лингвистического сходства: (iii) выбираем акустическое встраивание предложения поезда, которое дает наибольшее сходство с тестовым предложением, (iv) синтезируем речь на основе VAE вывод с использованием этого акустического внедрения. Мы экспериментируем с тремя различными системами генерации векторных представлений предложений, которые позволяют нам изучить влияние как синтаксиса, так и семантики на общее качество синтеза речи.Представления из первой системы используют только синтаксическую информацию, вторая полагается исключительно на CWE, а третья использует комбинацию CWE и явной синтаксической информации.Синтаксические представления предложений, такие как деревья разбора округов, необходимо преобразовать в векторы, чтобы их можно было использовать в нейронных моделях TTS.Некоторые измерения, описывающие дерево, могут быть преобразованы в категориальные признаки на основе слов, такие как идентичность родителя и положение слова во фразе BIBREF15. Известно, что синтаксическое расстояние между соседними словами является просодически значимым числовым источником информации, который легко извлекается из дерево избирательных округов BIBREF16.Это объясняется тем, что если для нахождения первого общего предка необходимо пройти множество узлов, то синтаксическая дистанция между словами велика.Большие синтаксические расстояния коррелируют с акустически значимыми событиями, такими как разрывы фраз или просодические перезагрузки.Чтобы вычислить представления вектора синтаксического расстояния для предложений, мы используем алгоритм, упомянутый в BIBREF17.То есть для предложения из n токенов существует n соответствующих расстояний, которые объединяются вместе, чтобы получить вектор длины n.Расстояние между началом предложения и первым токеном всегда равно 0. Пример можно увидеть на рис.1: для предложения «Бурая лиса быстрая и прыгает через ленивую собаку», вектор расстояния которого равен d =[0 2 1 3 1 8 7 6 5 4 3 2 1].Завершение основной именной фразы (после слова «лиса») вызывает просодическую перезагрузку, что отражается в расстоянии 3 между словами «лиса» и «есть».Также должен быть более подчеркнутый сброс в конце первого предложения, представленный расстоянием 8 между «быстро» и «и».Для создания CWE мы используем BERT BIBREF18, поскольку это одна из наиболее эффективных предварительно обученных моделей с современными результатами для большого количества задач НЛП.BERT также продемонстрировал способность генерировать надежные представления как синтаксиса, так и семантики.Мы используем представления слов из бескорпусной базовой (12-слойной) модели без тонкой настройки.Представления на уровне предложения достигаются путем усреднения предпоследнего скрытого слоя для каждого токена в предложении.Эти внедрения используются для выбора акустического внедрения.Несмотря на то, что встраивания BERT фиксируют некоторые аспекты синтаксической информации наряду с семантикой, мы решили поэкспериментировать с системой, объединяющей информацию, полученную обеими вышеупомянутыми системами.Информация из синтаксических расстояний и вложений BERT не может быть объединена на уровне токена для получения единого векторного представления, поскольку обе эти системы используют разные алгоритмы токенизации.Токенизация в BERT основана на алгоритме слов BIBREF19 как способ устранения проблем, связанных с нехваткой словарного запаса.С другой стороны, токенизация, используемая для создания деревьев синтаксического анализа, основана на морфологических соображениях, укорененных в лингвистической теории.Во время вывода мы усредняем оценки сходства, полученные путем сравнения вложений BERT и векторов синтаксического расстояния.Подходы, описанные в разделе SECREF1, создают высказывания с более разнообразной просодией по сравнению с долгосрочной монотонностью, полученной с помощью вывода VAE на основе центроида.Однако, рассматривая тексты, состоящие из нескольких предложений, мы должны помнить о проблемах, которые могут возникнуть из-за беспорядочных переходов.Мы решаем эту проблему, сводя к минимуму акустические вариации предложения по отношению к предыдущему, при этом минимизируя языковую дистанцию.Мы рассматриваем евклидово расстояние между проецируемыми акустическими вложениями 2D-анализа главных компонентов (PCA) как меру акустических вариаций, поскольку мы наблюдаем, что проецируемое пространство предоставляет нам акустически значимое пространство, в котором можно легко получить расстояния.То же самое в 64-мерном пространстве VAE не сработало должным образом, вероятно, из-за нелинейного многообразия, представляющего нашу систему, в котором расстояния не являются линейными.В результате определенное предложение может быть лингвистически наиболее близким с точки зрения синтаксического расстояния или CWE, но оно все равно не будет выбрано, если его акустическое внедрение сильно отличается от такового у предыдущего предложения.Мы модифицируем метрику оценки сходства, используемую для выбора наиболее близкого совпадения из набора поездов, добавляя взвешенную стоимость для учета акустических изменений.Этот подход фокусируется только на переходах предложений внутри абзаца, а не на оптимизации всего пути акустического внедрения.Это делается следующим образом: (i) Определите веса лингвистического сходства и акустического сходства.В этой работе сумма двух весов равна 1; (ii) Цель состоит в том, чтобы минимизировать следующие потери с учетом акустического встраивания, выбранного для предыдущего предложения в параграфе: Потери = LSW * (1-LS).+ (1-LSW) * D, где LSW = вес языкового сходства; LS = лингвистическое сходство между тестовым и обучающим предложением; D = евклидово расстояние между акустическим вложением предложения поезда и акустическим вложением, выбранным для предыдущего предложения.Мы фиксируем D=0 для первого предложения каждого абзаца.Таким образом, этот подход больше подходит для случаев, когда первое предложение, как правило, является несущей фразой, т.е. той, в которой используется структурный шаблон.Это особенно справедливо для новостных сюжетов, подобных тем, которые рассматриваются в данном исследовании.Расстояния, наблюдаемые между выбранными акустическими вложениями для образца абзаца, и эффект изменения весов изображены в матрицах на рис. FigREF7.Это симметричные матрицы, где каждая строка и столбец матрицы представляют предложение с индексом i в абзаце.Каждая ячейка представляет евклидово расстояние между акустическими вложениями, выбранными для предложений с индексом i,j.Мы видим, что в (а) предложение с индексом 4 выделяется как наиболее акустически отличное от остальных предложений в абзаце.Мы видим, что общее акустическое расстояние между предложениями в (а) намного выше, чем в (б).Поскольку нас особенно интересуют переходы от предыдущего предложения к текущему, мы фокусируемся на ячейках (i,i-1) для каждой строки.В (a) предложения с индексами 4 и 5 особенно выделяются как потенциальные беспорядочные переходы из-за высоких значений в ячейках (4,3) и (5,4).В (b) мы наблюдаем, что расстояния значительно сократились, и поэтому ожидается, что переходы в предложениях будут плавными.По мере уменьшения LSW переходы становятся более плавными.Это не «бесплатно»: существует компромисс, поскольку увеличение плавности перехода уменьшает лингвистическое сходство, что также уменьшает просодическое расхождение.Рис.На фиг.10 показан компромисс между ними в тестовом наборе при использовании синтаксического расстояния для оценки LS.Требуются низкая лингвистическая дистанция (т.е. 1 – LS) и низкая акустическая дистанция.График показывает, что происходит резкое уменьшение акустического расстояния между LSW от 1,0 до 0,9, но с этого момента сокращение становится более медленным, в то время как изменения языкового расстояния происходят линейно.Мы неформально оценивали производительность систем, уменьшая LSW с 1,0 до 0,7 с шагом 0,05, чтобы найти оптимальный баланс.При LSW=0,9, первом колене кривой акустического расстояния, наблюдалось значительное снижение воспринимаемой неустойчивости.Поэтому мы выбрали эти значения для наших оценок LFR.Вопросы исследования, на которые мы пытаемся ответить: Может ли выбор акустических сигналов из существующего набора данных, основанный на лингвистике, привести к улучшению просодии и естественности при синтезе речи?Чем синтаксический выбор отличается от выбора CWE? Улучшает ли этот подход и опыт LFR? Чтобы ответить на эти вопросы, мы использовали в наших экспериментах системы, данные и субъективные оценки, описанные ниже.Оцениваемая система TTS представляет собой систему BIBREF20, подобную Tacotron, уже проверенную для домена диктора новостей.Схематическое описание можно увидеть на рис.FigREF15, а также подробное объяснение базовой системы и данных обучения можно прочитать в BIBREF21, BIBREF22.Преобразование полученных спектрограмм в формы сигналов выполняется с использованием универсальной модели, подобной WaveRNN, представленной в BIBREF2. Для этого исследования мы рассматриваем улучшенную систему, которая заменила подход моделирования в векторном стиле с помощью эталонного кодера на основе VAE, аналогичного BIBREF5. BIBREF3, в котором внедрение VAE представляет собой акустическое кодирование речевого сигнала, что позволяет нам управлять просодическим представлением синтезированного текста, как это наблюдается в BIBREF23.Способ выбора встраивания во время вывода определяется подходами, представленными в разделах SECREF1 и SECREF6.Размер встраивания установлен равным 64, поскольку он обеспечивает наилучшую сходимость без потери KLD во время обучения. (i) Набор данных системы TTS: мы обучали нашу систему TTS, используя смесь нейтральной речи и речи диктора.В общей сложности 24 часа обучающих данных разделены на 20 часов нейтральной речи (22 000 высказываний) и 4 часа речи в стиле диктора (3 000 высказываний). (ii) Встраивание набора выборочных данных: поскольку оценка проводилась только по речи диктора Мы ограничиваем наше лингвистическое пространство поиска высказываниями, связанными со стилем диктора: 3000 предложений.Системы оценивались на двух наборах данных: (i)Распространенные просодические ошибки (CPE): набор данных, на котором базовая модель Prostron не может генерировать соответствующую просодию.Этот набор данных состоит из сложных высказываний, таких как составные существительные (22%), вопросы «или» (9%), вопросы «что» (18%).Этот набор дополнительно расширяется за счет поиска сложных высказываний (51%) из BIBREF24. (ii) LFR:Как показано в BIBREF25, оценки предложений по отдельности недостаточно, если мы хотим оценить качество развернутой речи.Таким образом, для оценки LFR мы собрали набор образцов новостей.Предложения в стиле новостей были объединены в полные новостные статьи, чтобы передать общее впечатление от нашего предполагаемого варианта использования.Наши тесты основаны на МНОЖЕСТВЕННЫХ стимулах со скрытой привязкой и привязкой (MUSHRA) BIBREF26, но без принудительного присвоения системе рейтинга 100 и не всегда с учетом верхнего привязки.Все наши слушатели, независимо от лингвистических знаний, были носителями американского английского языка.Для набора данных CPE мы провели два теста.В первом слушали 10 экспертов-лингвистов, которых просили оценить уместность просодии без учета стиля речи по шкале от 0 (очень неуместно) до 100 (очень уместно).Второй тест проводился на 10 краудсорсинговых слушателях, которые оценивали естественность речи от 0 до 100.В обоих тестах каждому слушателю было предложено оценить 28 различных экранов, по 4 случайно упорядоченных образца на каждый экран, всего 112 образцов.Было предложено 3 системы, а в качестве базовой линии использовался вывод VAE на основе центроида.Для набора данных LFR мы провели только краудсорсинговую оценку естественности, где слушателям предлагалось оценить соответствие стиля диктора по шкале от 0 (полностью неподходящий) до 100 (полностью адекватный).Каждому слушателю была представлена ​​51 новость, каждая из которых воспроизводила одну из 5 систем, включая оригинальные записи в качестве верхнего якоря, VAE на основе центроида в качестве базовой линии и 3 предложенные системы выбора встраивания, основанные на лингвистике.В таблице 1 представлены средние баллы MUSHRA, оценивающие просодию и естественность, для каждой тест-системы в наборе данных CPE.Эти результаты отвечают на вопрос 1, поскольку предлагаемый подход значительно превосходит базовый уровень по обоим критериям.Таким образом, это дает нам доказательства, подтверждающие нашу гипотезу о том, что выбор акустического встраивания, основанный на лингвистике, может значительно улучшить качество речи.Мы также отмечаем, что лучшая просодия не приводит напрямую к улучшению естественности и что существует необходимость улучшить акустическое моделирование, чтобы лучше отразить достигнутые просодические улучшения.Мы подтверждаем различия между показателями MUSHRA с помощью парного t-критерия.Все предложенные системы значительно улучшились по сравнению с базовой просодией (p$<$0,01).Что касается естественности, синтаксис BERT показал лучшие результаты, значительно улучшившись по сравнению с базовым уровнем (p = 0,04).Другие системы не дали статистически значимого улучшения по сравнению с базовым уровнем (p$>$0,05).Разница между BERT и BERT Syntactic также статистически незначима.Второй вопрос рассмотрен в таблице TABREF21, в которой дана разбивка результатов просодии по основным категориям в CPE.Что касается вопросов «wh», мы видим, что только Syntactic обеспечивает улучшение на 4%, а BERT Syntactic показывает лучшие результаты, улучшая 8% по сравнению с базовым уровнем.Это говорит о том, что вопросы «wh» обычно имеют тесно связанную синтаксическую структуру и что информация может использоваться для достижения лучшей просодии.Эта интуиция еще больше подкрепляется улучшениями, наблюдаемыми в вопросах «или».Только Syntactic улучшился на 9% по сравнению с базовым уровнем, а BERT Syntactic показал лучшие результаты, улучшившись на 21% по сравнению с базовым уровнем.Улучшение, наблюдаемое в вопросах «или», больше, чем в вопросах «wh», поскольку большинство вопросов «или» имеют уникальную синтаксическую структуру, и это одинаково для всех образцов в этой категории.Для обеих этих категорий системы Syntactic, BERT и BERT Syntactic демонстрируют постепенное улучшение, поскольку первая система содержит только синтаксическую информацию, следующая фиксирует некоторые аспекты синтаксиса с семантикой, а третья улучшила представление синтаксиса с помощью представления CWE для управления выбором.Таким образом, очевидно, что объем улавливаемой синтаксической информации определяет качество синтеза речи для этих двух категорий.Сложные существительные оказалось труднее улучшить по сравнению с вопросами.BERT показал лучшие результаты в этой категории с улучшением на 1,2% по сравнению с базовым уровнем.Мы можем объяснить это способностью BERT захватывать контекст, чего Syntactic не делает.Это играет решающую роль в сложных существительных, где для достижения подходящей просодии необходимо понимать, в каком контексте используются существительные.Для других сложных предложений BERT показал лучшие результаты, улучшившись по сравнению с базовым уровнем на 6%.Это снова можно объяснить тем фактом, что большинство сложных предложений требовали контекстуальных знаний.Хотя Syntactic действительно улучшился по сравнению с базовым уровнем, синтаксис не выглядит решающим фактором, поскольку BERT Syntactic работает немного хуже, чем BERT.Это указывает на то, что улучшение представления синтаксиса не позволяет BERT в полной мере использовать собранные контекстные знания для управления выбором встраивания.Ответ на вопрос 3 содержится в таблице TABREF22, в которой указаны баллы MUSHRA в наборе данных LFR.Система Syntactic показала лучшие результаты с высокой статистической значимостью (p=0,02) по сравнению с исходным уровнем.Мы сокращаем разрыв между базовым уровнем и записями почти на 20%.Другие системы демонстрируют статистически незначительные (p$>$0,05) улучшения по сравнению с базовым уровнем.Чтобы достичь подходящей просодии, LFR требует более длинных зависимостей и знания просодических групп.Такая информация может быть более эффективно аппроксимирована системой Syntactic, а не системами на основе CWE.Однако это тема для потенциального будущего исследования, поскольку разница между BERT и Syntactic статистически незначима (p = 0,6). Существующие системы TTS на основе VAE подвержены генерации монотонной речи из-за необходимости выбора подходящего акустического внедрения. синтезировать образец.В этой работе мы предложили генерировать динамическую просодию из тех же систем TTS, используя лингвистику для управления выбором акустического встраивания.Предлагаемый нами подход способен улучшить общее качество речи, включая просодию и естественность.Мы предлагаем три метода (синтаксический, BERT и синтаксический BERT) и оцениваем их эффективность на двух наборах данных: общие просодические ошибки и LFR.Система Syntactic смогла значительно улучшиться по сравнению с базовым уровнем практически по всем параметрам (за исключением естественности по CPE).Информация, полученная с помощью BERT, еще больше улучшила просодию в тех случаях, когда требовались контекстуальные знания.Что касается LFR, мы сократили разрыв между базовой и фактической записью на 20%.Этот подход можно расширить, если информировать модель об этих функциях, а не использовать их для выбора встраивания.
Недавние достижения в области преобразования текста в речь (TTS) позволили улучшить качество и естественность почти человеческих возможностей при рассмотрении отдельных предложений. Но для достижения человеческого общения все еще не хватает динамических вариаций и адаптируемости человеческой речи. Эта работа пытается решить проблему достижения более динамичной и естественной интонации в системах TTS, особенно для стилистической речи, такой как стиль речи диктора. Мы предлагаем новый подход к выбору встраивания, который использует лингвистическую информацию, используя вариативность речи, присутствующую в наборе обучающих данных. Анализируем вклад как семантических, так и синтаксических особенностей. Наши результаты показывают, что этот подход улучшает просодию и естественность сложных высказываний, а также при чтении длинной формы (LFR).
3,522
QasperSumInstruct
ru
Напиши аннотацию по статье
Многоуровневая нейронная сеть для обнаружения неявной причинно-следственной связи в веб-текстах. Автоматический анализ причинно-следственных связей текста — важная, но трудная задача, поскольку считается, что причинно-следственная связь играет важную роль в человеческом познании при принятии решений BIBREF0.Таким образом, автоматическая текстовая причинность широко изучалась в широком спектре областей, таких как промышленность BIBREF1, физика BIBREF2, здравоохранение BIBREF3 и т. д.Инструмент для автоматического просмотра множества текстового контента в Интернете и извлечения значимых причинно-следственных связей может помочь нам построить причинно-следственные цепочки, чтобы раскрыть ранее неизвестные связи между событиями BIBREF4, и ускорить обнаружение внутренней логики событий BIBREF5. Было предпринято множество исследовательских усилий. создано для выявления причинно-следственных связей из текстового корпуса со сложной структурой предложений в книгах или газетах.В Causal-TimeBank авторы BIBREF6 ввели теги «CLINK» и «C-SIGNAL» для обозначения причинно-следственной связи событий и причинно-следственных сигналов соответственно на основе определенных шаблонов (например, «А произошло из-за Б»).В. До и др.BIBREF7 собрал 25 статей новостей CNN в 2010 году и опубликовал набор данных о причинно-следственных связях событий, который обеспечивает относительно плотные причинно-следственные аннотации.Недавно Q. Do et al. усовершенствовал метод аннотаций и реализовал совместные рассуждения причинно-временных связей BIBREF8.Однако объем текстовых данных в дикой природе, например, в сети, гораздо больше, чем в книгах и газетах.С помощью мобильных технологий люди склонны выражать личное мнение и записывать памятные моменты в сети, что, как следствие, становится богатым источником причинно-следственных связей.Существует огромная потребность в исследовании подхода к выявлению как явной, так и неявной причинно-следственной связи из веб-текста.Несмотря на успех существующих исследований по извлечению явной причинности, существует несколько причин, по которым большинство существующих работ не могут быть напрямую применены к анализу причинности в веб-тексте, где существует большое количество случаев неявной причинности.Во-первых, большинство общедоступных наборов данных для анализа причинно-следственных связей собираются из книг и газет, где языковые выражения более формальны и менее разнообразны, чем текстовые данные в Интернете.Во-вторых, это сделало бы восприятие причинности неполным, поскольку существующие работы в основном фокусируются на явных причинных отношениях, выраженных внутрипредложением или межпредложением связками, без учета двусмысленных и неявных случаев.Неявная причинность здравого смысла может быть выражена простой структурой предложения без каких-либо связок: например, «намокший» является причиной «лихорадки» в примере 1 не имеет связок, помогающих обнаружить причинную связь, но есть явные связки (т.е. «так как» и «результат») в примере 2, чтобы улучшить обнаружение сложной причинно-следственной связи.Пример 1. Днем я промок, а ночью пришел домой с температурой. Пример 2.Поскольку компьютеры просто выполняют данные им инструкции, ошибки почти всегда являются результатом ошибки программиста или недосмотра, допущенного при разработке программы.Обычно поиск причинно-следственных связей делится на две последовательные задачи: обнаружение причинно-следственных связей и извлечение причинно-следственных пар.При работе с крупномасштабным веб-текстом обнаружение причинно-следственных связей с помощью конкретных классификаторов с возможностью реляционного рассуждения является предварительным этапом извлечения пар причинно-следственных связей.Эффективность анализа причинно-следственных связей во многом зависит от того, насколько хорошо выполнено обнаружение.В этой статье мы в основном сосредоточимся на этапе обнаружения.Эта процедура может преодолеть слабость ручных шаблонов, которые едва охватывают лингвистические вариации явных выражений причинности.Это может помочь создать набор данных о причинно-следственных связях с различными выражениями для извлечения, что приведет к гораздо меньшей сложности модели.Большинство существующих работ по обнаружению причинности имеют два общих ограничения.Во-первых, использование лингвистических методов, таких как тегирование части речи (POS) и анализ синтаксических зависимостей, для получения функций, созданных вручную, является трудоемким и занимает много времени.Чжао и др.BIBREF9 разделил причинные связки на разные классы как новый признак категории, основанный на сходстве структуры синтаксических зависимостей внутри предложений причинности.Кроме того, предлагаемая модель справляется с взаимодействием между функцией категории и другими часто используемыми функциями, такими как контекстуальные функции, синтаксические функции и функции позиции.Однако эти извлеченные признаки вряд ли охватывают широкий спектр выражений причинности.Алгоритмы, которые использовали наборы инструментов НЛП для извлечения признаков, могут передавать ошибки, вызванные наборами инструментов.Хиди и Маккеон BIBREF10 использовали мировые знания, такие как FrameNet, WordNet и VerbNet, для измерения корреляций между словами и сегментами, в то время как метод едва обрабатывает те слова, которые никогда не появляются на этапе обучения.Во-вторых, на качество выделения совпадений по заранее определенным шаблонам влияют неоднозначные связки, такие как «впоследствии» и «сила».Как видно из таблицы TABREF4, «следовательно» наблюдается либо в причинно-следственных, либо в непричинных примерах.Луо и др. BIBREF11 использовал причинно-следственные пары, извлеченные с помощью набора заранее определенных шаблонов, для формирования CausalNet, где вес пары причинно-следственных связей представляет собой частоту совпадения причинно-следственных связей.К сожалению, из-за объема их корпуса дальнейший анализ синтаксической зависимости предложений не проводился.В некоторой степени это ограничивает эффективность обнаружения причинных пар.Для решения вышеуказанных проблем мы предлагаем многоуровневую сеть обнаружения причинности (MCDN) для обнаружения причинности на основе следующих наблюдений: 1) методы, основанные на сквозных глубоких нейронных сетях, могут снизить трудозатраты на разработку признаков и облегчение распространение ошибок из существующих наборов инструментов; 2) причинность представляет собой сложное отношение, которое требует многоуровневого анализа, включающего, во-первых, анализ каждого слова с его контекстом и, во-вторых, вывод о причинно-следственной связи через сегменты по обе стороны связок.Поэтому на уровне слов мы интегрируем вложения слов, позиций и сегментов для кодирования входного предложения с последующей подачей его в составные блоки Transformer, которые широко используются в различных задачах НЛП BIBREF12, BIBREF13.В нашем исследовании Трансформатор мог бы обращать внимание на причинно-следственные связи и тем временем фиксировать зависимость между связями на больших расстояниях.С помощью этого сквозного модуля мы объединяем локальный контекст и зависимость на расстоянии, чтобы получить семантическое представление на уровне слова.Таким образом, мы можем ослабить первое ограничение (то есть разработку функций и накопленные ошибки).На уровне сегмента, чтобы сделать вывод о регистре и эффекте рядом с AltLex, мы разбили предложение на три сегмента по принципу «сегмент до AltLex», «AltLex» и «сегмент после AltLex».Чтобы решить второе ограничение, мы предлагаем новый модуль вывода причинно-следственной связи, а именно сеть самокаузальных отношений (SCRN).Из-за особенностей набора данных входные данные SCRN представляют собой одно предложение.Это отличается от сетей отношений в других областях.Карты признаков сегментов объединяются в четыре попарные группы, которые соответственно объединяются с представлением предложения.Наша интуиция подсказывает, что если предложение может быть выражено как «B-AltLex-A», мы могли бы вывести эти сегменты попарно, чтобы определить: 1) семантическое отношение «B-AltLex» и «AltLex-A»; 2) причинно-следственная связь между «Б-А» или «А-Б».Затем представление на уровне сегмента выводится с помощью двух нелинейных слоев.Наконец, мы объединяем представления на уровне слов с представлениями на уровне сегментов, чтобы получить результат обнаружения.В целом наша модель MCDN имеет простую архитектуру, но эффективный логический потенциал для обнаружения причинно-следственных связей.Вклад можно резюмировать как тройной: мы представляем задачу анализа причинно-следственных связей из веб-текста, которая переходит на этап обнаружения и извлечения.Использование обнаружения вместо конкретных шаблонов является новым направлением и может обеспечить богатое разнообразие текста причинно-следственных связей с данными с низким уровнем шума для последующего этапа извлечения и последующих приложений.Мы предлагаем нейронную модель MCDN для решения проблемы на уровне слов и сегментов без какой-либо разработки функций.MCDN содержит модуль реляционного рассуждения под названием Self Causal Relation Network (SCRN), позволяющий выводить причинно-следственные связи внутри предложений.Чтобы оценить эффективность предлагаемой структуры, мы провели обширные эксперименты на общедоступном наборе данных.Результаты экспериментов показывают, что наша модель значительно превосходит базовые методы, включая многие современные модели классификации текста, что показывает, что обнаружение причинно-следственной связи является сложной задачей.Для обнаружения требуется не только многоуровневая информация, но и больше возможностей для рассуждения, чем для классификации текста.Анализ причинно-следственных связей — это фундаментальная задача, имеющая множество приложений.В ранних работах для извлечения причинно-следственных пар использовались байесовские сети BIBREF14, BIBREF15, синтаксическое ограничение BIBREF16 и структура зависимостей BIBREF17.Тем не менее, они вряд ли могли обобщить умеренные закономерности и правила, чтобы избежать переобучения.Дальнейшие исследования включают мировые знания, которые дополняют лексико-синтаксический анализ.Обобщая существительные по их гипернимам в WordNet и каждый глагол по своему классу в VerbNet BIBREF18, BIBREF19 устраняет негативное влияние лексических вариаций и обнаруживает частые закономерности причинно-следственных пар.Как известно, чаще встречаются неявные выражения причинности. Ж.-Г.О и др. BIBREF20 использовал ключевые слова и маркировку последовательностей с помощью CRF и выбрал наиболее релевантные выражения причинности в качестве дополнения к неявно выраженной причинности.Однако этот метод требует поиска и ранжирования огромных веб-текстов.С точки зрения естественных свойств, причинность описывает отношения между регулярно коррелирующими событиями или явлениями.Построение причинно-следственной сети или графика может помочь обнаружить закономерности совместного возникновения и правила развития причинно-следственной связи BIBREF3, BIBREF19.Таким образом, Чжао и др. BIBREF21 провел рассуждения о причинно-следственной связи в гетерогенной сети, чтобы извлечь неявные отношения из перекрестных предложений и найти новые причинно-следственные связи.Наша работа аналогична предыдущим работам по выявлению причинно-следственных связей BIBREF10, BIBREF18.Разница в том, что мы не включаем базы знаний, которые они использовали.Мы предлагаем многоуровневую модель на основе нейронов для решения проблемы без какой-либо разработки функций.О и др. BIBREF20 предложил многоколоночную сверточную нейронную сеть с вниманием к причинности (CA-MCNN) для расширения MCNN с помощью вопросов и ответов на основе внимания причинности, что не совпадает с нашей задачей.По сравнению с CA-MCNN, многоголовое самообслуживание в блоке «Трансформатор», который мы использовали на уровне слов, более эффективно, а SCRN на уровне сегмента увеличивает способность нашей модели к рассуждению.Реляционные сети (RN) изначально представляют собой простой модуль Plug-and-Play для решения проблем Visual-QA, которые в основном зависят от реляционных рассуждений BIBREF22.RN могут эффективно сочетаться со сверточными нейронными сетями (CNN), сетями долгосрочной краткосрочной памяти (LSTM) и многослойными перцептронами (MLP), чтобы уменьшить общую сложность сети.Мы приобретаем общую способность рассуждать об отношениях между сущностями и их свойствами.Исходные RN могут выполнять только одношаговый вывод, например $A \rightarrow B$, а не $A \rightarrow B \rightarrow C$.Для задач, требующих сложных многоэтапных реляционных рассуждений, Palm et al. БИБРЕФ23представил рекуррентную реляционную сеть, которая работает с графовым представлением объектов.Павез и др. BIBREF24 добавил к сетям памяти с RN способность к сложному рассуждению, что снизило вычислительную сложность с квадратичной до линейной.Однако их задачами остаются текстовый контроль качества и визуальный контроль качества.В этой статье впервые RN применяются для извлечения отношений, как это предложено SCRN. В этом разделе описываются лингвистические основы причинных отношений и набор данных AltLexes, который мы использовали.Широко распространено мнение, что причинность может быть выражена явно и неявно с помощью различных предложений.В Penn Discourse Treebank (PDTB) BIBREF25 более $12\%$ явных дискурсивных связок помечены как причинно-следственные, такие как «следовательно», «в результате» и «последовательно», а также почти $26\%$ неявных дискурсивных отношений. .В дополнение к этому в PDTB существует тип неявных связок под названием AltLex (Альтернативная лексикализация), способный указывать причинно-следственные связи, который представляет собой открытый класс маркеров и потенциально бесконечен.Определение AltLex было расширено за счет открытого класса маркеров, которые встречаются внутри предложения в BIBREF10.Ниже приведены примеры, широко распространенные в новом наборе AltLexes, но не содержащиеся в явных связках PDTB.Слово «сделанный» со многими значениями здесь используется для выражения причинности.Более того, выражение причинности во втором примере несколько неясно.Неоднозначные причинные глаголы, например Наводнение привело к обрушению многих домов.Частичные предложные фразы, например Они создали беспилотный автомобиль l4 с идеей новой нейронной сети.Согласно нашей статистике в параллельных данных, построенных в BIBREF10, 1144 AltLexes указывают на причинно-следственную связь, а 7647 AltLexes указывают на непричинную связь.Между тем, их пересечение имеет 144 AltLexes, что составляет $12,6\%$ причинных множеств и $1,8\%$ непричинных множеств.В заключение отметим, что в наборе данных AltLexes часто наблюдаются неоднозначные связки и неявные выражения.Методы, основанные на статистическом обучении с использованием ручных шаблонов, имеют недостатки, позволяющие построить надежную модель в таких контекстах.Однако благодаря абстракции и способности рассуждать наша модель MCDN может быть хорошо адаптирована к этим ситуациям.Для данного предложения Википедии $S$ предполагается, что оно имеет $n$ токенов.$S = \lbrace s_1, s_2, ... , s_{n-1}, s_n \rbrace $ где $s_i$ — отфильтрованный токен в позиции $i$. Мы используем $L$ для обозначения AltLex, $BL$ для обозначения сегмента перед AltLex и $AL$ для обозначения сегмента после AltLex.Наша цель — сгенерировать предсказание на уровне предложения $\hat{y}$, метка которого — $y$, как уравнение DISPLAY_FORM12.Предлагаемая модель MCDN показана на рисунке FigREF15.Мы подробно опишем каждый компонент в оставшейся части этого раздела.Стоит отметить, что Хиди и Маккеон BIBREF10 использовали пару предложений английской Википедии и простой Википедии для создания функции параллельного корпуса, но каждый раз по-прежнему принимали одно предложение в качестве входных данных.В отличие от этого подхода, MCDN использует только входное предложение для причинного вывода.В этом разделе мы подробно рассмотрим MCDN, многоуровневый подход на основе нейронных сетей с блоками Transformer на уровне слов и SCRN на уровне сегментов для обнаружения причинно-следственных связей, который в первую очередь нацелен на неоднозначные и неявные отношения.Наше входное представление может включать информацию из нескольких источников в одну последовательность токенов.Вдохновленное BIBREF12, представление каждого токена во входном предложении строится путем суммирования соответствующих вложений слов, позиций и сегментов.В отличие от предыдущей работы, BERT, вложения сегментов здесь указывают сегменты $BL$, $L$ и $AL$ в каждом предложении.Как показано на рис. FigREF10, сначала мы используем набор инструментов word2vec для предварительного обучения вложений слов с измерением $d_{word}$ в дампе английской Википедии.Затем мы используем позиционные вложения для отображения позиционной информации, поскольку наша модель не имеет рекуррентной архитектуры на уровне слов.Аналогичным образом мы используем встраивание сегментов, чтобы включить больше лингвистических деталей.$d_{pos}$ и $d_{seg}$ — размерность позиционных вложений и вложений сегментов соответственно.Суммируя три вложения, наконец, мы получаем новое представление $x_i \in \mathbb {R}^d$ для токена $s_i$, где $d = d_{word} = d_{pos} =d_{seg}$.Представление $x_i$ может предоставлять базовые функции для модулей высокого уровня.В блоке «Трансформер» есть два подуровня: сети самообслуживания и сети прямой связи.Для стабильности и превосходной производительности мы добавляем нормализацию слоя после остаточного соединения для каждого из подуровней.Внимание к себе.В этой статье мы используем масштабированное многоголовое самообслуживание, которое имеет множество преимуществ по сравнению с RNN и CNN.Во-первых, «рецепторное поле» каждого токена может быть расширено на всю последовательность без распространения зависимости на большие расстояния.И любому значимому токену будет присвоен высокий вес.Во-вторых, скалярное произведение и мультиголовка могут быть оптимизированы для параллелизма отдельно, что более эффективно, чем RNN.Наконец, модель с несколькими головками объединяет информацию из разных подпространств представления.Для масштабированного внимания к себе, учитывая входную матрицу из $n$ векторов запроса $Q \in \mathbb {R}^{n \times d}$, ключей $K \in \mathbb {R}^{n \times d }$ и значения $V \in \mathbb {R}^{n \times d}$, вычисляя выходную оценку внимания следующим образом: Мы берем входную векторную матрицу $X \in \mathbb {R}^{n \times d }$ в качестве матрицы запросов, ключей и значений и линейно проецируем их $h$ раз соответственно.Формально для $i$-$th$ головы ${\rm H_i}$ это формулируется следующим образом: Где изученные проекции представляют собой матрицы $W_i^Q \in \mathbb {R}^{d \times d /h} $, $W_i^K \in \mathbb {R}^{d \times d /h}$, $W_i^V \in \mathbb {R}^{d \times d /h}$.Наконец, мы объединяем каждую головку и сопоставляем их с выходным пространством с помощью $W_{MH} \in \mathbb {R}^{d \times d}$:Сети прямой связи.Мы применяем сети прямой связи после подуровня самообслуживания.Он состоит из двух линейных слоев и активации ReLU между ними.Обратите внимание, что $x$ — это результат предыдущего слоя: где $W_1 \in \mathbb {R}^{d \times d_f}$ и $W_2 \in \mathbb {R}^{d \times d_f}$. В наших экспериментах мы установили $d_f = 4d$.Блок Transformer складывается $N$ раз, из которых конечный результат $wl\_{rep}$ рассматривается как представление предложения на уровне слова.Мы стремимся иметь дело с этим словом с его детальным локальным контекстом и грубой глобальной информацией о зависимостях на расстоянии.Таким образом, наш модуль уровня слов может получить не только лексико-синтаксисные знания, которые с трудом охватываются ручными шаблонами, но и лексическую семантику слов.Мы предлагаем новый подход к выводу причинно-следственной связи в предложениях на уровне сегментов.Модель получила название Self Causal Relation Network (SCRN), поскольку она фокусируется на причинно-следственных связях внутри предложения по сравнению с предыдущими исследованиями RN.Работа с сегментами.Основная идея сетей отношений — работа с объектами.В нашей задаче предложение разбивается на три сегмента $BL$, $L$ и $AL$ в соответствии с положением AltLex.Тогда входные представления этих сегментов можно сформулировать как $X_{BL} \in \mathbb {R}^{T_{BL} \times d}$, $X_{L} \in \mathbb {R}^{T_ {L} \times d}$ и $X_{AL} \in \mathbb {R}^{T_{AL} \times d}$, где $T_{BL}$, $T_{L}$ и $T_ {AL}$ — длина токенов в каждом сегменте.Из-за разницы в длине сегментов мы используем CNN с тремя столбцами (TC-CNN) для анализа $X_{BL}$, $X_{L}$ и $X_{AL}$ в набор объектов.В частности, в представлениях здесь используются только вложения слов и вложения сегментов, поскольку TC-CNN может захватывать информацию о позиции.В отличие от [25], TC-CNN свертывает их через одномерный сверточный слой в $k$ карты признаков размером $T_{BL} \times 1$, $T_{L} \times 1$ и $T_{AL} \ раз 1$, где $k$ — сумма ядер.Модель использует многомасштабные ядра (с переменным размером окна) для получения многомасштабных функций.Как видно на рис.На фиг.15 карты признаков каждого сегмента масштабируются в вектор k-размера с помощью максимального слоя пула после свертки.Наконец, мы создаем набор объектов для SCRN:Работа с приговором.Входное представление $X$ предложения проходит через двунаправленное ГРУ (би-ГРУ) со скрытыми единицами измерения $d_g$, а конечное состояние $\gamma \in \mathbb {R}^{2d_g}$ bi-GRU присоединяется к каждой паре объектов.SCRN.Мы создаем четыре пары объектов, объединенные с помощью $\gamma $.Пусть $\#$ обозначает парную операцию.Для кандидатов на причинность $BL\#L$ и $L\#AL$ указывают на связь между причиной-следствием и AltLex, а $BL\#AL$ и $AL\#BL$ указывают направление причинности.Матрица пар объектов $OP \in \mathbb {R}^{4 \times (2k + 2d_g)}$ показана следующим образом: Здесь ";" — это операция конкатенации векторов объектов.Следовательно, мы модифицируем архитектуру SCRN в математической формулировке и получаем окончательный результат $sl\_{rep} \in \mathbb {R}^{4d_g}$ на уровне сегмента: В общем, модель преобразует сегменты в объект -пары TC-CNN и передают предложение через би-ГРУ для получения глобального представления.Затем мы интегрируем пары объектов с глобальным представлением и делаем попарный вывод, чтобы обнаружить взаимосвязь между сегментами.Исследования абляции показывают, что предлагаемый SCRN на уровне сегмента обладает способностью к реляционному рассуждению и значительно способствует получению результата.Наша модель MCDN определяет причинность каждого предложения на основе выходных данных $wl\_{rep}$ на уровне слова и $sl\_{rep}$ на уровне сегмента.Два вывода объединяются в единое представление $uni\_{rep} =[wl\_{реп}; sl\_{rep}] \in \mathbb {R}^{d + 4d_g}$. В этой задаче мы используем двухслойную FFN, состоящую из модулей $d_g$, которые имеют активацию ReLU, за которой следует функция softmax для прогнозирования: В наборе данных AltLexes количество непричинных примеров превышает семь раз. количество причинных примеров, и это приводит к чрезвычайной проблеме дисбаланса выборки.Если мы примем кросс-энтропию (CE) в качестве функции потерь модели, производительность будет неудовлетворительной.Причем сложность обнаружения каждого образца различна.Например, предложение содержит неоднозначный AltLex, такой как «сделать», труднее сделать вывод, чем предложение, содержащее «причину».Следовательно, нам необходимо присвоить мягкий вес причинным и непричинным потерям, чтобы модель уделяла больше внимания тем примерам, которые трудно идентифицировать.Руководствуясь работами BIBREF26, мы вводим потерю фокуса, чтобы улучшить нормальную функцию потери перекрестной энтропии.Потери фокуса $L_{fl}$ формулируются как целевая функция с гиперпараметром балансира $\alpha$ и настраиваемым гиперпараметром фокусировки $\beta\ge 0$. Для оптимизации мы используем оптимизатор Адама BIBREF27 с $\beta _1 = 0,9$, $\beta _2 = 0,999$, $\epsilon = 1e^{-8}$ и обрезаем норму градиентов.В этом разделе мы заинтересованы в исследовании производительности MCDN, которая объединяет блоки Transformer с SCRN, и важно ли включать способность вывода в задачу обнаружения причинно-следственной связи на уровне предложений. Набор данных.Мы используем набор данных AltLexes для оценки предлагаемого подхода.Подробная статистическая информация о наборе данных приведена в таблице TABREF30.Загрузочный набор генерируется с использованием новых AltLexes для идентификации дополнительных на основе обучающего набора, что увеличивает число причинных примеров примерно на 65 процентов.В нашем эксперименте мы обучаем MCDN на обучающем наборе и наборе начальной загрузки отдельно и настраиваем гиперпараметры на наборе проверки.Набор с золотыми аннотациями используется в качестве тестового набора.Гиперпараметры.Мы установили начальную скорость обучения на уровне $1e^{-4}$, а затем уменьшили ее наполовину, когда показатель F1 перестал увеличиваться более чем через две эпохи.Размер партии в этом эксперименте — 32, а размер эпохи — 20.Чтобы избежать переобучения, мы используем два типа регуляризации во время обучения: 1) исключение сумм вложений, выходных данных каждого слоя bi-GRU, кроме последнего, каждого слоя в FFN и остаточного исключения для блоков Transformer BIBREF12; 2) $L_2$-регуляризация для всех обучаемых параметров.Коэффициент отсева установлен равным 0,5, а коэффициент регуляризации равен $3e^{-4}$. В модуле самовнимания задаем время стека блоков Трансформера $N=4$ и количество головок внимания $h=4$. В SCRN размеры окон ядер TC-CNN равны 2, 3, 4, а сумма ядра $k=150$. Мы используем 2-х слойный би-ГРУ по 64 единицы в каждом направлении.Что касается потери фокуса, мы установили $\alpha =0,75, \beta =4$.Оценочные метрики.Различные показатели оценки, включая точность, точность, полноту и показатель F1, адаптированы для сравнения MCDN с базовыми методами.Чтобы всесторонне понять нашу модель, мы используем как площадь под кривой оператора-приемника (AUROC), так и площадь под кривой точности-отзыва (AUPRC), чтобы оценить ее чувствительность и специфичность, особенно в ситуации, когда причинно-следственная связь относительно скудна в веб-тексте.В этом разделе мы подробно рассмотрим 10 базовых методов.Первые пять методов — это наиболее распространенный класс (MCC): $KLD$, $LS \cup KLD$, $LS \cup KLD \cup CONN$ и $KLD \cup LS \cup LS_{inter}$. $KLD$, $LS$ и $CONN$ представляют показатель KL-дивергенции, лексико-семантический признак и категориальный признак соответственно.Эти методы используются в качестве базовых в работе Хиди и др..$KLD$ и $LS \cup KLD$ приобретают лучшую точность и точность на тренировочном наборе.$LS \cup KLD \cup CONN$ и $KLD \cup LS \cup LS_{inter}$ — лучшие системы с наивысшим отзывом и показателем F1 соответственно.Следующие пять являются наиболее часто используемыми методами классификации текста.Это TextCNN, TextRNN, SASE, DPCNN и BERT.В нашем эксперименте мы воспроизвели все из них, кроме BERT.Для BERT мы используем общедоступную предварительно обученную языковую модель (базовую).и настроил его для каждого набора данных.Подробная информация об этих базовых линиях приведена ниже: Используемый здесь TextCNNBIBREF28 имеет слой свертки, размеры окон которого составляют 2, 3, 4, и каждое имеет 50 ядер.Затем мы применяем пул максимального сверхурочного времени и двухуровневый FFN с активацией ReLU.Коэффициент отсева составляет 0,5, а коэффициент регуляризации $L-2$ равен $3e^{-4}$. TextRNN использует двунаправленный GRU, такой же, как кодер предложений в SCRN, и использует максимальное объединение всех скрытых состояний GRU для получения вектора встраивания предложения. , затем используйте двухслойный FFN для вывода результата.Коэффициент отсева и коэффициент регуляризации $L_2$ такие же, как и у TextCNN.SASE BIBREF29 использует двумерную матрицу для представления встраивания предложений с механизмом самообслуживания и конкретным термином регуляризации для модели.Это эффективный метод встраивания на уровне предложения.DPCNN BIBREF30 — это глубокая модель CNN на уровне слов низкой сложности для классификации настроений и категоризации тем.Он может выполнять понижающую выборку без увеличения количества карт признаков, что обеспечивает эффективное представление долгосрочных ассоциаций.BERT BIBREF13 представил новейшие результаты в широком спектре задач НЛП, которые представляют собой предварительно обученную модель глубокого языкового представления, основанную на трансформере и модели маскированного языка.BERT основан на трансферном обучении в области компьютерного зрения: предварительное обучение модели нейронной сети известной задаче, например, ImageNet, а затем выполнение точной настройки для новой конкретной задачи.Стоит отметить, что из-за дисбаланса данных и для сравнения в одной и той же ситуации мы также использовали потерю фокуса в вышеуказанных методах, чтобы получить наилучшую производительность.В таблице TABREF30 показаны результаты обнаружения из двух наборов данных нашей модели и конкурирующих методов.Во-первых, мы видим, что MCDN значительно превосходит все другие модели при обучении на обоих наборах данных.Хотя MCDN не обеспечивает высочайшей точности, он увеличивает показатель F1 на 10,2% и 3% по сравнению с существующими лучшими системами $LS \cup KLD \cup CONN$ и $KLD \cup LS \cup LS_{inter}$.Кроме того, SVM на основе признаков $KLD$ обеспечивает высочайшую точность в обучающем наборе, хотя и имеет плохую запоминание и оценку F1, поскольку он фокусируется на заменяемости связок, в то время как параллельные примеры обычно имеют одну и ту же связку, которая будет оценена как ложноотрицательные.Примечательно, что MCDN более устойчив к исходному обучающему набору и набору с начальной загрузкой, в то время как подходы, основанные на линейном SVM и нейронных сетях, продемонстрировали значительную разницу и получили даже более 20 баллов по показателю F1.Во-вторых, глубокие методы имеют тенденцию приобретать сбалансированную точность и показатель полноты, за исключением BERT и MCDN, отзыв которых значительно выше, чем точность на загрузочном наборе.Кроме того, показатель F1 как BERT, так и MCDN превышает 80 в наборе данных с загрузкой.Все приведенные выше результаты показывают, что нейронная сеть более мощна, чем традиционные методы совместного возникновения и основанные на мировых знаниях методы решения этой задачи, как мы и ожидали.MCDN изучил различные семантические представления причинно-следственных связей на уровне слов и смог сделать вывод о причинно-следственной связи на уровне сегментов, подкрепленный кратким и эффективным SCRN.Кроме того, методы глубокой классификации, которые мы использовали, не работают так же хорошо, как MCDN, который демонстрирует, что обнаружение причинно-следственной связи является гораздо сложной задачей, требующей значительных реляционных способностей по сравнению с текстовой классификацией, хотя оба могут быть обобщены на задачи классификации.
Извлечение причинно-следственной связи из текста — сложная и важная задача понимания естественного языка. Большинство ранних попыток ее решения можно разделить на две категории: 1) использование частоты совпадений и мировых знаний для обнаружения причинно-следственных связей; 2) извлечение пар причинно-следственных связей путем непосредственного использования связок и синтаксических шаблонов. Однако, поскольку причинность имеет различные лингвистические выражения, невозможно избежать проблем с зашумленными данными и игнорирования неявных выражений, вызванных этими методами. В этой статье мы представляем модель нейронной причинно-следственной связи, а именно Многоуровневую сеть обнаружения причинно-следственной связи (MCDN), для решения этой проблемы. В частности, мы применяем многоголовое самовнимание для приобретения семантических характеристик на уровне слов и интегрируем новую сеть отношений для вывода причинно-следственной связи на уровне сегмента. Насколько нам известно, при решении задач причинно-следственной связи сеть отношений применяется впервые. Результаты экспериментов с набором данных AltLex показывают, что: а) MCDN очень эффективен для неоднозначного и неявного вывода причинно-следственной связи; б) по сравнению с обычной задачей классификации текста, обнаружение причинно-следственной связи требует более сильных умозаключений; в) предложенный подход достиг самых современных показателей.
5,143
QasperSumInstruct
ru
Напиши аннотацию по статье
Совместная модель оценки качества мультимодальных документов. Задача оценки качества документа состоит в том, чтобы автоматически оценить документ по некоторому заранее определенному перечню меток качества.Это может принимать разные формы, включая оценку эссе (качество = качество языка, связность и соответствие теме), фильтрацию заявления о приеме на работу (качество = соответствие роли + визуальное/презентационное качество заявления) или выбор ответа при ответе на вопросы сообщества. (качество = оперативность + актуальность ответа на вопрос).В данном документе мы фокусируемся на оценке качества документов в двух контекстах: классификация качества документов Википедии и вопрос о том, была ли принята статья, представленная на конференции, или нет.Автоматическая оценка качества имеет очевидные преимущества с точки зрения экономии времени и удобства работы в условиях большого объема документов.В случае динамических документов (возможно, с несколькими авторами), например, в случае с Википедией, это особенно актуально, поскольку любое редактирование потенциально влияет на знак качества этого документа (а в секунду редактируется около 10 англоязычных документов Википедии). ).Более того, когда задача оценки качества децентрализована (как в случае с Википедией и оценкой научных работ), критерии качества часто применяются разными людьми непоследовательно, тогда как автоматическая система оценки качества документов потенциально может уменьшить несоответствия и обеспечить немедленную обратную связь с автором.Текущие исследования по оценке качества документов в основном сосредоточены на текстовых особенностях.Например, BIBREF0 проверяет такие характеристики, как длина статьи и количество заголовков, чтобы предсказать класс качества статьи в Википедии.В отличие от этих исследований, в данной статье мы предлагаем объединить текстовые функции с визуальными функциями на основе визуального рендеринга документа.Рисунок 1 иллюстрирует нашу интуицию относительно статей в Википедии.Не имея возможности читать текст, мы можем сказать, что статья на рисунке 1 имеет более высокое качество, чем на рисунке 1, так как имеет подробное информационное окно, обширные ссылки и множество изображений.Основываясь на этой интуиции, мы стремимся ответить на следующий вопрос: можем ли мы добиться большей точности оценки качества документа, дополняя текстовые функции визуальными функциями? Наша визуальная модель основана на тонкой настройке модели Inception V3 BIBREF1 над визуальным отображением документов, в то время как наша текстовая модель основана на иерархическом biLSTM.Далее мы объединяем их в единую модель.Мы проводим эксперименты с двумя наборами данных: набором данных Википедии, новым для этой статьи, и набором данных arXiv, предоставленным BIBREF2, разделенным на три части в зависимости от тематической категории.Результаты экспериментов по визуальной визуализации документов показывают, что неявные показатели качества, такие как изображения и визуальный макет, могут быть зафиксированы классификатором изображений на уровне, сравнимом с классификатором текста.Когда мы объединяем две модели, мы достигаем самых современных результатов для 3/4 наших наборов данных.В этой статье вносится следующий вклад: Весь код и данные, связанные с этим исследованием, будут опубликованы.Для оценки качества документов в различных областях были предложены различные подходы: оценка качества статей Википедии, рейтинг академических работ, оценка качества контента при ответах на вопросы сообщества (cQA) и оценка эссе.Среди этих подходов некоторые используют функции, созданные вручную, а другие используют нейронные сети для изучения функций из документов.Для каждой области мы сначала кратко опишем подходы, основанные на функциях, а затем рассмотрим подходы, основанные на нейронных сетях.Оценка качества статей Википедии. Оценка качества статей Википедии — это задача, которая присваивает метку класса качества данной статье Википедии, отражая процесс оценки качества, который сообщество Википедии выполняет вручную.Было предложено множество подходов, в которых используются функции самой статьи, функции метаданных (например, редакторы и история изменений статей Википедии) или их комбинация.Внутренние функции статьи собирают такую ​​информацию, как правильность организации статьи, наличие подтверждающих доказательств и соответствующей терминологии.Например, BIBREF3 использует стили письма, представленные бинаризованными функциями триграммы символов, для идентификации избранных статей.BIBREF4 и BIBREF0 исследуют количество заголовков, изображений и ссылок в статье.BIBREF5 использует девять показателей читабельности, таких как процент сложных слов в документе, для измерения качества статьи.Характеристики метаданных, которые являются косвенными индикаторами качества статьи, обычно извлекаются из истории изменений и взаимодействия между редакторами и статьями.Например, одна из предложенных эвристик заключается в том, что статьи более высокого качества имеют больше правок BIBREF6 , BIBREF7 .BIBREF8 использует процент зарегистрированных редакторов и общее количество редакторов статьи.Также были изучены зависимости статьи от редактора.Например, BIBREF9 использует авторитет редакторов для измерения качества статей Википедии, где авторитет редакторов определяется статьями, которые они редактируют.Также были предложены подходы глубокого обучения для прогнозирования качества статей Википедии.Например, BIBREF10 использует версию doc2vec BIBREF11 для представления статей и передает встроенные документы в четырехуровневую нейронную сеть.BIBREF12.сначала получите представления предложений путем усреднения слов в предложении, а затем примените biLSTM BIBREF13 для изучения представления на уровне документа, которое сочетается с созданными вручную функциями в качестве дополнительной информации.BIBREF14 использует два составных biLSTM для изучения представлений документов.Рейтинг академических работ. Рейтинг академических работ — относительно новая задача в НЛП/ИИ, основная формулировка которой заключается в автоматическом прогнозировании того, принять или отклонить статью.BIBREF2 исследует созданные вручную функции, такие как длина заголовка, наличие в аннотации определенных слов (таких как «превосходство», «современное состояние» и «новелла»), а также встроенное представление аннотации в качестве входных данных для различных последующие обучающиеся, такие как логистическая регрессия, дерево решений и случайный лес.BIBREF15 использует модульную иерархическую сверточную нейронную сеть (CNN), где каждый раздел статьи рассматривается как модуль.Для каждого раздела статьи они обучают CNN, основанную на внимании, и к объединенному представлению каждого раздела применяется уровень внимательного пула, который затем передается в слой softmax.Оценка качества контента в cQA. Автоматическая оценка качества в cQA — это задача определения того, является ли ответ высоким качеством, выбран ли он как лучший ответ или имеет ли он более высокий рейтинг по сравнению с другими ответами.Чтобы измерить качество содержания ответов в cQA, исследователи использовали различные функции из разных источников, такие как само содержание ответа, профиль отвечающего, взаимодействие между пользователями и использование контента.Наиболее распространенной используемой функцией является длина ответа BIBREF16 , BIBREF17 , а также другие функции, включая: синтаксические и семантические функции, такие как оценки читабельности.BIBREF18; сходство вопроса и ответа на лексическом, синтаксическом и семантическом уровнях BIBREF18, BIBREF19, BIBREF20; или пользовательские данные (например, баллы статуса пользователя или количество ответов, написанных пользователем).Также существуют подходы с использованием нейронных сетей.Например, BIBREF21 объединяет представления, полученные с помощью CNN, с созданными вручную функциями для прогнозирования качества ответов.BIBREF22 использует двумерную CNN для изучения семантической релевантности ответа на вопрос и применяет LSTM к последовательности ответов для моделирования контекста потока.BIBREF23 и BIBREF24 моделируют проблему аналогично оценке качества машинного перевода, рассматривая ответы как конкурирующие гипотезы перевода, а вопрос как эталонный перевод, и применяют к проблеме нейронный машинный перевод.Оценка эссе. Автоматическая оценка эссе — это задача присвоения оценки эссе, обычно в контексте оценки языковых способностей изучающего язык.На качество эссе влияют следующие четыре основных аспекта: актуальность темы, организация и связность, использование слов и сложность предложений, а также грамматика и механика.Чтобы измерить, соответствует ли эссе его «подсказке» (описанию темы эссе), обычно используется лексическое и семантическое перекрытие BIBREF25 , BIBREF26 .BIBREF27исследуйте характеристики слов, такие как количество ошибок образования глаголов, среднюю частоту слов и среднюю длину слов, чтобы измерить использование слов и лексическую сложность.BIBREF28 использует особенности структуры предложений для измерения разнообразия предложений.Влияние грамматических и механических ошибок на качество эссе измеряется с помощью $n$-граммных характеристик слов и частей речи, а также «механических» характеристик BIBREF29 (например, орфографии, использования заглавных букв и пунктуации) соответственно.BIBREF30 , BIBREF31 и BIBREF32 используют LSTM для получения представления эссе, которое используется в качестве основы для классификации.Аналогичным образом, BIBREF33 использует CNN для получения представления предложения и LSTM для получения представления эссе со слоем внимания как на уровне предложения, так и на уровне эссе.Мы рассматриваем оценку качества документа как задачу классификации, т. е. по документу мы прогнозируем его класс качества (например, следует ли принять или отклонить научную работу).Предлагаемая модель представляет собой совместную модель, которая объединяет визуальные функции, полученные с помощью Inception V3, с текстовыми функциями, полученными с помощью biLSTM.В этом разделе мы представляем детали визуального и текстового встраивания и, наконец, опишем, как мы их объединяем.Мы вернемся к обсуждению настроек гиперпараметров и экспериментальной конфигурации в разделе «Эксперименты».Для решения задачи классификации изображений был предложен широкий спектр моделей, таких как VGG BIBREF34, ResNet BIBREF35, Inception V3 BIBREF1 и Xception BIBREF36.Однако, насколько нам известно, не существует работ, в которых предлагалось бы использовать визуальную визуализацию документов для оценки качества документов.В этой статье мы используем Inception V3, предварительно обученный в ImageNet («Inception» здесь и далее), для получения визуального внедрения документов, отмечая, что для нашей задачи можно применить любой классификатор изображений.Входные данные для Inception — это визуальный рендеринг (скриншот) документа, а выходные данные — визуальное внедрение, которое мы позже интегрируем с нашим текстовым внедрением.Основываясь на наблюдении, что трудно решить, какие типы свертки применять к каждому слою (например, 3 $\times $3 или 5 $\times $5), базовая модель Inception применяет несколько фильтров свертки параллельно и объединяет результирующие признаки, которые передаются на следующий слой.Преимущество этого метода заключается в том, что он фиксирует как локальные функции посредством меньших сверток, так и абстрактные функции посредством более крупных свёрток.Inception — это гибрид нескольких моделей Inception с разными архитектурами.Чтобы снизить вычислительные затраты, Inception также модифицирует базовую модель, применяя к входным данным свертку 1 $\times $1 и разлагая более крупные свертки на меньшие.Мы используем двунаправленную модель LSTM для создания текстовых вложений для оценки качества документа, следуя методу BIBREF12 (далее «biLSTM»).Входные данные для biLSTM — это текстовый документ, а выходные данные — текстовое внедрение, которое позже будет интегрировано с визуальным внедрением.Для biLSTM каждое слово представляется как встраивание слов BIBREF37 , а к встраиваниям слов применяется уровень среднего пула для получения встраивания предложения, которое передается в двунаправленный LSTM для создания встраивания документа из встраивания предложений.Затем применяется слой максимального объединения для выбора наиболее важных функций из составляющих предложений.Предлагаемая совместная модель (далее «Joint») объединяет визуальные и текстовые внедрения (выходные данные Inception и biLSTM) посредством простого слоя прямой связи и softmax над набором меток документа, как показано на рисунке 2.Мы оптимизируем нашу модель на основе потери перекрестной энтропии.В этом разделе мы сначала опишем два набора данных, использованных в наших экспериментах: (1) Wikipedia и (2) arXiv.Затем мы сообщаем подробности и результаты эксперимента.Набор данных Википедии состоит из статей из английской Википедии с метками классов качества, присвоенными сообществом Википедии.Статьям Википедии присваивается один из шести классов качества в порядке убывания качества: Рекомендуемая статья («FA»), Хорошая статья («GA»), Статья B-класса («B»), Статья C-класса («C»). »), Начальная статья («Начало») и Незавершенная статья («Заготовка»).Описание критериев, связанных с различными классами, можно найти на странице схемы оценок в Википедии.Класс качества статьи Википедии назначается рецензентами Википедии или любым зарегистрированным пользователем, который может обсуждать статью на странице обсуждения для достижения консенсуса.Мы создали набор данных, сначала просканировав все статьи из каждого репозитория классов качества, например, мы получаем статьи FA, сканируя страницы из репозитория FA: https://en.wikipedia.org/wiki/Category:Featured_articles.В результате было получено около 5 тыс. FA, 28 тыс. GA, 212 тыс. B, 533 тыс. C, 2,6 млн стартовых статей и 3,2 млн незавершенных статей.Мы случайным образом выбрали 5000 статей каждого класса качества и удалили все страницы перенаправления, в результате чего в наборе данных оказалось 29 794 статьи.Поскольку викитекст, содержащийся в каждом документе, содержит разметку, относящуюся к категории документа, например {Рекомендуемая статья} или {geo-stub}, которая раскрывает метку, мы удаляем такую ​​информацию.Мы дополнительно случайным образом разделили этот набор данных на обучение, разработку и тестирование в соотношении 8:1:1.Подробная информация о наборе данных представлена ​​в таблице 1. Мысгенерировать визуальное представление каждого документа с помощью снимка экрана статьи размером 1000 $\times $2000 с помощью скрипта PhantomJS поверх визуализированной версии статьи, гарантируя, что версии скриншота и викитекста статьи являются одной и той же версией.Любые прямые индикаторы качества документа (например, индикатор FA, представляющий собой значок бронзовой звездочки в правом верхнем углу веб-страницы) удаляются со снимка экрана.Набор данных arXiv BIBREF2 состоит из трех подмножеств академических статей в репозитории arXiv по информатике (cs) из трех предметных областей: искусственный интеллект (cs.ai), вычисления и язык (cs.cl) и машинное обучение ( cs.lg).В соответствии с исходной формулировкой набора данных BIBREF2, статья считается принятой (т.е. имеет положительную маркировку), если она соответствует статье в базе данных DBLP или иным образом принята любой из следующих конференций: ACL, EMNLP, NAACL, EACL. , TACL, NIPS, ICML, ICLR или AAAI.В противном случае он считается отклоненным (с учетом того, что некоторые документы могли не быть представлены ни на одной из этих конференций).Среднее количество страниц статей в cs.ai, cs.cl и cs.lg составляет 11, 10 и 12 соответственно.Чтобы убедиться, что все страницы PDF-файла имеют одинаковый размер на снимке экрана, мы обрезаем PDF-файл документа до первых 12; мы дополняем PDF-файл пустыми страницами, если PDF-файл содержит менее 12 страниц, используя пакет PyPDF2 Python.Затем мы используем ImageMagick для преобразования 12-страничного PDF-файла в один скриншот размером 1000 $\times $2000 пикселей.В Таблице 2 подробно описан этот набор данных, где в столбце «Принято» указан процент положительных случаев (принятых статей) в каждом подмножестве.Как обсуждалось выше, наша модель состоит из двух основных компонентов — biLSTM и Inception, которые генерируют текстовые и визуальные представления соответственно.Для компонента biLSTM документы предварительно обрабатываются, как описано в BIBREF12, где статья делится на предложения и маркируется с помощью NLTK BIBREF38.Слова, встречающиеся более 20 раз, сохраняются при формировании словарного запаса.Все остальные слова заменяются специальным токеном UNK.Мы используем предварительно обученную перчатку BIBREF39.50-мерные вложения слов для представления слов.Для слов, не входящих в GloVe, встраивания слов инициализируются случайным образом на основе выборки из равномерного распределения $U(-1, 1)$ .Все встраивания слов обновляются в процессе обучения.Мы установили размер скрытого слоя LSTM равным 256.Таким образом, объединение прямого и обратного LSTM дает нам 512 измерений для встраивания документа.Слой исключения применяется на уровне предложения и документа соответственно с вероятностью 0,5. Для Inception мы применяем методы увеличения данных в обучении с «ближайшим» режимом заполнения, диапазоном масштабирования 0,1, диапазоном смещения по ширине 0,1 и диапазон смещения по высоте 0,1.Поскольку исходные скриншоты имеют размер 1000 $\times 2$ 000 пикселей, их размер изменяется до 500 $\times $500 для передачи в Inception, где входная форма имеет вид (500, 500, 3).Слой выпадения применяется с вероятностью 0,5.Затем применяется слой GlobalAveragePooling2D, который создает 2048-мерное представление.Для модели Joint мы получаем представление 2560 измерений путем объединения 512-мерного представления из biLSTM с 2048-мерным представлением из Inception.Слой исключения применяется к двум компонентам с вероятностью 0,5.Для biLSTM мы используем размер мини-пакета 128 и скорость обучения 0,001.Как для начальной, так и для совместной модели мы используем размер мини-пакета 16 и скорость обучения 0,0001.Все гиперпараметры были установлены эмпирически на основе данных разработки, а модели были оптимизированы с использованием оптимизатора Адама BIBREF40.На этапе обучения веса в Inception инициализируются параметрами, предварительно обученными в ImageNet, а веса в biLSTM инициализируются случайным образом (за исключением встраивания слов).Каждую модель мы обучаем 50 эпох.Однако, чтобы предотвратить переобучение, мы применяем раннюю остановку, при которой мы прекращаем обучение модели, если производительность набора разработки не улучшается в течение 20 эпох.Для оценки мы используем (микро)точность, следуя предыдущим исследованиям BIBREF5, BIBREF2. Мысравните наши модели со следующими пятью базовыми показателями: Большинство: модель помечает все тестовые образцы большинством классов обучающих данных.Бенчмарк: эталонный метод из литературы.В случае с Википедией это BIBREF5, который использует структурные особенности и показатели читабельности в качестве признаков для построения случайного классификатора леса; для arXiv это BIBREF2, который использует созданные вручную функции, такие как количество ссылок и взвешенный TF-IDF набор слов в абстрактном виде, для создания классификатора, основанного на лучших возможностях логистической регрессии, многоуровневого восприятия, и АдаБуст.Doc2Vec: doc2vec BIBREF11 для изучения вложений документов с размером 500 и четырехуровневой модели классификации с прямой связью поверх этого с измерениями 2000, 1000, 500 и 200 соответственно.biLSTM: сначала получите представление предложения с помощью усредняет слова в предложении, затем передает представление предложения в biLSTM и слой maxpooling над выходной последовательностью, чтобы изучить представление уровня документа с размером 512, которое используется для прогнозирования качества документа.Inception $_{\text{fixed}}$ : замороженная начальная модель, в которой во время обучения настраиваются только параметры последнего слоя.Гиперпараметры Benchmark, Doc2Vec и biLSTM основаны на соответствующих статьях, за исключением того, что: (1) мы точно настраиваем уровень прямой связи Doc2Vec на наборе разработки и обучаем модель 300 эпох в Википедии и 50 эпох на arXiv. ; (2) мы не используем созданные вручную функции для biLSTM, поскольку хотим, чтобы базовые линии были сопоставимы с нашими моделями, и основная цель этой статьи не в том, чтобы исследовать эффекты созданных вручную функций (например, см. BIBREF12). Стол3 показана производительность различных моделей в двух наших наборах данных в виде средней точности на тестовом наборе (вместе со стандартным отклонением) за 10 прогонов с разными случайными инициализациями.В Википедии мы видим, что производительность biLSTM, Inception и Joint намного лучше, чем у всех четырех базовых показателей.Inception обеспечивает точность на 2,9% выше, чем biLSTM.Производительность Joint достигает точности 59,4 %, что на 5,3 % выше, чем при использовании только текстовых функций (biLSTM) и на 2,4 % выше, чем при использовании только визуальных функций (Inception).На основании одностороннего знаково-рангового критерия Уилкоксона производительность Joint статистически значима ($p<0,05$).Это показывает, что текстовые и визуальные функции дополняют друг друга, в сочетании достигая самых современных результатов.Для arXiv базовые методы Majority, Benchmark и Inception $_{\text{fixed}}$ превосходят biLSTM по сравнению с cs.ai, во многом из-за дисбаланса классов в этом наборе данных (90% статей отклоняются).Удивительно, но Inception $_{\text{fixed}}$ лучше, чем Majority и Benchmark, по сравнению с подмножеством arXiv cs.lg, которое проверяет полезность визуальных функций, даже если точно настроен только последний слой.Таблица 3 также показывает, что Inception и biLSTM достигают одинаковой производительности на arXiv, показывая, что текстовые и визуальные представления одинаково различаются: Inception и biLSTM неотличимы от cs.cl; BiLSTM обеспечивает точность на 1,8 % выше, чем cs.lg, а Inception — на 1,3 % выше точность, чем cs.ai.Еще раз, модель Joint достигает высочайшей точности на cs.ai и cs.cl за счет объединения текстовых и визуальных представлений (на уровне статистической значимости для cs.ai).Это еще раз подтверждает, что текстовые и визуальные функции дополняют друг друга и вместе достигают самых современных результатов.На arXiv cs.lg Joint обеспечивает точность на 0,6 % выше, чем Inception, за счет объединения визуальных и текстовых функций, но biLSTM обеспечивает наивысшую точность.Одной из характеристик документов cs.lg является то, что они, как правило, содержат больше уравнений, чем два других набора данных arXiv, и предварительный анализ показывает, что biLSTM улавливает корреляцию между объемом/стилем математического представления и качеством документа.В этом разделе мы сначала анализируем производительность Inception и Joint.Также мы анализируем производительность разных моделей по разным классам качества.Представления высокого уровня, изученные различными моделями, также визуализируются и обсуждаются.Поскольку тестовый набор Википедии больше и более сбалансирован, чем у arXiv, наш анализ будет сосредоточен на Википедии.Чтобы лучше понять производительность Inception, мы создали карту активации классов на основе градиента BIBREF41, максимизируя выходные данные каждого класса на предпоследнем уровне, как показано на рисунке 3.На рисунках 3 и 3 мы видим, что Inception идентифицирует две наиболее важные области (одна вверху, соответствующая оглавлению, а другая внизу, фиксирующая как длину документа, так и ссылки), которые вносят вклад в класс FA. прогноз и область в верхней половине изображения, которая способствует прогнозированию класса GA (фиксируя длину тела статьи).На рисунках 3 и 3 мы видим, что наиболее важные области с точки зрения прогнозирования классов B и C захватывают изображения (внизу слева и справа страницы, в случае B и C), а также длину документа/ссылки.На рисунках 3 и 3 мы видим, что Inception считает, что изображения в верхнем правом углу являются наиболее сильным предиктором прогнозирования класса Start, а (отсутствие) изображений/панели ссылок в левой части документа являются наиболее надежными. важно для прогнозирования классов заглушек.В таблице 4 показана матрица путаницы Joint в Википедии.Мы видим, что более 50% документов каждого класса качества классифицируются правильно, за исключением класса C, где больше документов ошибочно классифицируются в B. Анализ показывает, что при неправильной классификации документы обычно ошибочно классифицируются в соседние классы качества, что можно объяснить по схеме классификации Википедии, где критерии смежных классов качества более схожи.Мы также предоставляем разбивку по точности (« $\mathcal {P}$»), полноте («$\mathcal {R}$») и баллу F1 («$\mathcal {F}_{\beta =1}) $ ») для biLSTM, Inception и Joint по классам качества в таблице 5.Мы видим, что Joint достигает высочайшей точности в 11 из 18 случаев.Также стоит отметить, что все модели получают более высокие оценки за статьи FA, GA и Stub, чем статьи B, C и Start.Частично это можно объяснить тем, что статьи FA и GA должны пройти официальную проверку на основе структурированных критериев, а частично тем, что статьи-заглушки обычно очень короткие, что дискриминирует Inception и Joint.Все модели хуже всего работают в классах качества B и C.Даже авторам Википедии сложно отличить статьи категории B от статей категории C.В качестве доказательства этого, когда мы просканировали новый набор данных, включающий страницы обсуждений с голосами за класс качества от участников Википедии, мы обнаружили, что среди статей с тремя или более метками качества более 20% статей B и C имеют противоречивые голоса от участников Википедии. тогда как для статей FA и GA это число составляет всего 0,7%. Далее мы визуализируем изученные представления документов biLSTM, Inception и Joint в виде графика t-SNE BIBREF42 на рисунке 4.Степень разделения между Start и Stub, достигнутая с помощью Inception, намного выше, чем у biLSTM, при этом разделение между Start и Stub, достигнутое с помощью Joint, является самым четким среди трех моделей.Inception и Joint лучше, чем biLSTM, разделяют Start и C. Joint обеспечивает несколько лучшую производительность, чем Inception, при разделении GA и FA.Мы также видим, что для всех моделей сложно разделить B и C, что согласуется с выводами таблиц 4 и 5. Мы предложили использовать визуальную визуализацию документов для фиксации неявных показателей качества документа, таких как выбор шрифтов, изображений. и визуальный макет, которые не отражены в текстовом контенте.Мы применили модели нейронных сетей для определения визуальных особенностей при визуальном рендеринге документов.Результаты экспериментов показывают, что мы достигаем точности на 2,9% выше, чем современные подходы, основанные на текстовых функциях, по сравнению с Википедией, а производительность конкурентоспособна или превосходит современные подходы по сравнению с arXiv.Далее мы предложили совместную модель, сочетающую текстовые и визуальные представления, для прогнозирования качества документа.Результаты экспериментов показывают, что наша совместная модель во всех случаях превосходит только визуальную модель, а также текстовую модель в Википедии и двух подмножествах arXiv.Эти результаты подчеркивают возможность оценки качества документа с помощью визуальных функций, а также взаимодополняемость визуального и текстового представления документа для оценки качества.
На качество документа влияют различные факторы, в том числе грамматика, читабельность, стилистика и глубина экспертизы, что делает задачу оценки качества документа сложной. В этой статье мы исследуем эту задачу в контексте оценки качества статей Википедии и научных работ. Отмечая, что визуальный рендеринг документа может улавливать неявные индикаторы качества, отсутствующие в тексте документа, такие как изображения, выбор шрифта и визуальный макет, мы предлагаем совместную модель, которая сочетает в себе текстовое содержимое с визуальным оформлением. предоставление документа для оценки качества документа. Экспериментальные результаты по двум наборам данных показывают, что текстовые и визуальные функции дополняют друг друга, что позволяет достичь самых современных результатов.
4,358
QasperSumInstruct
ru
Напиши аннотацию по статье
Работа с персонажами в моделях маркировки нейронных последовательностей. Эта работа доступна по международной лицензии Creative Commons Attribution 4.0.Подробности о лицензии: http://creativecommons.org/licenses/by/4.0/Многие задачи НЛП, включая распознавание именованных объектов (NER), маркировку части речи (POS) и поверхностный анализ, могут быть оформлены как типы маркировки последовательностей.Таким образом, разработка точных и эффективных моделей мечения последовательностей полезна для широкого спектра последующих приложений.Работа в этой области традиционно включала разработку функций для конкретных задач — например, интеграцию географических справочников для распознавания именованных объектов или использование функций морфологического анализатора в POS-тегах.Недавние разработки в области нейронных архитектур и обучения представлениям открыли двери моделям, которые могут автоматически обнаруживать полезные функции из данных.Такие системы маркировки последовательностей применимы для многих задач, используя в качестве входных данных только поверхностный текст, но при этом способны достигать конкурентоспособных результатов BIBREF0 , BIBREF1 .Currentнейронные модели обычно используют встраивание слов, что позволяет им изучать сходные представления для семантически или функционально схожих слов.Хотя это является важным улучшением по сравнению с моделями, основанными на подсчете, у них все еще есть недостатки, которые следует устранить.Наиболее очевидная проблема возникает при работе со словами вне словарного запаса (OOV) — если токен никогда раньше не встречался, то у него нет встраивания, и модель должна вернуться к общему представлению OOV.Слова, которые встречаются очень редко, имеют вложения, но они, скорее всего, будут иметь низкое качество из-за отсутствия обучающих данных.Этот подход также может быть неоптимальным с точки зрения использования параметров — например, определенные суффиксы указывают на более вероятные POS-теги для этих слов, но эта информация кодируется в каждом отдельном внедрении, а не распределяется между всем словарем.В этой статье мы создаем независимую от задачи архитектуру нейронной сети для маркировки последовательностей, а затем расширяем ее двумя различными подходами для интеграции информации на уровне символов.Работая с отдельными символами, модель способна делать выводы о представлениях ранее не встречавшихся слов и обмениваться информацией о закономерностях на уровне морфем.Мы предлагаем новую архитектуру для объединения представлений на уровне символов с встраиванием слов с использованием механизма пропуска, также называемого вниманием, который позволяет модели динамически решать, какой источник информации использовать для каждого слова.Кроме того, мы описываем новую цель обучения модели, при которой представления на уровне символов оптимизируются для имитации текущего состояния встраивания слов.Мы оцениваем нейронные модели на 8 наборах данных из области NER, POS-тегов, фрагментации и обнаружения ошибок в текстах учащихся.Наши эксперименты показывают, что включение символьного компонента в модель маркировки последовательностей обеспечивает существенное улучшение производительности по всем тестам.Кроме того, архитектура, основанная на внимании, достигает наилучших результатов по всем оценкам, требуя при этом меньшего количества параметров.Сначала мы описываем базовую нейронную сеть на уровне слов для маркировки последовательностей, следуя моделям, описанным Lample2016 и Rei2016, а затем предлагаем два альтернативных метода включения информации на уровне символов.На рисунке 1 показана общая архитектура сети маркировки последовательностей.Модель получает на вход последовательность токенов $(w_1, ..., w_T)$ и прогнозирует метку, соответствующую каждому из входных токенов.Токены сначала сопоставляются с распределенным векторным пространством, в результате чего получается последовательность вложений слов $(x_1, ..., x_T)$ .Затем внедрения передаются в качестве входных данных для двух компонентов LSTM BIBREF2, движущихся в противоположных направлениях по тексту, создавая представления, зависящие от контекста.Соответствующие представления с прямым и обратным условием объединяются для каждой позиции слова, в результате чего возникают представления, которые обусловлены всей последовательностью: $$\overrightarrow{h_t} = LSTM(x_t, \overrightarrow{h_{t-1}}) \hspace{30.0pt} \overleftarrow{h_t} = LSTM(x_t, \overleftarrow{h_{t+1}})\hspace{30.0pt} ч_т=[\overrightarrow{h_t};\overleftarrow{h_t}]$$ (уравнение 1)Мы добавили очень узкий скрытый слой поверх LSTM, который оказался полезной модификацией, основанной на экспериментах по разработке.Дополнительный скрытый слой позволяет модели обнаруживать комбинации признаков более высокого уровня, в то время как ограничение ее малого размера заставляет ее сосредоточиться на более обобщенных шаблонах: $$d_t = tanh(W_d h_t)$$ (уравнение 2), где $W_d$ представляет собой матрицу весов между слоями, а размер $d_t$ намеренно оставлен небольшим.Наконец, для прогнозирования меток мы используем либо слой softmax, либо условное случайное поле (CRF, Lafferty2001).Softmax вычисляет нормализованное распределение вероятностей по всем возможным меткам для каждого слова: $$P(y_t = k | d_t) = \frac{e^{W_{o,k} d_t}}{\sum _{\tilde{ k} \in K} e^{W_{o,\tilde{k}} d_t}}$$ (уравнение 3) где $P (y_t = k|d_t )$ — вероятность метки $t $-е слово ( $y_t$ ) равно $k$ , $K$ — это набор всех возможных меток, а $W_{o,k}$ — это $k$-я строка выходной весовой матрицы $W_o$ .Чтобы оптимизировать эту модель, мы минимизируем категориальную кроссэнтропию, что эквивалентно минимизации отрицательной логарифмической вероятности правильных меток: $$E = - \sum _{t=1}^{T} log(P(y_t| d_t) )$$ (уравнение 4) Следуя Huang2015, мы также можем использовать CRF в качестве выходного слоя, который обуславливает каждое предсказание на ранее предсказанной метке.В этой архитектуре последний скрытый уровень используется для прогнозирования оценок достоверности слова, имеющего каждую из возможных меток.Отдельная матрица весов используется для изучения вероятностей перехода между разными метками, а алгоритм Витерби используется для поиска оптимальной последовательности весов.Учитывая, что $y$ представляет собой последовательность меток $[y_1, ..., y_T]$ , то оценка CRF для этой последовательности может быть рассчитана как: $$s(y) = \sum _{t=1}^ T A_{t,y_t} + \sum _{t=0}^T B_{y_t,y_{t+1}}$$ (уравнение 5) $$A_{t,y_t} = W_{o,y_t } d_t$$ (уравнение 6), где $A_{t,y_t}$ показывает, насколько сеть уверена в том, что метка $t$ -го слова равна $y_t$ .$B_{y_t,y_{t+1}}$ показывает вероятность перехода от метки $y_t$ к метке $y_{t+1}$ , и эти значения оптимизируются во время обучения.Результатом работы модели является последовательность меток с наибольшей оценкой $s(y)$ , которую можно эффективно найти с помощью алгоритма Витерби.Чтобы оптимизировать модель CRF, функция потерь максимизирует оценку для правильной последовательности меток и минимизирует оценки для всех остальных последовательностей: $$E = - s(y)+ log \sum _{\tilde{y} \in \widetilde{Y}} e^{s(\tilde{y})}$$ (уравнение 7), где $\widetilde{Y}$ — множество все возможные последовательности меток.Распределенные вложения отображают слова в пространство, где семантически схожие слова имеют схожие векторные представления, что позволяет моделям лучше обобщать.Однако они по-прежнему рассматривают слова как атомарные единицы и игнорируют любые поверхностные или морфологические сходства между разными словами.Построив модели, оперирующие отдельными символами каждого слова, мы можем воспользоваться этими закономерностями.Это может быть особенно полезно для обработки невидимых слов — например, если мы никогда раньше не видели кабинеты слов, модель уровня символов все равно может вывести представление для этого слова, если она ранее видела кабинет слов и другие слова с суффиксом. -с.Напротив, модель уровня слова может представлять это слово только с помощью общего внелексического представления, которое является общим для всех других невидимых слов.Исследования моделей уровня символов все еще находятся на довольно ранней стадии, и модели, которые работают исключительно с символами, еще не могут конкурировать с моделями уровня слов в большинстве задач.Однако вместо полной замены встраивания слов мы заинтересованы в объединении двух подходов, тем самым позволяя модели использовать информацию на обоих уровнях детализации.Общая схема нашего подхода показана на рисунке 2.Каждое слово разбивается на отдельные символы, которые затем сопоставляются с последовательностью вложений символов $(c_1, ..., c_R)$ , которые проходят через двунаправленный LSTM: $$\overrightarrow{h^*_i} = LSTM(c_i, \overrightarrow{h^*_{i-1}}) \hspace{30.0pt} \overleftarrow{h^*_i} = LSTM(c_i, \overleftarrow{h^*_{i+1}})$$ (уравнение 9)Затем мы используем последние скрытые векторы из каждого из компонентов LSTM, объединяем их вместе и передаем результат через отдельный нелинейный слой.$$h^* =[\overrightarrow{h^*_R};\overleftarrow{h^*_1}] \hspace{30.0pt} m = tanh(W_m h^*)$$ (уравнение 10), где $W_m$ — весовая матрица, отображающая объединенные скрытые векторы из обоих LSTM в совместное словесное представление $m$, построенное из отдельных символов.Теперь у нас есть два альтернативных представления признаков для каждого слова: $x_t$ из раздела «Двунаправленный LSTM для маркировки последовательностей» — это встраивание, изученное на уровне слова, а $m^{(t)}$ — это представление, динамически построенное из отдельных символов. в $t$-м слове входного текста.Следуя Lample2016, одним из возможных подходов является объединение двух векторов и использование их в качестве нового представления на уровне слова для модели маркировки последовательностей: $$\widetilde{x} =[Икс; m]$$ (уравнение 11)Этот подход, также показанный на рисунке 2, предполагает, что компоненты уровня слова и символа изучают несколько разрозненную информацию, и полезно подавать их отдельно в качестве входных данных для устройства разметки последовательностей.В качестве альтернативы мы можем заставить встраивание слов и компонент уровня символов изучить одни и те же семантические функции для каждого слова.Вместо того, чтобы объединять их в альтернативные наборы функций, мы специально создаем сеть так, чтобы они изучали одни и те же представления, а затем позволяем модели решить, как объединить информацию для каждого конкретного слова.Сначала мы создаем представление слова из символов, используя ту же архитектуру — двунаправленный LSTM работает с символами, а последние скрытые состояния используются для создания вектора $m$ для входного слова.Вместо объединения этого с встраиванием слов два вектора складываются вместе с использованием взвешенной суммы, где веса прогнозируются двухуровневой сетью: $$z = \sigma (W^{(3)}_z tanh(W ^{(1)}_{z} x + W^{(2)}_{z} м))\hspace{30.0pt} \widetilde{x} = z\cdot x + (1-z) \cdot m$$ (уравнение 13), где $W^{(1)}_{z}$ , $W^{(2)}_ {z}$ и $W^{(3)}_{z}$ — весовые матрицы для вычисления $z$ , а $\sigma ()$ — логистическая функция со значениями в диапазоне $[0,1]$ .Вектор $z$ имеет те же размеры, что и $x$ или $m$, и действует как вес между двумя векторами.Это позволяет модели динамически решать, какой объем информации использовать из компонента уровня символов или из встраивания слов.Это решение принимается для каждой функции отдельно, что добавляет дополнительную гибкость — например, слова с обычными суффиксами могут иметь общие функции на уровне символов, тогда как неправильные слова могут хранить исключения в встраиваниях слов.Более того, ранее неизвестные слова могут использовать закономерности на уровне символов, когда это возможно, и по-прежнему могут при необходимости вернуться к использованию общего токена OOV.Ожидается, что основные преимущества моделирования на уровне символов будут заключаться в улучшенной обработке редких и невидимых слов, тогда как часто встречающиеся слова, вероятно, смогут напрямую изучать высококачественные вложения на уровне слов.Мы хотели бы воспользоваться этим и обучить символьный компонент предсказывать эти вложения слов.Наша архитектура, основанная на внимании, требует согласования изученных функций в обоих словесных представлениях, и мы можем добавить дополнительное ограничение, чтобы стимулировать это.Во время обучения мы добавляем член в функцию потерь, который оптимизирует вектор $m$, чтобы он был похож на встраивание слов $x$ : $$\widetilde{E} = E + \sum _{t=1}^{T } г_т(1 - потому что (m^{(t)}, x_t))\hspace{30.0pt} г_т"=" {\left\lbrace \begin{array}{ll} 0, & \text{if}\ w_t = OOV \\ 1 и \text{иначе} \end{array}\right.}$$ (уравнение 14) Уравнение 14 максимизирует косинусное сходство между $m^{(t)}$ и $x_t$ .Важно отметить, что это делается только для слов, которые не выходят за пределы словарного запаса — мы хотим, чтобы компонент уровня символов учился на встраиваниях слов, но это должно исключать встраивание OOV, поскольку оно используется многими словами.Мы используем $g_t$, чтобы установить этот компонент стоимости равным 0 для любых токенов OOV.В то время как символьный компонент изучает общие закономерности, которые являются общими для всех слов, встраивания отдельных слов позволяют модели хранить информацию, специфичную для слова, и любые исключения.Следовательно, хотя мы хотим, чтобы символьная модель сместилась в сторону прогнозирования высококачественных вложений слов, нежелательно оптимизировать встраивания слов в сторону представлений на уровне символов.Этого можно добиться, убедившись, что оптимизация выполняется только в одном направлении; в Theano BIBREF3 функция Disconnected_grad дает желаемый эффект.Мы оцениваем модели маркировки последовательностей и архитектуру символов на 8 различных наборах данных.Таблица 1 содержит информацию о количестве меток и размерах наборов данных для каждой из них.Для предварительной обработки данных все цифры были заменены символом «0».Любые слова, которые встречались в обучающих данных только один раз, заменялись общим токеном OOV для встраивания слов, но все равно использовались в компонентах уровня символов.Встраивание слов было инициализировано с помощью общедоступных предварительно обученных векторов, созданных с помощью word2vec BIBREF12, а затем точно настроено во время обучения модели.Для наборов данных общего характера мы использовали 300-мерные векторы, обученные в Новостях Google; для наборов биомедицинских данных мы использовали 200-мерные векторы, обученные в PubMed и PMC.Вложения для символов были установлены на длину 50 и инициализировались случайным образом.Размер слоя LSTM был установлен на 200 в каждом направлении как для компонентов уровня слова, так и для символов.Скрытый слой $d$ имеет размер 50, а объединенное представление $m$ имеет ту же длину, что и вложения слов.CRF использовался в качестве выходного слоя для всех экспериментов — мы обнаружили, что это дает наибольшие преимущества задачам с большим количеством возможных меток.Параметры были оптимизированы с использованием AdaDelta BIBREF13 со скоростью обучения по умолчанию $1,0$, а предложения были сгруппированы в пакеты размером 64.Производительность на наборе разработки измерялась в каждую эпоху, и обучение прекращалось, если производительность не улучшалась в течение 7 эпох; затем наиболее эффективная модель из набора разработки использовалась для оценки в тестовом наборе.Чтобы избежать каких-либо выбросов из-за случайности при инициализации модели, мы обучили каждую конфигурацию с 10 различными случайными начальными числами и представили здесь усредненные результаты.При оценке каждого набора данных мы сообщаем о мерах, установленных в предыдущей работе.Точность на уровне токена используется для PTB-POS и GENIA-POS; $F_{0.5}$ оценка за ошибочные слова для FCEPUBLIC; официальный оценочный скрипт для BC2GM, который позволяет использовать альтернативные правильные диапазоны объектов; и микросредний показатель $F_{1}$ на уровне упоминаний для остальных наборов данных.Хотя оптимизация гиперпараметров для каждого набора данных в отдельности, вероятно, улучшит индивидуальную производительность, мы проводим более контролируемые эксперименты на модели, независимой от задачи.Поэтому мы используем одни и те же гиперпараметры из раздела «Настройки эксперимента» для всех наборов данных, а набор разработки используется только для условия остановки.С помощью этих экспериментов мы хотим определить: 1) в каких задачах маркировки последовательностей символьные модели дают преимущество и 2) какая символьная архитектура работает лучше.Результаты для различных архитектур моделей для всех 8 наборов данных показаны в Таблице 2.Как можно видеть, включение символьного компонента в архитектуру маркировки последовательностей повышает производительность во всех тестах.Наборы данных NER имеют наибольшее абсолютное улучшение — модель способна изучать шаблоны имен на уровне символов, а также улучшает обработку любых ранее невидимых токенов.По сравнению с объединением представлений на уровне слов и символов модель персонажа, основанная на внимании, превосходит первую по всем оценкам.Механизм динамического принятия решения о том, какой объем информации на уровне символов использовать, позволяет модели лучше обрабатывать отдельные представления слов, что дает ей преимущество в экспериментах.Визуализация значений внимания на рисунке 3 показывает, что модель активно использует функции, основанные на символах, а области внимания различаются для разных слов.Результаты этой общей архитектуры тегов являются конкурентоспособными даже по сравнению с предыдущей работой с использованием функций, созданных вручную.Сеть достигла 97,27% по PTB-POS по сравнению с 97,55% по Huang2015 и 72,70% по JNLPBA по сравнению с 72,55% по Zhou2004.В некоторых случаях нам также удается превзойти предыдущие лучшие результаты — 87,99% на BC2GM по сравнению с 87,48% у Campos2015 и 41,88% на FCEPUBLIC по сравнению с 41,1% у Rei2016.Lample2016 сообщает о значительно более высоком результате 90,94% по CoNLL03, что указывает на то, что выбранные гиперпараметры для базовой системы неоптимальны для этой конкретной задачи.По сравнению с экспериментами, представленными здесь, их модель использовала схему тегов IOBES вместо исходной IOB, а встраивания предварительно обучались с помощью более специализированного метода, учитывающего порядок слов.Важно также сравнить количество параметров альтернативных нейронных архитектур, поскольку это показывает их способность к обучению и указывает на их практические требования ко времени.В таблице 3 приведены значения параметров для трех репрезентативных наборов данных.При сохранении постоянных гиперпараметров модели модели на уровне символов требуют дополнительных параметров для композиции символов и встраивания символов.Однако модель, основанная на внимании, использует меньше параметров по сравнению с подходом конкатенации.Когда два представления объединяются, общий размер представления слова увеличивается, что, в свою очередь, увеличивает количество параметров, необходимых для двунаправленного LSTM на уровне слова.Таким образом, архитектура символов, основанная на внимании, дает улучшенные результаты даже при меньшем объеме параметров.Существует широкий спектр предыдущих работ по построению и оптимизации нейронных архитектур, применимых к маркировке последовательностей.Коллоберт2011 описал одну из первых независимых от задач моделей нейронной маркировки с использованием сверточных нейронных сетей.Им удалось добиться хороших результатов в POS-тегах, фрагментировании, NER и семантической ролевой маркировке, не полагаясь на разработанные вручную функции.Irsoy2014a экспериментировал с многослойными двунаправленными рекуррентными сетями в стиле Элмана и обнаружил, что глубокие модели превосходят условные случайные поля в задаче интеллектуального анализа мнений.Huang2015 описал двунаправленную модель LSTM со слоем CRF, которая включала в себя созданные вручную функции, предназначенные для задач распознавания именованных объектов.Rei2016 оценил ряд нейронных архитектур, включая сверточные и рекуррентные сети, для решения задачи обнаружения ошибок при письме учащихся.Модель маркировки последовательностей на уровне слов, описанная в этой статье, следует за предыдущей работой, сочетая в себе полезные дизайнерские решения из каждой из них.Кроме того, мы расширили модель двумя альтернативными архитектурами уровня символов и оценили ее производительность на 8 различных наборах данных.Модели на уровне символов могут фиксировать закономерности морфем, тем самым улучшая обобщение как часто встречающихся, так и невидимых слов.В последние годы наблюдается рост исследований этих моделей, что привело к появлению нескольких интересных приложений.Ling2015b описал нейронную модель машинного перевода на уровне символов, выполняющую как кодирование, так и декодирование отдельных символов.Kim2016 реализовал языковую модель, в которой кодирование выполняется сверточной сетью и LSTM над символами, тогда как прогнозы даются на уровне слов.Cao2016 предложил метод изучения как встраивания слов, так и морфологической сегментации с помощью двунаправленной рекуррентной сети по символам.Также проводятся исследования по синтаксическому анализу BIBREF14 и классификации текста BIBREF15 с помощью нейронных моделей на уровне символов.Ling2015a предложил нейронную архитектуру, которая заменяет встраивание слов динамически создаваемыми символьными представлениями.Мы применили аналогичный метод для работы с символами, но объединили их с встраиванием слов вместо их замены, поскольку это позволяет модели извлечь выгоду из обоих подходов.Lample2016 описал модель, в которой представление на уровне символов сочетается с встраиванием слов посредством конкатенации.В этой работе мы предложили альтернативную архитектуру, в которой представления объединяются с помощью механизма внимания, и оценили оба подхода на ряде задач и наборов данных.Недавно Миямото2016 также описал похожий метод для задачи моделирования языка, объединяющий символы и встраивания слов с использованием стробирования.Развитие исследований нейронных сетей позволяет создавать архитектуры моделей, которые хорошо работают с широким спектром наборов данных маркировки последовательностей, не требуя данных, созданных вручную.Хотя обучение представлению на уровне слов является мощным инструментом для автоматического обнаружения полезных функций, эти модели по-прежнему имеют определенные недостатки: редкие слова имеют представления низкого качества, ранее не встречавшиеся слова вообще не могут быть смоделированы, а информация на уровне морфем не передается весь словарный запас.В этой статье мы исследовали компоненты модели на уровне символов для архитектуры маркировки последовательностей, которые позволяют системе изучать полезные шаблоны из единиц подслов.В дополнение к двунаправленному LSTM, работающему со словами, отдельный двунаправленный LSTM используется для построения представлений слов из отдельных символов.Мы предложили новую архитектуру для объединения символьного представления с встраиванием слов с помощью механизма внимания, позволяющего модели динамически выбирать, какую информацию использовать из каждого источника информации.Кроме того, функция композиции на уровне символов дополнена новой целью обучения, оптимизирующей ее для прогнозирования представлений, аналогичных встраиваниям слов в модели.Оценка проводилась на 8 различных наборах данных по маркировке последовательностей, охватывающих ряд задач и областей.Мы обнаружили, что включение информации на уровне символов в модель улучшило производительность во всех тестах, что указывает на то, что сбор характеристик, касающихся символов и морфем, действительно полезен в системе тегов общего назначения.Кроме того, модель объединения представлений символов, основанная на внимании, во всех оценках превзошла метод конкатенации, использованный в предыдущей работе.Несмотря на то, что предлагаемый метод требует меньшего количества параметров, дополнительная возможность контролировать, сколько информации на уровне символов используется для каждого слова, привела к повышению производительности при выполнении ряда различных задач.
Архитектуры маркировки последовательностей используют встраивание слов для выявления сходства, но страдают при обработке ранее невидимых или редких слов. Мы исследуем расширения таких моделей на уровне символов и предлагаем новую архитектуру для объединения альтернативных представлений слов. Используя механизм внимания, модель может динамически решать, какой объем информации использовать из компонента уровня слова или символа. Мы оценили различные архитектуры на ряде наборов данных по маркировке последовательностей, и было обнаружено, что расширения на уровне символов улучшают производительность в каждом тесте. Кроме того, предложенная архитектура, основанная на внимании, дала наилучшие результаты даже при меньшем количестве обучаемых параметров.
4,026
QasperSumInstruct
ru
Напиши аннотацию по статье
Понимание намерений разговора пассажирами в автономных транспортных средствах. Понимание намерений пассажиров и извлечение соответствующих слотов являются важными строительными блоками для разработки системы контекстного диалога, отвечающей за обработку определенных взаимодействий между транспортным средством и пассажиром в автономных транспортных средствах (AV).Когда пассажиры дают инструкции AMIE (мультимодальный опыт в салоне автоматизированного транспортного средства), агент должен правильно проанализировать такие команды и активировать соответствующие функции AV-системы.В наших сценариях AMIE мы описываем использование и поддерживаем различные естественные команды для взаимодействия с транспортным средством.Мы собрали мультимодальный набор данных в салоне с многоходовыми диалогами между пассажирами и AMIE по схеме «Волшебник страны Оз».Мы исследовали различные новейшие методы, основанные на рекуррентных нейронных сетях (RNN), и построили наши собственные иерархические модели для распознавания намерений пассажиров, а также соответствующие слоты, связанные с действием, которое должно быть выполнено в сценариях AV.Наши экспериментальные результаты достигли показателя F1, равного 0,91 по распознаванию намерений на уровне высказывания и 0,96 по моделям извлечения слотов.Наш набор данных AV в салоне включает 30 часов мультимодальных данных, собранных от 30 пассажиров (15 женщин, 15 мужчин) за 20 поездок/сессий.Определяются и комментируются 10 типов намерений пассажиров: установить/изменить пункт назначения, установить/изменить маршрут (включая пошаговые инструкции), идти быстрее, идти медленнее, остановиться, припарковаться, остановиться, высадиться, открыть дверь и Другое (включение/выключение музыки/радио, открытие/закрытие окна/багажника, изменение кондиционера/температуры, отображение карты и т. д.).Соответствующие слоты идентифицируются и помечаются как: Местоположение, Позиция/Направление, Объект, Время-ориентация, Человек, Жест/Взгляд (это, то, там и т. д.) и Нет.Помимо типов намерений на уровне высказывания и их слотов, ключевые слова намерений на уровне слов также аннотируются как намерения.Из нашего набора данных в салоне мы получили 1260 уникальных высказываний, содержащих команды для AMIE.Мы расширили этот набор данных с помощью Amazon Mechanical Turk и в итоге получили 3347 высказываний, имеющих намерения.Аннотации намерений и слотов получаются в расшифрованных высказываниях большинством голосов трех аннотаторов.Для задач заполнения слотов и извлечения ключевых слов мы экспериментировали с seq2seq LSTM и GRU, а также с двунаправленными LSTM/GRU.Высказывания пассажиров передаются в сеть Bi-LSTM через уровень внедрения в виде последовательности слов, которые преобразуются в векторы слов.Мы также экспериментировали с GloVe, word2vec и fastText в качестве предварительно обученных встраиваний слов.Чтобы предотвратить переобучение, для регуляризации используется выпадающий слой.Наилучшие результаты получены при использовании Bi-LSTM и вложений GloVe (6B токенов, размер словарного запаса 400 000, размер 100). Для обнаружения намерений на уровне высказывания мы экспериментировали в основном с 5 моделями: (1) Гибрид: RNN + на основе правил, ( 2) Отдельное: Seq2one Bi-LSTM + Внимание, (3) Объединенное: Seq2seq Bi-LSTM для слотов/ключевых слов намерения и намерений уровня высказывания, (4) Иерархическое + Отдельное, (5) Иерархическое + Объединенное.Для (1) мы извлекаем ключевые слова/слоты намерений (Bi-LSTM) и сопоставляем их с типами намерений на уровне высказывания (на основе правил через частоты терминов для каждого намерения).Для (2) мы подаем все высказывание как входную последовательность и тип намерения как единственную цель.Для (3) мы экспериментируем с моделями совместного обучения BIBREF0 , BIBREF1 , BIBREF2, где мы совместно обучаем ключевые слова/слоты намерений на уровне слов и намерения на уровне высказываний (добавляя термины <BOU>/<EOU> в начало/конец высказываний). с типами намерений).Для (4) и (5) мы экспериментируем с иерархическими моделями BIBREF3, BIBREF4, BIBREF5, где мы сначала извлекаем ключевые слова/слоты намерения, а затем только подаем предсказанные ключевые слова/слоты в виде последовательности в (2) и (3), соответственно.Результаты извлечения слотов и ключевых слов намерения приведены в таблицах TABREF1 и Table TABREF2 соответственно.В таблице TABREF3 суммированы результаты различных подходов, которые мы исследовали для понимания намерений на уровне высказывания.В таблице TABREF4 показаны результаты обнаружения намерений для наших сценариев AMIE с наиболее эффективным распознавателем намерений на уровне высказывания.Изучив различные новейшие методы, основанные на рекуррентных нейронных сетях (RNN), мы создали наши собственные иерархические совместные модели для распознавания намерений пассажиров, а также соответствующие слоты, связанные с действием, которое должно быть выполнено в сценариях AV.Наши экспериментальные результаты превзошли некоторые конкурентные базовые показатели и достигли общего балла F1 0,91 для распознавания намерений на уровне высказывания и 0,96 для задач по извлечению слотов.
Понимание намерений пассажиров и извлечение соответствующих слотов являются важными строительными блоками для разработки системы контекстного диалога, отвечающей за обработку определенных взаимодействий между транспортным средством и пассажиром в автономных транспортных средствах (AV). Когда пассажиры дают инструкции AMIE (мультимодальный опыт в салоне автоматизированного транспортного средства), агент должен правильно проанализировать такие команды и активировать соответствующие функции AV-системы. В наших сценариях AMIE мы описываем использование и поддерживаем различные естественные команды для взаимодействия с транспортным средством. Мы собрали мультимодальный набор данных в салоне с многоходовыми диалогами между пассажирами и AMIE по схеме «Волшебник страны Оз». Мы исследовали различные новейшие методы, основанные на рекуррентных нейронных сетях (RNN), и построили наши собственные иерархические модели для распознавания намерений пассажиров, а также соответствующие слоты, связанные с действием, которое должно быть выполнено в сценариях AV. Наши экспериментальные результаты достигли показателя F1, равного 0,91 по распознаванию намерений на уровне высказывания и 0,96 по моделям извлечения слотов.
803
QasperSumInstruct
ru
Напиши аннотацию по статье
Исследование сдвига домена при извлечении текстового обобщения. Резюмирование текста стало важной темой исследований из-за его широкого применения.Существующие исследовательские работы по обобщению в основном вращаются вокруг изучения нейронных архитектур BIBREF0, BIBREF1 и разработки ограничений обучения BIBREF2, BIBREF3.Помимо этого, в нескольких работах предпринимаются попытки интегрировать характеристики документа (например, домен) для повышения производительности модели BIBREF4, BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9 или провести интерпретируемый анализ с использованием существующих моделей нейронного суммирования BIBREF10. Несмотря на их успех, лишь несколько работ BIBREF11, BIBREF12 исследуют конкретную область влияния, но ни один из них не исследует проблему сдвига домена, которая была хорошо изучена во многих других задачах НЛП.Это отсутствие создает некоторые проблемы для существующих моделей нейронного обобщения: 1) Как именно сдвиг предметной области повлияет на производительность существующих нейронных архитектур?2) Как лучше использовать информацию о предметной области для повышения производительности текущих моделей?3)Всякий раз, когда создается новая модель, которая может хорошо работать на своем тестовом наборе, ее также следует применять к невидимым областям, чтобы убедиться, что она извлекает что-то полезное для обобщения, а не переоснащает свои исходные области.Самая важная причина отсутствия подходов, касающихся смещения предметной области, может заключаться в неосведомленности о различных определениях предметной области при реферировании текста.Большая часть литературы ограничивает понятие домена категориями документов или скрытыми темами и использует его в качестве дополнительных потерь BIBREF6, BIBREF7 или вложений функций BIBREF8, BIBREF9.Это определение предполагает, что информация о категориях будет влиять на то, как следует формулировать резюме.Однако такую ​​информацию не всегда можно получить легко и точно.Среди пяти наиболее популярных наборов данных для суммирования только два содержат эту информацию и только один можно использовать для обучения.Кроме того, смысловые категории не имеют четкого определения.Оба из них не позволяют предыдущей работе полностью использовать домены в существующих наборах данных или создавать новый многодоменный набор данных, который не только можно использовать для многодоменного обучения, но также легко исследовать связи доменов между наборами данных.В этой статье мы фокусируемся на экстрактивном обобщении и показываем, что новостные публикации могут вызывать различия в распределении данных, а это означает, что их также можно определить как домены.Основываясь на этом, мы переназначаем набор данных многодоменного суммирования MULTI-SUM и дополнительно изучаем проблему сдвига домена.Методологически мы используем четыре типа моделей с их характеристиками в различных условиях.Первая модель основана на совместной стратегии обучения, а вторая строит связь между крупномасштабными предварительно обученными моделями и многодоменным обучением.Третья модель напрямую создает модель с учетом предметной области, явно вводя информацию о типе предметной области.Наконец, мы дополнительно исследуем эффективность методов метаобучения для лучшего обобщения.Анализируя их производительность в рамках внутридоменного, внедоменного и междоменного набора данных, в разделе SECREF31 мы предоставляем предварительное руководство для будущих исследований в области многодоменного обучения задачам суммирования.Наш вклад можно резюмировать следующим образом: Мы анализируем ограничения текущего определения предметной области в задачах обобщения и распространяем его на публикации статей.Затем мы переназначаем набор данных MULTI-SUM, чтобы обеспечить достаточный многодоменный испытательный стенд (внутри домена и вне домена). Насколько нам известно, это первая работа, которая вводит сдвиг домена в суммирование текста.Мы также демонстрируем, как сдвиг домена влияет на текущую систему, проводя проверочный эксперимент.Вместо того, чтобы стремиться к единой модели, мы стремимся проанализировать, как различные варианты дизайна моделей влияют на способность к обобщению при решении проблемы сдвига предметной области, проливая свет на практические проблемы и предоставляя набор рекомендаций для будущих исследователей.В этом разделе мы сначала опишем аналогичные концепции, используемые в качестве предметной области в задачах обобщения.Затем мы расширяем это определение на источники статей и проверяем его рациональность с помощью нескольких индикаторов, которые иллюстрируют распределение данных в нашем перепрофилированном наборе данных многодоменного суммирования.Хотя домен часто определяется по категории контента текста BIBREF17, BIBREF18 или изображения BIBREF19, первоначальным мотивом для домена является атрибут метаданных, который используется для разделения данных на части с различным распределением BIBREF20. Для суммирования текста различия в распределении данных часто связаны с категориями документов, такими как спорт или бизнес, или со скрытыми темами в статьях, которые можно выявить с помощью классических моделей тем, таких как скрытое распределение Дирихле (LDA) BIBREF21.Хотя предыдущие работы показали, что учет этих различий в распределении может улучшить производительность моделей суммирования BIBREF7, BIBREF8, лишь немногие связали их с концепцией предметной области и исследовали задачи суммирования с точки зрения многодоменного обучения.В этой статье мы распространяем эту концепцию на источники статьи, которые можно легко получить и четко определить.Мы предполагаем, что публикации новостей также могут влиять на распределение данных и, таким образом, влиять на стили обобщения.Чтобы проверить нашу гипотезу, мы используем три индикатора (охват, плотность и сжатие), определенные BIBREF16, для измерения перекрытия и сжатия между парой (документ, сводка).Покрытие и плотность представляют собой перекрытие слова и самой длинной общей подпоследовательности (LCS) соответственно.Сжатие — это соотношение длины документа и резюме.Мы также рассчитываем два надежных базовых показателя резюмирования для каждой публикации.Базовый показатель LEAD объединяет первые несколько предложений в виде сводки и вычисляет показатель ROUGE.Этот базовый уровень показывает смещение набора данных, которое является важным фактором в новостных статьях.Базовый уровень Ext-Oracle оценивает производительность основных меток истины и может рассматриваться как верхняя граница моделей извлеченного суммирования BIBREF1, BIBREF9. Используется недавно предложенный набор данных Newsroom BIBREF16, который был взят из 38 крупных новостных изданий.Мы выбираем десять лучших изданий (NYTimes, WashingtonPost, FoxNews, TheGuardian, NYDailyNews, WSJ, USAToday, CNN, Time и Mashable) и обрабатываем их способом BIBREF22.Чтобы получить основные метки истинности для задачи экстракционного обобщения, мы следуем жадному подходу, представленному BIBREF1.Наконец, мы случайным образом делим десять доменов на две группы: одну для обучения, а другую для тестирования.Мы называем это обновленное подмножество Newsroom MULTI-SUM, чтобы указать, что оно специально разработано для многодисциплинарного обучения при выполнении задач по обобщению.Из таблицы TABREF6 мы видим, что данные этих новостных изданий различаются по показателям, которые тесно связаны с обобщением.Это означает, что пары (документ, резюме) из разных публикаций будут иметь уникальное формирование реферирования, и моделям может потребоваться изучить разные семантические особенности для разных публикаций.Кроме того, мы следуем простому эксперименту BIBREF23, чтобы обучить классификатор для пяти крупнейших доменов.Простая модель классификации с инициализацией слов GloVe также может обеспечить точность 74,84% (вероятность составляет 20%), что гарантирует нам наличие встроенной предвзятости в каждой публикации.Поэтому разумно рассматривать одну публикацию как домен и использовать нашу MULTI-SUM из нескольких публикаций в качестве набора данных для нескольких доменов.Сдвиг домена относится к явлению, когда модель, обученная в одном домене, плохо работает в другом домене (BIBREF19, BIBREF24).Чтобы четко убедиться в существовании сдвига домена при обобщении текста, мы разработали простой эксперимент с набором данных MULTI-SUM.Конкретно, мы по очереди выбираем один домен и используем его обучающие данные для обучения базовой модели.Затем мы используем данные тестирования остальных доменов для оценки модели с автоматической метрикой ROUGE BIBREF25ROUGE-2 и ROUGE-L показывают схожие тенденции, и их результаты приведены в Приложении.Как и некоторые недавние подходы, мы определяем экстрактивное суммирование как задачу маркировки последовательностей.Формально, если документ $S$ состоит из $n$ предложений $s_1, \cdots , s_n$, сводки извлекаются путем предсказания последовательности меток $Y = y_1, \cdots , y_n$ ($y_i \in \lbrace 0,1\rbrace $) для документа, где $y_i = 1$ представляет $i$-е предложение в документе, должно быть включено в сводку.В этой статье мы реализуем простую, но мощную модель, основанную на архитектуре кодировщика-декодера.Мы выбираем CNN в качестве кодировщика предложений, следуя предыдущим работам BIBREF26, и используем популярный модульный преобразователь BIBREF27 в качестве кодировщика документов.Подробные настройки описаны в разделе SECREF28. Из таблицы TABREF14 мы видим, что значения отрицательны, за исключением диагонали, которая указывает на то, что модели, обученные и протестированные в одной и той же области, демонстрируют большое преимущество по сравнению с моделями, обученными в других областях.Значительное падение производительности показывает, что проблема смещения предметной области весьма серьезна в задачах экстракционного обобщения и, таким образом, создает проблемы для текущих хорошо работающих моделей, которые обучаются и оцениваются, в частности, в рамках сильной гипотезы: экземпляры обучающих и тестовых данных извлекаются из идентичных распространение данных.Руководствуясь этой уязвимостью, мы исследуем проблему смещения предметной области как в условиях многодоменного обучения, так и в условиях оценки.Принимая во внимание вышеизложенные наблюдения, мы ищем подход, который может эффективно облегчить проблему сдвига предметной области при реферировании текста.В частности, модель должна не только хорошо работать в исходных доменах, на которых она обучается, но также демонстрировать преимущества в невидимых целевых доменах.Это включает в себя задачи многодоменного обучения и адаптации предметной области.Здесь мы начнем с нескольких простых подходов к многодоменному обобщению, основанных на многодоменном обучении.Чтобы облегчить следующее описание, сначала введем математические обозначения.Предполагая, что существуют домены, связанные с $K$, мы называем $D_k$ набором данных с образцами $N_k$ для домена $k$. $D_k = \lbrace (S_i^{(k)},Y_i^{(k)})\rbrace _{i=1}^{N_k}$, где $S_i^{(k)}$ и $Y_i^ {(k)}$ представляют собой последовательность предложений и соответствующую последовательность меток из документа домена $k$ соответственно.Цель состоит в том, чтобы оценить условную вероятность $P(Y|S)$, используя взаимодополняемость между различными областями.Это простая, но эффективная модель многодоменного обучения, в которой все домены объединяются вместе и в дальнейшем будут использоваться для обучения набора общих параметров.Примечательно, что домены в этой модели не информируются явно о своих различиях.Следовательно, функцию потерь каждого домена можно записать так: где Basic обозначает нашу структуру кодирования CNN-Transformer (как описано в разделе SECREF15).$\theta ^{(s)}$ означает, что все домены имеют одинаковые параметры.Анализ. Вышеупомянутая модель извлекает выгоду из совместной стратегии обучения, которая может позволить монолитной модели изучать общие функции из разных областей.Однако этого недостаточно, чтобы смягчить проблему смещения предметной области, поскольку остаются два потенциальных ограничения: 1) Совместная модель не учитывает различия между предметными областями, что приведет к низкой производительности при оценке внутри задачи, поскольку некоторые специфичные для задачи функции совместно используются другими задачами.2) На новых доменах мог произойти отрицательный перенос.Далее мы изучим три различных подхода к решению вышеуказанных проблем.Совсем недавно предварительное обучение без присмотра добилось огромного успеха в сообществе НЛП BIBREF28, BIBREF29, которое обычно дает огромные внешние знания.Однако работ по построению связи между крупномасштабными предварительно обученными моделями и многодоменным обучением мало.В этой модели мы исследуем, как внешние знания, которые приносят предварительно обученные модели без присмотра, могут способствовать многодоменному обучению и адаптации к новой предметной области.Достигните этого, предварительно обучив нашу базовую модель $Model^{I}_{Base}$ с помощью BERT BIBREF28, которая является одной из самых успешных платформ обучения.Затем мы выясняем, может ли BERT предоставить информацию о предметной области и обеспечить хорошую адаптируемость модели к предметной области.Чтобы избежать введения новых структур, мы используем BERT на основе функций с фиксированными параметрами. Анализ:Эта модель инструктирует обработку многодоменного обучения с использованием внешних предварительно обученных знаний.Другая перспектива заключается в алгоритмическом решении этой проблемы.Тип предметной области также можно представить непосредственно как вектор признаков, который может дополнить изученные представления способностью учитывать предметную область.В частности, каждый тег домена $C^{(k)}$ будет встроен в низкомерный вектор с действительным знаком, а затем объединен с вложением предложения $\mathbf {s^{(k)}_i}$. Функцию потерь можно сформулировать следующим образом: Стоит отметить, что на невидимых доменах информация о реальных тегах домена недоступна.Таким образом, мы создаем тег домена `$\mathfrak {X}$' для неизвестных доменов и случайным образом переименовываем с его помощью примеры во время обучения.Поскольку реальный тег данных, помеченных `$\mathfrak {X}$', ​​может быть любым исходным доменом, такое встраивание заставит модель изучить общие функции и сделает ее более адаптивной к невидимым доменам.В эксперименте это повышает производительность как на исходных, так и на целевых доменах. Анализ:Эта модель с учетом предметной области позволяет изучать функции, специфичные для предметной области, хотя она по-прежнему страдает от проблемы негативной передачи, поскольку частные и общие функции переплетаются в общем пространстве BIBREF31, BIBREF32.В частности, каждый домен имеет разрешение на изменение общих параметров, что упрощает обновление параметров в разных направлениях. -0,7 см. Чтобы преодолеть вышеуказанные ограничения, мы пытаемся преодолеть разрыв в общении между разными доменами при обновлении общих параметров с помощью метаобучения. BIBREF33, BIBREF34, BIBREF35. Здесь представленный протокол связи утверждает, что каждый домен должен сообщать другим, каковы его детали обновления (градиенты).Благодаря различному поведению обновления в разных доменах можно быть более последовательным.Формально, учитывая основную область $A$ и вспомогательную область $B$, модель сначала вычислит градиенты A $\nabla _{\theta } \mathcal {L}^{A}$ с учетом параметров модели. $\тета$.Затем модель будет обновлена ​​градиентами и рассчитана градиентами B. Наша цель — добиться максимальной производительности на выборке $(S^{(B)},Y^{(B)})$: Итак, функция потерь для каждого домена можно окончательно записать как: где $\gamma $ $(0 \le \gamma \le 1)$ — весовой коэффициент, а $\mathcal {L}$ может быть реализован как $\mathcal {L}_{ I}$ (уравнение DISPLAY_FORM19), $\mathcal {L}_{II}$ или $\mathcal {L}_{III}$ (уравнение DISPLAY_FORM23). Анализ: для решения задачи многодоменного обучения и адаптация к новым областям, Model$^{II}_{BERT}$, Model$^{III}_{Tag}$, Model$^{IV}_{Meta}$ принимает разные точки зрения.В частности, Model$^{II}_{BERT}$ использует крупномасштабную предварительно обученную модель, в то время как Model$^{III}_{Tag}$ предлагает явно вводить информацию о типе предметной области.Наконец, Model$^{IV}_{Meta}$ предназначена для более последовательного обновления параметров путем корректировки направления градиента основного домена A с помощью вспомогательного домена B во время обучения.Этот механизм действительно очищает общее пространство функций путем фильтрации функций, специфичных для предметной области, которые приносят пользу только A. Мы исследуем эффективность четырех вышеупомянутых стратегий при трех параметрах оценки: внутри домена, вне домена и между наборами данных.Эти настройки позволяют явно оценивать модели как по качеству представления текста с учетом предметной области, так и по их способности адаптации для получения разумных представлений в незнакомых областях.Мы проводим наши эксперименты в основном на нашем многодоменном наборе данных MULTI-SUM.Исходные домены определяются как первые пять доменов (внутри домена) в таблице TABREF6, а остальные домены (вне домена) полностью невидимы во время обучения.Оценка в режиме внутри домена проверяет способность модели изучать различное распределение доменов в наборе из нескольких доменов, а затем вне домена исследует, как модели работают в невидимых доменах.Мы также используем CNN/DailyMail в качестве среды оценки между наборами данных, чтобы обеспечить больший разрыв в распределении.Мы используем Model$^{I}_{Basic}$ в качестве базовой модели, строим Model$^{II}_{BERT}$ с помощью BERT на основе функций и Model$^{III}_{Tag}$ с встраиванием домена. в теме.Мы далее развиваем Model$^{III}_{Tag}$ как реализацию модели $^{IV}_{Meta}$. Подробную статистику набора данных, настройки модели и гиперпараметры читатель может найти в Приложении.-12pt. Мы сравниваем наши модели по показателям ROUGE-1 в таблице TABREF29.Обратите внимание, что мы выбрали два предложения для доменов MULTI-SUM и три предложения для CNN/Daily Mail из-за разной средней длины справочных обзоров.Из таблицы TABREF29 мы видим, что модель с учетом домена превосходит монолитную модель как внутри домена, так и вне домена.Значительное улучшение внутридоменной информации показывает, что предметная информация эффективна для моделей обобщения, обученных в нескольких предметных областях.Между тем, превосходная производительность вне домена еще раз иллюстрирует, что понимание разницы доменов также приносит пользу при настройке нулевого выстрела.Это может означать, что модель с учетом домена может фиксировать специфичные для домена функции с помощью тегов домена и одновременно изучать инвариантные для домена функции, которые можно перенести в невидимые домены.Несмотря на небольшое снижение при внутридоменной настройке, суженный разрыв в производительности, как показано в $\Delta R$ таблицы TABREF29, указывает на то, что модель $^{IV}_{Meta}$ имеет лучшую способность к обобщению в качестве компенсации.Снижение производительности в основном связано с более последовательным способом обновления параметров, который очищает общее пространство функций за счет фильтрации некоторых функций, специфичных для предметной области.Отличные результаты при настройках нескольких наборов данных также позволяют предположить, что стратегия метаобучения успешно улучшает переносимость модели не только между областями MULTI-SUM, но и между различными наборами данных.Опираясь на меньший размер $\Delta R$ по сравнению с Model$^{I}_{Base}$, мы можем сделать вывод, что BERT демонстрирует некоторую способность к обобщению предметной области в рамках MULTI-SUM.Однако эта способность уступает Model$^{III}_{Tag}$ и Model$^{IV}_{Meta}$, что в дальнейшем приводит к ухудшению производительности при работе с перекрестными наборами данных.Таким образом, мы не можем приписать успех MULTI-SUM способности решать многодоменное обучение или предметную адаптацию.Вместо этого мы полагаем, что обширные внешние знания о BERT обеспечивают его превосходные возможности по извлечению признаков.Это приводит к тому, что модель $^{II}_ {BERT}$ переопределяет MULTI-SUM и отлично работает во всех доменах, но не работает на более различном наборе данных CNN/Daily Mail.Это наблюдение также предполагает, что, хотя предварительно обученные модели без учителя являются достаточно мощными BIBREF30, они, тем не менее, не могут заменить роль контролируемых методов обучения (т. е. Model$^{III}_{Tag}$ и Model$^{IV}_ {Meta}$), который разработан специально для многодоменного обучения и адаптации к новым предметам.Подводя итог, Модель$^{III}_{Tag} $ — это простой и эффективный метод, который может обеспечить хорошую производительность при настройке внутри домена и демонстрирует определенную способность к обобщению в невидимом домене.Модель$^{IV}_{Meta} $ демонстрирует лучшую способность к обобщению за счет относительно более низкой производительности в предметной области.Поэтому, используя Model$^{IV}_{Meta} $ — не лучший выбор, если производительность внутри домена важна для конечных пользователей.Модель$^{II}_{BERT} $ может достичь наилучшей производительности при внутридоменных настройках за счет времени обучения и демонстрирует худшую способность к обобщению, чем Model$^{IV}_{Meta} $.Если время обучения не является проблемой, Model$^{II}_ {BERT} $ может стать хорошим дополнением к другим методам.Вдохновленные такими наблюдениями, мы далее применяем наши четыре стратегии обучения к основному набору данных обобщения CNN/DailyMail BIBREF22, который также включает два разных источника данных: CNN и DailyMail.Мы используем публикацию в качестве домена и обучаем наши модели на ее обучающем наборе 28w.Как показывает таблица TABREF30, наша базовая модель имеет сравнимую производительность с другими моделями экстракционного обобщения.Кроме того, теги публикации могут значительно улучшить оценки ROUGE на 0,13 балла в ROUGE-1, а стратегия метаобучения не показывает много преимуществ при работе с примерами из предметной области, чего мы и ожидали.BERT с тегами обеспечивает наилучшую производительность, хотя прирост производительности не так велик, как теги публикации приносят базовую модель, и мы предполагаем, что сам BERT содержит некоторую степень информации о предметной области.Кроме того, мы планируем несколько экспериментов, чтобы изучить некоторые потенциальные факторы, которые могут способствовать более высокой производительности моделей с учетом предметной области по сравнению с монолитной базовой моделью.Расположение предложения — хорошо известная и мощная функция, особенно для экстрактивного реферирования BIBREF40.Мы сравниваем относительное положение предложений, выбранных нашими моделями, с метками основной истины в исходных доменах, чтобы выяснить, насколько хорошо эти модели соответствуют распределению и могут ли они различать домены.Мы выбираем наиболее репрезентативные модели Model$^{I}_{Base}$ и Model$^{III}_{Tag}$, показанные на рисунке FigREF34..Процент первого предложения на FoxNews значительно выше, чем у других: (1) Не зная о разных доменах, Model$^{I}_{Base}$ изучает одинаковое распределение для всех доменов и серьезно страдает от этого экстремального распределения.На гистограмме плотности вероятность выбора первого предложения намного выше, чем основная истина в остальных четырех областях.(2) По сравнению с Model$^{I}_{Base}$ модели с учетом предметной области более надежны, поскольку изучают различные относительные распределения для разных предметных областей.Модель $^{III}_{Tag}$ сдерживает крайнюю тенденцию, особенно очевидно на CNN и Mashable.-2cmМы исследуем несколько $\gamma $, чтобы дополнительно изучить производительность модели $^{IV}_{Meta}$. В уравнении DISPLAY_FORM27, $\gamma $ — весовой коэффициент основного домена A.Когда $\gamma =0$, модель игнорирует A и фокусируется на вспомогательном домене B, а когда $\gamma =1$ она обучается только на потере основного домена A (так же, как модель экземпляра $^{III} _{Тег}$).Как показано на рисунке FigREF43, с увеличением $\gamma $ оценки Ружа растут во внутридоменном наборе данных и снижаются во внедоменном и перекрестном наборе данных.Результаты работы с внутридоменными настройками доказывают, что импорт вспомогательного домена ухудшает способность модели изучать функции, специфичные для предметной области.Однако результаты как при настройках вне домена, так и при настройке перекрестного набора данных указывают на потерю B, который сообщает информацию о градиенте A, помогает модели изучить более общие характеристики, тем самым улучшая способность к обобщению.Мы кратко очертим связи и различия со следующими смежными направлениями исследований.Было опубликовано несколько работ по обобщению концепций доменов.BIBREF11.исследовал знания, специфичные для предметной области, и связал их с информацией шаблона.BIBREF12исследовали адаптацию предметной области при абстрактном обобщении и обнаружили, что выбор контента можно перенести в новый домен.BIBREF41 обучил маску выбора абстрактному обобщению и доказал, что она обладает превосходной адаптируемостью.Однако в предыдущих работах только изучались модели, обученные в одной области, и не изучалось многодоменное обучение при обобщении.Мы ориентируемся на испытательный стенд, который требует как обучения, так и оценки производительности в наборе доменов.Поэтому нас волнуют два вопроса: 1) как изучить модель, когда обучающий набор содержит несколько доменов – с использованием MDL.2) как адаптировать многодоменную модель к новым доменам – с использованием DA.Помимо исследования некоторых эффективных подходов, таких как существующие работы, мы сначала проверили, как сдвиг предметной области влияет на задачи обобщения.Он имеет долгую историю точной настройки последующих задач с помощью контролируемых или неконтролируемых предварительно обученных моделей BIBREF42, BIBREF28, BIBREF29.Тем не менее, растет интерес к применению крупномасштабных предварительно обученных моделей для обучения с нулевым переносом BIBREF30.В отличие от вышеупомянутых работ, мы фокусируемся на решении проблемы сдвига предметной области и обобщения.Одним из исследованных нами методов является полуконтролируемая предварительная тренировка, которая сочетает в себе контролируемые и неконтролируемые подходы для достижения нулевой передачи.В этой статье мы исследуем публикацию в контексте предметной области и исследуем проблему сдвига предметной области при обобщении.После подтверждения его существования мы предлагаем создать многодоменный испытательный стенд для обобщения, который требует как обучения, так и измерения производительности в наборе доменов.В этих новых условиях мы предлагаем четыре схемы обучения, чтобы дать предварительное исследование характеристик различных стратегий обучения при решении задач многодоменного обобщения.Мы благодарим Джеки Чи Кит Чунг за полезные комментарии и обсуждения.Исследовательская работа поддерживается Национальным фондом естественных наук Китая (№ 61751201 и 61672162), Шанхайской муниципальной комиссией по науке и технологиям (16JC1420401 и 17JC1404100), Шанхайским муниципальным научным и технологическим крупным проектом (№ 2018SHZDZX01) и ZJLab.
Хотя сдвиг предметной области хорошо изучен во многих приложениях НЛП, ему до сих пор уделяется мало внимания в области извлеченного реферирования текста. В результате модель недостаточно использует характер обучающих данных из-за игнорирования разницы в распределении обучающих наборов и демонстрирует плохую генерализацию в невидимой области. Принимая во внимание вышеуказанное ограничение, в этой статье мы сначала расширяем традиционное определение предметной области с категорий на источники данных для задачи суммирования текста. Затем мы переназначаем набор данных многодоменного суммирования и проверяем, как разрыв между различными доменами влияет на производительность моделей нейронного суммирования. Кроме того, мы исследуем четыре стратегии обучения и изучаем их способность решать проблему смены предметной области. Экспериментальные результаты с тремя различными настройками показывают их разные характеристики на нашем новом испытательном стенде. Наш исходный код, включая методы \textit{на основе BERT}, \textit{meta-learning} для обучения многодоменному суммированию и новый набор данных \textsc{Multi-SUM}, будет доступен в нашем проекте: \url{http ://pfliu.com/TransferSum/}.
4,316
QasperSumInstruct
ru
Напиши аннотацию по статье
Интерпретация повторяющихся нейронных моделей и моделей, основанных на внимании: практический пример вывода на естественном языке. Глубокое обучение позволило добиться огромных успехов во многих задачах НЛП.Однако в отличие от традиционных методов, которые обеспечивают оптимизированные веса для понятных человеку функций, поведение моделей глубокого обучения интерпретировать гораздо сложнее.Из-за высокой размерности вложений слов и сложных, обычно рекуррентных архитектур, используемых для текстовых данных, часто неясно, как и почему модель глубокого обучения принимает свои решения.Есть несколько попыток объяснить/интерпретировать модели, основанные на глубоком обучении, в основном путем визуализации представления слов и/или скрытых состояний и их важности (посредством заметности или стирания) в поверхностных задачах, таких как анализ настроений и маркировка POS BIBREF0 , BIBREF1 , BIBREF2 , BIBREF3 .Напротив, мы сосредотачиваемся на интерпретации сигналов пропускания и внимания промежуточных слоев глубоких моделей в сложной задаче вывода естественного языка.Ключевой концепцией в объяснении глубоких моделей является значимость, которая определяет, что имеет решающее значение для окончательного решения по глубокой модели.До сих пор значимость использовалась только для иллюстрации влияния встраивания слов.В этой статье мы распространяем эту концепцию на промежуточный уровень глубоких моделей, чтобы изучить значимость внимания, а также управляющие сигналы LSTM, чтобы понять поведение этих компонентов и их влияние на окончательное решение.Мы вносим два основных вклада.Во-первых, мы представляем новые стратегии интерпретации поведения глубоких моделей на их промежуточных уровнях, в частности, путем изучения значимости внимания и сигналов пропускания.Во-вторых, мы обеспечиваем обширный анализ современной модели для задачи NLI и показываем, что наши методы раскрывают интересные идеи, недоступные с помощью традиционных методов проверки внимания и значимости слов.В этой статье наше внимание было сосредоточено на НЛИ, которая является фундаментальной задачей НЛП, требующей как понимания, так и рассуждений.Более того, современные модели NLI используют сложную нейронную архитектуру, включающую ключевые механизмы, такие как внимание и повторное чтение, которые широко встречаются в успешных моделях для других задач НЛП.Таким образом, мы ожидаем, что наши методы будут потенциально полезны и для других задач естественного понимания.В NLI BIBREF4 нам даются два предложения, посылка и гипотеза, цель — определить логические отношения (следствие, нейтральность или противоречие) между ними.Многие из наиболее эффективных моделей NLI BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11 являются вариантами модели ESIM BIBREF11, которую мы решили проанализировать в этой статье.ESIM сначала читает предложения независимо, используя LSTM, а затем обращает внимание на выравнивание/контраст предложений.Затем еще один раунд чтения LSTM дает окончательные представления, которые сравниваются для прогнозирования.Подробное описание ESIM можно найти в Приложении.Используя данные SNLI BIBREF4, мы обучаем два варианта ESIM с размерностью 50 и 300 соответственно, которые в оставшейся части статьи называются ESIM-50 и ESIM-300.В этой работе нас в первую очередь интересует внутренняя работа модели NLI.В частности, мы фокусируемся на внимании и управляющих сигналах читателей LSTM, а также на том, как они влияют на решения модели.Внимание широко используется во многих задачах НЛП BIBREF12, BIBREF13, BIBREF14 и, вероятно, является одной из наиболее важных частей, влияющих на решения, связанные с выводами.В нескольких предыдущих работах в NLI были предприняты попытки визуализировать уровень внимания, чтобы обеспечить некоторое понимание их моделей BIBREF5, BIBREF15.Такие визуализации создают тепловую карту, отражающую сходство между скрытыми состояниями предпосылки и гипотезы (уравнение 19 Приложения).К сожалению, сходства часто остаются одинаковыми независимо от решения.Давайте рассмотрим следующий пример, где одна и та же посылка «Ребенок играет в саду» сочетается с тремя разными гипотезами: Ребенок дремлет в саду. Ребенок развлекается в саду со своей семьей. веселье в саду Обратите внимание, что основными отношениями истины являются Противоречие, Нейтральность и Следствие соответственно.В первом ряду рис. 1 показана визуализация нормализованного внимания для трех случаев, полученная с помощью ESIM-50, что дает правильные прогнозы для всех из них.Как видно из рисунка, три карты внимания довольно похожи, несмотря на совершенно разные решения.Ключевая проблема заключается в том, что визуализация внимания позволяет нам только увидеть, как модель согласовывает предпосылку с гипотезой, но не показывает, как такое соответствие влияет на решение.Это побуждает нас задуматься о значимости внимания.Понятие значимости было впервые введено в Vision для визуализации пространственной поддержки изображения для определенного класса объектов BIBREF16.В НЛП значимость использовалась для изучения важности слов для принятия окончательного решения.Предлагаю изучить значимость внимания.В частности, учитывая пару предпосылка-гипотеза и решение модели $y$ , мы рассматриваем сходство между парой скрытых состояний предпосылки и гипотезы $e_{ij}$ как переменную.Таким образом, оценка решения $S(y)$ является функцией $e_{ij}$ для всех $i$ и $j$ .Тогда значимость $e_{ij}$ определяется как $|\frac{\partial S(y)}{\partial {e_{ij}}}|$ . Вторая строка на рис.1 представлена ​​карта значимости внимания для трех примеров, полученных с помощью одной и той же модели ESIM-50.Интересно, что характерные черты в разных примерах явно различаются, каждый из которых подчеркивает разные части согласования.В частности, для h1 мы видим соответствие между «играет» и «вздремнуть», а также соответствие «в саду», имеющее наиболее заметное значение для решения Противоречия.Для h2 соотношение «ребенок» и «ее семья» кажется наиболее важным для решения Нейтрального.Наконец, для h3 соответствие между «весело» и «ребенок играет» оказывает сильнейшее влияние на решение о последствиях.Из этого примера мы видим, что, проверяя значимость внимания, мы эффективно определяем, какая часть выравниваний наиболее существенно влияет на окончательный прогноз, тогда как простая визуализация самого внимания дает мало информации.В предыдущих примерах мы изучаем поведение одной и той же модели на разных входных данных.Теперь мы используем значимость внимания для сравнения двух разных моделей ESIM: ESIM-50 и ESIM-300. Рассмотрим два примера с общей гипотезой «Мужчина заказал книгу» и предпосылкой: Джон заказал книгу на Amazon. Мэри заказала книгу на Amazon. amazon Здесь ESIM-50 не может уловить гендерные связи двух разных имен и предсказывает «Нейтральность» для обоих входных данных, тогда как ESIM-300 правильно предсказывает «Последствия» для первого случая и «Противоречие» для второго.В первых двух столбцах рис. 2 (столбец а и б) мы визуализируем внимание двух примеров для ESIM-50 (слева) и ESIM-300 (справа) соответственно.Хотя две модели дают разные прогнозы, их карты внимания качественно схожи.Напротив, в столбцах 3–4 рисунка 2 (столбец c и d) представлена ​​значимость внимания для двух примеров по ESIM-50 и ESIM-300 соответственно.Мы видим, что в обоих примерах ЭСИМ-50 в первую очередь ориентирован на сопоставление слова «приказной», тогда как ЭСИМ-300 ориентирован больше на сопоставление «Иоанна» и «Марии» с «мужчиной».Интересно отметить, что ESIM-300, похоже, не запоминает существенно отличающиеся значения сходства по сравнению с ESIM-50 для двух критических пар слов («Джон», «мужчина») и («Мэри», «мужчина»), основанных на на карте внимания.Однако карта значимости показывает, что две модели используют эти значения совершенно по-разному, и только ESIM-300 правильно ориентируется на них.Сигналы стробирования LSTM определяют поток информации.Другими словами, они указывают, как LSTM считывает последовательности слов и как информация из разных частей захватывается и объединяется.Сигналы стробирования LSTM редко анализируются, возможно, из-за их высокой размерности и сложности.В этой работе мы рассматриваем как стробирующие сигналы, так и их значимость, которая вычисляется как частная производная оценки окончательного решения по каждому стробирующему сигналу.Вместо того, чтобы рассматривать отдельные измерения стробирующих сигналов, мы объединяем их, чтобы рассмотреть их норму, как для сигнала, так и для его значимости.Обратите внимание, что модели ESIM имеют два уровня LSTM: первый (входной) LSTM выполняет входное кодирование, а второй (вывод) LSTM генерирует представление для вывода.На рис. 3 мы отображаем нормализованные нормы сигнала и значимости для различных вентилей (вход, забывание, выход) прямого входа (три нижние строки) и вывода (три верхние строки) LSTM.Эти результаты получены с помощью модели ESIM-50 для трех примеров раздела 3.1, по одному для каждого столбца.На рисунке мы прежде всего отмечаем, что значимость имеет тенденцию быть в некоторой степени одинаковой для разных элементов в одном и том же LSTM, что позволяет предположить, что мы можем интерпретировать их совместно, чтобы идентифицировать части предложения, важные для прогнозирования модели.Сравнивая примеры, мы видим, что кривые значимости демонстрируют выраженные различия между примерами.Например, характер заметности нейтрального примера значительно отличается от двух других примеров и сильно концентрируется ближе к концу предложения («со своей семьей»).Обратите внимание, что без этой части предложения отношения были бы влечениями.Фокус (о чем свидетельствует ее сильная заметность и сильный управляющий сигнал) на этой конкретной части, которая представляет информацию, недоступную из предпосылки, объясняет решение модели «Нейтральный».Сравнивая поведение входного LSTM и LSTM вывода, мы наблюдаем интересные изменения фокуса.В частности, мы видим, что LSTM для вывода имеет тенденцию видеть гораздо более концентрированную значимость по ключевым частям предложения, тогда как входной LSTM видит большее распространение значимости.Например, в примере с противоречием входной LSTM имеет высокую значимость как для «принятия», так и для «внутреннего», тогда как LSTM для вывода в первую очередь фокусируется на «дремоте», что является ключевым словом, указывающим на противоречие.Обратите внимание, что ESIM использует внимание между слоями ввода и вывода LSTM для выравнивания/контрастирования предложений, поэтому имеет смысл, чтобы LSTM вывода больше фокусировался на критических различиях между предложениями.Это также наблюдается и для нейтрального примера.Стоит отметить, что, выявляя схожие общие тенденции, обратный LSTM иногда может фокусироваться на разных частях предложения (например, см.11 Приложения),предложение прямого и обратного чтения обеспечивает дополнительное понимание предложения.Мы предлагаем новые стратегии визуализации и интерпретации нейронных моделей, чтобы понять, как и почему они работают.Мы демонстрируем эффективность предложенных стратегий на сложной задаче (NLI).Наши стратегии способны дать интересные идеи, недоступные с помощью предыдущих методов объяснения.Наша будущая работа расширит наше исследование, чтобы рассмотреть другие задачи и модели НЛП с целью получения полезных идей для дальнейшего улучшения этих моделей. МодельВ этом разделе мы описываем модель ESIM.Мы разделяем ESIM на три основные части: 1) входное кодирование, 2) внимание и 3) вывод.На рисунке 4 показано высокоуровневое представление структуры ESIM.Пусть $u=[u_1, \cdots , u_n]$ и $v=[v_1, \cdots , v_m]$ — заданные посылка длины $n$ и гипотеза длины $m$ соответственно, где $u_i, v_j\in \mathbb {R}^r$ — вложения слов $r$-мерного вектора.Цель состоит в том, чтобы предсказать метку $y$, которая указывает на логическую связь между посылкой $u$ и гипотезой $v$.Ниже мы кратко объясним вышеупомянутые части.Кодирование входных данных. Для кодирования заданной предпосылки и гипотезы используется двунаправленный LSTM (BiLSTM) с использованием уравнений 16 и 17 соответственно.$$\hat{u} \in \mathbb {R}^{n \times 2d}$$ (уравнение)$$\hat{v} \in \mathbb {R}^{m \times 2d}$$ (уравнение) где $u$ и $v=[v_1, \cdots , v_m]$0 — последовательности чтения $ v=[v_1, \cdots , v_m]$1 и $v=[v_1, \cdots , v_m]$2 соответственно.Внимание. Он использует метод мягкого выравнивания для связывания соответствующих подкомпонентов между данной предпосылкой и гипотезой.Уравнение 19 (энергетическая функция) вычисляет ненормализованные веса внимания как подобие скрытых состояний посылки и гипотезы.$$u$$ (уравнение) где $v=[v_1, \cdots, v_m]$3 и $v=[v_1, \cdots, v_m]$4 — скрытые представления $v=[v_1, \cdots, v_m ]$5 и $v=[v_1, \cdots, v_m]$6 соответственно, которые рассчитаны ранее в уравнениях 16 и 17.Затем для каждого слова в предпосылке или гипотезе соответствующая семантика в другом предложении извлекается и составляется в соответствии с $v=[v_1, \cdots , v_m]$7 .Уравнения 20 и 21 предоставляют формальные и конкретные детали этой процедуры.$$\tilde{v}_j$$ (уравнение)$$\hat{u}$$ (уравнение ), где $v=[v_1, \cdots , v_m]$8 представляет собой извлеченную соответствующую информацию из $v=[v_1, \cdots , v_m]$9 путем обращения к $n$0 в то время как $n$1 представляет собой извлеченную соответствующую информацию из $n$2, обращаясь к $n$3 .Затем он передает обогащенную информацию через слой проектора, который производит окончательный результат этапа внимания.Уравнения 22 и 23 формально представляют этот процесс.$$p$$ (уравнение)$$q$$ (уравнение)Здесь $n$4 обозначает поэлементное произведение, а $n$5 и $n$6 — обучаемые веса и смещения слоя проектора соответственно.$n$7 и $n$8 обозначают результат распределения внимания для предпосылки и гипотезы соответственно.Вывод. На этом этапе он использует другой BiLSTM для агрегирования двух последовательностей вычисленных совпадающих векторов, $n$9 и $m$0, полученных на этапе внимания (уравнения 27 и 28).$$\emph {softmax}$$ (уравнение)$$\hat{u} = \textit {BiLSTM}(u)$$ (уравнение 16), где $m$1 и $m$2 — последовательности чтения $m$3 и $m$4 соответственно.Наконец, максимальное и среднее значение объединения $m$5 и $m$6 проходят через классификатор многослойного перцептрона (MLP), который включает в себя скрытый слой с активацией $m$7 и выходным слоем $m$8.Модель обучается сквозным способом.Исследование внимания Здесь мы приводим больше примеров задачи NLI, которые направлены на изучение конкретного поведения в этой модели.Подобные примеры свидетельствуют об интересных наблюдениях, которые мы сможем проанализировать в будущих работах.В таблице 1 показан список всех примеров.Сигнал стробирования LSTM Наконец, на рисунке 11 показано исследование стробирующих сигналов LSTM в обратном направлении.
Модели глубокого обучения добились замечательных успехов в задачах вывода естественного языка (NLI). Хотя эти модели широко изучены, их сложно интерпретировать, и часто неясно, как и почему они на самом деле работают. В этой статье мы делаем шаг к объяснению таких моделей, основанных на глубоком обучении, на примере популярной нейронной модели для NLI. В частности, мы предлагаем интерпретировать промежуточные уровни моделей NLI путем визуализации значимости сигналов внимания и стробирования LSTM. Мы представляем несколько примеров, для которых наши методы способны выявить интересные идеи и выявить важную информацию, способствующую принятию модельных решений.
2,576
QasperSumInstruct
ru
Напиши аннотацию по статье
Tweet2Vec: изучение встраивания твитов с использованием кодера-декодера CNN-LSTM на уровне символов. В последние годы сайт микроблогов Twitter превратился в крупную социальную сеть с сотнями миллионов пользователей.Короткие (ограничение в 140 символов), шумный и своеобразный характер твитов делают стандартные методы поиска информации и анализа данных малоподходящими для Twitter.Следовательно, постоянно растет объем литературы по IR и интеллектуальному анализу данных, посвященной Twitter.Однако в большинстве этих работ используется обширное проектирование функций для создания функций, созданных вручную для конкретных задач.Это отнимает много времени и неэффективно, поскольку для каждой задачи необходимо разрабатывать новые функции.В этой статье мы представляем Tweet2Vec — метод генерации векторного представления твитов общего назначения, который можно использовать для любой задачи классификации.Tweet2Vec устраняет необходимость в расширенном проектировании функций и может использоваться для обучения любого стандартного готового классификатора (например, логистической регрессии, SVM и т. д.).Tweet2Vec использует модель кодера-декодера CNN-LSTM, которая работает на уровне символов для изучения и создания векторного представления твитов.Наш метод особенно полезен для задач обработки естественного языка в Твиттере, где особенно сложно разработать такие функции, как классификация речевых актов и обнаружение позиции (как показано в наших предыдущих работах по этим темам BIBREF0 , BIBREF1 ). Было несколько работ. по созданию вложений для слов, наиболее известный из которых Word2Vec от Mikolov et al. БИБРЕФ2).Также был ряд различных работ, в которых используются модели кодировщика-декодера на основе долгой краткосрочной памяти (LSTM) BIBREF3 и вентильных рекуррентных нейронных сетей (GRU) BIBREF4.Эти методы использовались в основном в контексте машинного перевода.Кодер отображает предложение исходного языка в векторное представление, а декодер использует этот закодированный вектор для перевода на целевой язык.Возможно, наиболее близкой к нашей работе является работа Ле и Миколова le2014distributed, где они расширили модель Word2Vec для генерации представлений для предложений (называемая ParagraphVec).Однако все эти модели функционируют на уровне слов, что делает их плохо подходящими для чрезвычайно шумного и своеобразного характера твитов.С другой стороны, наша модель на уровне персонажей лучше справляется с шумом и особенностями в твитах.Мы планируем сделать нашу модель и данные, используемые для ее обучения, общедоступными, чтобы их могли использовать другие исследователи, работающие с твитами.В этом разделе мы описываем модель кодера-декодера CNN-LSTM, которая работает на уровне символов и генерирует векторное представление твитов.Кодер состоит из сверточных слоев для извлечения признаков из символов и уровня LSTM для кодирования последовательности признаков в векторное представление, а декодер состоит из двух слоев LSTM, которые прогнозируют символ на каждом временном шаге на основе выходных данных кодера.CNN уровня символов (CharCNN) — это небольшой вариант глубокой сверточной нейронной сети уровня символов, представленной Чжаном и др. BIBREF5.В этой модели мы выполняем операции временной свертки и временного максимального объединения, которые вычисляют одномерные функции свертки и объединения соответственно между входными и выходными данными.Учитывая функцию дискретного ввода INLINEFORM0, дискретную функцию ядра INLINEFORM1 и шаг INLINEFORM2, свертка INLINEFORM3 между INLINEFORM4 и INLINEFORM5 и операция объединения INLINEFORM6 из INLINEFORM7 рассчитывается как: DISPLAYFORM0 DISPLAYFORM1, где INLINEFORM0 — константа смещения.Мы адаптировали эту модель, в которой используются операции временной свертки и объединения, для твитов.Набор символов включает в себя английские алфавиты, цифры, специальные символы и неизвестный символ.Всего имеется 70 символов, указанных ниже:abcdefghijklmnopqrstuvwxyz0123456789-,;.!?:'"/\|_#$%&^*~`+-=<>()[]{}Каждый символ в твитах может быть закодирован с использованием горячего вектора INLINEFORM0 .Следовательно, твиты представляются в виде двоичной матрицы INLINEFORM1 с заполнением там, где это необходимо, где 150 — максимальное количество символов в твите (140 символов твита и заполнение), а 70 — размер набора символов.Каждый твит в форме матрицы теперь передается в глубокую модель, состоящую из четырех одномерных сверточных слоев.Операция свертки использует фильтр INLINEFORM0 для извлечения n-граммных символов из скользящего окна символов INLINEFORM1 на первом уровне и изучения абстрактных текстовых функций в последующих слоях.Свертка в первом слое работает со скользящими окнами символов (размер INLINEFORM2), а свертки в более глубоких слоях определяются аналогичным образом.Как правило, для твита INLINEFORM3 признак INLINEFORM4 на слое INLINEFORM5 создается с помощью: DISPLAYFORM0, где INLINEFORM0, INLINEFORM1 — это смещение на слое INLINEFORM2, а INLINEFORM3 — выпрямленная линейная единица.Этот фильтр INLINEFORM0 применяется ко всем возможным окнам символов в твите для создания карты объектов.За выходными данными сверточного слоя следует 1-мерная операция объединения максимального времени BIBREF6 над картой объектов, в ходе которой максимальное значение выбирается в качестве заметного признака из текущего фильтра.Таким образом, мы применяем фильтры INLINEFORM1 на каждом слое.Размер пула может различаться на каждом уровне (задается INLINEFORM2 на уровне INLINEFORM3).Операция объединения уменьшает размер представления объекта и отфильтровывает тривиальные функции, такие как ненужная комбинация символов.Длина окна INLINEFORM4, количество фильтров INLINEFORM5, размер пула INLINEFORM6 на каждом уровне приведены в таблице TABREF6..93.91. Мы определяем INLINEFORM0 для обозначения операции CNN на уровне символов над входной матрицей твитов INLINEFORM1.Выходные данные последнего сверточного слоя CharCNN(T) (размер: INLINEFORM2) впоследствии передаются в качестве входных данных на уровень LSTM.Поскольку LSTM работает с последовательностями (описано в разделах SECREF8 и SECREF11), операция объединения ограничена первыми двумя уровнями модели (как показано в таблице TABREF6).в этом разделе мы кратко опишем модель LSTM BIBREF7.Учитывая входную последовательность INLINEFORM0 ( INLINEFORM1 ), LSTM вычисляет скрытую векторную последовательность INLINEFORM2 ( INLINEFORM3 ) и выходную векторную последовательность INLINEFORM4 ( INLINEFORM5 ).На каждом временном шаге выход модуля управляется набором вентилей как функция предыдущего скрытого состояния INLINEFORM6 и вход на текущем временном шаге INLINEFORM7, вентиль забывания INLINEFORM8, входной вентиль INLINEFORM9 и выходной вентиль. ИНЛАЙНФОРМА10 .Эти элементы совместно определяют переходы текущей ячейки памяти INLINEFORM11 и текущего скрытого состояния INLINEFORM12.Функции перехода LSTM определяются следующим образом:DISPLAYFORM0 Здесь INLINEFORM0 — это функция INLINEFORM1, имеющая выходные данные в [0, 1], INLINEFORM2 обозначает функцию гиперболического тангенса, имеющую выходные данные в INLINEFORM3, а INLINEFORM4 обозначает покомпонентное умножение.Степень отбрасывания информации в старой ячейке памяти контролируется INLINEFORM5, тогда как INLINEFORM6 управляет степенью сохранения новой информации в текущей ячейке памяти, а INLINEFORM7 — это вывод на основе ячейки памяти INLINEFORM8.LSTM явно предназначен для изучения долгосрочных зависимостей, поэтому мы выбираем LSTM после слоя свертки, чтобы изучать зависимости в последовательности извлеченных функций.В задачах генерации последовательностей LSTM определяет распределение по выходным данным и последовательно прогнозирует токены с помощью функции softmax.DISPLAYFORM0, где INLINEFORM0 — функция активации.Для простоты мы определяем INLINEFORM1 для обозначения операции LSTM на входе INLINEFORM2 на временном шаге INLINEFORM3 и предыдущем скрытом состоянии INLINEFORM4. Модель кодера-декодера CNN-LSTM опирается на интуитивное представление о том, что последовательность функций (например, символов и слов n- граммы), извлеченные из CNN, могут быть закодированы в векторное представление с использованием LSTM, которое может встраивать смысл всего твита.Рисунок FigREF7 иллюстрирует полную модель кодера-декодера.Входными и выходными данными модели являются твиты, представленные в виде матрицы, где каждая строка представляет собой единое векторное представление символов.Процедура кодирования и декодирования описана в следующем разделе.Учитывая твит в матричной форме T (размер: INLINEFORM0), CNN (раздел SECREF2) извлекает функции из представления символов.Одномерная свертка включает в себя вектор фильтра, скользящий по последовательности и обнаруживающий признаки в разных положениях.Затем новые последовательные представления окон более высокого порядка передаются в LSTM (раздел SECREF8).Поскольку LSTM извлекает представление из входных последовательностей, мы не будем применять объединение после свертки на более высоких уровнях модели CNN на уровне символов.Процедуру кодирования можно резюмировать следующим образом: DISPLAYFORM0 DISPLAYFORM1, где INLINEFORM0 — это извлеченная матрица признаков, где каждая строка может рассматриваться как временной шаг для LSTM, а INLINEFORM1 — это скрытое представление на временном шаге INLINEFORM2.LSTM работает с каждой строкой INLINEFORM3 вместе со скрытыми векторами из предыдущего временного шага, чтобы обеспечить встраивание для последующих временных шагов.Векторный вывод на последнем временном шаге INLINEFORM4 используется для представления всего твита.В нашем случае размер INLINEFORM5 равен 256. Декодер работает с закодированным представлением с двумя уровнями LSTM.На начальном временном этапе сквозные выходные данные процедуры кодирования используются в качестве исходных входных данных для первого уровня LSTM.Последний декодер LSTM генерирует каждый символ INLINEFORM0 последовательно и объединяет его с ранее сгенерированными скрытыми векторами размером 128 INLINEFORM1 для прогнозирования следующего временного шага.Прогнозирование символа на каждом временном шаге определяется следующим образом: DISPLAYFORM0, где INLINEFORM0 относится к символу на временном шаге INLINEFORM1, INLINEFORM2 представляет собой горячий вектор символа на временном шаге INLINEFORM3.Результатом softmax является декодированная матрица твитов INLINEFORM4, которая в конечном итоге сравнивается с фактическим твитом или версией твита, замененной синонимом (описанной в разделе SECREF3), для изучения параметров модели.Мы обучили модель кодера-декодера CNN-LSTM на 3 миллионах случайно выбранных твитов на английском языке, заполненных с использованием методов увеличения данных, которые полезны для контроля ошибки обобщения для моделей глубокого обучения.В нашем контексте под увеличением данных понимается копирование твитов и замена некоторых слов в реплицированных твитах их синонимами.Эти синонимы взяты из WordNet BIBREF8, который содержит слова, сгруппированные по их значениям.Это включает в себя выбор заменяемых слов (примером незаменяемых слов являются стоп-слова, имена пользователей, хеш-теги и т. д.) из твита и количество слов INLINEFORM0, которые необходимо заменить.Вероятность числа INLINEFORM1 задается геометрическим распределением с параметром INLINEFORM2, в котором INLINEFORM3 .Слова обычно имеют несколько синонимов, поэтому индекс синонима INLINEFORM4 данного слова также определяется другим геометрическим распределением, в котором INLINEFORM5 .В нашей модели кодировщика-декодера мы декодируем закодированное представление в фактический твит или версию твита, замененную синонимом, из дополненных данных.Для обучения мы использовали INLINEFORM6, INLINEFORM7.Также мы следим за тем, чтобы POS-теги заменяемых слов не полностью отличались от реальных слов.Для регуляризации мы применяем механизм исключения после предпоследнего слоя.Это предотвращает совместную адаптацию скрытых модулей, случайным образом устанавливая пропорцию скрытых модулей INLINEFORM8 на ноль (в нашем случае мы устанавливаем INLINEFORM9 )..Чтобы изучить параметры модели, мы минимизируем потери перекрестной энтропии в качестве цели обучения, используя алгоритм оптимизации Адама BIBREF9.Он задается DISPLAYFORM0, где p — истинное распределение (горячий вектор, представляющий символы в твите), а q — результат softmax.Это, в свою очередь, соответствует вычислению отрицательной логарифмической вероятности истинного класса.Мы оценили нашу модель, используя две задачи классификации: семантическую связанность твитов и классификацию настроений твитов.Первая оценка основана на SemEval 2015-Task 1: Paraphrase and Semantic сходство в Twitter BIBREF10.Учитывая пару твитов, цель состоит в том, чтобы предсказать их семантическую эквивалентность (т. е. выражают ли они одно и то же или очень похожее значение) посредством двоичного суждения «да/нет».Набор данных, предоставленный для этой задачи, содержит 18 000 пар твитов для обучения и 1 000 пар для тестирования, причем INLINEFORM0 этих пар является перефразированием, а INLINEFORM1 — неперефразированием.Сначала мы извлекаем векторное представление всех твитов в наборе данных, используя нашу модель Tweet2Vec.Мы используем две функции для представления пары твитов.Учитывая два вектора твитов INLINEFORM2 и INLINEFORM3, мы вычисляем их поэлементное произведение INLINEFORM4 и их абсолютную разность INLINEFORM5 и объединяем их вместе (аналогично BIBREF11).Затем мы обучаем модель логистической регрессии этим функциям, используя набор данных.Перекрестная проверка используется для настройки порога классификации.В отличие от нашей модели, большинство методов, использованных для этой задачи, в значительной степени основаны на широком использовании разработки признаков или комбинации разработки признаков с семантическими пространствами.В таблице 2 показана производительность нашей модели по сравнению с четырьмя лучшими моделями конкурса SemEval 2015, а также с моделью, обученной с помощью ParagraphVec.Наша модель (Tweet2Vec) превосходит все эти модели, не прибегая к тщательному проектированию функций для конкретных задач.93.91 Вторая оценка основана на SemEval 2015-Task 10B: Классификация полярности сообщений Twitter BIBREF12.Учитывая твит, задача состоит в том, чтобы классифицировать его как положительный, отрицательный или нейтральный по настроению.Размер обучающего и тестового наборов составлял 9520 и 2380 твитов соответственно (положительный INLINEFORM0, отрицательный INLINEFORM1 и нейтральный INLINEFORM2). Как и в последней задаче, мы сначала извлекаем векторное представление всех твитов в наборе данных с помощью Tweet2Vec и используем это для обучения классификатора логистической регрессии с использованием векторных представлений.Несмотря на то, что существует три класса, задача SemEval является двоичной задачей.Производительность измеряется как средний балл F1 положительного и отрицательного класса.В таблице 3 показана производительность нашей модели по сравнению с четырьмя лучшими моделями в конкурсе SemEval 2015 (обратите внимание, что SemEval сообщает только оценку F1 для этой задачи) и ParagraphVec.Наша модель превосходит все эти модели, опять же, не прибегая к какой-либо разработке функций. .Насколько нам известно, это первая попытка изучения и применения встраивания твитов на уровне символов.Наша модель на уровне символов лучше справляется с шумной и необычной природой твитов, чем методы, генерирующие встраивания на уровне слов.Наша модель также устойчива к синонимам благодаря нашей методике увеличения данных с использованием WordNet.Векторные представления, созданные нашей моделью, являются универсальными и, следовательно, могут применяться к задачам различного характера.Мы оценили нашу модель, используя две разные задачи SemEval 2015: семантическую связанность Twitter и классификацию настроений.Простые, готовые классификаторы логистической регрессии, обученные с использованием векторных представлений, сгенерированных нашей моделью, превзошли самые эффективные методы для обеих задач без необходимости какого-либо тщательного проектирования признаков.И это несмотря на то, что из-за ограничений ресурсов наша модель Tweet2Vec обучалась на относительно небольшом наборе (3 миллиона твитов).Кроме того, наш метод превзошел ParagraphVec, который является расширением Word2Vec для обработки предложений.Это небольшая, но заслуживающая внимания иллюстрация того, почему наши встраивания твитов лучше всего подходят для борьбы с шумом и особенностями твитов.Для будущей работы мы планируем расширить этот метод, включив в него: 1) увеличение данных путем изменения порядка слов в твитах, чтобы сделать модель устойчивой к порядку слов, 2) использование механизма внимания BIBREF13 в нашей модели для улучшения выравнивания слов в твиты во время декодирования, что может улучшить общую производительность.
Мы представляем Tweet2Vec, новый метод создания векторного представления твитов общего назначения. Модель изучает встраивание твитов с помощью кодера-декодера CNN-LSTM на уровне символов. Мы обучили нашу модель на 3 миллионах случайно выбранных твитов на английском языке. Модель оценивалась с использованием двух методов: семантического сходства твитов и категоризации настроений твитов, что превосходило предыдущее современное состояние в обеих задачах. Оценки демонстрируют возможности встраивания твитов, сгенерированные нашей моделью, для различных задач категоризации твитов. Векторные представления, созданные нашей моделью, являются универсальными и, следовательно, могут применяться для решения самых разных задач. Хотя модель, представленная в этой статье, обучена на англоязычных твитах, представленный метод можно использовать для изучения встраивания твитов на разных языках.
2,464
QasperSumInstruct
ru
Напиши аннотацию по статье
Обучение сравнению для лучшего обучения и оценки открытых моделей генерации естественного языка. Недавние достижения в архитектуре последовательного обучения BIBREF0 и модели преобразователя BIBREF1 вызвали растущий интерес к задачам генерации естественного языка (NLG), включая генерацию историй BIBREF2, генерацию диалоговых ответов в открытой области BIBREF3 и абстрактное суммирование BIBREF4.Несмотря на быстрое развитие моделей, остается огромный разрыв в оценке моделей NLG, и прогресс трудно измерить из-за отсутствия хороших показателей оценки.Хотя недоумение является хорошим показателем того, насколько хорошо модель соответствует некоторым данным, оно не измеряет производительность при выполнении желаемой задачи.Метрики, основанные на перекрытии слов, такие как BLEU BIBREF5, METEOR BIBREF6 и ROUGE BIBREF7, отражают качество лучше, чем недоумение, и полезны при переводе и реферировании.Тем не менее, они по-прежнему плохо коррелируют с человеческой оценкой BIBREF8 в задачах генерации текста в открытой области, включая генерацию историй и генерацию диалоговых ответов, поскольку два одинаково хорошо сгенерированных текста могут не иметь перекрытия n-грамм.Человеческая оценка обычно считается золотым стандартом оценки, однако она плохо масштабируется, поскольку проведение человеческой оценки, как правило, дорого и требует много времени.Помимо измерения относительного прогресса между различными моделями, метрики автоматизированной оценки также играют важную роль на этапе обучения моделей NLG.Обычной практикой является настройка гиперпараметра модели, обнаружение сходимости, ранняя остановка и выбор лучших контрольных точек на основе производительности модели по метрикам автоматической оценки.Хотя это приемлемо для задач, в которых автоматизированные метрики хорошо коррелируют с оценками человека, включая машинный перевод и обобщение текста, это может быть ошибочным и привести к неоптимальному обучению в задачах NLG с открытой областью, поскольку доступные автоматизированные метрики плохо коррелируют с оценкой человека, как показано в экспериментальный раздел данной статьи.Для решения вышеупомянутых проблем в этой статье мы предлагаем подход с самоконтролем и трансферным обучением, чтобы научиться сравнивать качество двух образцов в виде автоматизированного сравнительного теста Тьюринга.Мотивация нашего подхода заключается в том, что мы можем лучше оценить качество сгенерированных выборок или обученной модели NLG, сравнив ее с другой.Наша модель представляет собой модель классификации текстовых пар, обученную для сравнения качества двух выборок для конкретной задачи, которая затем используется для оценки качества обученных моделей NLG.Поскольку аннотация предпочтений человека, как правило, обходится дорого, наша модель разработана таким образом, чтобы иметь возможность выполнять обучение с самоконтролем, используя только сгенерированные образцы и эталонные образцы золота без аннотации предпочтений человека.Когда доступна аннотация предпочтений человека, нашу модель можно дополнительно настроить, чтобы лучше имитировать человеческое суждение.Чтобы оценить качество моделей NLG на уровне модели на основе парного сравнения на уровне выборки, мы применяем систему рейтинга навыков, аналогичную ELO BIBREF9 и Trueskill BIBREF10, которая представляет собой метод присвоения численного навыка игрокам в игре «игрок против игрока». игра игрока, учитывая рекорд побед и поражений в сыгранных играх.В нашем сценарии игроки представляют собой модели NLG, подлежащие оценке, и более высокий рейтинг указывает на лучшую модель.Система рейтинга навыков позволяет оценивать все n моделей без необходимости запуска $n^{2}$ совпадений и способна учитывать количество новой информации, предоставляемой каждым сравнением.Вклад этой статьи тройной: мы предлагаем модель «обучения сравнению», чтобы лучше оценивать качество текста, генерируемого моделями NLG на основе парного сравнения.Наша модель способна передавать знания о понимании естественного языка из BERT путем тонкой настройки с самоконтролем, а также может быть дополнительно доработана с помощью аннотаций человеческих предпочтений.После обучения наша модель способна выполнять сравнение между моделями без необходимости использования золотых эталонов, что значительно расширяет потенциально доступный набор тестов и снижает потенциальный риск переобучения эталона в тестовом наборе.Мы предлагаем использовать систему рейтинга навыков для проведения оценки на уровне модели на основе информации об оценке на уровне выборки, предоставленной нашей моделью парного сравнения.Система рейтинга навыков более эффективна и точна, чем несколько базовых подходов.Мы проводим эксперименты как по задаче создания истории, так и по задаче генерации ответа на диалог в открытом домене.Результаты экспериментов показывают, что наш подход лучше коррелирует с человеческой оценкой обоих наборов данных.Более того, мы показываем, что использование автоматизированных метрик, таких как BLEU, для настройки гиперпараметров и ранней остановки приводит к неоптимальной модели, и наш подход помогает облегчить эту проблему.Оценка моделей NLG уже давно является открытой проблемой.Хотя человеческая оценка может быть идеальной, ее проведение, как правило, дорогое и плохо масштабируется.Предлагаются различные подходы к автоматизированной оценке, облегчающие разработку и оценку моделей NLG.Ниже мы суммируем эти подходы к оценке.Метрики перекрытия текста, включая BLEU BIBREF5, METEOR BIBREF6 и ROUGE BIBREF7, являются наиболее популярными метриками, используемыми при оценке моделей NLG.Они оценивают сгенерированный текст, сравнивая сходство между сгенерированным текстом и письменными ссылками, написанными человеком.Хотя это хорошо работает в задачах, где разнообразие приемлемых результатов ограничено, таких как машинный перевод и обобщение текста, показано, что показатели перекрытия текста имеют слабую корреляцию или вообще не коррелируют с человеческими суждениями в задачах генерации естественного языка в открытой области BIBREF8.У этих показателей есть два существенных недостатка.Во-первых, метрики перекрытия текста не могут различить незначительные изменения в сгенерированном тексте, которые могут сделать предложение не одинаково грамматически правильным или семантически значимым.Во-вторых, для данного входа может существовать несколько одинаково хороших результатов, и сравнение с одним эталонным золотом может быть ошибочным.Перплексия обычно используется для оценки качества языковой модели.Он измеряет, насколько хорошо распределение вероятностей предсказывает выборку, и отражает степень неопределенности модели.Он используется для оценки моделей в задачах NLG открытого домена, таких как создание историй BIBREF2 и диалоговые системы открытого домена.Однако «насколько вероятно, что предложение будет сгенерировано данной моделью» может быть несопоставимым для разных моделей и не указывает на качество предложения.Параметризованные метрики изучают параметризованную модель для оценки сгенерированного текста.Модели состязательной оценки BIBREF11, BIBREF12 присваивают балл на основе того, насколько легко отличить ответы модели диалога от ответов человека.Однако обучение такого дискриминатора может быть затруднено, поскольку задача бинарной классификации может быть легко переопределена и приводит к плохой обобщаемости BIBREF11.Более того, информация, которую мы получаем от точности дискриминатора, ограничена, поскольку мы не можем сравнить качество двух сгенерированных предложений, когда им обоим удалось или не удалось обмануть дискриминатор.Недавнее исследование показывает, что точность дискриминатора плохо коррелирует с предпочтениями человека BIBREF13.Модель автоматизированной оценки диалога (ADEM) BIBREF14 — это еще одна параметризованная метрика, предложенная для оценки диалоговой системы.Он учится оценивать сгенерированный диалоговый ответ на основе контекста и письменных упоминаний человека.Однако для сгенерированных предложений требуются оценки, аннотированные человеком.Как правило, сложно разработать подходящие вопросы для краудсорсинга этих оценок, из-за чего получение аннотации становится очень дорогим, а оценка согласия между аннотаторами является лишь умеренной BIBREF14.В результате обучающие данные ограничены и зашумлены, что еще больше усложняет задачу оценки.Это может быть проблематично при сравнении моделей одинакового качества.Кроме того, эта модель предназначена только для оценки моделей генерации диалоговых ответов.Совсем недавно были внедрены метрики, основанные на сходстве, такие как HUSE BIBREF15 и BERTScore BIBREF16.Эти метрики решают первую проблему, связанную с метриками перекрытия текста, поскольку лучше моделируют семантическое сходство.Однако они не могут решить проблему разнообразия ответов и поэтому подходят только для машинного перевода и обобщения текста.Еще одно направление исследований в области оценки NLG — унифицировать человеческую оценку со статистической оценкой BIBREF17, BIBREF18.Эти работы ортогональны нашей статье, поскольку они в основном сосредоточены на сочетании человеческой оценки и автоматизированной оценки.Еще одна работа, связанная с нашим исследованием, — это система рейтинга навыков, которая оценивает игроков, наблюдая за записями побед и поражений нескольких игроков и делая вывод о значении скрытой, ненаблюдаемой переменной навыков для каждого игрока, которая объясняет записи побед и поражений.Впервые он был принят для оценки GAN BIBREF19 для синтеза изображений BIBREF20 с помощью конкурирующих генераторов с дискриминаторами.Их подход представляет собой аппроксимацию рейтинга навыков, поскольку исходная система рейтинга навыков требует игры двух симметричных игроков, тогда как в их системе игроки асимметричны.Их подход не включает опцию «привязки», поэтому не может различать случаи, когда дискриминатор достаточно уверен или нет.Что еще более важно, их подход предназначен только для оценки GAN, тогда как наш подход можно использовать для любых моделей NLG.Предлагаемый подход мы представляем в этом разделе.Начнем с модели парного сравнения на уровне выборки.Затем мы покажем, как использовать систему рейтингов навыков для оценки моделей NLG на уровне модели.Предлагаемый сравнительный оценщик представляет собой классификатор отношений текстовых пар, который обучен сравнивать качество двух образцов для конкретной задачи.Мотивация оценки одного образца путем сравнения его с другим образцом основана на понимании, полученном при проведении оценки моделей NLG на людях.Мы обнаружили, что при сравнении двух моделей NLG вместо того, чтобы просить аннотатора-человека присваивать оценки отдельно для выборок, сгенерированных разными моделями, что напоминает случай в модели ADEM BIBREF14, аннотаторам-человекам гораздо проще напрямую сравнить одну выборку, сгенерированную с помощью модели ADEM BIBREF14. попарно сравнить первую модель с другой выборкой из второй модели и вычислить соотношение выигрышей/проигрышей.Оценка на основе сравнения также может быть более точной, о чем свидетельствует более высокий показатель согласия между аннотаторами в наших предварительных экспериментах.Специалист по сравнительной оценке узнает общий порядок качества выборки, классифицируя, является ли первый сравниваемый образец лучше ($>$), хуже ($<$) или неотличимым ($\approx $) с точки зрения качества по сравнению с другим образцом.Таким образом, наша модель кодирует индуктивное смещение, заключающееся в том, что иногда два образца могут иметь одинаковое качество, и выбрать лучший образец сложно и ненадежно.Предоставив нашей модели третий «связывающий» вариант, она может явно выразить свою неопределенность и выбирать свои предпочтения только тогда, когда она достаточно уверена.Этот выбор дизайна мотивирован практикой, согласно которой добавление опции «связывания» для аннотатора-человека при выполнении парной оценки человеком часто может сделать сравнение проще и надежнее.Для текстового образца наш сравнительный оценщик может предоставить более информативную оценку, чем бинарный дискриминационный оценщик, поскольку один оцениваемый образец может получить несколько отзывов от сравнительного оценщика путем сравнения его с несколькими другими образцами.Напротив, дискриминирующий оценщик может оценить выборку только один раз, что с большей вероятностью пострадает от присущей оценщику неопределенности.Мы предлагаем два подхода к построению парных обучающих примеров для обучения сравнительного оценщика.Первый подход порождает убедительные примеры супервизии.Он основан на интуитивном понимании того, что письменные ссылки, написанные человеком, обычно имеют лучшее качество, чем образцы, сгенерированные машиной, и трудно заметить разницу с точки зрения качества, когда два сравниваемых образца созданы машиной или письменными ссылками, созданными человеком.Обозначим $S_{+}$$/$$S_{-}$ как набор реальных/сгенерированных выборок.Для реальной выборки $s_{+}\in S_{+}$ и сгенерированной выборки $s_{-}\in S_{-}$ мы присваиваем метку «лучше ($>$)» паре ($ s_+$, $s_-$) и «хуже ($<$)» до ($s_-$, $s_+$).Для двух выборок как из реальных данных, так и из сгенерированных выборок, таким парам (т.е. ($s_+^i$, $s_+^j$) и ($ s_-^i$, $s_-^j$)).Для обучающего набора с $n$ реальными выборками и $n$ сгенерированными выборками мы можем построить $\binom{2n}{2}$ попарные обучающие примеры для сравнительного оценщика, что позволит повысить способность к обобщению и ввести более информативные обучающие сигналы. чем стандартный реальный/поддельный двоичный дискриминационный оценщик.Обратите внимание, что при построении пары выборок ($s_-^i$, $s_-^j$) $s_-^i$ и $s_-^j$ выбираются из одной и той же контрольной точки одной и той же модели, чтобы гарантировать что они имеют одинаковое качество в ожидании.Одна из проблем подхода строгого надзора заключается в том, что он всегда помечает две сгенерированные выборки как неотличимые.Однако во время вывода входными данными сравнительного оценщика является пара двух сгенерированных выборок из разных моделей.Таким образом, для успешного сравнения двух выборок требуется, чтобы модель фиксировала отношение качества в обучающих примерах и хорошо обобщала, а не просто классифицировала их как неотличимые, что дает относительно меньше информации для оценки моделей NLG.Чтобы решить эту проблему, мы предлагаем подход к построению слабых примеров супервизии для обучения специалиста по сравнительной оценке.Интуиция нашего слабого подхода к надзору заключается в том, что во время обучения качество модели NLG продолжает улучшаться до достижения сходимости.Учитывая две контрольные точки одной и той же модели, мы можем считать, что образцы, созданные более поздней контрольной точкой, имеют лучшее качество по сравнению с образцами, созданными более ранней версией той же модели.Этот подход считается слабым контролем, поскольку качество модели не может улучшаться монотонно, и иногда трудно решить, начинает ли модель переопределять обучающие данные, и ее качество начинает снижаться.Чтобы минимизировать шум, вносимый этими проблемами, мы эмпирически устанавливаем минимальный запас между двумя выбранными контрольными точками равным $10\%$ от общей итерации обучения и не выбираем две «почти сходящиеся» контрольные точки.Построение обучающих выборок аналогично первому подходу.Кроме того, мотивируя это тем, что чем больше разница между качеством двух выбранных версий модели, тем легче оценщику научиться различать обучающие примеры, мы предлагаем использовать учебную программу BIBREF21, снабжая оценщика сравнительной выборкой. пары с большим запасом (т. е. большим количеством итераций обучения между двумя выбранными контрольными точками) на начальном этапе обучения и постепенно уменьшайте запас, чтобы модель постепенно научилась улавливать меньшие различия в качестве.Более того, когда доступна аннотация предпочтений человека, мы можем дополнительно настроить сравнительный оценщик с помощью аннотаций человека.Специалист по сравнительной оценке обучается с целью оценки максимального правдоподобия (MLE), как описано в уравнении DISPLAY_FORM6, где$\mathcal {X}$ — это набор примеров парного обучения, построенных, как описано выше, $Q(x_1, x_2) \in \lbrace >,<,\approx \rbrace $ — это истинная метка для пары ($x_1$ , $x_2$), $D_\phi ^q(x_1, x_2)$ — вероятность того, что предсказание сравнительного дискриминатора будет $q$ ($q \in \lbrace >,<,\approx \rbrace $) для пары ($x_1$, $x_2$). Поскольку для сравнения качества сгенерированного текста требуется хорошее понимание естественного языка, а наш сравнительный оценщик сформулирован как модель классификации пар предложений, мы предлагаем точно настроить BERT BIBREF22 в качестве сравнительного оценщика, Архитектура полученного сравнительного оценщика представлена ​​на рисунке 1.Обратите внимание, что сравниваемые выборки A и B основаны на одном и том же контексте, что обеспечивает их сопоставимость.В играх «игрок против игрока», таких как шахматы или теннис, системы оценки навыков, такие как Elo BIBREF9 или Glicko2 BIBREF23, оценивают игроков, наблюдая за записями побед и поражений нескольких игроков и делая вывод о значении скрытой, ненаблюдаемой переменной навыка для каждого игрока. это объясняет рекорды побед и поражений.Мы применяем систему рейтингов навыков для оценки моделей NLG на уровне модели.Приняв обученного сравнительного оценщика в качестве «игровой площадки», а модели NLG в качестве «игрока», игра «игрок против игрока» проводится путем выборки одной выходной выборки из каждой модели NLG, обусловленной одними и теми же входными данными, и определяется результат игры. сравнительного оценщика.Следуя предыдущей работе BIBREF20, в нашей статье мы используем систему Glicko2 BIBREF23.Используемую систему можно резюмировать следующим образом: рейтинг навыков каждого игрока представлен в виде распределения Гаусса со средним и стандартным отклонением, отражающим текущее состояние данных об их «истинном» рейтинге навыков.Когда мы оцениваем замороженные снимки моделей NLG, мы отключили ненужную функцию Glicko2, которая увеличивает неопределенность в отношении навыков игрока-человека, когда он какое-то время не участвовал в матче.Еще одно отличие состоит в том, что традиционные системы оценки навыков не поддерживают опцию «связывания», что важно для стабильности и надежности системы в нашем случае, поскольку оценщик не идеален.Чтобы включить эту функцию, мы следуем интуиции, согласно которой рейтинг навыков игрока должен увеличиваться, когда он играет вничью с другим игроком с более высоким рейтингом навыков, и наоборот.Мы придумали простое правило, которое увеличивает/уменьшает рейтинг навыков одного игрока на соотношение (например, 0,1) изменений его рейтинга навыков, когда он выигрывает/проигрывает, если он играет вничью с другим игроком с более высоким/низким рейтингом навыков.В наших экспериментах оценка навыков осуществляется путем случайной выборки двух сравниваемых моделей, моделирования «игры» между двумя выбранными моделями путем выборки одной выборки из каждой модели и сравнения их со сравнительным оценщиком, а затем обновления рейтинга навыков выбранных моделей в соответствии с к результату.Эта процедура выполняется итеративно до тех пор, пока не произойдет сходимость, которая определяется как порядок рейтингов навыков сравниваемых моделей, который остается неизменным после того, как каждая модель выбрана не менее 50 раз.Хотя процедуру выборки можно оптимизировать с помощью байесовской оптимизации BIBREF24 или алгоритмов многорукого бандита BIBREF25, мы предпочитаем оставить метод максимально простым и использовать случайную выборку.Мы поставили эксперименты, чтобы ответить на следующие исследовательские вопросы: RQ1: Может ли сравнительный оценщик лучше коррелировать с человеческими предпочтениями на уровне выборки, чем предыдущие автоматизированные показатели при оценке моделей NLG с открытой областью? RQ2: Может ли сравнительный оценщик лучше коррелировать с человеческими предпочтениями на уровне модели, чтобы наш подход мог лучше измерять прогресс в открытом домене NLG? RQ3:Поскольку существующие подходы не могут хорошо коррелировать с человеческими предпочтениями, влияет ли эта проблема и в какой степени на качество окончательной модели NLG при выполнении поиска гиперпараметров и ранней остановки? Вопрос 4: Если предыдущая проблема существует, может ли предлагаемый сравнительный оценщик уменьшить эту проблему «Мы оцениваем эффективность предложенного подхода по двум задачам генерации естественного языка в открытой области: генерация истории и генерация ответа в виде диалога в открытой области.Для создания историй мы используем набор данных WritePrompts, выпущенный BIBREF2.Набор данных WritePrompts представляет собой большой набор данных, содержащий 303 358 историй, созданных людьми, в сочетании с подсказками по написанию с онлайн-форума.Модели NLG обучаются, принимая в качестве входных данных подсказки для написания и генерируя всю историю.Средняя длина подсказок составляет 28,4, а средняя длина историй — 734,5 слов, что делает человеческую оценку очень дорогой, и поэтому критически важны более качественные автоматизированные показатели.Для задачи создания ответа на диалог в открытом домене мы используем набор данных Dailydialog BIBREF26, который состоит из диалогов, напоминающих ежедневные разговоры по нескольким темам.Он состоит из 13 тысяч диалогов, в среднем по 7,9 ходов на диалог.Поскольку наша цель состоит в том, чтобы оценить оценщиков, а не сравнить современные модели, мы выбираем три репрезентативные архитектуры последовательностей: LSTM BIBREF27 seq2seq, сверточную seq2seq BIBREF28 и модель преобразователя BIBREF1.Мы сравниваем модели с различной архитектурой, выбором гиперпараметров и критериями ранней остановки с различными автоматическими метриками, а также с человеческой оценкой.Что касается метрики оценки (и критериев выбора гиперпараметра и ранней остановки), мы сравниваем предлагаемый подход с дискриминативным оценщиком, показателем BLEU (среднее значение 2-, 3-, 4-грамм), растерянностью и ADEM.При оценке сгенерированных историй мы обрезаем историю по ближайшему предложению для историй длиной более 250 слов.Предлагаемый сравнительный оценщик используется для выбора гиперпараметра путем оценки навыков среди всех моделей, обученных с различными вариантами гиперпараметров.Для ранней остановки, поскольку постепенное выполнение рейтинга навыков требует больших вычислительных затрат, мы предлагаем выполнить n (например, 1000) попарных сравнений между выборками, сгенерированными последней контрольной точкой и предыдущими k (например, 2) контрольными точками, и прекратить обучение, когда процент выигрышей составит последняя контрольная точка остается меньше, чем ее скорость потерь в течение 5 итераций.Предлагаемый сравнительный оценщик обучается путем тонкой настройки BERT-large как классификатора пар предложений.Чтобы обеспечить справедливую оценку, мы также обучаем оценщика путем точной настройки BERT.Для ADEM мы используем его первоначальную реализацию, поскольку его архитектура относительно сложна.Кроме того, мы проводим исследование абляции, оценивая три варианта сравнительного оценщика, где он обучается без примеров строгого контроля, без примеров слабого контроля, без точной настройки с помощью аннотаций предпочтений человека и без перехода от BERT. Поскольку человеческая оценка стоит дорого, Оценка на уровне выборки выполняется совместно с оценкой на уровне модели, которая также используется для оценки способности различных метрик выполнять поиск гиперпараметров и раннюю остановку.Конкретно, мы выполняем 10 групп оценок для выбора гиперпараметров и ранней остановки с пятью сравниваемыми автоматическими метриками.В каждой оценке каждая из пяти сравниваемых метрик используется для выбора лучшей комбинации гиперпараметров или контрольной точки ранней остановки с фиксированными другими вариантами.Мы решили выполнить оценку с участием человека на основе оценок по четырем причинам: 1) базовый уровень ADEM требует оценок, аннотированных человеком, в качестве обучающих примеров, 2) мы можем построить до $\binom{2n}{2}$ обучающих примеров для нашего сравнительного оценщика. с $n$ оценками, аннотированными человеком, 3) оценка человеком на основе оценок облегчает оценку оценок корреляции и 4) поскольку все другие показатели не выполняют парное сравнение, использование парной оценки человека, вероятно, будет смещено в сторону нашего подхода.Мы отбираем 20 сгенерированных образцов из каждой модели (из 5) из 20 оценочных групп.Мы приглашаем 20 аннотаторов, которые являются аспирантами с хорошим знанием английского языка, для оценки этих образцов.Каждый аннотатор оценивает одну выборку из каждой модели, так что каждая модель оценивается единообразно.Оценка оценивается по шкале от 1 до 5, более высокий балл указывает на лучшее общее качество выборки.Согласно экспериментальным результатам BIBREF14, мы не просим комментаторов предоставлять конкретные оценки за беглость или информативность.Чтобы проверить оценку согласия внутреннего аннотатора, мы дополнительно просим их оценить еще 40 сгенерированных образцов, из которых 20 образцов оцениваются от 1 до 5, а еще 20 оцениваются на основе попарного сравнения с 4 другими сгенерированными образцами и оцениваются от 1 до 5. на основе того, во сколько раз они считаются лучше эталонного образца.Мы получаем оценку согласия между аннотаторами $\kappa =0,53$ при прямой оценке и $\kappa =0,76$ при парном сравнении, что подтверждает нашу интуицию о том, что оценка путем сравнения может быть более точной.Эти дополнительные аннотации, сделанные человеком, используются в качестве обучающих данных для ADEM и специалиста по сравнительной оценке.Чтобы проверить корреляцию различных автоматизированных показателей с человеческими предпочтениями, мы используем разные показатели для оценки собранных 2000 образцов и расчета их корреляции Пирсона и Спирмена с человеческими оценками.Для сравнительного оценщика, поскольку оценка выполняется попарно и абсолютная оценка недоступна, мы используем два разных подхода для получения абсолютной оценки для каждого образца: 1) мы выбираем 50 общих ссылок из машинно-сгенерированных образцов для каждой задачи и сравниваем каждый образец. со всеми рекомендациями сравнительного оценщика.Образец получает 3 балла, когда превосходит эталон, 1 балл, когда ничья с эталоном, и получает 0 баллов, когда проигрывает. 2) мы принимаем систему рейтинга навыков, рассматривая каждый образец как модель NLG, которая всегда выводит один и тот же образец и использует навык. рейтинг для каждого образца как его балл.Чтобы обеспечить примерно одинаковый вычислительный бюджет, мы фиксируем количество игр в рейтинге навыков равным 10 000. Результаты эксперимента суммированы в таблице 1.Мы видим, что предлагаемый сравнительный оценщик гораздо лучше коррелирует с человеческим суждением, чем BLEU и недоумение.По сравнению с недавно предложенными параметризованными метриками, включая состязательный оценщик и ADEM, наша модель постоянно превосходит их с большим отрывом, что демонстрирует, что наша метрика оценки, основанная на сравнении, способна более точно оценить качество выборки.Кроме того, мы обнаружили, что оценка сгенерированных образцов путем сравнения их с набором случайно выбранных образцов или с использованием рейтинга навыков на уровне выборки работает почти одинаково хорошо.Это неудивительно, поскольку используемый рейтинг навыков способен учитывать присущую игрокам дисперсию (т. е. модели NLG).Поскольку этой дисперсии не существует, если мы рассматриваем выборку как модель, которая всегда генерирует одну и ту же выборку.Что касается оценки на уровне модели, мы используем среднюю оценку 100 оцененных образцов в качестве оценки каждой модели и рассчитываем их корреляцию с оценками человека.Для сравнительного оценщика мы предлагаем три различных подхода к получению абсолютного балла для каждой выборки: 1) мы рассчитываем средний эталонный балл (метод 1 для сравнения на уровне выборки) каждого образца как балл на уровне модели, 2) мы рассчитываем средний рейтинг навыков каждого образца, полученный в экспериментах RQ1, как балл на уровне модели, 2) мы используем предложенную систему рейтинга навыков, чтобы получить рейтинг навыков на уровне модели для каждой сравниваемой модели.Результаты показаны в таблице 2.Мы видим, что предлагаемый сравнительный оценщик с рейтингом навыков значительно превосходит все сравниваемые базовые показатели, включая сравнительный оценщик со средними баллами на уровне выборки.Это демонстрирует эффективность системы рейтинга навыков для проведения сравнения на уровне модели с парной оценкой на уровне выборки.Кроме того, плохая корреляция между традиционными показателями оценки, включая BLEU, и недоумением, демонстрирует необходимость более эффективных автоматизированных показателей оценки при оценке NLG в открытой области.Мы далее исследуем влияние несовершенных метрик на обучение моделей NLG.Как описано в процедуре оценки человеком, мы выполняем 10 прогонов, чтобы проверить надежность каждой метрики, когда она используется для настройки гиперпараметров и ранней остановки соответственно.В каждом прогоне мы выбираем лучшую комбинацию гиперпараметров или контрольную точку ранней остановки на основе каждой из пяти сравниваемых метрик.Затем используется человеческая оценка для определения наилучшего выбора.Мы оцениваем эффективность каждой метрики по тому, сколько раз (из 10) им удалось выбрать лучшую комбинацию гиперпараметров или контрольную точку ранней остановки (из 4), а также по среднему баллу, аннотированному человеком, для выбранных ими моделей.Результаты показаны в таблице 3.Мы видим, что традиционные автоматизированные метрики работают плохо и приводят к неоптимальным результатам при выполнении поиска гиперпараметров и выборе наиболее эффективных контрольных точек.Преобразование показателя оценки из BLEU или недоумения в предлагаемый сравнительный оценщик может привести к значительным улучшениям без изменения архитектуры модели или цели обучения.В то время как предыдущие работы по оценке NLG в основном сосредоточены на этапе оценки и не исследуют влияние несовершенных метрик во время обучения модели, наши эксперименты демонстрируют существование этой проблемы и то, что предлагаемый метод может в некоторой степени облегчить эту проблему.Мы представляем несколько примеров сравнения в наборе данных Dailydialog для качественного анализа предлагаемого сравнительного оценщика.Из первого примера мы видим, что специалист по сравнительной оценке способен определить, что общие и скучные ответы (т. е. «Я не знаю») следует рассматривать как худшие по качеству.Второй пример показывает, что наш подход хорошо справляется с разнообразием возможных ответов, поскольку он рассматривает как положительный, так и отрицательный ответ как действительные ответы.Надеемся, что эти примеры дадут нам некоторое представление о том, почему предлагаемый показатель лучше коррелирует с человеческими предпочтениями.Чтобы лучше понять предлагаемый сравнительный оценщик и проанализировать относительную важность его различных компонентов, мы проводим исследование абляции с несколькими вариантами предлагаемой модели: без сравнения: оценка созданных образцов без сравнения, что сводится к состязательному методу оценки. /o строгий надзор:Обучение специалиста по сравнительной оценке без «сильного надзора», который моделирует индуктивную предвзятость, заключающуюся в том, что письменные эталонные образцы, написанные людьми, обычно имеют лучшее качество по сравнению с образцами, полученными с помощью моделей NLG. Без слабого надзора: Обучение без «слабого надзора», который моделирует индуктивный предвзятость, заключающаяся в том, что качество моделей NLG обычно улучшается во время обучения. без аннотации предпочтений человека. Обучение без аннотированных данных о предпочтениях человека (т.е. только при сильном и слабом контроле). без варианта привязки. Вариант сравнительной оценки, при котором модель должна выбрать лучший образец, а не возможность признать его неопределенность. без BERTВариант, в котором модель обучается с нуля вместо тонкой настройки BERT. Мы оцениваем эти варианты модели на наборе данных Dailydialog.Результаты представлены в таблице 5.Мы видим, что оценка на основе сравнения очень эффективна, поскольку наша модель коррелирует намного лучше, чем состязательный оценщик.Опция связи также очень важна, поскольку она может помешать специалисту по сравнительной оценке принять неопределенное решение и смоделировать индуктивную погрешность, заключающуюся в том, что выборки, созданные с помощью одной и той же модели, обычно имеют одинаковое качество, что может помочь нашей модели лучше обобщать.Что касается различных источников обучающих примеров, мы считаем, что аннотация человеческих предпочтений является наиболее важной, что неудивительно.Кроме того, мы обнаружили, что предлагаемый слабый надзор также помогает, но имеет меньшую относительную важность по сравнению с сильным надзором.Это может быть связано с тем, что примеры, построенные с помощью подхода слабого надзора, могут содержать много шума.Мы также видим, что наша модель хорошо коррелирует с человеческими предпочтениями без обучения с использованием аннотаций человеческих предпочтений, это очень важно на практике, поскольку человеческие аннотации не всегда доступны.Наконец, мы считаем, что передача способности понимания естественного языка из BERT очень важна для конечной производительности.В этой статье мы представляем новую параметризованную метрику автоматизированной оценки, основанную на сравнении, для оценки моделей NLG с открытой областью.Предлагаемая модель основана на интуитивном понимании того, что мы можем лучше оценить качество выборки, сравнивая ее с другими выборками.Наша модель позволяет модели признать свою неопределенность с помощью варианта «связка».Мы применяем систему рейтингов навыков для проведения оценки на уровне модели на основе парного сравнения на уровне выборки.Благодаря передаче предварительно обученных знаний о понимании естественного языка из BERT и точной настройке с помощью сильных и слабых примеров контроля и аннотаций человеческих предпочтений наша модель лучше коррелирует с человеческим суждением, чем другие сравниваемые показатели.Кроме того, мы обнаружили, что при использовании в качестве показателей оценки обычные метрики, такие как BLEU и недоумение, могут повлиять на этап обучения моделей NLG, поскольку они могут привести к неоптимальному выбору гиперпараметров и выбору контрольных точек.Наша модель, напротив, гораздо более надежна при выполнении такого выбора.
Автоматизированная оценка открытых моделей генерации естественного языка (NLG) остается сложной задачей, а широко используемые метрики, такие как BLEU и Perplexity, в некоторых случаях могут вводить в заблуждение. В нашей статье мы предлагаем оценить модели генерации естественного языка, научившись сравнивать пару сгенерированных предложений путем точной настройки BERT, который, как было показано, обладает хорошей способностью к пониманию естественного языка. Мы также предлагаем оценивать качество моделей NLG на уровне модели с помощью результатов сравнения на уровне выборки с системой рейтинга навыков. Несмотря на то, что наша модель может обучаться полностью самостоятельно, ее можно дополнительно настроить с помощью небольшого количества аннотаций человеческих предпочтений, чтобы лучше имитировать человеческое суждение. Помимо оценки обученных моделей, мы предлагаем применять нашу модель в качестве индикатора производительности во время обучения для лучшей настройки гиперпараметров и ранней остановки. Мы оцениваем наш подход как к созданию историй, так и к генерации ответов в виде диалогов. Результаты экспериментов показывают, что наша модель лучше коррелирует с человеческими предпочтениями по сравнению с предыдущими подходами к автоматизированной оценке. Обучение с использованием предложенной метрики дает более высокие результаты при оценке человеком, что еще раз демонстрирует эффективность предлагаемой модели.
5,256
QasperSumInstruct
ru
Напиши аннотацию по статье
Извлечение отношений с нулевым выстрелом посредством понимания прочитанного. Системы извлечения отношений заполняют базы знаний фактами из неструктурированного текстового корпуса.Когда тип фактов (отношений) заранее определен, можно использовать краудсорсинг BIBREF0 или удаленный контроль BIBREF1 для сбора примеров и обучения модели извлечения для каждого типа отношений.Однако эти подходы не способны извлечь отношения, которые не были заданы заранее и не наблюдались во время обучения.В этой статье мы предлагаем альтернативный подход к извлечению отношений, который потенциально может извлекать факты новых типов, которые не были ни указаны, ни наблюдались априори.Мы показываем, что можно свести извлечение отношений к проблеме ответа на простые вопросы, связанные с пониманием прочитанного.Мы сопоставляем каждый тип отношения $R(x,y)$ хотя бы с одним параметризованным вопросом на естественном языке $q_x$, ответом на который является $y$ .Например, отношение $educated\_at(x,y)$ можно сопоставить с вопросом «Где учился $x$?» и «Какой университет окончил $x$?».Учитывая конкретную сущность $x$ («Тьюринг») и текст, в котором упоминается $x$ («Тьюринг получил докторскую степень в Принстоне»), ненулевой ответ на любой из этих вопросов («Принстон») подтверждает факт и также заполняет слот $y$ .Рисунок 1 иллюстрирует еще несколько примеров.Это сокращение позволяет по-новому сформулировать проблему обучения.В частности, это позволяет нам выполнять обучение с нуля: определять новые отношения «на лету», после того как модель уже обучена.Более конкретно, сценарий нулевого выстрела предполагает доступ к помеченным данным для типов отношений $N$.Эти данные используются для обучения модели понимания прочитанного посредством нашего сокращения.Однако во время тестирования нас спрашивают о ранее не встречавшемся типе отношения $R_{N+1}$.Вместо предоставления помеченных данных для нового отношения мы просто перечисляем вопросы, которые определяют значения слотов отношения.Предполагая, что мы изучили хорошую модель понимания прочитанного, следует извлечь правильные значения.Наша установка с нулевым выстрелом включает в себя инновации как в данных, так и в моделях.Мы используем дистанционный контроль для относительно большого количества отношений (120) из Викиданных BIBREF2, которые на практике легко собираются с помощью набора данных WikiReading BIBREF3.Мы также внедряем краудсорсинговый подход для сбора и проверки вопросов по каждому отношению.В результате этого процесса в среднем на каждое отношение было получено около 10 вопросов, в результате чего в общей сложности был получен набор данных, содержащий более 30 000 000 примеров вопросов-предложений-ответов.Поскольку вопросы связаны с типами отношений, а не с экземплярами, эта общая процедура требует очень скромных затрат.Основная проблема моделирования заключается в том, что большинство существующих формулировок задач чтения-понимания предполагают, что ответ на вопрос всегда присутствует в данном тексте.Однако для извлечения отношений эта предпосылка не выполняется, и модель должна надежно определять, когда на вопрос нет ответа.Мы показываем, что новейший нейронный подход к пониманию прочитанного BIBREF4 можно напрямую расширить для моделирования ответственности и обучения на нашем новом наборе данных.Этот подход к моделированию является еще одним преимуществом нашего сокращения: по мере того, как модели машинного чтения со временем улучшаются, должна улучшаться и наша способность извлекать отношения.Эксперименты показывают, что наш подход обобщается на новые перефразировки вопросов из обучающего набора, при этом вызывая лишь незначительную потерю производительности (относительное снижение F1 на 4%).Более того, перевод извлечения отношений в область понимания прочитанного позволяет нам извлечь значительную часть ранее невидимых отношений, от практически нуля до F1, равного 41%.Наш анализ показывает, что наша модель способна обобщать эти случаи, изучая ввод информации, которая встречается во многих отношениях (например, ответ на вопрос «Где» является местоположением), а также в определенной степени обнаруживая перефразирования отношений.Мы также обнаружили, что существует множество возможных случаев, с которыми наша модель не совсем справляется, что представляет собой интересную задачу для будущей работы.Нас интересует особенно суровый сценарий обучения с нулевым выстрелом: учитывая помеченные примеры для типов отношений $N$ во время обучения, извлеките отношения нового типа $R_{N+1}$ во время тестирования.Единственная информация, которую мы имеем о $R_{N+1}$, — это параметризованные вопросы.Эта установка отличается от предшествующего уровня техники извлечением отношений.Bronstein2015 исследовал аналогичную настройку нулевого выстрела для идентификации триггера события, в которой $R_{N+1}$ задается набором триггерных слов во время тестирования.Они обобщают, измеряя сходство между потенциальными триггерами и заданным исходным набором с использованием неконтролируемых методов.Вместо этого мы концентрируемся на заполнении слотов, где вопросы являются более подходящими описаниями, чем триггерные слова.Открытое извлечение информации (открытый IE) BIBREF5 — это бессхемный подход к извлечению фактов из текста.Хотя открытые системы IE не нуждаются в обучающих данных, специфичных для отношений, они часто рассматривают разные фразы как разные отношения.В этой работе мы надеемся извлечь каноническое значение слота независимо от того, как сформулирован исходный текст.Универсальная схема BIBREF6 представляет открытые извлечения IE и факты базы знаний в одной матрице, строки которой представляют собой пары сущностей, а столбцы — отношения.Избыточная схема (каждое отношение базы знаний может перекрываться с несколькими отношениями на естественном языке) позволяет заполнять базу знаний с помощью методов матричного завершения.Verga2017 предсказывает факты для пар сущностей, которые не наблюдались в исходной матрице; это эквивалентно извлечению видимых типов отношений с невидимыми сущностями (см. Раздел «Невидимые сущности»).Rocktaschel2015 и Demeester2016 используют правила вывода для прогнозирования скрытых отношений базы знаний на основе наблюдаемых отношений на естественном языке.Эта настройка аналогична обобщению различных проявлений одного и того же отношения (см. раздел «Невидимые шаблоны вопросов»), поскольку в обучающих данных появляется описание каждого целевого отношения на естественном языке.Более того, информация о невидимых отношениях представляет собой набор явных правил вывода, а не неявных вопросов на естественном языке.Наш сценарий с нулевым выстрелом, в котором во время обучения не наблюдается никакого проявления тестовой связи, существенно более сложен (см. раздел «Невидимые связи»).В терминологии универсальной схемы мы добавляем новый пустой столбец (целевое отношение базы знаний) плюс несколько новых столбцов с одной записью в каждом (отражающих текстовые отношения в предложении).Эти столбцы не имеют общих объектов с существующими столбцами, что делает остальную часть матрицы нерелевантной.Чтобы заполнить пустой столбец от остальных, сопоставляем их описания.Toutanova2015 предложила аналогичный подход, который разлагает отношения естественного языка и вычисляет их сходство в условиях универсальной схемы; однако они не распространили свой метод на отношения базы знаний и не попытались восстановить отношения вне схемы, как это делаем мы.Мы рассматриваем задачу заполнения слотов при извлечении отношений, в которой нам даны отношение базы знаний $R$, сущность $e$ и предложение $s$.Например, рассмотрим отношение $occupation$, сущность «Стив Джобс» и предложение «Стив Джобс был американским бизнесменом, изобретателем и промышленным дизайнером».Наша цель — найти набор текстовых интервалов $A$ в $s$, для которых выполняется $R(e,a)$ для каждого $a \in A$ .В нашем примере $A=\lbrace \textnormal {бизнесмен},\textnormal {изобретатель}, \textnormal {промышленный дизайнер}\rbrace $ .Пустой набор также является допустимым ответом ($A = \emptyset $), если $e$0 не содержит ни одной фразы, удовлетворяющей $e$1.Мы заметили, что, учитывая вопрос $e$2 на естественном языке, который выражает $e$3 (например, «Чем Стив Джобс зарабатывал на жизнь?»), решение проблемы понимания прочитанного ответа на $e$4 из $e$5 эквивалентно решению задача по заполнению слотов.Теперь задача превращается в проверку: перевод $R(e,?)$ в $q$ .Вместо проверки $R(e,?)$ для каждой сущности $e$ мы предлагаем метод проверки отношения $R$.Мы рассматриваем $e$ как переменную $x$ , проверяем параметризованный запрос $R(x,?)$ (например, $occupation(x,?)$ ) как шаблон вопроса $q_x$ («Что сделал $q$0 для жизни?»), а затем создайте экземпляры этого шаблона с соответствующими сущностями, создав индивидуальный вопрос на естественном языке для каждой сущности $q$1 («Чем Стив Джобс зарабатывал на жизнь?»).Этот процесс, проверка схемы, на порядок более эффективен, чем проверка отдельных экземпляров, поскольку аннотирование типа отношения автоматически аннотирует все его экземпляры.Применение проверки схемы к отношениям $N$ из уже существующего набора данных для извлечения отношений преобразует его в набор данных для понимания чтения.Затем мы используем этот набор данных для обучения модели понимания прочитанного, которая, учитывая предложение $s$ и вопрос $q$, возвращает набор текстовых интервалов $A$ внутри $s$, которые отвечают на $q$ (в меру своих возможностей). способность). В сценарии нулевого выстрела нам дается новое отношение $R_{N+1}(x,y)$ во время тестирования, которое не было заранее ни указано, ни наблюдаться.Например, отношение $deciphered(x,y)$, как в фразе «Тьюринг и его коллеги придумали метод эффективной расшифровки загадки», слишком специфично для предметной области, чтобы существовать в общих базах знаний.Затем мы проверяем $R_{N+1}(x,y)$ в $q_x$ («Какой код сломался $x$?») или $q_y$ («Кто взломал $y$?») и запускаем нашу модель понимания прочитанного для каждого предложения в интересующем документе(ах), одновременно создавая экземпляр шаблона вопроса с различными объектами, которые могут участвовать в этом отношении.Каждый раз, когда модель возвращает ненулевой ответ $deciphered(x,y)$1 на заданный вопрос $deciphered(x,y)$2 , она извлекает отношение $deciphered(x,y)$3 . В конечном итоге все, что нам нужно, это Для нового отношения нужно определить нашу информационную потребность в форме вопроса.Наш подход предоставляет API на естественном языке для разработчиков приложений, которые заинтересованы во включении компонента извлечения отношений в свои программы; никаких лингвистических знаний или заранее определенной схемы не требуется.Для реализации нашего подхода нам нужны два компонента: обучающие данные и модель понимания прочитанного.В разделе «Набор данных» мы создаем большой набор данных для извлечения отношений и проверяем его с помощью эффективной процедуры краудсорсинга.Затем мы адаптируем существующую современную модель понимания прочитанного к формулировке нашей задачи (раздел «Модель»).Чтобы собрать примеры понимания прочитанного, как показано на рисунке 2, мы сначала собираем помеченные примеры для задачи заполнения слотов отношений.Примеры заполнения слотов аналогичны примерам понимания прочитанного, но содержат запрос к базе знаний $R(e,?)$ вместо вопроса на естественном языке; например $spouse(\textnormal {Ангела Меркель}, ?)$ вместо «На ком замужем Ангела Меркель?».Мы собираем множество примеров заполнения слотов с помощью удаленного контроля, а затем преобразуем их запросы в естественный язык.Учитывая предложение $s$ и вопрос $q$, наш алгоритм либо возвращает диапазон ответов $a$ в пределах $s$, либо указывает, что ответа нет.Задача получения диапазонов ответов на вопросы на естественном языке недавно изучалась на наборе данных SQuAD BIBREF8, BIBREF12, BIBREF13, BIBREF14.В SQuAD на каждый вопрос можно ответить из текста, поэтому в этих моделях предполагается, что существует правильный диапазон ответов.Поэтому мы модифицируем существующую модель таким образом, чтобы она могла решить, существует ли ответ.Сначала мы даем общее описание исходной модели, а затем опишем нашу модификацию.Начнем с модели BiDAF BIBREF4, входные данные которой — две последовательности слов: предложение $s$ и вопрос $q$.Модель прогнозирует начальную и конечную позиции ${\bf y}^{start}, {\bf y}^{end}$ диапазона ответов в $s$ .BiDAF использует рекуррентные нейронные сети для кодирования контекстной информации в $s$ и $q$ наряду с механизмом внимания для выравнивания частей $q$ с $s$ и наоборот.Выходными данными модели BiDAF являются оценки достоверности ${\bf y}^{start}$ и ${\bf y}^{end}$ для каждого потенциального начала и конца.Мы обозначаем эти оценки как ${\bf z}^{start}, {\bf z}^{end} \in \mathbb {R}^N$ , где $N$ — количество слов в предложении $s $ .Другими словами, ${\bf z}^{start}_i$ указывает, насколько вероятно, что ответ начнется с позиции $i$ предложения (чем выше, тем более вероятно); аналогично, ${\bf z}^{end}_i$ указывает, насколько вероятно, что ответ закончится на этом индексе.Предполагая, что ответ существует, мы можем преобразовать эти показатели достоверности в распределения псевдовероятностей ${\bf p}^{start}, {\bf p}^{end}$ с помощью softmax.Таким образом, вероятность каждого $i$ -to- ${\bf y}^{end}$0 -промежутка контекста может быть определена как: $$P(a = s_{i...j})= {\bf p}^{start}_i {\bf p}^{end}_j$$ (уравнение 13) где ${\bf p}_i$ обозначает $i$-й элемент вектора ${ \bf p}_i$ , т.е. вероятность ответа, начиная с $i$ .Seo:16 получает диапазон с наибольшей вероятностью во время постобработки.Чтобы позволить модели сигнализировать об отсутствии ответа, мы объединяем обучаемое смещение $b$ с концом обоих векторов оценки достоверности ${\bf z}^{start}, {\bf z}^{end}$ .Новые векторы оценок ${\tilde{\bf z}}^{start}, {\tilde{\bf z}}^{end} \in \mathbb {R}^{N+1}$ определяются как $ {\tilde{\bf z}}^{start}=[{\bf z}^{start}; b]$ и аналогично для ${\tilde{\bf z}}^{end}$ , где $[;]$ указывает на построчную конкатенацию.Следовательно, последние элементы $i$0 и $i$1 указывают на уверенность модели в том, что ответ не имеет начала и конца соответственно.Мы применяем softmax к этим расширенным векторам, чтобы получить распределения псевдовероятностей, $i$2 .Это означает, что вероятность, которую модель присваивает нулевому ответу, равна: $$P(a = \emptyset)= {\tilde{\bf p}}^{start}_{N+1} {\tilde{\bf p}}^{end}_{N+1}.$$ (уравнение 14)Если $P(a = \emptyset )$ выше вероятности наилучшего промежутка, $\arg \max _{i,j \le N} P(a= s_{i...j})$ , то модель считает, что на вопрос нельзя ответить из предложения.Концептуально добавление смещения позволяет модели быть чувствительной к абсолютным значениям необработанных показателей достоверности ${\bf z}^{start}, {\bf z}^{end}$ .По сути, мы устанавливаем и изучаем порог $b$, который определяет, достаточно ли уверена модель в диапазоне ответов лучшего кандидата.Хотя этот порог дает нам динамическое решение для каждого примера о том, является ли экземпляр ответственным, мы также можем установить глобальный порог достоверности $p_{min}$ ; если достоверность наилучшего ответа ниже этого порога, мы делаем вывод, что ответа нет.В разделе «Невидимые связи» мы используем этот глобальный порог, чтобы получить более широкое представление о производительности модели.Чтобы понять, насколько хорошо наш метод может обобщать невидимые данные, мы разрабатываем эксперименты для невидимых сущностей (Раздел «Невидимые сущности»), невидимых шаблонов вопросов (Раздел «Невидимые шаблоны вопросов») и невидимых отношений (Раздел «Невидимые связи»).покажите, что наш подход к пониманию прочитанного хорошо работает в типичной ситуации извлечения отношений, проверив его на невидимых объектах и ​​текстах.Мы разделили наш набор данных по сущностям в вопросе и случайным образом сгруппировали каждую сущность в одну из трех групп: обучение, разработка или тестирование.Например, примеры Алана Тьюринга появляются только в процессе обучения, а примеры Стива Джобса предназначены исключительно для тестирования.Затем мы выбрали 1 000 000 примеров для обучения, 1 000 для разработки и 10 000 для тестирования.Этот раздел также гарантирует, что предложения во время тестирования отличаются от предложений в поезде, поскольку предложения собираются из статьи в Википедии каждого объекта.Таблица 1 показывает, что наша модель хорошо обобщается на новые объекты и тексты с небольшими различиями в производительности между отношением KB, отношением NL, несколькими шаблонами и ансамблем вопросов.Single Template работает значительно хуже, чем эти варианты; мы предполагаем, что более простые описания отношений (KB Relation и NL Relation) позволяют упростить связывание параметров в разных примерах, тогда как обучение на нескольких вопросах позволяет модели приобретать важные парафразы.В этом случае все варианты нашей модели превосходят готовые системы извлечения отношений (RNN Labeler и Miwa & Bansal), демонстрируя, что сокращение извлечения отношений до понимания прочитанного действительно является жизнеспособным подходом для нашей задачи по заполнению слотов Википедии.Анализ 50 примеров, которые неправильно предсказал Multiple Templates, показывает, что 36% ошибок можно отнести к ошибкам аннотаций (в основном отсутствующие записи в Викиданных), а еще 42% являются результатом неточного выбора диапазона (например, «8 февраля 1985 года» вместо «1985 года»). »), за что наша модель полностью оштрафована.В общей сложности только 18% нашей выборки представляли собой чистые системные ошибки, что позволяет предположить, что наша модель очень близка к потолку производительности для этого параметра (чуть выше 90% F1). Мы проверяем способность нашего метода обобщать новые описания одного и того же отношения. , протягивая шаблон вопроса для каждого отношения во время обучения.Мы создали 10 наборов данных для обучения/разработки/тестирования, в которых один шаблон вопросов для каждого отношения использовался для тестового набора, а другой – для набора разработки.Например: «Чем $x$ зарабатывал на жизнь?» может появиться только в обучающем наборе, а вопрос «Какова работа $x$?» является эксклюзивным для тестового набора.Каждое разделение было стратифицировано путем выборки $N$ примеров на каждый шаблон вопросов ($N=1000,10,50$ для обучения, разработки и тестирования соответственно).В результате этого процесса было создано 10 обучающих наборов по 966 000 примеров с соответствующими наборами для разработки и тестирования по 940 и 4700 примеров каждый.Мы обучили и протестировали несколько шаблонов на каждой из сгибов, обеспечив производительность на невидимых шаблонах.Затем мы скопировали существующие наборы тестов и заменили невидимые шаблоны вопросов шаблонами из обучающего набора, что позволило повысить эффективность видимых шаблонов.Возвращаясь к нашему примеру, мы преобразуем вхождения в тестовом наборе вопроса «Какова работа $x$?»на «Чем $x$ зарабатывал на жизнь?».Таблица 2 показывает, что наш подход позволяет обобщать ранее не встречавшиеся шаблоны вопросов.Производительность нашей системы по невидимым вопросам почти такая же высокая, как и для ранее наблюдаемых шаблонов (потеря примерно 3,5 баллов в F1). Мы исследуем чистую настройку с нулевым результатом, при которой отношения времени тестирования не наблюдаются во время обучения.Мы создали 10 наборов выборок поезд/разработка/тест, разделенных по отношениям: 84 отношения для обучения, 12 для разработки и 24 теста.Например, если $educated\_at$ выделен для тестирования, в поезде не появятся примеры $educated\_at$.Используя стратифицированную выборку отношений, мы создали 10 обучающих наборов по 840 000 примеров каждый с соответствующими наборами разработки и тестирования по 600 и 12 000 примеров в каждом сгибе.В Таблице 3 показаны характеристики каждой системы; Рисунок 4 расширяет эти результаты для вариантов нашей модели, применяя глобальный порог к показателям достоверности ответов для создания кривых точности/запоминаемости (см. Раздел «Модель»).Как и ожидалось, представление связей между базами знаний в виде индикаторов (KB Relation и Miwa & Bansal) недостаточно в условиях нулевого выстрела; их следует интерпретировать как выражения естественного языка, чтобы обеспечить некоторое обобщение.Разница между использованием одного шаблона вопроса (Single Template) и именем отношения (NL Relation) кажется незначительной.Однако обучение на различных шаблонах вопросов (несколько шаблонов) существенно повышает производительность.Мы предполагаем, что несколько формулировок одного и того же отношения позволяют нашей модели изучать парафразы типа ответа, которые встречаются во многих отношениях (см. Раздел «Анализ»).Наличие нескольких вопросов во время тестирования также дает некоторое преимущество (ансамбль вопросов). Чтобы понять, как наш метод извлекает невидимые связи, мы проанализировали 100 случайных примеров, из которых в 60 были ответы в предложении, а в 40 — нет (отрицательные примеры). в отрицательных примерах мы проверяли, появляется ли в предложении дистрактор – неправильный ответ правильного типа ответа.Например, вопрос «На ком женат Джон Маккейн?» нет ответа в вопросе «Джон Маккейн выбрал Сару Пэйлин своим кандидатом на пост вице-президента», но «Сара Пэйлин» имеет правильный тип ответа.Мы заметили, что 14 негативных примеров (35%) содержат дистракторы.Сопоставив эти примеры с результатами эксперимента с невидимыми связями в разделе «Невидимые связи», мы обнаружили, что наш метод дал неправильный ответ на 2/14 примеров отвлекающих факторов по сравнению только с 1/26 более простых примеров.Похоже, что хотя большинство негативных примеров просты, значительная часть из них нетривиальна.Что касается положительных примеров, мы заметили, что некоторые случаи можно решить, сопоставив отношение в предложении с отношением в вопросе, в то время как другие больше полагаются на тип ответа.Более того, мы замечаем, что каждый сигнал можно дополнительно классифицировать в соответствии с типом информации, необходимой для его обнаружения: (1) когда часть вопроса появляется в тексте дословно, (2) когда формулировка в тексте отклоняется от вопроса в тексте. способ, характерный и для других отношений (например, синтаксическая изменчивость), (3) когда формулировка в тексте отклоняется от вопроса способом, уникальным для этого отношения (например, лексическая изменчивость).Мы называем эти категории дословно: глобальные и конкретные соответственно.Рисунок 5 иллюстрирует все различные типы сигналов, которые мы обсуждаем в нашем анализе.Мы выбрали наиболее важную подсказку для решения каждого случая.Если важных реплик было две, каждая засчитывалась как половина.В таблице 4 показано их распределение.Типовые сигналы кажутся несколько более доминирующими, чем сигналы отношений (58% против 42%).Половина сигналов специфична для отношений, тогда как глобальные сигналы составляют одну треть случаев, а дословные сигналы — одну шестую.Это обнадеживающий результат, поскольку мы потенциально можем научиться точно распознавать дословные и глобальные сигналы других отношений.Однако наш метод смог использовать эти сигналы лишь частично.Мы сопоставили эти примеры с результатами эксперимента с невидимыми связями в разделе «Невидимые связи», чтобы увидеть, насколько хорошо наш метод работает в каждой категории.В Таблице 5 показаны результаты для параметра «Несколько шаблонов».С одной стороны, модель кажется независимой от того, является ли сигнал отношения дословным, глобальным или конкретным, и способна правильно отвечать на эти случаи с одинаковой точностью (четкой тенденции нет из-за небольшого размера выборки).Для примеров, основанных на вводе информации, тенденция гораздо яснее; наша модель гораздо лучше обнаруживает сигналы глобального типа, чем конкретные.Основываясь на этих наблюдениях, мы считаем, что основными источниками способности нашей модели обобщать новые отношения являются: обнаружение глобального типа, которое достигается в результате обучения множеству различных отношений, и обнаружение перефразирования отношений (всех типов), которое, вероятно, основано на его предварительно обученные вложения слов.Мы показали, что извлечение отношений можно свести к проблеме понимания прочитанного, что позволяет нам обобщать невидимые отношения, которые определяются на лету на естественном языке.Однако проблема извлечения нулевых отношений далека от решения и представляет собой интересную задачу как для сообщества извлечения информации, так и для сообщества машинного чтения.По мере развития исследований в области машинного чтения мы можем обнаружить, что аналогичный подход может принести пользу большему количеству задач.Чтобы поддержать будущую работу в этом направлении, мы делаем наш код и данные общедоступными.Исследование частично поддержано DARPA в рамках программы DEFT (FA8750-13-2-0019), ARO (W911NF-16-1-0121), NSF (IIS-1252835, IIS-1562364), подарками от Google, Tencent и Nvidia, а также награда Аллена «Выдающийся исследователь».Мы также благодарим Мандара Джоши, Викторию Лин и группу UW NLP за полезные беседы и комментарии к работе.
Мы показываем, что извлечение отношений можно свести к ответам на простые вопросы, связанные с пониманием прочитанного, путем связывания одного или нескольких вопросов на естественном языке с каждым слотом отношений. Такое сокращение имеет несколько преимуществ: мы можем (1) изучать модели извлечения отношений, расширяя новейшие нейронные методы понимания прочитанного, (2) создавать очень большие обучающие наборы для этих моделей, комбинируя краудсорсинговые вопросы, специфичные для отношений, с дистанционным контролем, и даже (3) выполняют обучение с нулевым выстрелом, извлекая новые типы отношений, которые указываются только во время тестирования, для которых у нас нет помеченных примеров обучения. Эксперименты с задачей заполнения слотов в Википедии показывают, что этот подход может с высокой точностью обобщаться на новые вопросы для известных типов отношений и что возможно обобщение с нулевым шансом на невидимые типы отношений с более низкими уровнями точности, устанавливая планку для будущих работ над эта задача.
4,431
QasperSumInstruct
ru
Напиши аннотацию по статье
Пользовательские данные: ахиллесова пята BERT. В последнее время предварительно обученные контекстные языковые модели привели к значительному улучшению производительности многих задач НЛП.Среди семейства этих моделей наиболее популярной является BERT BIBREF0, которая также является предметом данной работы.Сила модели BERT FigREF2 обусловлена ​​архитектурой кодера FIGREF1 на основе трансформатора BIBREF1.Хотя до сих пор не очень ясно, почему BERT вместе с его внедрением так хорошо работает для последующих задач, когда он точно настроен, в этом направлении была проведена некоторая работа, которая дает некоторые важные подсказки BIBREF2, BIBREF3. конвейеры выглядят следующим образом: учитывая входное предложение, BERT токенизирует его с помощью wordPiece tokenizerBIBREF4.Затем токены передаются в качестве входных данных в модель BERT, и она изучает контекстуальные внедрения для каждого из этих токенов.Это делается посредством предварительного обучения двум задачам — языковой модели в маске (MLM)BIBREF0 и прогнозирования следующего предложения (NSP)BIBREF0. Целью этой работы является понимание проблем, с которыми может столкнуться практикующий специалист при попытке использовать BERT для построения Приложения НЛП в промышленных условиях.Хорошо известен тот факт, что приложениям НЛП в промышленных условиях часто приходится иметь дело с зашумленными данными.Возможны различные виды шума, а именно неканонический текст, такой как орфографические ошибки, типографские ошибки, разговорные выражения, аббревиатуры, сленг, интернет-жаргон, смайлы, встроенные метаданные (например, хэштеги, URL-адреса, упоминания), нестандартные синтаксические конструкции и варианты написания. , грамматически неправильный текст, смесь двух или более языков и многое другое.Такие зашумленные данные являются отличительной чертой текстового контента, создаваемого пользователями, и их часто можно найти в социальных сетях, чатах, онлайн-обзорах, на веб-форумах и т. д.Из-за этого шума распространенной проблемой, с которой приходится иметь дело моделям НЛП, являются слова из словаря (OOV).Это слова, которые встречаются в тестовых и производственных данных, но не являются частью обучающих данных.В этой работе мы подчеркиваем, как BERT не может обрабатывать слова из словаря (OOV), учитывая его ограниченный словарный запас.Мы показываем, что это отрицательно влияет на производительность BERT при работе с текстовыми данными, созданными пользователем, и оцениваем их.Эта оценка мотивирована бизнес-кейсом, который мы решаем, когда мы создаем диалоговую систему для отбора кандидатов на рабочие места.Наша база пользователей-кандидатов из малообеспеченных семей часто является выпускниками средних школ.В сочетании с проблемой «толстого пальца» на мобильной клавиатуре это приводит к множеству опечаток и орфографических ошибок в ответах, отправляемых в диалоговую систему.Следовательно, в этой работе мы фокусируемся на орфографических ошибках как на шуме в данных.Хотя эта работа основана на нашем примере использования в бизнесе, наши выводы применимы к различным вариантам использования в промышленности — будь то классификация настроений в данных Твиттера или обнаружение тем на веб-форуме.Чтобы смоделировать шум в данных, мы начинаем с чистого набора данных и вносим орфографические ошибки в часть присутствующих в нем слов.Эти слова выбраны случайно.Мы объясним этот процесс подробно позже.Введенные орфографические ошибки имитируют опечатки в тексте, внесенные нашими пользователями.Затем мы используем модель BERT для задач, использующих как чистые, так и зашумленные наборы данных, и сравниваем результаты.Мы показываем, что введение шума приводит к значительному снижению производительности модели BERT для поставленной задачи по сравнению с чистым набором данных.Далее мы показываем, что по мере увеличения количества шума в данных производительность резко ухудшается.В последние годы предварительно обученные языковые модели (например, ELMoBIBREF5, BERTBIBREF0) совершили прорыв в решении нескольких задач на естественном языке.Эти модели обучаются на больших корпусах, которые не аннотируются человеком и легко доступны.Главной среди этих моделей является BERTBIBREF0.Популярность BERT проистекает из его способности точно настраиваться для различных последующих задач НЛП, таких как классификация текста, регрессия, распознавание именованных объектов, ответы на вопросы BIBREF0, машинный перевод BIBREF6 и т. д. BERT смог установить современное состояние -art (SOTA) дает результаты для многих из этих задач.Люди смогли показать, как можно использовать BERT для улучшения поиска. BIBREF7. Благодаря его успеху исследователи начали концентрироваться на выявлении недостатков BERT, если таковые имеются.BIBREF8 представляет TEXTFOOLER, систему для создания состязательного текста.Они применяют его к задачам НЛП по классификации текста и текстовому анализу для атаки на модель BERT.BIBREF9 оценивает надежность трех моделей — RoBERTa, XLNet и BERT в задачах вывода естественного языка (NLI) и ответов на вопросы (QA).Они показывают, что, хотя RoBERTa, XLNet и BERT более устойчивы, чем модели рекуррентных нейронных сетей, к стресс-тестам как для задач NLI, так и для задач контроля качества; эти модели все еще очень хрупкие и демонстрируют много неожиданного поведения.BIBREF10 обсуждает атаки неправильной классификации на основе длины и предложения для задачи обнаружения фейковых новостей, обученной с использованием контекстно-зависимой модели BERT, и они показывают точность атаки 78% и 39% соответственно.Наш вклад в этой статье заключается в том, чтобы ответить на вопрос, можем ли мы использовать большие языковые модели, такие как BERT, непосредственно над данными, сгенерированными пользователем.Для наших экспериментов мы используем предварительно обученную реализацию BERT, предоставленную библиотекой трансформаторов Huggingface.Мы используем бескорпусную модель BERTBase.Мы работаем с тремя наборами данных, а именно: обзоры фильмов IMDBBIBREF11, Stanford Sentiment Treebank (SST-2) BIBREF12 и семантическое текстовое сходство (STS-B) BIBREF13. Набор данных IMDB — это популярный набор данных для задач анализа настроений, который представляет собой задачу двоичной классификации с равными ряд положительных и отрицательных примеров.Наборы данных STS-B и SST-2 являются частью задач тестирования GLUE[2].В СТС-Б мы также прогнозируем положительные и отрицательные настроения.В SST-2 мы прогнозируем текстовое семантическое сходство между двумя предложениями.Это задача регрессии, в которой показатель сходства варьируется от 0 до 5.Чтобы оценить производительность BERT, мы используем стандартные показатели F1-оценки для imdb и STS-B, а также корреляцию Пирсона-Спирмена для SST-2. В таблице TABREF5 мы приводим статистику для каждого из наборов данных.Мы берем исходные наборы данных и добавляем разную степень шума (т. е. орфографические ошибки в произнесенные слова), чтобы создать наборы данных для наших экспериментов.Из каждого набора данных мы создаем 4 дополнительных набора данных, каждый с разным процентным уровнем шума.Например, из IMDB мы создаем 4 варианта, каждый из которых имеет 5%, 10%, 15% и 20% шума.Здесь число обозначает процент слов в исходном наборе данных, содержащих орфографические ошибки.Таким образом, у нас есть один набор данных без шума и 4 варианта набора данных с возрастающим уровнем шума.Аналогично мы делаем то же самое для SST-2 и STS-B. Все параметры модели BERTBase остаются одинаковыми для всех 5 экспериментов с набором данных IMDB и его 4 вариантами.Это также остается неизменным для двух других наборов данных и их вариантов.Для всех экспериментов скорость обучения установлена ​​на уровне 4e-5, для оптимизации мы используем оптимизатор Адама со значением эпсилон 1e-8.Мы провели каждый из экспериментов в течение 10 и 50 эпох.Обсудим результаты вышеупомянутых экспериментов.Мы показываем графики зависимости точности от шума для каждой из задач.Для IMDB мы настраиваем модель для задачи анализа настроений.Мы строим график зависимости оценки F1 от % ошибки, как показано на рисунке FigREF6.На рисунке FigREF6imdba показана производительность после точной настройки в течение 10 эпох, а на рисунке FigREF6imdbb показана производительность после точной настройки в течение 50 эпох.Аналогичным образом, на рисунках FigREF9ssta и FigREF9sstb) показан показатель F1 в зависимости от % ошибки для анализа настроений в наборе данных SST-2 после точной настройки для 10 и 50 эпох соответственно.На рисунках FigREF12stsa и FigREF12stsb показана корреляция Пирсона-Спирмена в зависимости от процента ошибки для текстового семантического сходства в наборе данных STS-B после точной настройки для 10 и 50 эпох соответственно.Из приведенных выше графиков ясно, что по мере увеличения процента ошибок для каждой из трех задач мы видим значительное падение производительности BERT.Также из графиков видно, что причиной такого падения производительности является введение шума (орфографические ошибки).Ведь мы получаем очень хорошие цифры для каждой из трех задач, когда нет ошибки (ошибка 0,0%).Чтобы понять причину падения производительности, сначала нам нужно понять, как BERT обрабатывает входные текстовые данные.BERT использует токенизатор WordPiece для токенизации текста.Слова токенизатора WordPiece, основанные на алгоритме сопоставления самого длинного префикса для создания токенов.Полученные таким образом токены подаются в качестве входных данных модели BERT.Когда дело доходит до токенизации зашумленных данных, мы видим очень интересное поведение токенизатора WordPiece.Из-за орфографических ошибок эти слова не встречаются напрямую в словаре BERT.Следовательно, токенизатор WordPiece разбивает шумные слова на подслова.Однако в конечном итоге они разбиваются на подслова, значение которых может сильно отличаться от значения исходного слова.Часто это полностью меняет смысл предложения, что приводит к существенному падению производительности.Чтобы лучше это понять, давайте рассмотрим два примера, по одному из наборов данных IMDB и STS-B соответственно, как показано ниже.Здесь (а) — это предложение в том виде, в котором оно появляется в наборе данных (до добавления шума), а (б) — соответствующее предложение после добавления шума.Ошибки выделены курсивом.За предложениями следуют соответствующие выходные данные токенизатора WordPiece для этих предложений: В выходных данных «##» — это способ токенизатора WordPiece отличать подслова от слов.«##» означает подслова, а не слова.Пример 1 (пример imdb): «он любит своих персонажей и сообщает что-то прекрасное о человеческой природе»(ошибка 0 %) «который любит символы 8ts и сообщает что-то очень красивое о человеческой природе» (ошибка 5 %) Вывод токенизатора wordPiece: ['that', 'loves', 'its', 'characters', 'and', 'общаться', '##s', 'что-то', 'скорее', 'красивый', 'о', 'человек', 'природа'] (0% ошибка примера IMDB) ['это', 'любит', '8', '##ts', 'персонажи', 'abd', 'общаться', '##s', 'что-то', 'крыса', '##хи', 'красивый', 'около', 'human','nat', '##ue', '##e'] (пример ошибки 5% в IMDB)Пример 2 (пример STS): «бедный Бен Брэтт не смог бы обрести славу, если бы Mapquest отправил ему электронное письмо с указанием -укажите направление движения».(ошибка 0%) «Бедный Бен Брэтт не смог бы обрести славу, если бы Mapquest отправил ему электронное письмо с указанием маршрута вождения».(ошибка 5%)Вывод токенизатора wordPiece:['бедный', 'бен', 'паршивец', '##t', 'мог бы', 'n', "'", 't', 'find',' звезда', '##дом', 'если', 'карта', '##квест', 'электронная почта', '##ed', 'ем','точка', '-', 'кому', ' -', 'точка', 'вождение', 'направления', '.'] (пример ошибки STS 0%)['бедный', 'бен', 'паршивец', '##t', 'мог бы', ' n', "'", 't', 'найти','star', '##dom', 'if', 'map', '##quest', 'email', '##ed', ' его', 'точка', '-', 'куда', '-', 'точка', 'д-р', '##iv', '##ib','##g','dir',' ##sc', '##ti', '##oge', '.'] (пример STS с ошибкой 5%) В примере 1 токенизатор разбивает данные на ['communicate', '##s'] на основе совпадение с самым длинным префиксом, поскольку в словаре BERT нет точного соответствия слову «общается».Самый длинный префикс в этом случае — «общаться», а оставшийся — «s», оба из которых присутствуют в словаре BERT.У нас есть контекстные встраивания как для «общаться», так и для «##s».Используя эти два представления, можно получить приблизительное представление слова «общается».Однако этот подход приводит к полному провалу, когда слово написано с ошибкой.В примере 1(b) слово natuee («природа» написано с ошибкой) разбито на ['nat', '##ue', '##e'] на основе совпадения самого длинного префикса.Объединив три вложения, невозможно приблизиться к вложению природы.Это потому, что слово нат имеет совсем другое значение (оно означает «человек, выступающий за политическую независимость конкретной страны»).Это искажение, в свою очередь, влияет на производительность последующих подкомпонентов BERT, снижая общую производительность модели BERT.Следовательно, по мере того, как мы систематически вносим больше ошибок, качество вывода токенизатора еще больше ухудшается, что приводит к общему падению производительности.Наши результаты и анализ показывают, что нельзя слепо применять BERT для решения проблем НЛП, особенно в промышленных условиях.Если разрабатываемое вами приложение получает данные из каналов, которые, как известно, вносят шум в текст, то BERT будет работать плохо.Примерами таких сценариев являются приложения, работающие с данными Twitter, мобильная система чата, комментарии пользователей на таких платформах, как YouTube, Reddit и многие другие.Причина появления шума может быть разной: в случае с Twitter и Reddit это часто делается намеренно, потому что именно так пользователи предпочитают писать, тогда как в мобильном чате часто возникает проблема с ошибками при наборе текста «толстым пальцем».В зависимости от количества шума в данных BERT может работать значительно ниже ожиданий.Далее мы провели эксперименты с другими токенизаторами, кроме токенизатора WordPiece.Для этого мы использовали токенизаторы stanfordNLP WhiteSpace BIBREF14 и символов N-gram BIBREF15.Токенизатор WhiteSpace разбивает текст на токены на основе пробелов.Токенизатор N-грамм символов разделяет слова, в которых содержится более n символов.Таким образом, каждая лексема содержит не более n символов.Результирующие токены из соответствующего токенизатора передаются в BERT в качестве входных данных.В нашем случае мы работаем с n = 6. Результаты этих экспериментов представлены в таблице TABREF25.Несмотря на то, что токенизатор wordPiece имеет проблемы, о которых говорилось ранее, он по-прежнему работает лучше, чем токенизатор пробелов и символов n-грамм.Это происходит в первую очередь из-за совпадения словарного запаса между набором данных STS-B и словарем BERT.В этой работе мы систематически изучали влияние шума (орфографических ошибок) в генерируемых пользователем текстовых данных на производительность BERT.Мы продемонстрировали, что с увеличением шума производительность BERT резко падает.Мы дополнительно исследовали систему BERT, чтобы понять причину такого падения производительности.Мы показываем, что проблема заключается в том, как слова с ошибками маркируются для создания представления исходного слова.Есть два способа решения проблемы: либо (i) предварительно обработать данные для исправления орфографических ошибок, либо (ii) включить в архитектуру BERT способы сделать их устойчивыми к шуму.Проблема с (i) заключается в том, что в большинстве промышленных предприятий это само по себе становится отдельным проектом.Мы оставляем (ii) на будущее, чтобы исправить проблемы.
Известно, что предварительно обученные языковые модели, такие как BERT, чрезвычайно хорошо справляются с различными задачами НЛП и даже установили новые современные тесты (SOTA) для многих из этих задач. Благодаря успеху в решении различных задач и наборов эталонных данных специалисты отрасли начали изучать BERT для создания приложений, решающих отраслевые сценарии использования. Известно, что эти варианты использования содержат гораздо больше шума в данных по сравнению с наборами эталонных данных. В этой работе мы систематически показываем, что когда данные зашумлены, производительность BERT значительно снижается. В частности, мы провели эксперименты с использованием BERT для решения популярных задач, таких как анализ настроений и текстовое сходство. Для этого мы работаем с тремя хорошо известными наборами данных — обзорами фильмов IMDB, SST-2 и STS-B для измерения производительности. Далее мы исследуем причину такого падения производительности и выявим недостатки конвейера BERT.
2,799
QasperSumInstruct
ru
Напиши аннотацию по статье
Учимся задавать вопросы, на которые нет ответа, для понимания машинного чтения. В последние годы экстрактивное понимание прочитанного BIBREF0, BIBREF1 привлекает большое внимание как со стороны исследований, так и со стороны промышленности.Сквозные нейронные модели BIBREF2, BIBREF3, BIBREF4 достигли замечательной производительности при выполнении задачи, если предполагается, что ответы находятся в данном абзаце.Тем не менее, существующие системы по-прежнему не способны решить, представлен ли ответ в контексте BIBREF5.На вопросы, на которые нет ответа, системы должны воздерживаться от ответа, а не делать ненадежные предположения, что является воплощением способности понимать язык.Мы решаем эту проблему, автоматически генерируя вопросы, на которые нет ответа, для увеличения данных и улучшения моделей ответов на вопросы.Сгенерированные вопросы, на которые нет ответа, не должны быть слишком простыми для модели ответов на вопросы, чтобы увеличение данных могло лучше помочь модели.Например, простой базовый метод заключается в случайном выборе вопроса, заданного для другого абзаца, и использовании его как вопроса, на который нет ответа.Однако было бы тривиально определить, можно ли ответить на полученный вопрос, используя эвристику перекрытия слов, поскольку вопрос не имеет отношения к контексту BIBREF6 .В этой работе мы предлагаем генерировать вопросы, на которые нет ответа, путем редактирования вопроса, на который можно ответить, и обусловления соответствующего абзаца, содержащего ответ.Таким образом, сгенерированные вопросы, на которые нет ответа, более лексически похожи и релевантны контексту.Более того, используя вопрос, на который можно ответить, в качестве прототипа, а диапазон ответов на него — в качестве правдоподобного ответа, сгенерированные примеры могут предоставить более различительный обучающий сигнал для модели ответа на вопрос.Чтобы создать обучающие данные для генерации вопросов, на которые нет ответа, мы используем (правдоподобные) интервалы ответов в абзацах в качестве опорных точек для выравнивания пар вопросов, на которые можно ответить, и вопросов, на которые нет ответа.Как показано на рисунке 1, вопросы, на которые можно ответить и на которые нет ответа, в абзаце выровнены по текстовому диапазону «Департамент образования штата Виктория», чтобы быть одновременно ответом и правдоподобным ответом.Эти два вопроса лексически похожи, и оба задаются с учетом одного и того же типа ответа.Таким образом, мы получаем данные, с помощью которых модели могут научиться задавать вопросы, на которые нет ответа, редактируя ответы на них с помощью обмена словами, отрицаний и т. д.Следовательно, мы можем генерировать массу вопросов, на которые нет ответов, с помощью существующих крупномасштабных наборов данных по машинному чтению.Вдохновленные нейронными моделями понимания прочитанного BIBREF7, BIBREF8, мы представляем модель пары в последовательность, чтобы лучше фиксировать взаимодействие между вопросами и абзацами.Предлагаемая модель сначала кодирует входной вопрос и абзац отдельно, а затем проводит сопоставление на основе внимания, чтобы они знали друг о друге.Наконец, контекстно-зависимые представления используются для генерации выходных данных.Чтобы облегчить использование контекстных слов в процессе генерации, мы также включили механизм копирования BIBREF9, BIBREF10. Экспериментальные результаты по задаче генерации вопросов, на которые нет ответа, показывают, что модель «пара-последовательность» генерирует неизменно лучшие результаты по сравнению с моделью «последовательность-последовательность». базовый уровень и работает лучше с длинными абзацами, чем с короткими предложениями ответа.Дальнейшие экспериментальные результаты показывают, что сгенерированные вопросы, на которые нет ответа, могут улучшить несколько моделей понимания машинного чтения.Даже используя тонкую настройку BERT в качестве сильной модели понимания прочитанного, мы все равно можем получить абсолютное улучшение показателя F1 на $1,9$ % с базовой моделью BERT и абсолютное улучшение F1 на $1,7$ % с большой моделью BERT.Понимание машинного чтения (MRC)Различные крупномасштабные наборы данных BIBREF0, BIBREF1, BIBREF11, BIBREF12, BIBREF5, BIBREF13 в последние годы стимулировали быстрый прогресс в понимании машинного чтения.SQuAD BIBREF1 — это экстрактивный тест, вопросы и ответы которого аннотируются людьми.Нейронные системы понимания прочитанного BIBREF14, BIBREF2, BIBREF3, BIBREF15, BIBREF8, BIBREF16, BIBREF4, BIBREF17 превзошли людей в этой задаче с точки зрения автоматических показателей.Набор данных SQuAD 2.0 BIBREF5 расширяет SQuAD более чем на 50 000 долларов США, собранных с помощью краудсорсинга вопросов, на которые нет ответов.Пока что нейронные модели понимания прочитанного все еще отстают от людей в SQuAD 2.0.Воздержание от ответа, когда из данного документа невозможно получить ответ, требует большего понимания, чем простое извлечение ответа.Генерация вопросов для MRC В последние годы растет интерес к созданию вопросов для понимания прочитанного.BIBREF18 показывают, что нейронные модели, основанные на структуре кодировщика-декодера, могут генерировать значительно более качественные вопросы, чем системы, основанные на правилах BIBREF19.Чтобы генерировать вопросы, ориентированные на ответы, можно просто указать позиции ответов в контексте с дополнительными функциями BIBREF20, BIBREF21, BIBREF22, BIBREF23, BIBREF24.BIBREF25 и BIBREF26 представляют собой отдельные представления ответов для дальнейшего сопоставления.BIBREF27 вводит скрытую переменную для учета изменчивости и наблюдаемую переменную для управления типами вопросов.Таким образом, вышеупомянутые системы направлены на создание вопросов, на которые можно ответить, в определенном контексте.Напротив, наша цель — генерировать вопросы, на которые нет ответа.Состязательные примеры для MRC Чтобы оценить способность предварительно обученных систем понимать язык, BIBREF28 создает состязательные примеры, добавляя в абзац отвлекающие предложения, которые не противоречат ответам на вопросы для людей.BIBREF29 и BIBREF30 используют вопросы для извлечения абзацев, которые не содержат ответа, в качестве состязательных примеров.BIBREF5 создает вопросы, на которые нет ответа, с помощью жестких правил, которые меняют местами сущности, числа и антонимы вопросов, на которые можно ответить.Было показано, что состязательные примеры, созданные системами, основанными на правилах, гораздо легче обнаружить, чем примеры из набора данных SQuAD 2.0.Расширение данных для MRC Было предпринято несколько попыток расширить данные обучения для понимания машинного чтения.Мы классифицируем эту работу по типу дополнительных данных: внешний источник данных, абзацы или вопросы.BIBREF31 выполняет точную настройку BERT для набора данных SQuAD совместно с другим набором данных TriviaQA BIBREF12.BIBREF4 перефразирует абзацы с обратным переводом.Еще одно направление работы предполагает создание вопросов, на которые можно ответить.BIBREF32 предлагает генерировать вопросы на основе неразмеченного текста для полуконтролируемого ответа на вопросы.BIBREF33 предлагает систему, основанную на правилах, для создания вопросов с несколькими вариантами ответов и возможными вариантами в параграфах.Мы стремимся генерировать вопросы, на которые нет ответов, как средство увеличения данных.Учитывая вопрос, на который можно ответить, $q$ и соответствующий ему абзац $p$, содержащий ответ $a$ , мы стремимся сгенерировать вопросы без ответа $\tilde{q}$, которые удовлетворяют определенным требованиям.Во-первых, на него нельзя ответить пунктом $p$.Во-вторых, он должен относиться как к вопросу, на который можно дать ответ, $q$, так и к параграфу $p$ , который воздерживается от создания нерелевантных вопросов.В-третьих, он должен запросить что-то того же типа, что и ответ $a$. Как показано на рисунке 2, мы исследуем две простые нейронные модели, построенные на архитектуре кодировщика-декодера BIBREF34, BIBREF35 для генерации вопросов, на которые нет ответа.Модель «последовательность-последовательность» принимает объединенный абзац и вопрос в качестве входных данных и кодирует входные данные последовательным образом.Далее представлена ​​модель «пара-последовательность», позволяющая фиксировать взаимодействие между входными данными.Декодер двух моделей последовательно генерирует вопросы, на которые нет ответа.Мы факторизуем вероятность возникновения вопроса, на который нет ответа, $P(\tilde{q}|q,p,a)$ как: P(q|q,p,a)=t=1|q|P(qt|q< t,q,p,a) где $\tilde{q}_{<t}=\tilde{q}_1 \dots \tilde{q}_{t-1}$ .Inмодель «последовательность-последовательность», пары абзацев и вопросов упакованы в упорядоченную последовательность $x$ со специальным разделителем между ними.Для обозначения ответов в абзацах мы вводим встраивания типов токенов, которые также можно использовать для отличия вопросов от абзацев в модели «последовательность-последовательность».Как мы видим на рисунке 2, тип токена может быть ответом (A), абзацем (P) или вопросом (Q).Для данного токена мы создаем входное представление $\mathbf {e}_i$ путем суммирования соответствующих вложений слов, вложений символов и вложений типов токенов.Здесь символы встраиваются с помощью матрицы внедрения, за которой следует максимальный слой пула.Мы применяем однослойные двунаправленные рекуррентные нейронные сети с долгосрочными блоками кратковременной памяти (LSTM; BIBREF36) для создания скрытых состояний кодировщика $\mathbf {h}_i=(\mathbf {h}_{i-1}, \mathbf {e}_i)$ .На каждом этапе декодирования $t$ скрытые состояния декодера (однослойная однонаправленная сеть LSTM) вычисляются с помощью $\mathbf {s}_t=(\mathbf {s}_{t-1}, [\mathbf { y}_{t-1}; \mathbf {c}_{t-1}])$ , где $\mathbf {y}_{t-1}$ — вложение слова ранее предсказанного токена и $\mathbf {c}_{t-1}$ — вектор контекста кодировщика предыдущего шага.Кроме того, мы используем механизм внимания для суммирования информации со стороны кодера в $\mathbf {c}_{t}$ для текущего шага.Распределение внимания $\gamma _t$ по исходным словам вычисляется как в BIBREF37:счет(привет, ст)=hiTWsti,t=(оценка(привет,ст)) /Ztct=i|x|i,t hi где $Z_t = {\sum _{k}^{|x|}\exp (score(\mathbf {h}_k,\mathbf {s}_t))}$ , $\mathbf {W}_\gamma $ в функции оценки — это обучаемый параметр.Затем $\mathbf {s}_t$ объединяется с $\mathbf {c}_t$ для получения распределения словаря $P_{v}$ : $$P_{v}=(\mathbf {W}_v[\mathbf {s}_t;\mathbf {c}_t] + \mathbf {b}_{v})$$ (уравнение 4), где $\mathbf {W}_v$ и $\mathbf {b}_{v} $ — обучаемые параметры.Механизм копирования BIBREF10 встроен для прямого копирования слов из входных данных, поскольку слова в абзацах или исходных вопросах имеют большое значение для генерации вопросов, на которые нет ответа.В частности, мы используем $\mathbf {s}_t$ и $\mathbf {c}_t$ для получения вероятности пропуска $g_t$ : $$g_t=(\mathbf {W}_g[\mathbf {s}_t;\ mathbf {c}_t] + \mathbf {b}_{g})$$ (уравнение 5), где $\mathbf {W}_g$ и $\mathbf {b}_{g}$ — обучаемые параметры.Гейт $g_t$ определяет, генерируется ли слово из словаря или копируется слово из входных данных.Наконец, мы получаем вероятность генерации $\tilde{q}_t$ по формуле: $$P(\tilde{q}_t|\tilde{q}_{<t},q,p,a)=g_t P_{ v}(\tilde{q}_t)+ (1-g_t)\sum _{i \in \zeta _{\tilde{q}_t}}\hat{\gamma }_{i,t} \nonumber $$ (уравнение 6) где $\zeta _{\tilde{q}_t}$ обозначает все вхождения $\tilde{q}_t$ во входных данных, а оценка копирования $\hat{\gamma }_t$ вычисляется так же, как и оценка внимания $\ гамма _t$ (см. уравнение («Модель последовательности-последовательности»))при использовании разных параметров.Взаимодействие между абзацами и вопросами играет жизненно важную роль в понимании машинного чтения.Взаимодействие позволяет абзацу и вопросу узнать друг друга и помогает более точно предсказать ответ.Поэтому мы предлагаем модель пары в последовательность, осуществляющую взаимодействие, основанное на внимании, в кодере и последующее декодирование с двумя сериями представлений.В модели «пара-последовательность» абзац и вопрос встроены, как и в модель «последовательность-последовательность», но кодируются отдельно двунаправленными сетями LSTM с разделением веса, что дает $\mathbf {h}_i^p=(\mathbf {h}_{i-1}^p, \mathbf {e}_{i-1}^p)$ как кодировки абзацев и $\mathbf {h}_i^q=(\mathbf {h}_{i -1}^q, \mathbf {e}_{i-1}^q)$ в качестве кодировок вопросов.Тот же механизм внимания, что и в модели «последовательность-последовательность», используется на следующем уровне взаимодействия для создания представлений абзацев с учетом вопросов ${\mathbf {h}}_i^p$ : i,j=(score(hip,hjq) )/Zihip=j=1|q|i,jhjqhip=(Wp[hip;hip] + bp) где $Z_i=\sum _{k=1}^{|q|}\exp (score(\mathbf { h}_i^p,\mathbf {h}_k^q))$ , $\mathbf {W}_p$ и $\mathbf {b}_p$ — изучаемые параметры.Аналогично, представления вопросов с учетом абзацев ${\mathbf {h}}_i^q$ создаются по формуле: i,j=(score(hip,hjq))/Zjhiq=i=1|p|i,jhiphjq=( Wq[hjq;hjq]+ bq) где $Z_j=\sum _{k=1}^{|p|}\exp (score(\mathbf {h}_k^p,\mathbf {h}_j^q))$ , $\mathbf {W}_q$ и $\mathbf {b}_q$ — обучаемые параметры.Соответственно, декодер теперь принимает контекст абзаца $\mathbf {c}^p_{t-1}$ и контекст вопроса $\mathbf {c}^q_{t-1}$ в качестве контекста кодировщика, вычисляемый как $\mathbf {c }_t$ (см. уравнение («Модель последовательность-последовательность»)) в модели «последовательность-последовательность», чтобы обновить скрытые состояния декодера $\mathbf {s}_t=(\mathbf {s}_{t-1} ,[\mathbf {y}_{t-1};\mathbf {c}^p_{t-1};\mathbf {c}^q_{t-1}])$ и прогнозировать токены.Механизм копирования также используется, как описано ранее, и копирование слов как из абзаца, так и из вопроса возможно.Цель обучения — минимизировать отрицательную вероятность совпадения вопроса, на который нет ответа, $\tilde{q}$ с учетом вопроса, на который можно ответить, $q$ и соответствующего ему абзаца $p$, который содержит ответ $a$ : L=-(q,q ,p,a)DP(q|q,p,a;) где $\mathcal {D}$ — обучающий корпус, а $\theta $ обозначает все параметры.Модели «последовательность-последовательность» и «пара-последовательность» обучаются с той же целью.Во время вывода вопрос без ответа для пары вопросов-ответов $(q,p,a)$ получается через $\textrm {argmax}_{q^{\prime }}P(q^{\prime }|q,p, a)$ , где $q^{\prime }$ представляет собой возможные выходные данные.Поиск луча используется, чтобы избежать перебора всех возможных выходных данных.Мы проводим эксперименты на наборе данных SQuAD 2.0 BIBREF5.Тест экстрактивного машинного чтения содержит вопросы на сумму около 100 000 долларов США, на которые можно ответить, и вопросы без ответа, полученные с помощью краудсорсинга, на сумму более 50 000 долларов США к параграфам Википедии.Краудворкерам предлагается придумать вопросы, на которые нет ответа, которые имеют отношение к данному абзацу.Более того, для каждого вопроса, на который нет ответа, аннотирован вероятный диапазон ответов, который указывает на неправильный ответ, полученный только на основе эвристики сопоставления типов.И ответы, и правдоподобные ответы представляют собой текстовые фрагменты в абзацах.Мы используем (правдоподобные) интервалы ответов в абзацах в качестве опорных точек для выравнивания пар вопросов, на которые можно ответить, и вопросов, на которые нет ответа.Выровненная пара показана на рисунке 1.Что касается промежутков, которые соответствуют множеству вопросов, на которые можно ответить и на которые нет ответа, мы сортируем пары по расстоянию Левенштейна BIBREF38, сохраняем пару с минимальным расстоянием и следим за тем, чтобы каждый вопрос был спарен только один раз.Всего мы получаем $20 240$ выровненных пар из набора данных SQuAD 2.0.Расстояние Левенштейна между вопросами, на которые можно ответить, и вопросами, на которые нет ответа, в парах составляет в среднем $3,5$.В частности, пары стоимостью 17 475 долларов США, извлеченные из обучающего набора SQuAD 2.0, используются для обучения моделей генерации.Поскольку тестовый набор SQuAD 2.0 скрыт, мы случайным образом выбираем 46 статей из обучающего набора SQuAD 2.0 с парами $1805$ ($\sim $ 10%) в качестве контрольного набора и оцениваем модели генерации с парами $2765$, извлеченными из набора разработки SQuAD 2.0.Мы реализуем модели генерации на основе OpenNMT BIBREF39.Мы предварительно обрабатываем корпус с помощью набора инструментов SpaCy для токенизации и сегментации предложений.Мы используем строчные буквы и создаем словарь на обучающем наборе SQuAD 2.0 с порогом частоты слов, равным 9, чтобы удалить большинство зашумленных токенов, появляющихся при сборе данных и токенизации.Мы устанавливаем размерность встраивания слов, символов и токенов равным 300.Мы используем предварительно обученные внедрения glove.840B.300d BIBREF40 для инициализации внедрений слов и выполнения дальнейших обновлений во время обучения.И кодер, и декодер используют один и тот же словарный запас и встраивание слов.Размер скрытого состояния сети LSTM составляет 150.Вероятность отсева установлена ​​на уровне $0,2$.Данные перемешиваются и разбиваются на мини-пакеты размером 32 для обучения.Модель оптимизирована с помощью Adagrad BIBREF41 с начальной скоростью обучения 0,15 доллара США.Во время вывода размер луча равен 5.Мы запрещаем создание неизвестных слов, устанавливая для токена значение -inf.Мы фильтруем выходные данные луча, которые не влияют на входной вопрос.Качество генерации оценивается с помощью трех автоматических показателей оценки: BLEU BIBREF42, ROUGE BIBREF43.и GLEU BIBREF44.BLEU — это широко используемый показатель в машинном переводе, который вычисляет точность n-грамм по ссылкам.Метрика ROUGE, ориентированная на отзыв, широко применяется при суммировании, а ROUGE-L измеряет самую длинную общую подпоследовательность между выходными данными системы и ссылками.GLEU — это вариант BLEU с модификацией, которая штрафует выходные n-граммы системы, которые присутствуют во входных данных, но отсутствуют в ссылке.Это делает GLEU предпочтительным показателем для задач с тонкими, но критическими различиями в одноязычной среде, как, например, в нашей задаче по созданию вопросов, на которые нет ответа.Мы также проводим человеческую оценку 100 образцов по трем критериям: (1) невозможность ответа, которая указывает, является ли вопрос безответным или нет; (2) связанность, которая измеряет семантическую связь между сгенерированным вопросом и парой ответов на входной вопрос; (3) читабельность, которая указывает на грамматичность и беглость речи.Мы просим трех оценщиков оценить сгенерированные вопросы с точки зрения связанности и читабельности по шкале от 1 до 3 (3 — лучший вариант) и определить возможность ответа в двоичной системе (1 — нет ответа).Оценщики заранее не знают о методах генерации вопросов.Результаты автоматической оценки показаны в Таблице 1.Мы обнаружили, что предложенная модель «пара-последовательность», которая фиксирует взаимодействие между абзацем и вопросом, работает стабильно лучше, чем модель «последовательность-последовательность».Более того, замена входного абзаца ответным предложением снижает производительность модели, что указывает на то, что использование всего абзаца в качестве контекста предоставляет более полезную информацию для генерации вопросов, на которые нет ответа.Мы также стараемся создавать вопросы, на которые нет ответа, полагаясь только на вопросы, на которые можно ответить (см. «-Абзац») или абзац (см. «-Вопрос»).Неудивительно, что обе модели абляции имеют худшие характеристики по сравнению с полной моделью.Эти два результата абляции также демонстрируют, что вводимый вопрос с ответом помогает больше улучшить производительность по сравнению с вводным абзацем.Мы утверждаем, что исходный вопрос, на который можно ответить, дает более точную информацию, поскольку среднее расстояние редактирования между парами примеров составляет $3,5$.Наконец, мы удалим механизм копирования, который ограничивает токен предсказания словарем.Результаты указывают на необходимость копирования токенов из вопросов и параграфов, требующих ответа, в выходные данные, что решает проблему отсутствия словарного запаса.В таблице 3 показаны результаты человеческой оценки сгенерированных вопросов, на которые нет ответа.Мы сравниваем с базовым методом TfIdf, который использует входной вопрос с ответом для получения аналогичных вопросов к другим статьям в качестве выходных данных.Полученные вопросы в большинстве случаев не содержат ответов и читабельны, но они не совсем относятся к паре вопросов-ответов.Обратите внимание, что релевантность важна для увеличения данных в дальнейших экспериментах по пониманию машинного чтения.Здесь модель «пара-последовательность» по-прежнему превосходит модель «последовательность-последовательность» с точки зрения всех трех показателей.Но различия в человеческих оценках не так заметны, как в автоматических показателях.Как показано в Таблице 4, мы дополнительно случайным образом выбираем 100 выходных данных системы, чтобы проанализировать типы сгенерированных вопросов, на которые нет ответа.Мы заимствуем типы, определенные в BIBREF5, для SQuAD 2.0.Мы относим результаты к категории «Другие» с грамматическими ошибками, из-за которых их трудно понять.Образцы, попадающие в невозможное состояние, в основном создаются путем замены не-сущностей.Мы видим, что модели имеют тенденцию генерировать вопросы, на которые нет ответа, путем вставки отрицания и замены сущностей.Эти два типа также чаще всего используются, когда краудворкеры задают вопросы, на которые нет ответа, в соответствии с вопросами, на которые можно ответить.Мы также обнаруживаем, что в существующих моделях по-прежнему возникают трудности с использованием антонимов и условий исключения, которые можно улучшить за счет включения внешних ресурсов.На рисунке 3 мы представляем образец абзаца и соответствующие ему вопросы, на которые можно ответить, а также сгенерированные вопросы, на которые нет ответа.В первом примере две модели генерируют вопросы, на которые нет ответа, заменяя объект местоположения «Виктория» на «Техас» и вставляя отрицающее слово «никогда» соответственно.Во втором примере модель «последовательность-последовательность» опускает условие «в Виктории» и дает вопрос, на который можно ответить.Модель «пара-последовательность» правильно вставляет отрицание «больше не», что не упоминается в этом абзаце.В третьем примере в выводе .Последний пример показывает, что вставка отрицательных слов в разные позиции («не публично» и «не в Виктории») может выражать разные значения.Такие случаи имеют решающее значение для возможности ответа на генерируемые вопросы, с чем трудно справиться в системе, основанной на правилах.Мы применяем наши автоматически сгенерированные вопросы, на которые нет ответа, в качестве дополнительных данных к следующим моделям понимания прочитанного: BiDAF BIBREF2 — эталонная модель машинного понимания прочитанного.На основе BiDAF BIBREF45 предлагает модель BiDAF-No-Answer для прогнозирования распределения кандидатов на ответ и вероятности того, что вопрос в то же время останется без ответа.BIBREF29 предлагает модель DocQA для решения проблемы понимания прочитанного на уровне документа.Вероятность отсутствия ответа также прогнозируется совместно.Это самая современная модель машинного понимания текста, не требующая ответа.Для точной настройки мы используем бескорпусную версию BERT BIBREF31.Размеры пакетов BERT-base и BERT-large установлены на 12 и 24 соответственно.Остальные гиперпараметры остаются нетронутыми, как указано в официальных инструкциях по тонкой настройке BERT-Large на SQuAD 2.0. Сначала мы генерируем вопросы без ответа, используя модель обученной генерации.В частности, мы используем вопросы, на которые можно ответить, из обучающего набора SQuAD 2.0, а также вопросы, согласованные ранее, для создания вопросов, на которые нет ответа.Затем мы используем абзац и ответы на вопросы, на которые можно ответить, а также сгенерированные вопросы для построения обучающих примеров.Наконец, у нас есть дополнительные данные, содержащие $69,090$ примеров, на которые нет ответа.Мы обучаем модели ответов на вопросы с дополнительными данными в два отдельных этапа.На первом этапе мы обучаем модели, объединяя данные дополнения и все примеры, отвечающие SQuAD 2.0 стоимостью $86 821$.Впоследствии мы используем только исходные данные обучения SQuAD 2.0 для дальнейшей точной настройки параметров модели.Точное совпадение (EM) и F1 — это две метрики, используемые для оценки производительности модели.EM измеряет процент предсказаний, которые точно соответствуют истинным ответам.F1 измеряет совпадение слов между предсказанием и достоверными ответами.По умолчанию мы используем модель «пара-последовательность» с вопросами и абзацами, на которые можно ответить, для увеличения данных.В таблице 2 показано точное совпадение и баллы F1 нескольких моделей понимания прочитанного с дополнением данных и без него.Мы видим, что сгенерированные вопросы, на которые нет ответа, могут улучшить как специально разработанные модели понимания прочитанного, так и сильные модели точной настройки BERT, что дает абсолютное улучшение F1 на 1,9 доллара США с базовой моделью BERT и абсолютное улучшение F1 на 1,7 доллара США с большой моделью BERT.Представленная нами модель получила оценку EM в размере 80,75 долларов США и оценку F1 в размере 83,85 долларов США на скрытом тестовом наборе.Как показано в Таблице 5, модель пары в последовательность оказывается лучшим вариантом для генерации данных увеличения, чем другие три метода.Помимо модели «последовательность-последовательность», мы используем вопросы, на которые можно ответить, для извлечения вопросов из других статей с помощью TfIdf.Полученные вопросы мало помогают улучшить модель, поскольку они менее релевантны абзацу, как показано в Таблице 3.Мы называем метод BIBREF28, основанный на правилах, который меняет местами сущности и слова антонимами, как Rule.По сравнению с вышеупомянутыми методами модель пары в последовательность может дать наибольшее улучшение.Результаты в таблице 6 показывают, что увеличение размера дополнительных данных может еще больше улучшить производительность модели, особенно с моделью на основе BERT.Мы проводим эксперименты, используя в два и три раза больший объем базовых данных по дополнению (т. е. вопросы на 69 090 долларов, на которые нет ответа).Мы генерируем несколько вопросов, на которые нет ответа, для каждого вопроса, на который можно ответить, используя лучевой поиск.Поскольку мы генерируем только вопросы, на которые нет ответа, проблема дисбаланса данных может свести на нет улучшение от включения большего количества дополнительных данных.В этой статье мы предлагаем генерировать вопросы, на которые нет ответа, как средство увеличения данных для понимания машинного чтения.Мы создаем соответствующие вопросы, на которые нет ответа, редактируя вопросы, на которые можно ответить, и кондиционируя соответствующий абзац.Модель «пара-последовательность» введена для того, чтобы отразить взаимодействие между вопросом и абзацем.Мы также представляем способ создания обучающих данных для моделей генерации вопросов, на которые нет ответа.Как автоматические, так и человеческие оценки показывают, что предложенная модель последовательно превосходит базовый уровень от последовательности к последовательности.Результаты набора данных SQuAD 2.0 показывают, что наши сгенерированные вопросы, на которые нет ответа, могут помочь улучшить несколько моделей понимания прочитанного.Что касается будущей работы, мы хотели бы расширить возможности использования антонимов для генерации вопросов, на которые нет ответа, за счет использования внешних ресурсов.Мы благодарим анонимных рецензентов за полезные комментарии.Цинь и Лю были поддержаны Национальным фондом естественных наук Китая (NSFC) посредством грантов 61632011 и 61772156.
Понимание машинного чтения с вопросами, на которые нет ответа, является сложной задачей. В этой работе мы предлагаем метод увеличения данных путем автоматической генерации соответствующих вопросов, на которые нет ответа, в соответствии с вопросом, на который можно ответить, в сочетании с соответствующим абзацем, содержащим ответ. Мы представляем модель «пара-последовательность» для генерации вопросов, на которые нет ответа, которая эффективно фиксирует взаимодействие между вопросом и абзацем. Мы также представляем способ создания обучающих данных для наших моделей генерации вопросов, используя существующий набор данных о понимании прочитанного. Экспериментальные результаты показывают, что модель «пара-последовательность» работает стабильно лучше по сравнению с базовой моделью «последовательность-последовательность». Далее мы используем автоматически сгенерированные вопросы, на которые нет ответа, в качестве средства увеличения данных в наборе данных SQuAD 2.0, что дает абсолютное улучшение F1 на 1,9 с базовой моделью BERT и абсолютное улучшение F1 на 1,7 с большой моделью BERT.
4,897
QasperSumInstruct
ru
Напиши аннотацию по статье
Адаптируйтесь или отстаньте: адаптация предметной области посредством точной настройки языковой модели BERT для классификации тональности аспект-цель. Анализ настроений (SA) — это активная область исследований в области обработки естественного языка, которая занимается изучением мнений в тексте.Типичным применением классического SA в промышленных условиях может быть классификация такого документа, как обзор продукта, по полярности положительных, отрицательных или нейтральных настроений.В отличие от SA, более детальной задачи аспектного анализа настроений (ABSA) BIBREF0, BIBREF1 направлен на обнаружение как аспекта объекта, такого как ресторан, так и настроения, связанного с этим аспектом.Важно отметить, что ABSA выпускается в двух вариантах.Мы воспользуемся предложением «Я люблю их пельмени», чтобы подробно объяснить эти варианты.Оба варианта реализуются как двухэтапная процедура.Первый вариант состоит из обнаружения категорий аспектов (ACD), за которым следует классификация тональности по категориям аспектов (ACSC).ACD — это задача классификации с несколькими метками, в которой предложение может быть связано с набором предопределенных категорий аспектов, таких как «еда» и «услуга» в сфере ресторанов.На втором этапе, ACSC, классифицируется полярность настроений, связанная с аспектом.Для нашего примера-предложения правильный результат — («еда», «положительный»). Второй вариант состоит из извлечения аспектно-целевых данных (ATE), за которым следует классификация аспектно-целевых настроений (ATSC).ATE — это задача маркировки последовательностей, в которой обнаруживаются такие термины, как «пельмени».На втором этапе, ATSC, определяется полярность настроения, связанная с аспектом-целью.В нашем примере правильным результатом является кортеж («пельмени», «положительный»). В этой работе мы ориентируемся на ATSC.В последние годы были разработаны специализированные нейронные архитектуры BIBREF2, BIBREF3, которые существенно улучшили моделирование этой взаимосвязи «цель-контекст».Совсем недавно сообщество обработки естественного языка пережило существенный сдвиг в сторону использования предварительно обученных языковых моделей BIBREF4, BIBREF5, BIBREF6, BIBREF7 в качестве основы для многих последующих задач, включая ABSA BIBREF8, BIBREF9, BIBREF10.Мы по-прежнему видим огромный потенциал, связанный с этой тенденцией, поэтому мы подходим к задаче ATSC, используя архитектуру BERT.Как показано BIBREF9, для задачи ATSC производительность моделей, которые были предварительно обучены на общих текстовых корпусах, существенно улучшается за счет точной настройки модели на предметно-ориентированных корпусах — в их случае обзорных корпусах — которые не использовались для предварительного обучения. BERT или другие языковые модели.Мы расширяем работу Xu et al.путем дальнейшего исследования поведения точной настройки языковой модели BERT в зависимости от производительности ATSC.В частности, наш вклад заключается в следующем: Анализ влияния количества шагов обучения, используемых для точной настройки языковой модели BERT, на производительность классификации аспектно-целевых настроений.Результаты о том, как использовать тонкую настройку языковой модели BERT, позволяют нам достичь новой современной производительности в наборе данных ресторанов SemEval 2014.Анализ междоменной адаптации между ноутбуками и ресторанами.Адаптация проверяется путем точной настройки языковой модели BERT с самоконтролем в целевом домене, а затем контролируемого обучения выполнению задачи ATSC в исходном домене.Кроме того, измеряется эффективность обучения на сочетании обоих наборов данных.Мы разделяем обсуждение смежных работ на две области:Во-первых, к ATSC применены нейронные методы, которые повысили производительность исключительно за счет усовершенствований архитектуры модели.Во-вторых, методы, которые дополнительно направлены на передачу знаний из семантически связанных задач или областей.Наборы данных, которые обычно используются для классификации настроений по аспектам и целям, — это наборы данных SemEval 2014 Task 4 BIBREF1 для сферы ресторанов и ноутбуков.К сожалению, оба набора данных содержат лишь небольшое количество обучающих примеров.Одним из распространенных подходов к компенсации недостаточности обучающих примеров является изобретение нейронных архитектур, которые лучше моделируют ATSC.Например, в прошлом большой скачок в производительности классификации был достигнут благодаря использованию архитектуры сети памяти BIBREF3, которая использует память для запоминания контекстных слов и явно моделирует внимание как к целевому слову, так и к контексту.Было обнаружено, что полное использование контекстных слов улучшает их модель по сравнению с предыдущими моделями BIBREF2, которые независимо используют лево- и правосторонний контекст.BIBREF8 предложил сети кодировщиков внимания (AEN), модификацию архитектуры преобразователя.Авторы разделили слои Multi-Head Attention (MHA) на уровни Intra-MHA и Inter-MHA, чтобы по-разному моделировать целевые слова и контекст, что приводит к более легкой модели по сравнению с архитектурой преобразователя.Еще один недавний скачок в производительности был достигнут BIBREF11, который моделирует зависимости между тональными словами явно в предложениях с более чем одной аспектной целью, используя сверточную нейронную сеть на графе.Они показывают, что их архитектура работает особенно хорошо, если в предложении присутствует несколько аспектов.Другой подход к компенсации недостаточности обучающих примеров — это передача знаний между предметными областями или схожими задачами.BIBREF12предложенные сети многоуровневого выравнивания (MGAN).Они используют эту архитектуру для передачи знаний как из задачи классификации аспектных категорий, так и из разных областей.Специально для этого они создали крупномасштабный набор данных по категориям аспектов.BIBREF13 передает знания из задачи классификации настроений на уровне документа, обученной на наборе данных обзора Amazon BIBREF14.Они успешно применяют предварительное обучение, повторно используя веса сети долгосрочной краткосрочной памяти (LSTM) BIBREF15, которая была обучена на задаче определения настроений на уровне документа.Кроме того, они применяют многозадачное обучение, при котором задачи уровня аспекта и документа изучаются одновременно за счет минимизации совместной функции потерь.Аналогичным образом, BIBREF9 представляет функцию многозадачной потери для одновременной оптимизации целей предварительного обучения BIBREF7 модели BERT, а также задачи ответа на вопросы.В отличие от описанных выше методов, целью которых является передача знаний из другой исходной задачи, такой как ответы на вопросы или классификация настроений на уровне документа, эта статья направлена ​​на передачу знаний между различными областями путем точной настройки языковой модели BERT.Мы подходим к задаче классификации тональности по аспектам и целям, используя двухэтапную процедуру.В качестве основы мы используем предварительно обученную архитектуру BERT.На первом этапе мы дополнительно настраиваем предварительно обученные веса языковой модели самоконтролируемым способом в корпусе, специфичном для предметной области.На втором этапе мы контролируемым образом обучаем настроенную языковую модель конечной задаче ATSC.В следующих подразделах мы обсудим архитектуру BERT, точную настройку языковой модели и преобразование задачи ATSC в задачу классификации пар последовательностей BERT BIBREF10.Наконец, мы обсуждаем различные комбинации обучения конечной задачи и тонкой настройки для конкретной предметной области, которые мы используем для оценки эффективности обобщения нашей модели не только внутри предметной области, но и в междоменной.Модель BERT основана на многих предыдущих инновациях: контекстуализированном представлении слов BIBREF4, архитектуре преобразователя BIBREF16 и предварительном обучении на задаче моделирования языка с последующей сквозной точной настройкой на последующих задачах BIBREF5, BIBREF6.Благодаря своей глубокой двунаправленности архитектура BERT создает очень мощные представления последовательностей, которые очень хорошо справляются со многими последующими задачами BIBREF7. Основное нововведение BERT заключается в том, что вместо использования цели предсказания следующего слова для обучения языка используется другая цель. модель.Эта цель состоит из 2 частей.Первая часть — это цель модели замаскированного языка, где модель учится предсказывать токены, которые были случайно замаскированы, из контекста.Вторая часть — это цель прогнозирования следующей последовательности, где модели необходимо предсказать, будет ли последовательность $B$ естественным образом следовать за предыдущей последовательностью $A$.Эта цель позволяет модели лучше отражать долгосрочные зависимости.Обе цели обсуждаются более подробно в следующем разделе.В качестве базы для наших экспериментов мы используем модель BERTBASE, предварительно обученную исследовательской группой Google.Он имеет следующие параметры: 12 слоев, 768 скрытых измерений на каждый токен и 12 головок внимания.У него 110 млн. параметры в сумме.Для точной настройки языковой модели BERT в конкретной области мы используем веса BERTBASE в качестве отправной точки.В качестве первого шага нашей процедуры мы выполняем точную настройку языковой модели модели BERT с использованием предметно-ориентированных корпусов.Алгоритмически это эквивалентно предварительному обучению.BIBREF9 продемонстрировал точную настройку языковой модели для конкретной предметной области как промежуточный шаг к ATSC.В качестве дополнения к их статье мы исследуем пределы тонкой настройки языковой модели с точки зрения того, как производительность конечной задачи зависит от количества шагов обучения.Входное представление обучения для точной настройки языковой модели состоит из двух последовательностей $s_A$ и $s_B$ в формате $"\textrm {[CLS]} \ s_{A} \ \textrm {[SEP]} \ s_{B} \ \textrm {[SEP]}"$, где [CLS] — фиктивный токен, используемый для последующей классификации, а [SEP] — токены-разделители.В последовательностях $A$ и $B$ токены замаскированы случайным образом, чтобы модель могла научиться их предсказывать.В следующем примере показано, почему точная настройка с учетом предметной области может уменьшить погрешность предварительного обучения на корпусе Википедии: «Сенсорный экран — это устройство [MASK]».В контексте Википедии, основанном на фактах, [МАСКА] может быть «вводом», а в области обзора типичным предположением может быть слово общего мнения «потрясающе».Чтобы научить BERT лучше фиксировать долгосрочные зависимости, модель обучается предсказывать, следует ли последовательность $B$ за последовательностью $A$.В этом случае последовательность A и последовательность B совместно выбираются из одного и того же документа в том порядке, в котором они встречаются в природе.В противном случае последовательности выбираются случайным образом из обучающего корпуса.Задача ATSC направлена ​​на классификацию полярности настроений на три класса: позитивные, негативные и нейтральные по отношению к аспекту-цели.Входными данными классификатора являются токенизированное предложение $s=s_{1:n}$ и целевой $t=s_{j:j+m}$, содержащийся в предложении, где $j < j+m \le n$ . Подобно предыдущей работе BIBREF10, мы преобразуем входные данные в формат, совместимый с задачами классификации пар последовательностей BERT: $"\textrm {[CLS]} \ s \ \textrm {[SEP]} \ t \ \textrm {[SEP] ]}"$. В архитектуре BERT положение вложений токенов структурно сохраняется после каждого уровня многоголового внимания.Поэтому мы ссылаемся на последнее скрытое представление токена [CLS] как $h_{[CLS]} \in \mathbf {R}^{768 \times 1}$.Число классов полярности настроений равно трем.Распределение $p \in [0,1]^3$ по этим классам прогнозируется с использованием полносвязного слоя с 3 выходными нейронами поверх $h_{[CLS]}$, за которым следует функция активации softmax, где $b \ в \mathbf {R}^3$ и $W \in \mathbf {R}^{3 \times 768}$. Перекрестная энтропия используется в качестве потерь при обучении.То, как мы используем BERT для классификации полярититов настроений, эквивалентно тому, как BERT используется для задач классификации пар последовательностей в оригинальной статье BIBREF7. В академических кругах принято оценивать производительность модели машинного обучения внутри предметной области.Это означает, что модель оценивается на тестовом наборе, который поступает из того же распределения, что и обучающий набор.В реальных приложениях этот параметр не всегда действителен, поскольку обученная модель используется для прогнозирования ранее невидимых данных.Чтобы более надежно оценить производительность модели машинного обучения, ее ошибку обобщения можно оценить в разных областях, то есть в междоменной области.Кроме того, сама модель может быть адаптирована к целевой области.Это известно как адаптация предметной области, которая является особым случаем трансдуктивного трансферного обучения в таксономии BIBREF17.Здесь обычно предполагается, что контролируемые данные для конкретной задачи доступны только для исходного домена $S$, тогда как в целевом домене $T$ доступны только неконтролируемые данные. Цель состоит в том, чтобы оптимизировать производительность задачи в целевом домене при передаче знаний, специфичных для задачи, из исходного домена.Если мы сопоставим эту структуру с нашей задачей, мы определим классификацию настроений «Аспект-Цель» как задачу передачи, а точная настройка языковой модели BERT используется для адаптации предметной области.С точки зрения того, на каком домене точно настроена, полная процедура переноса может быть выражена следующим образом: Здесь $D_{LM}$ обозначает домен, на котором точно настроена языковая модель, и может принимать значения Ресторанов. , Ноутбуки или (Рестораны $\cup$ Ноутбуки).Домен для обучения $D_{Train}$ может принимать одни и те же значения, для совместного случая наборы обучающих данных для ноутбуков и ресторанов просто объединяются.Домен для тестирования $D_{Test}$ можно принимать только со значениями «Рестораны» или «Ноутбуки».Сочетание этапов тонкой настройки и обучения дает нам девять различных сценариев оценки, которые мы группируем в следующие четыре категории: ATSC обучается на наборе данных, специфичном для предметной области, и оценивается на тестовом наборе из той же предметной области.Это можно выразить как $D_{LM} \rightarrow T \rightarrow T,$, где $T$ — наш целевой домен и может быть либо ноутбуком, либо рестораном.Ожидается, что производительность модели будет наилучшей, если $D_{LM} = T$.ATSC обучается на наборе данных, специфичном для конкретной области, и оценивается на тестовом наборе из другой области.Это можно выразить как $D_{LM} \rightarrow S \rightarrow T,$, где $S\ne T$ — исходный и целевой домен и могут быть либо ноутбуками, либо ресторанами.В качестве частного случая междоменного обучения мы ожидаем, что производительность будет оптимальной, если $D_{LM} =T$.Это вариант адаптации предметной области, который записывается как $T \rightarrow S \rightarrow T. $ATSC обучается совместно на обоих наборах данных, специфичных для предметной области, и оценивается на обоих наборах тестов независимо.Это можно выразить как $D_{LM} \rightarrow (S \cup T) \rightarrow T,$ где $S\ne T$ — исходный и целевой домен и могут быть либо ноутбуками, либо ресторанами.В наших экспериментах мы стремимся ответить на следующие исследовательские вопросы (RQ): RQ1: Как количество обучающих итераций на этапе точной настройки языковой модели BERT влияет на производительность конечной задачи ATSC?В какой момент производительность начинает улучшаться, когда она сходится? Вопрос 2: При внутридоменном обучении, какой производительности конечной задачи ATSC можно достичь за счет полной точной настройки языковой модели BERT? Вопрос 3: При междоменном обучении в В особом случае адаптации предметной области, какой производительности конечной задачи ATSC можно достичь, если полностью использовать точную настройку языковой модели BERT? Мы проводим эксперименты с использованием двух наборов данных SemEval 2014 Task 4 Subtask 2 BIBREF1 для ноутбуков и ресторанов.Два набора данных содержат предложения с несколькими отмеченными аспектными терминами, каждый из которых имеет трехуровневую полярность настроений (положительную, нейтральную или отрицательную).В исходном наборе данных также присутствует метка конфликта.Здесь конфликтующие метки опущены из соображений сопоставимости с BIBREF9.Оба набора данных небольшие, подробная статистика показана на вкладке: наборы данных.Для точной настройки языковой модели BERT мы готовим три корпуса для двух областей: ноутбуков и ресторанов.Для домена ресторанов мы используем обзоры Yelp Dataset Challenge, а для домена ноутбуков — обзоры ноутбуков Amazon BIBREF14.Что касается ноутбуков, мы отфильтровали обзоры, которые появляются в наборе данных ноутбуков SemEval 2014, чтобы избежать систематической ошибки обучения для тестовых данных.Чтобы обеспечить совместимость с задачей прогнозирования следующего предложения, используемой во время точной настройки, мы удалили обзоры, содержащие менее двух предложений.Для корпуса ноутбуков после предварительной обработки остается предложение стоимостью 1 007 209 долларов.Для области ресторанов доступно больше обзоров, мы выбрали предложения стоимостью 10 000 000 долларов, чтобы получить достаточный объем данных для полной точной настройки языковой модели.Чтобы компенсировать меньший объем данных точной настройки в домене ноутбуков, мы настраиваем большее количество эпох: 30 эпох в случае домена ноутбуков по сравнению с 3 эпохами для домена ресторанов, так что модель BERT обучается примерно на 30 миллионах приговоры в обоих случаях.Это означает, что одно предложение можно увидеть несколько раз с разной маскировкой языковой модели.Мы также создаем смешанный корпус для совместной доработки обеих областей.Здесь мы отбираем 1 млн. обзоры ресторанов и объедините их с обзорами ноутбуков.В результате получается около 2 млн. обзоры, настроенные на 15 эпох.Точная статистика для трех корпусов тонкой настройки показана в верхней части вкладки: наборы данных.Чтобы иметь возможность воспроизводить наши корпуса тонкой настройки, мы делаем код, который используется для их создания, доступным в Интернете.Мы используем BERTBASE (без корпуса) в качестве основы для всех наших экспериментов, за исключением XLNetBASE (с корпусом), который используется в качестве одной из базовых моделей.Для точной настройки модели языка BERT мы используем 32-битные вычисления с плавающей запятой с использованием оптимизатора Adam BIBREF18.Размер пакета установлен на 32, а скорость обучения — на $3\cdot 10^{-5}$. Максимальная длина входной последовательности установлена ​​на уровне 256 токенов, что в среднем составляет около 4 предложений на последовательность.Как показано в вкладке: наборы данных, мы настраиваем языковые модели в каждом домене так, чтобы модель обучала в общей сложности около 30 миллионов человек. приговоры (7,5 млн.последовательностей). Для обучения моделей BERT и XLNet для выполнения последующих задач ATSC мы используем смешанные 16-битные и 32-битные вычисления с плавающей запятой, оптимизатор Адама и скорость обучения $3\cdot 10^{-5}$ и размер партии 32.Мы обучаем модель в течение 7 эпох.Точность проверки сходится примерно через 3 эпохи обучения для всех наборов данных, но после этого потери при обучении все еще улучшаются.Важно отметить, что все представленные нами результаты представляют собой среднее значение 9 запусков с различными случайными инициализациями.Это необходимо для измерения значимости улучшений, поскольку стандартное отклонение точности составляет примерно $1\%$ для всех экспериментов, см. fig:acc-dep-lmiterations.Мы сравниваем результаты внутри предметной области с современными методами, которые сейчас кратко опишем.SDGCN-BERT BIBREF11 явно моделирует зависимости тональности для предложений с множеством аспектов с помощью сверточной сети графов.Этот метод является новейшим в наборе данных ноутбуков SemEval 2014.AEN-BERT BIBREF8 — это сеть кодеров внимания.При использовании поверх вложений BERT этот метод особенно хорошо работает с набором данных ноутбуков.BERT-SPC BIBREF8 — это BERT, используемый в режиме классификации пар предложений.Это точно тот же метод, что и наш базовый уровень BERT, и поэтому мы можем перепроверить результаты авторов.BERT-PT BIBREF9 использует многозадачную точную настройку перед последующей классификацией, где языковая модель BERT настраивается совместно с задачей ответа на вопросы.Он работает на самом современном уровне с набором данных ресторанов, предшествующим написанию этой статьи.Насколько нам известно, междоменное и совместное обучение на наборах данных SemEval 2014 Task 4 до сих пор не анализировалось.Таким образом, мы сравниваем наш метод с двумя очень сильными базовыми линиями: BERT и XLNet.BIBREF7 на базе BERT использует предварительно обученные внедрения BERTBASE непосредственно в последующих задачах без какой-либо точной настройки языковой модели для конкретной предметной области.BIBREF19 на базе XLNet — это метод, также основанный на предварительном обучении общей языковой модели, аналогичный BERT.Вместо случайного маскировки токенов для предварительного обучения, как в BERT, используется более общая цель перестановки, где полностью используются все возможные варианты маскировки.Наши модели представляют собой модели BERT, языковая модель которых была точно настроена для различных корпусов доменов.BERT-ADA Lapt — это языковая модель BERT, настроенная для корпуса доменов ноутбуков.BERT-ADA Rest — это языковая модель BERT, оптимизированная для корпуса ресторанной области.BERT-ADA Joint — это языковая модель BERT, настроенная на корпусе, содержащем равное количество обзоров ноутбуков и ресторанов.Результаты наших экспериментов показаны на рисунках fig:acc-dep-lmiterations и tab:results соответственно.Чтобы ответить на вопрос 1, который касается подробностей тонкой настройки языковой модели для конкретной предметной области, мы можем видеть на рисунке fig:acc-dep-lmiterations, что, прежде всего, точная настройка языковой модели оказывает существенное влияние на производительность конечной задачи ATSC.Во-вторых, мы видим, что в области ноутбуков производительность начинает расти примерно с 10 млн. уточненные предложения.Это интересное открытие, поскольку можно было бы ожидать, что соотношение будет ближе к логарифмической кривой.Одной из причин может быть то, что для обучения языковой модели BERT требуется много шагов из-за ее огромного количества параметров.Модель уже сходится на отметке 17 млн. предложения.Более точная настройка не приводит к существенному улучшению производительности.Кроме того, мы обнаружили, что разные прогоны имеют высокую дисперсию, стандартное отклонение составляет около $1\%$ по точности, что оправдывает усреднение по 9 прогонам для надежного измерения различий в производительности модели.Чтобы ответить на вопрос 2, который касается производительности ATSC внутри домена, мы видим в вкладке tab:results, что для случая внутридоменного обучения наши модели BERT-ADA Lapt и BERT-ADA Rest достигают производительности, близкой к современному состоянию. искусство в наборе данных о ноутбуках и новое современное состояние в наборе данных о ресторанах с точностью $79,19\%$ и $87,14\%$ соответственно.В наборе данных о ресторанах это соответствует абсолютному улучшению на $2,2\%$ по сравнению с предыдущим современным методом BERT-PT.Точная настройка языковой модели приводит к значительному улучшению набора данных о ресторанах.Мы считаем, что одной из причин этого может быть то, что сфера ресторанов недостаточно представлена ​​в корпусах предварительного обучения BERTBASE.Как правило, мы обнаруживаем, что точная настройка языковой модели помогает, даже если домен точной настройки не соответствует домену оценки.Мы думаем, что причина этого может заключаться в том, что модель на основе BERT предварительно обучена больше на базе знаний, таких как Википедия, чем на тексте, содержащем мнения.Еще один вывод заключается в том, что BERT-ADA Joint лучше работает с набором данных ноутбуков, чем BERT-ADA Rest, хотя уникальное количество обзоров ноутбуков одинаково в ноутбуках и совместных корпорациях.Мы считаем, что при смешивании доменов может возникнуть путаница, но этот вопрос требует дальнейшего изучения.Мы также обнаружили, что базовый уровень XLNet в целом работает лучше, чем базовый BERT, и даже превосходит BERT-ADA Lapt с точностью $79,89\%$ в наборе данных ноутбуков.Чтобы ответить на RQ3, который касается адаптации домена, мы можем видеть в затененных ячейках в вкладке tab:results, которые соответствуют случаю междоменной адаптации, когда языковая модель BERT обучается в целевом домене, что адаптация домена работает хорошо. с абсолютным улучшением точности на $2,2\%$ на тестовом наборе ноутбуков и даже улучшением точности на $3,6\%$ на тестовом наборе для ресторанов по сравнению с базой BERT.В целом, задача ATSC хорошо обобщает междоменные задачи, с падением точности примерно на 2–3%$ по сравнению с внутридоменным обучением.Мы полагаем, что причина этого может заключаться в том, что синтаксические отношения между аспектом-целью и фразой, выражающей полярность настроения, а также знание самой полярности настроения во многих случаях достаточны для решения задачи ATSC.В случае совместного обучения мы обнаружили, что объединение обоих наборов обучающих данных повышает производительность на обоих наборах тестов.Этот результат интуитивно понятен, поскольку больше обучающих данных приводит к повышению производительности, если домены не путают друг друга.Интересным для случая совместного обучения является то, что модель сустава BERT-ADA работает особенно хорошо при измерении с помощью метрики Macro-F1.Причиной этого может быть то, что наборы данных SemEval 2014 несбалансированы из-за доминирования положительной метки.Похоже, что благодаря точной настройке языковой модели в обоих доменах модель учится гораздо лучше классифицировать нейтральный класс, особенно в области ноутбуков.Мы провели эксперименты по задаче классификации настроений по аспектам и целям, сначала настроив предварительно обученную модель BERT на корпусе предметной области с последующим обучением на последующей задаче классификации.Мы проанализировали поведение количества шагов тонкой настройки языковой модели BERT для конкретной предметной области в зависимости от производительности конечной задачи.Благодаря выводам о том, как лучше всего использовать тонкую настройку языковой модели BERT, мы смогли обучить высокопроизводительные модели, одна из которых даже работает как новая современная в наборе данных ресторанов SemEval 2014 Task 4.Мы дополнительно оценили наши модели в междоменных областях, чтобы изучить надежность классификации настроений по аспектам и целям.Мы обнаружили, что в целом эта задача хорошо переносится между ноутбуками и ресторанами.В качестве особого случая мы провели эксперименты по междоменной адаптации, в которых языковая модель BERT специально настраивается на целевом домене.Мы добиваемся значительного улучшения по сравнению с неадаптированными моделями, адаптированная кросс-доменная модель работает даже лучше, чем модель на основе BERT, которая обучается внутри предметной области.В целом, наши результаты открывают многообещающие направления для последующей работы.Базовая модель XLNet хорошо справляется с задачей ATSC.Здесь точная настройка для конкретной области, вероятно, может привести к значительному повышению производительности.Еще одним интересным направлением будущей работы могло бы стать исследование междоменного поведения для дополнительного домена, например отелей, который больше похож на домен ресторанов.Здесь может быть интересно выяснить, приведет ли общая природа этих областей к еще большей путанице или они будут вести себя синергетически.
Аспектно-целевая классификация тональности (ATSC) — это подзадача аспектного анализа тональности (ABSA), которая имеет множество применений, например. в электронной коммерции, где данные и идеи из обзоров можно использовать для создания ценности для бизнеса и клиентов. В последнее время методы глубокого трансферного обучения успешно применяются для решения множества задач обработки естественного языка (NLP), включая ATSC. Опираясь на известную языковую модель BERT, мы подходим к ATSC с использованием двухэтапной процедуры: самоконтролируемая точная настройка языковой модели BERT для конкретной предметной области, за которой следует контролируемая точная настройка для конкретной задачи. Наши выводы о том, как лучше всего использовать точную настройку языковой модели для конкретной предметной области, позволяют нам добиться новой современной производительности на наборе данных ресторанов SemEval 2014 Task 4. Кроме того, чтобы изучить реальную надежность наших моделей, мы проводим междоменную оценку. Мы показываем, что адаптированная к междоменному использованию языковая модель BERT работает значительно лучше, чем сильные базовые модели, такие как стандартная база BERT и база XLNet. Наконец, мы проводим тематическое исследование для интерпретации ошибок прогнозирования модели.
4,367
QasperSumInstruct
ru
Напиши аннотацию по статье
Итеративный подход к выявлению твитов, основанных на жалобах, на платформах социальных сетей. С появлением платформ социальных сетей все больше пользователей выражают свои претензии по поводу этих платформ в форме жалоб.Согласно BIBREF0, жалоба рассматривается как основной речевой акт, используемый для выражения негативного несоответствия между ожиданием и реальностью.Транспорт и связанные с ним логистические отрасли являются основой любой экономики.Многие транспортные организации полагаются на жалобы, собранные через эти платформы, для улучшения своих услуг, поэтому понимание того, что они важны для: (1) лингвистов для выявления человеческих проявлений критики и (2) организаций для сокращения времени ответа на запросы и эффективного решения проблем.Наличие неизбежного шума, скудного контента, а также перефразированных и структурно измененных экземпляров сообщений усложняют задачу BIBREF1.Предыдущие работы BIBREF2 в области извлечения жалоб были сосредоточены только на статических наборах данных.Они не устойчивы к изменениям отражаемых тенденций, информационных потоков и языковых вариаций.Мы предлагаем итеративный, полуконтролируемый подход для выявления твитов, основанных на жалобах, с возможностью тиражирования для потока информации.Предпочтение полуконтролируемого подхода над контролируемым обусловлено указанными причинами: (а) задача изолировать обучающую выборку, сделать контролируемые задачи менее привлекательными и непрактичными и (б) дисбаланс между субъективными и объективными классами приводит к плохим результатам. производительность.Мы стремились имитировать разреженное/зашумленное распространение контента, что потребовало создания нового набора данных с помощью специальных лексиконов.Мы собрали 500 случайных сообщений с известного транспортного форума.Пул из 50 уни/биграмм был создан на основе представлений tf-idf, извлеченных из постов, которые затем были сокращены аннотаторами.Запрос постов в Твиттере с извлеченными лексиконами привел к сбору твитов на сумму 19 300 долларов.Чтобы обеспечить лексическое разнообразие, мы добавили в наш набор данных 2500 случайно выбранных твитов.Несмотря на немногочисленность этих постов, лексические характеристики действуют как информационные подсказки.Рисунок FigREF4 наглядно представляет нашу методологию.Наш подход требовал начального набора информативных твитов, для которых мы использовали двух человек-аннотаторов, аннотирующих случайную подвыборку исходного набора данных.Из 1500 образцов 326 были отмечены как информативные и 1174 как неинформативные ($\kappa =0,81$), дискриминируемые по следующему критерию: адресуется ли твит к каким-либо жалобам или жалобам на виды транспорта или услуги/события, связанные с транспортировкой, такие как как трафик; общественный или личный транспорт?.Пример твита, помеченного как информативный: Нет, тарифы на проезд в метро будут снижены ???, но нужно правильно представить структуру тарифов, это плохо !!!.Мыиспользовал tf-idf для идентификации начальных исходных фраз из тщательно подобранного набора информативных твитов.50 терминов, имеющих наивысшие оценки tf-idf, были пропущены через полный набор данных, и на основе совпадения подстрок были идентифицированы твиты, имеющие отношение к транспорту.Повторяющиеся твиты были отфильтрованы на основе показателя косинусного сходства.Индикаторы неявной информации были определены на основе показателя релевантности домена, показателя, используемого для оценки охвата n-грамм (1,2,3) при оценке по случайно созданному пулу сообщений.Мы собрали пул из 5000 случайно выбранных твитов, отличающихся от периода сбора данных.Смысл использования такой метрики заключался в том, чтобы отбросить часто встречающиеся n-граммы, нормированные случайным шумом, и включить те, которые имеют лексическое значение.Мы использовали термины, связанные с высоким показателем релевантности домена (порог, определенный экспериментально), в качестве исходных фраз для следующего набора итераций.Растущий словарь расширяет процесс сбора информации.Процесс длился 4 итерации, в результате чего мы получили 7200 твитов, релевантных транспорту, поскольку новых лексиконов обнаружено не было.Чтобы идентифицировать лингвистические сигналы, связанные с сообщениями о жалобах, мы случайным образом выбрали набор из 2000 твитов, который использовался в качестве обучающего набора, вручную размеченного на отдельные метки: релевантные жалобы (702) и нерелевантные жалобы (1298) ($\kappa =0,79$).Мы применили эти функции в нашем наборе данных.Лингвистические маркеры.Чтобы уловить лингвистические аспекты жалоб, мы использовали Bag of Words, счетчик POS-тегов и кластеры Word2vec.Маркеры настроений.Мы использовали количественную оценку, основанную на соотношении токенов, упомянутых в следующих словарях: MPQA, NRC, VADER и Stanford.Информационные специфические маркеры.Они учитывают набор специально созданных функций, связанных с жалобой. Мы использовали указанные маркеры (а) текстовые метаданные, включая количество URL-адресов, хэштегов, упоминаний пользователей, специальных символов и упоминаний пользователей, используемые для усиления воздействия ретвитов; (б) Идентификация запроса: мы использовали модель, представленную в BIBREF3, чтобы определить, является ли конкретное утверждение твита запросом; (c) Усилители: мы используем набор функций, основанный на количестве слов, начинающихся с заглавных букв, и повторении специальных символов (восклицательных, вопросительных знаков) в одном сообщении; (d) Маркеры вежливости: мы используем оценку вежливости твита, извлеченную из модели, представленной в BIBREF3; (e) Вариант местоимения, они способны выявить личную вовлеченность или усилить вовлеченность.Мы используем частоту местоимений типов $\lbrace \textit {первый, второй, третий, указательный и неопределенный}$}, используя заранее определенные словари.Из пула из 7200 твитов, связанных с транспортом, мы выбрали 3500 твитов, которые использовались в качестве набора для тестирования.Результаты представлены в таблице TABREF5 с 10-кратной перекрестной проверкой.С увеличением количества итераций пул исходных фраз уточняется и расширяет выбор твитов, имеющих отношение к транспорту.Предлагаемый конвейер предназначен для выявления твитов, связанных с жалобами, в шумном сценарии.Таблица TABREF5 показывает, что модель BOW дала наилучшие результаты как с точки зрения точности, так и с точки зрения показателя F1.Лучшим результатом, достигнутым с помощью модели настроений, стал Stanford Sentiment (оценка F1 в размере 0,63 доллара США), при этом другие модели в том же диапазоне и лингвистические функции в совокупности дали наилучшие результаты.В этой статье мы представили новый полуконтролируемый конвейер, а также новый набор данных для идентификации сообщений, основанных на жалобах, в транспортной сфере.Предложенную методологию можно расширить на другие области путем изменения лексики, используемой для создания информационных сигналов.У этого анализа есть ограничения; мы не используем нейронные сети, требующие большого объема данных.В будущем мы стремимся выявить демографические особенности для выявления постов, основанных на жалобах, на платформах социальных сетей.
Twitter — это платформа социальных сетей, где пользователи выражают мнения по различным вопросам. Сообщения с жалобами или жалобами могут быть использованы частными/государственными организациями для улучшения их обслуживания и оперативного проведения недорогой оценки. В этой статье мы предлагаем итеративную методологию, целью которой является выявление сообщений, основанных на жалобах, относящихся к транспортной сфере. Мы проводим комплексные оценки, а также публикуем новый набор данных для исследовательских целей.
1,079
QasperSumInstruct
ru
Напиши аннотацию по статье
Генерация эмоционального нейронного языка, основанная на ситуативных контекстах. Быстрый прогресс в области генеративного моделирования за счет использования нейронных сетей способствовал созданию более интеллектуальных диалоговых агентов.Традиционно эти диалоговые агенты создаются с использованием инфраструктуры seq2seq, которая широко используется в области машинного перевода BIBREF0.Однако предыдущие исследования показали, что взаимодействие с этими агентами приводит к скучным и общим реакциям, а также не соответствует эмоциональному тону разговора BIBREF0, BIBREF1.Эти проблемы также влияют на взаимодействие с диалоговым агентом, что приводит к коротким разговорам BIBREF2.Помимо создания интересных ответов, еще одной желательной чертой BIBREF3 является понимание ситуации и правильная эмоциональная реакция на нее. Эмоции присущи людям и помогают создать более увлекательный разговор (BIBREF4).Недавняя работа была сосредоточена на подходах к включению эмоций в диалоговые агенты BIBREF5, BIBREF6, BIBREF7, BIBREF8, однако эти подходы ориентированы на задачу seq2seq.Мы подходим к проблеме генерации эмоций как к форме трансферного обучения, используя большие предварительно обученные языковые модели.Эти языковые модели, включая BERT, GPT-2 и XL-Net, помогли достичь современного уровня решения нескольких задач понимания естественного языка BIBREF9, BIBREF10, BIBREF11.Однако их успехи в задачах языкового моделирования были непостоянными (BIBREF12).В нашем подходе мы используем эти предварительно обученные языковые модели в качестве базовой модели и выполняем трансферное обучение для точной настройки и приведения этих моделей в соответствие с заданной эмоцией.Это помогает производить более эмоционально релевантные реакции в конкретной ситуации.Напротив, работа, проделанная Рашкиным и др. BIBREF3 также использует большие предварительно обученные модели, но их подход основан на задаче seq2seq.Наша работа расширяет область разговорных агентов, применяя подход трансферного обучения для генерации эмоционально релевантных ответов, основанных на эмоциях и ситуативном контексте.Мы обнаружили, что наш подход, основанный на тонкой настройке, превосходит современный подход к автоматизированным метрикам BLEU и недоумения.Мы также показываем, что подход к трансферному обучению помогает давать хорошо продуманные ответы на небольшой корпус диалогов.Рассмотрим пример в таблице TABREF1, в котором показан фрагмент разговора между говорящим и слушателем, основанный на ситуации, представляющей тип эмоций.Наша цель — дать ответы на разговор, которые эмоционально соответствуют изображаемой ситуации и эмоциям.Мы подходим к этой проблеме с помощью подхода языкового моделирования.Мы используем большую предварительно обученную языковую модель в качестве базовой модели для генерации ответов.Эта модель основана на архитектуре преобразователя и использует многоголовый механизм самообслуживания для обработки ранее увиденных токенов слева от нее и создания распределения по целевым токенам.Наша цель — заставить языковую модель $p(y)=p(y_1,y_2,....,y_t;\theta )$ обучаться на новых данных и оценивать условную вероятность $p(y|x)$. Рэдфорд и др. BIBREF10 продемонстрировал эффективность языковых моделей для обучения с нуля в условиях многозадачности.Мы черпаем вдохновение из этого подхода, чтобы обусловить нашу модель переменной, специфичной для задачи, $p(y_t|x,y_{< t})$, где $x$ — это переменная, специфичная для задачи, в данном случае метка эмоции.Мы добавляем условную переменную (эмоция, ситуационный контекст) к диалогу, аналогично подходу Вольфа и др. BIBREF13.Мы гарантируем, что последовательности разделены специальными токенами.В наших экспериментах мы используем набор данных «Эмпатические диалоги», предоставленный Рашкиным и др. НАБЛЮДАТЕЛЬ3.Эмпатические диалоги — это краудсорсинговый набор данных, содержащий диалоги, основанные на эмоциональной ситуации.Набор данных состоит из 32 ярлыков эмоций, включая удивление, возбуждение, злость, гордость, благодарность.Говорящий начинает разговор, используя обоснованную эмоциональную ситуацию, и слушатель реагирует соответствующим образом.В таблице TABREF4 представлены основные статистические данные корпуса.Во всех наших экспериментах мы используем предварительно обученную языковую модель GPT-2.Мы используем общедоступную модель, содержащую 117 миллионов параметров и 12 слоев; каждый слой имеет 12 голов.Мы реализовали наши модели с помощью PyTorch Transformers.Входные предложения маркируются с использованием парного байтового кодирования (BPE) BIBREF14.(размер словаря 50263).При декодировании мы используем подход выборки ядра ($p=0,9$) вместо поиска луча, чтобы преодолеть недостатки поиска луча BIBREF15, BIBREF16.Все наши модели обучаются на одном графическом процессоре TitanV, и точная настройка модели занимает около 2 часов.Точно настроенные модели вместе с файлами конфигурации и кодом будут доступны по адресу: https://github.com/sashank06/CCNLG-emotion. Оценка качества ответов в ситуациях открытого домена, где цель не определена, является важная область исследований.Исследователи использовали такие методы, как BLEU, METEOR BIBREF17, ROUGE BIBREF18, для задач машинного перевода и обобщения текста BIBREF19.BLEU и METEOR основаны на совпадении слов между предлагаемыми и фактическими ответами; они не учитывают адекватно разнообразие ответов, которые возможны для данного входного высказывания, и практически не демонстрируют корреляции с человеческими суждениями BIBREF19.Сообщаем о BLEU BIBREF20и метрика Perplexity (PPL) для сравнения с современными методами.Мы также сообщаем о нашей эффективности, используя другие показатели, такие как длина ответов, полученных с помощью модели.Вслед за Мэй и др. BIBREF21 мы также сообщаем о показателе разнообразия, который помогает нам измерить способность модели способствовать разнообразию в ответах BIBREF22.Разнообразие рассчитывается как количество различных униграмм в генерации, масштабированное по общему количеству сгенерированных токенов BIBREF21, BIBREF1.Мы сообщаем о двух дополнительных автоматизированных показателях читаемости и связности.Читабельность количественно определяет лингвистическое качество текста и сложность понимания текста читателем BIBREF23.Мы измеряем читаемость с помощью Flesch Reading Ease (FRE) BIBREF24, который подсчитывает количество слов, слогов и предложений в тексте.Более высокие оценки читабельности указывают на то, что высказывание легче читать и понимать.Точно так же связность измеряет способность диалоговой системы давать ответы, соответствующие теме разговора.Для расчета когерентности воспользуемся методом, предложеннымДзири и др. BIBREF25. Сначала мы сравниваем эффективность нашего подхода с базовыми результатами, полученными Rashkin et al. BIBREF3, использующий полную преобразовательную архитектуру BIBREF26, состоящую из кодера и декодера.В таблице TABREF9 представлено сравнение нашего подхода с базовым подходом.В таблице TABREF9 мы называем нашу «настроенную модель» базовой точно настроенной моделью GPT-2, обученной на диалоге, а «нашу модель Emo-prepend» — моделью GPT-2, которая точно настроена на диалоги, но также обусловлены эмоциями, проявляемыми в разговоре.Мы обнаружили, что точная настройка языковой модели GPT-2 с использованием подхода трансферного обучения помогает нам добиться меньшего недоумения и более высоких оценок BLEU.Результаты нашего подхода согласуются с эмпирическим исследованием, проведенным Эдуновым и др. BIBREF27, которое демонстрирует, что эффективность использования предварительно обученной модели снижается при ее добавлении в сеть декодера в подходе seq2seq.Мы также проводим сравнение двух наших моделей по показателям длины, разнообразия, читабельности и связности.Мы обнаружили, что наша базовая модель дает менее разнообразные ответы по сравнению с моделью, основанной на эмоциях.Мы обнаружили, что наша модель emo-prepend также имеет несколько более высокий показатель читабельности, чем наша базовая модель.Чтобы оценить качество поколений, мы провели оценку человека MTurk.Мы набрали в общей сложности 15 участников, и каждому участнику было предложено оценить 25 случайно выбранных результатов из тестового набора по трем показателям: Читабельность — является ли ответ простым для понимания, беглым и грамматическим и не содержит ли последовательных повторяющихся слов.Последовательность – соответствует ли ответ контексту разговора.Эмоциональная адекватность. Передает ли ответ эмоции, соответствующие контексту разговора? В таблице TABREF15 показаны результаты, полученные в результате оценки человека, сравнивающей эффективность нашей точно настроенной модели с предварительным определением эмоций и истинного ответа.Мы обнаружили, что наша точно настроенная модель превосходит эмо-добавку по всем трем показателям оценок, полученных от людей.Область диалоговых систем широко изучалась как в ситуациях открытого домена BIBREF28, так и в ситуациях целенаправленного BIBREF29.Существующие подходы к построению диалоговых систем реализуются преимущественно через структуру seq2seq BIBREF0.Однако предыдущие исследования показали, что эти системы склонны выдавать скучные и общие реакции, что влияет на взаимодействие с человеком BIBREF0, BIBREF2.Исследователи решили эту проблему скучных и общих ответов с помощью различных функций оптимизации, таких как MMI BIBREF30, а также подходов к обучению с подкреплением BIBREF31.Альтернативные подходы к созданию более привлекательных ответов заключаются в том, чтобы основывать их на личности говорящих, что позволяет создавать более персонализированные и последовательные ответы BIBREF1, BIBREF32, BIBREF13. Несколько других работ были сосредоточены на создании более привлекательных ответов путем создания аффективных ответов.Одной из ранних работ по включению аффекта посредством языкового моделирования является работа Гоша и др. BIBREF8.В этой работе используется платформа анализа текста LIWC BIBREF33 для определения аффективных функций.Альтернативные подходы к вызову эмоций в сгенерированных ответах с помощью системы seq2seq включают работу Zhou et alBIBREF6, в которой используется внутренняя и внешняя память, Asghar et al. BIBREF5, который моделирует эмоции посредством аффективных вложений, и Huang et al BIBREF7, которые вызывают эмоции посредством конкатенации с входной последовательностью.Совсем недавно внедрение подходов, основанных на преобразователях, помогло улучшить современный уровень техники в решении нескольких задач понимания естественного языка BIBREF26.Эти модели преобразователей также помогли создать большие предварительно обученные языковые модели, такие как BERT BIBREF9, XL-NET BIBREF11, GPT-2 BIBREF10.Однако эти предварительно обученные модели демонстрируют непоследовательное поведение по отношению к генерации языка BIBREF12. В этой работе мы изучаем, как предварительно обученные языковые модели могут быть адаптированы для генерации условного языка на небольших наборах данных.В частности, мы смотрим на то, как обусловить предварительно обученную модель эмоциями ситуации, чтобы получить более эмоциональные реакции, подходящие для конкретной ситуации.Мы замечаем, что наши точно настроенные модели и модели с добавлением эмо превосходят современный подход по сравнению с автоматизированными метриками, такими как BLEU и недоумение в наборе проверки.Мы также замечаем, что подход emo-prepend не превосходит простой подход к точной настройке набора данных.Мы планируем исследовать причину этого в будущей работе с точки зрения лучшего планирования эксперимента для оценки BIBREF34 и анализа фокуса модели, когда эмоция добавляется к последовательности BIBREF35.Наряду с этим мы также замечаем другие недостатки в нашей работе, такие как отсутствие эмоционального классификатора для прогнозирования результата сгенерированного предложения, которые мы планируем устранить в будущей работе.Эта работа была поддержана Агентством перспективных исследовательских проектов Министерства обороны США (DARPA) по контракту № FA8650-18-C-7881.Все утверждения фактов, мнений или выводов, содержащиеся в настоящем документе, принадлежат авторам и не должны быть истолкованы как отражающие официальные взгляды или политику AFRL, DARPA или правительства США.Благодарим анонимных рецензентов за полезные отзывы.
Генерация эмоционального языка — один из ключей к созданию искусственного интеллекта, подобного человеческому. Люди используют разные типы эмоций в зависимости от ситуации разговора. Эмоции также играют важную роль в обеспечении уровня взаимодействия с собеседниками. Однако современные разговорные агенты не могут эффективно учитывать эмоциональное содержание в процессе генерации языка. Чтобы решить эту проблему, мы разрабатываем подход к языковому моделированию, который генерирует аффективное содержание, когда диалог находится в заданном контексте. Для построения наших моделей мы используем недавно выпущенный корпус Empathetic-Dialogues. Путем детальных экспериментов мы обнаружили, что наш подход превосходит современный метод по метрике недоумения примерно на 5 пунктов и обеспечивает более высокий показатель метрики BLEU.
1,788
QasperSumInstruct
ru
Напиши аннотацию по статье
Вычислительный подход к автоматическому прогнозированию сообщений в нетрезвом виде. Повсеместное распространение устройств связи сделало социальные сети очень доступными.Содержимое этих носителей отражает повседневную деятельность пользователя.Сюда входит контент, созданный под воздействием алкоголя.В популярной культуре это называется «пьяными текстовыми сообщениями».В этой статье мы представляем автоматическое «предсказание текстовых сообщений в нетрезвом виде» как вычислительную задачу.Целью твита является автоматическое определение того, был ли он написан пьяным пользователем.Мы называем твиты, написанные под воздействием алкоголя, «пьяными твитами», а противоположное — «трезвыми твитами».Ключевой задачей является получение аннотированного набора данных.Мы используем контроль на основе хэштегов, чтобы авторы твитов упоминали, были ли они пьяны во время публикации твита.Мы создаем три набора данных, используя разные стратегии, связанные с использованием хэштегов.Затем мы представляем классификаторы на основе SVM, которые используют N-граммы и стилистические особенности, такие как использование заглавных букв, орфографические ошибки и т. д.В ходе наших экспериментов мы выявляем тонкие моменты, связанные с: (а) производительностью наших функций, (б) сравнением нашего подхода с человеческой способностью обнаруживать текстовые сообщения в состоянии алкогольного опьянения, (в) наиболее отличительными стилистическим особенностям и (г) ошибкой. анализ, который указывает на будущую работу.Насколько нам известно, это первое исследование, которое показывает возможность анализа текста для прогнозирования текстовых сообщений в нетрезвом виде.Предыдущие исследования показывают связь между злоупотреблением алкоголем и асоциальным поведением, таким как агрессия BIBREF0, преступность BIBREF1, попытки самоубийства BIBREF2, вождение в нетрезвом виде BIBREF3 и рискованное сексуальное поведение BIBREF4.самоубийства заявляют, что «лица, ответственные за оценку случаев попыток самоубийства, должны уметь выявлять злоупотребление алкоголем».Таким образом, система прогнозирования текстовых сообщений в состоянии алкогольного опьянения может использоваться для выявления лиц, склонных к такому поведению, или в целях расследования после инцидента.Текстовые сообщения в нетрезвом виде также могут вызвать сожаление.Mail Goggles предлагает пользователю решить математические вопросы перед отправкой электронного письма вечером в выходные дни.Некоторые приложения Android позволяют избежать текстовых сообщений в нетрезвом виде, блокируя исходящие текстовые сообщения одним нажатием кнопки.Однако, насколько нам известно, для начала блокировки этим инструментам требуется команда пользователя.Постоянный текстовый анализ будет более полезным, особенно потому, что он предлагает более естественную настройку, отслеживая поток текста в социальных сетях, а не явно обращаясь к пользователю.Таким образом, автоматическое прогнозирование текстовых сообщений в нетрезвом виде улучшит системы, призванные избежать прискорбных текстовых сообщений в нетрезвом виде.Насколько нам известно, наше исследование является первым, в котором проводится количественный анализ с точки зрения прогнозирования состояния опьянения с использованием текстовых подсказок.В нескольких исследованиях изучались лингвистические особенности, связанные с выражением эмоций и проблемами психического здоровья, суицидальным характером, криминальным статусом и т. д. BIBREF5, BIBREF6.Методы НЛП использовались в прошлом для решения проблем социальной безопасности и психического здоровья. BIBREF7. Прогнозирование текстовых сообщений в нетрезвом виде — это задача классификации текста как пьяного или трезвого.Например, твит «Чувствую себя возбужденным.«Не могу вспомнить, как прошел вечер» следует прогнозировать как «пьяный», тогда как фразу «Вернулся сегодня с работы поздно, на дороге было плохо» следует прогнозировать как «трезвый».Проблемы заключаются в следующем: для создания наборов данных мы используем контроль на основе хэштегов, аналогичный таким задачам, как классификация эмоций BIBREF8.Твиты загружаются с помощью Twitter API (https://dev.twitter.com/).Мы удаляем символы, отличные от Юникода, и удаляем твиты, содержащие гиперссылки, а также твиты длиной менее 6 слов.Наконец, хэштеги, используемые для обозначения твитов в нетрезвом или пьяном виде, удаляются, чтобы они служили ярлыками, но не выступали в качестве функций.Набор данных доступен по запросу.В результате мы создаем три набора данных, каждый из которых использует разную стратегию для трезвых твитов, а именно: Пьяные твиты для наборов данных 1 и 2 одинаковы.На рисунке FigREF9 показано облако слов для этих пьяных твитов (с удаленными стоп-словами и формами слова «пьяный»), созданное с помощью WordItOut.Размер слова указывает на его частоту.Помимо актуальных слов, таких как «бар», «бутылка» и «вино», в облаке слов отображаются сентиментальные слова, такие как «любовь» или «черт», а также ненормативная лексика.Для создания набора данных можно было бы использовать эвристики, отличные от этих хэштегов.Например, временные метки были хорошим вариантом для учета времени публикации твита.Однако это невозможно было использовать, поскольку местное время пользователя было недоступно, поскольку очень немногие пользователи включили геолокацию.Полный набор функций показан в таблице TABREF7.Существует два набора функций: (а) особенности N-граммы и (б) стилистические особенности.Мы используем униграммы и биграммы в качестве функций N-грамм, учитывая как наличие, так и количество.В таблице TABREF7 показан полный набор стилистических особенностей нашей системы прогнозирования.Коэффициенты POS — это набор функций, которые записывают долю каждого тега POS в наборе данных (например, долю существительных/прилагательных и т. д.).Теги POS и упоминания именованных объектов получаются из NLTK BIBREF9.Коннекторы дискурса идентифицируются на основе списка, созданного вручную.Орфографические ошибки выявляются с помощью проверки орфографии enchant.Функция повторяющихся символов фиксирует ситуацию, в которой слово содержит букву, повторяющуюся три или более раз, как в случае со словом «счастливый».Поскольку текстовые сообщения в нетрезвом виде часто связаны с эмоциональным выражением, мы также включаем набор функций, основанных на сантиментах.Эти функции включают в себя: количество/наличие смайлов и соотношение тонов.Соотношение настроений — это соотношение положительных и отрицательных слов в твите.Чтобы определить положительные и отрицательные слова, мы используем словарь настроений в mpqa.Чтобы определить более точный набор слов, соответствующих этим двум классам, мы также оценили 20 тем для набора данных, оценив модель LDA BIBREF10.Затем мы рассматриваем 10 лучших слов по каждой теме для обоих классов.В результате получается 400 униграмм, специфичных для LDA, которые затем используются в качестве функций.Используя два набора функций, мы обучаем классификаторы SVM BIBREF11.Мы показываем пятикратную эффективность перекрестной проверки наших функций на наборах данных 1 и 2 в разделе SECREF17 и на наборе данных H в разделе SECREF21.Раздел SECREF22 представляет анализ ошибок.Точность, положительная/отрицательная точность и положительный/отрицательный отзыв показаны как A, PP/NP и PR/NR соответственно.«Пьяный» образует положительный класс, а «Трезвый» — отрицательный.В таблице TABREF14 показана производительность пятикратной перекрестной проверки для наборов данных 1 и 2.В случае набора данных 1 мы наблюдаем, что характеристики N-грамм достигают точности 85,5%.Мы видим, что одни только наши стилистические особенности демонстрируют ухудшение производительности с точностью 75,6% в случае набора данных 1.В таблице TABREF16 показаны основные стилистические особенности при обучении на двух наборах данных.Орфографические ошибки, коэффициенты POS для существительных (POS_NOUN), коэффициенты длины и тональности отображаются в обоих списках, помимо униграмм на основе LDA.Однако количество негативных воспоминаний снижается всего до 3,2%.Это ухудшение означает, что наши функции фиксируют подмножество пьяных твитов и что у пьяных твитов есть свойства, которые могут быть более тонкими.Когда используются и N-грамма, и стилистические особенности, улучшение незначительно.Точность набора данных 2 увеличивается с 77,9% до 78,1%.Показатели точности/отзыва также существенно не меняются.Наилучшая точность нашего классификатора составляет 78,1% по всем признакам и 75,6% по стилистическим признакам.Это показывает, что текстовые подсказки действительно можно использовать для прогнозирования текстовых сообщений в нетрезвом виде.Используя имеющийся набор данных H, мы оцениваем, как наша система работает по сравнению с людьми.Три аннотатора, A1-A3, помечают каждый твит в наборе данных H как пьяный или трезвый.Таблица TABREF19 показывает умеренное согласие между нашими аннотаторами (например, оно составляет 0,42 для A1 и A2).Таблица TABREF20 сравнивает наш классификатор с людьми.Наши аннотаторы-люди выполняют задачу со средней точностью 68,8%, а наш классификатор (со всеми функциями), обученный на наборе данных 2, достигает 64%.Классификатор, обученный на наборе данных 2, лучше, чем тот, который обучен на наборе данных 1. Некоторые категории возникающих ошибок: Неправильный контроль хэштегов: твит «Не могу поверить, что я потерял свою сумку вчера вечером, в ней буквально было все!»Слава богу, бармен нашел это», было отмечено «#Пьяный».Однако этот твит, скорее всего, не будет твитом о пьянстве, а описывает эпизод в состоянии алкогольного опьянения в ретроспективе.Наш классификатор прогнозирует его как трезвого.На первый взгляд трезвые твиты: люди-комментаторы, а также наш классификатор не могли определить, «пригласите ли вы ее на свидание?»Но на самом деле ты ей нравишься» был пьян, хотя автор твита так и отметил это.Этот пример также подчеркивает сложность прогнозирования текстовых сообщений в нетрезвом виде.Прагматическая трудность: твит «Национальная одежда Ирландии — это блевотина… моя семья прекрасна» был правильно идентифицирован нашими комментаторами как пьяный твит.Этот твит содержит элемент юмора и смену темы, но наш классификатор не смог это уловить.В этой статье мы представляем автоматическое прогнозирование текстовых сообщений в нетрезвом виде как задачу прогнозирования твита как пьяного или трезвого.Во-первых, мы обосновываем необходимость прогнозирования текстовых сообщений в нетрезвом виде как средства выявления рискованного социального поведения, возникающего в результате злоупотребления алкоголем, а также необходимость создания инструментов, позволяющих избежать утечек конфиденциальности из-за текстовых сообщений в нетрезвом виде.Затем мы подчеркиваем проблемы прогнозирования текстовых сообщений в нетрезвом виде: одна из проблем — выбор негативных примеров (трезвых твитов).Используя контроль на основе хэштегов, мы создаем три набора данных с пометками «пьяный» или «трезвый».Затем мы представляем классификаторы на основе SVM, которые используют два набора функций: N-грамму и стилистические функции.Наша система прогнозирования состояния алкогольного опьянения имеет максимальную точность — 78,1%.Мы наблюдаем, что наши стилистические особенности добавляют незначительную ценность к особенностям N-граммы.Мы используем наш сохраненный набор данных, чтобы сравнить эффективность нашей системы с людьми-аннотаторами.В то время как люди-аннотаторы достигают точности 68,8%, наша система достигает достаточно близкого значения и работает с максимальной точностью 64%. Наш анализ задачи и экспериментальные результаты подтверждают, что прогнозирование текстовых сообщений в нетрезвом виде является полезным и осуществимым приложением НЛП.
Злоупотребление алкоголем может привести к асоциальному поведению, например к преступлению, вождению в нетрезвом виде или утечке конфиденциальной информации. Мы представляем автоматическое прогнозирование текстовых сообщений в нетрезвом виде как задачу определения того, был ли текст написан в состоянии алкогольного опьянения. Мы экспериментируем с твитами, помеченными хэштегами как дистанционный контроль. Наши классификаторы используют набор N-грамм и стилистических функций для обнаружения пьяных твитов. Наши наблюдения представляют собой первые количественные доказательства того, что текст содержит сигналы, которые можно использовать для обнаружения текстовых сообщений в состоянии алкогольного опьянения.
1,800
QasperSumInstruct
ru
Напиши аннотацию по статье
VQABQ: визуальный ответ на базовые вопросы. Визуальный ответ на вопросы (VQA) — это сложная и молодая область исследований, которая может помочь машинам достичь одной из конечных целей в области компьютерного зрения — целостного понимания сцены BIBREF1.VQA — это задача компьютерного зрения: системе задается произвольный текстовый вопрос об изображении, а затем она должна вывести текстовый ответ на заданный вопрос об изображении.Данный вопрос может содержать множество подзадач компьютерного зрения, например: «Кроме того, в нашей реальной жизни есть много более сложных вопросов, которые можно задать».Таким образом, в некотором смысле VQA можно рассматривать как важную задачу фундаментальных исследований в области компьютерного зрения.Из вышеперечисленных подзадач компьютерного зрения мы можем понять, что если мы хотим получить целостное понимание сцены за один шаг, это, вероятно, будет слишком сложно.Итак, мы пытаемся разделить целостную задачу понимания сцены на множество подзадач в компьютерном зрении.Концепция разделения задач вдохновляет нас на выполнение визуального ответа на базовые вопросы (VQABQ), как показано на рисунке 1.Это означает, что в VQA мы можем разделить вопрос запроса на несколько основных вопросов, а затем использовать эти основные вопросы, чтобы помочь нам ответить на основной вопрос запроса.С 2014 года достигнут большой прогресс в проектировании систем с возможностями VQA BIBREF2, BIBREF0, BIBREF3, BIBREF4, BIBREF5, BIBREF6.Что касается этих работ, мы можем рассматривать большинство из них как работы VQA с визуальным вниманием, потому что большинство из них прилагают много усилий к работе с изображением, а не с текстовой частью.Однако в последнее время появилось несколько работ BIBREF7, BIBREF8, в которых делается попытка приложить больше усилий к вопросу.В BIBREF8 авторы предложили механизм обновления представления вопроса (QRU) для обновления исходного вопроса запроса и повышения точности алгоритма VQA.Как правило, проблема VQA сильно зависит от изображения и вопроса, поэтому мы должны уделять одинаковое внимание как изображению, так и вопросу, а не только одному из них.В действительности, когда у людей есть изображение и задан вопрос об изображении, мы обычно замечаем ключевые слова вопроса, а затем пытаемся сосредоточиться на некоторых частях изображения, связанных с вопросом, чтобы дать ответ.Таким образом, уделять одинаковое внимание обеим частям — более разумный способ выполнить VQA.В BIBREF7 авторы предложили механизм совместного внимания, совместно использующий информацию о визуальном и вопросительном внимании, для VQA и достигли современной точности.Механизм совместного внимания вдохновляет нас на создание части нашей модели VQABQ, показанной на рисунке 2.В модели VQABQ есть два основных модуля: базовый модуль генерации вопросов (Модуль 1) и модуль визуального ответа на вопросы с совместным вниманием (Модуль 2).Мы берем вопрос запроса, называемый основным вопросом (MQ), закодированный векторами пропуска мыслей BIBREF9, в качестве входных данных Модуля 1.В модуле 1 мы кодируем все вопросы, также с помощью векторов пропуска мысли, из обучающих и проверочных наборов набора данных VQA BIBREF0 в виде матрицы базовых вопросов (BQ) размером 4800 на 215623, а затем решаем задачу оптимизации LASSO, с MQ, чтобы найти 3 BQ MQ.Эти BQ являются выходными данными модуля 1.Более того, мы берем MQ, BQ и данное изображение в качестве входных данных модуля 2, модуля VQA с механизмом совместного внимания, а затем он может вывести окончательный ответ MQ.Мы утверждаем, что BQ может помочь Модулю 2 получить правильный ответ и повысить точность VQA.Наш основной вклад в эту работу суммирован ниже: Остальная часть статьи организована следующим образом.Впервые мы поговорим о мотивации этой работы в разделе 2.В разделе 3 мы рассматриваем соответствующую работу, а затем в разделе 4 кратко представлен предлагаемый набор данных VQABQ.Подробную методологию мы обсудим в разделе 5.Наконец, экспериментальные результаты продемонстрированы в разделе 6. Следующие две важные причины побуждают нас использовать визуальный ответ на основные вопросы (VQABQ).Во-первых, в последнее время в большинстве работ VQA больше внимания уделяется только графической части, визуальным особенностям, но меньше внимания уделяется вопросительной части, текстовым функциям.Однако для VQA важны как характеристики изображения, так и вопросы.Если мы сосредоточимся только на одном из них, мы, вероятно, не сможем добиться хороших показателей VQA в ближайшем будущем.Поэтому нам следует прилагать больше усилий к обоим из них одновременно.В BIBREF7 они предложили новый механизм совместного внимания, который совместно выполняет внимание к вопросам, управляемое изображениями, и внимание к изображениям, управляемым вопросами, для VQA.BIBREF7 также предложил иерархическую архитектуру для представления вопроса и построения карт совместного внимания изображение-вопрос на уровне слов, фраз и вопросов.Затем эти функции совместного присутствия рекурсивно комбинируются с уровнем слов, уровнем фраз и уровнем вопросов для прогнозирования окончательного ответа на вопрос запроса на основе входного изображения.BIBREF8 также является недавней работой, посвященной текстовой части вопроса и текстовой функции.В BIBREF8 они представили сеть рассуждений для итеративного обновления представления вопроса после того, как вопрос каждый раз взаимодействует с содержимым изображения.Обе BIBREF7 и BIBREF8 дают лучшую производительность, чем предыдущие работы, поскольку прикладывают больше усилий к части вопросов.Во-вторых, в нашей жизни, когда люди пытаются решить сложную задачу, они обычно пытаются разделить эту проблему на несколько небольших базовых задач, которые обычно проще исходной задачи.Итак, почему бы нам не применить эту концепцию разделения к входному вопросу VQA?Если мы сможем разделить входной основной вопрос на несколько основных вопросов, то это поможет текущему алгоритму VQA достичь более высокой вероятности получить правильный ответ на основной вопрос.Таким образом, наша цель в этой статье — попытаться сгенерировать основные вопросы входного вопроса, а затем использовать эти вопросы с заданным изображением, чтобы помочь алгоритму VQA получить правильный ответ на входной вопрос.Обратите внимание, что мы можем рассматривать сгенерированные базовые вопросы как дополнительную полезную информацию для алгоритма VQA.В последнее время во многих статьях BIBREF0, BIBREF10, BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16 предложены методы решения проблемы VQA.Наш метод охватывает различные области машинного обучения, обработки естественного языка (НЛП) и компьютерного зрения.Ниже мы обсуждаем недавние работы, связанные с нашим подходом к решению проблемы VQA.Последовательное моделирование с помощью рекуррентных нейронных сетей.Рекуррентные нейронные сети (RNN) могут обрабатывать последовательности гибкой длины.Долгосрочная краткосрочная память (LSTM) BIBREF17 — это особый вариант RNN, и в задачах на естественном языке, таких как машинный перевод BIBREF18, BIBREF19, LSTM является успешным применением.В BIBREF14 авторы используют RNN и сверточную нейронную сеть (CNN) для построения алгоритма генерации вопросов, но сгенерированный вопрос иногда имеет неверную грамматику.Входные данные в BIBREF3 представляют собой объединение каждого встраивания слов с одним и тем же вектором признаков изображения.BIBREF6 кодирует входное вопросительное предложение с помощью LSTM и присоединяет функцию изображения к окончательному выводу.BIBREF13 группирует соседние слова и изображения, выполняя свертку.В BIBREF20 вопрос кодируется с помощью GRU (GRU) BIBREF21, аналогично LSTM, и авторы также вводят уровень динамических параметров в CNN, веса которого адаптивно прогнозируются с помощью функции закодированного вопроса.Кодировка предложения.Чтобы проанализировать взаимосвязь между словами, фразами и предложениями, в нескольких работах, таких как BIBREF22, BIBREF9, BIBREF23, были предложены методы отображения текста в векторное пространство.Получив векторное представление текста, мы можем использовать навыки векторного анализа для анализа взаимосвязей между текстом.BIBREF22, BIBREF23 пытаются сопоставить слова с векторным пространством, и если слова имеют общий контекст в корпусе, их закодированные векторы будут близки друг к другу в векторном пространстве.В BIBREF9 авторы предлагают структуру моделей кодировщика-декодера, называемую пропуском мыслей.В этой модели авторы используют кодер RNN с активациями GRU BIBREF21 и декодер RNN с условным GRU BIBREF21.Поскольку в модели пропуска мыслей больше внимания уделяется кодированию всего предложения, в нашей работе мы кодируем все вопросительные предложения в векторное пространство с помощью модели пропуска мыслей и используем эти векторы пропуска мыслей для дальнейшего анализа вопросительных предложений.Подпись к изображению.В некотором смысле VQA связан с подписями к изображениям BIBREF24, BIBREF25, BIBREF26, BIBREF27.BIBREF27 использует языковую модель для объединения набора возможных слов, обнаруженных в нескольких областях изображения, и создания описания изображения.В BIBREF26 авторы используют CNN для извлечения функций изображения высокого уровня и рассматривают их как первый вход рекуррентной сети для создания подписи к изображению.BIBREF24 предлагает алгоритм для генерации одного слова за раз, обращая внимание на локальные области изображения, связанные с предсказанным в данный момент словом.В BIBREF25 глубокая нейронная сеть может научиться встраивать языковую и визуальную информацию в общее мультимодальное пространство.Однако текущие алгоритмы подписи к изображению могут генерировать только грубое описание изображения, и не существует так называемой подходящей метрики для оценки качества подписи к изображению, хотя для оценки подписи к изображению можно использовать BLEU BIBREF28.VQA на основе внимания. Существует несколько моделей VQA, способных фокусироваться на определенных областях изображения, связанных с входным вопросом, путем интеграции механизма внимания к изображению BIBREF10, BIBREF11, BIBREF29, BIBREF8.В BIBREF8 на этапе объединения авторы используют механизм внимания к изображениям, чтобы помочь определить релевантность между исходными и обновленными вопросами.До BIBREF7 ни одна работа не применяла механизм языкового внимания к VQA, но исследователи НЛП моделировали языковое внимание.В BIBREF7 авторы предлагают механизм совместного внимания, который совместно осуществляет языковое внимание и внимание к изображениям.Поскольку в VQA важна как информация о вопросе, так и информация об изображении, в нашей работе мы вводим механизм совместного внимания в нашу модель VQABQ.Мы предлагаем новый набор данных, называемый базовым набором данных вопросов (BQD), созданный с помощью нашего базового алгоритма генерации вопросов.BQD — это первый базовый набор данных для вопросов.Что касается BQD, формат набора данных: $\lbrace Image,~MQ,~3~(BQ + соответствующая~оценка сходства)\rbrace $ .Все наши изображения взяты из тестовых изображений набора данных MS COCO BIBREF30, основные вопросы MQ — из тестовых вопросов VQA, открытого набора данных BIBREF0, базовые вопросы BQ — из вопросов обучения и проверки VQA, открытый набор данных BIBREF0 и соответствующая оценка сходства BQ генерируются с помощью нашего основного метода генерации вопросов, см. раздел 5.Более того, мы также используем вопросы с несколькими вариантами ответов в наборе данных VQA BIBREF0, чтобы сделать то же самое, что и выше.Обратите внимание, что мы удаляем повторяющиеся вопросы из набора данных VQA, поэтому общее количество вопросов немного меньше, чем в наборе данных VQA BIBREF0.В BQD у нас есть 81434 изображения, 244302 MQ и 732906 (BQ + соответствующий показатель сходства).В то же время мы также используем BQD для проведения VQA и достижения конкурентоспособной точности по сравнению с современными технологиями.В разделе 5 мы в основном обсуждаем, как кодировать вопросы и генерировать BQ, а также почему мы используем алгоритм механизма совместного внимания VQA BIBREF7 для ответа на вопрос запроса.Общую архитектуру нашей модели VQABQ можно увидеть на рисунке 2.Модель состоит из двух основных частей: Модуль 1 и Модуль 2.Что касается модуля 1, он принимает закодированный MQ в качестве входных данных и использует матрицу закодированного BQ для вывода BQ вопроса запроса.Затем Модуль 2 представляет собой алгоритм VQA с механизмом совместного внимания BIBREF7, который принимает выходные данные Модуля 1, MQ, и данное изображение в качестве входных данных, а затем выводит окончательный ответ MQ.Подробную архитектуру модуля 1 можно увидеть на рисунке 2. Существует множество популярных кодировщиков текста, таких как Word2Vec BIBREF23, GloVe BIBREF22 и Skip-Thoughts BIBREF9.В этих кодировщиках Skip-Thoughts может фокусироваться не только на пословном значении, но и на семантическом значении всего предложения.Итак, мы выбираем Skip-Thoughts в качестве метода кодирования вопросов.В модели Skip-Thoughts используется кодировщик RNN с активациями GRU BIBREF21, а затем мы используем этот кодировщик для преобразования английского предложения в вектор.Что касается GRU, было показано, что он работает так же хорошо, как LSTM BIBREF17, в приложениях моделирования последовательностей, но концептуально проще, поскольку блоки GRU имеют только 2 вентиля и не требуют использования ячейки.Кодировщик вопросов.Пусть $w_{i}^{1},...,w_{i}^{N}$ — слова в вопросе $s_{i}$, а N — общее количество слов в $s_{i}$ .Обратите внимание, что $w_{i}^{t}$ обозначает $t$-ое слово для $s_{i}$, а $\mathbf {x}_{i}^t$ обозначает вложение его слова.Кодировщик вопросов на каждом временном шаге генерирует скрытое состояние $\mathbf {h}_{i}^{t}$ .Его можно рассматривать как представление последовательности $w_{i}^{1},..., w_{i}^{t}$ .Итак, скрытое состояние $\mathbf {h}_{i}^{N}$ может представлять весь вопрос.Для удобства здесь мы опускаем индекс $s_{i}$0 и повторяем следующие последовательные уравнения для кодирования вопроса: $$\mathbf {r}^{t}~=~\sigma (\mathbf {U}_{r }\mathbf {h}^{t-1}+\mathbf {W}_{r}\mathbf {x}^{t})$$ (уравнение 12) $$\mathbf {z}^{t} ~=~\sigma (\mathbf {U}_{z}\mathbf {h}^{t-1}+\mathbf {W}_{z}\mathbf {x}^{t})$$ (уравнение .13) , где $\mathbf {U}_{r}$ , $\mathbf {U}_{z}$ , $\mathbf {W}_{r}$ , $\mathbf {W}_{z }$ , $\mathbf {U}$ и $\mathbf {W}$ — матрицы весовых параметров.$\bar{\mathbf {h}}^{t}$ — обновление состояния на временном шаге $t$, $\mathbf {r}^{t}$ — вентиль сброса, $\odot $ обозначает элемент- мудрый продукт, а $\mathbf {U}_{z}$0 — это ворота обновления.Эти два вентиля обновления принимают значения от нуля до единицы.Наша идея — генерация BQ для MQ, и в то же время мы хотим, чтобы MQ представляло только минимальное количество BQ, поэтому моделирование нашей проблемы как задачи оптимизации $LASSO$ является подходящим способом: $$\min _{\ mathbf {x}}~\frac{1}{2}\left\Vert A\mathbf {x}-\mathbf {b} \right\Vert _{2}^{2}+\lambda \left\Vert \ mathbf {x} \right\Vert _{1}$$ (уравнение 17) , где $A$ — матрица закодированного BQ, $\mathbf {b}$ — закодированный MQ, а $\lambda $ — параметр срока регуляризации.Теперь мы опишем, как сгенерировать BQ вопроса запроса, как показано на рисунке 2.Обратите внимание, что ниже мы описываем только случай открытого вопроса, поскольку случай с множественным выбором такой же, как и случай с открытым вопросом.Согласно разделу 5.2, мы можем закодировать все вопросы из вопросов обучения и проверки набора данных VQA BIBREF0 с помощью векторов пропуска мысли, а затем у нас есть матрица этих закодированных основных вопросов.Каждый столбец матрицы представляет собой векторное представление основного вопроса размером 4800 на 1, и у нас есть 215623 столбца.То есть размерность матрицы BQ, называемой $A$, равна 4800 на 215623.Кроме того, мы кодируем вопрос запроса как вектор-столбец размером 4800 на 1 с помощью векторов пропуска мысли, называемых $\mathbf {b}$ .Теперь мы можем решить задачу оптимизации $LASSO$, упомянутую в разделе 5.3, и получить решение $\mathbf {x}$ .Здесь мы рассматриваем элементы в векторе решения $\mathbf {x}$ как веса соответствующего BQ в матрице BQ, $A$.Первый элемент $\mathbf {x}$ соответствует первому столбцу, то есть первому BQ, $A$ .Затем мы ранжируем все веса в $\mathbf {x}$ и выбираем три верхних больших веса с соответствующим BQ, которые будут BQ вопроса запроса.Интуитивно, поскольку BQ важны для MQ, веса BQ также можно рассматривать как показатели важности, а BQ с большим весом означает более важное значение для MQ.Наконец, мы находим BQ всех 142093 вопросов тестирования из набора данных VQA и собираем их вместе в формате $\lbrace Image,~MQ,~3~(BQ + соответствующая~ оценка сходства)\rbrace $ , как BQD в Раздел 4. В этом разделе мы предлагаем критерий использования этих BQ.В BQD каждому MQ соответствует три BQ со значениями.Мы можем иметь следующий формат: $\lbrace MQ,(BQ1,~score1),(BQ2,~score2),(BQ3,~score3)\rbrace $ , и все эти оценки находятся в диапазоне от 0 до 1 в следующем порядке: $$score1\ge Score2\ge Score3$$ (уравнение 20) и мы определяем три порога: $s1$ , $s2$ и $s3$ .Кроме того, мы вычисляем следующие 3 средних значения ( $avg$ ) и 3 стандартных отклонения ( $std$ ) для $score1$ , $score2/score1$ и $score3/score2$ соответственно, а затем используем $avg \pm std$ , согласно Таблице 3, является первоначальным предположением о правильных пороговых значениях.Процесс использования BQ можно объяснить с помощью Таблицы 1.Подробное обсуждение алгоритма конкатенации BQ описано в разделе 6.4. Существует два типа механизма совместного внимания BIBREF7: параллельный и чередующийся.В нашей модели VQABQ мы используем только алгоритм VQA с механизмом переменного совместного внимания в качестве нашего модуля VQA, как показано на рисунке 2, потому что в BIBREF7 модуль VQA с альтернативным механизмом совместного внимания может получить более высокую точность, чем параллельный.Более того, мы хотим сравнить с методом VQA, Alternating, с более высокой точностью в BIBREF7.В механизме попеременного совместного внимания он последовательно чередует создание вопросов и внимание изображений.То есть этот механизм состоит из трех основных шагов: во-первых, входной вопрос суммируется в один вектор $\mathbf {q}$ . Во-вторых, внимание к заданному изображению зависит от $\mathbf {q}$ . В-третьих, внимание Вопрос зависел от присутствующей особенности изображения.Мы можем определить $\hat{\mathbf {x}}$ — оператор внимания, который является функцией $\mathbf {X}$ и $\mathbf {g}$ .Этот оператор принимает функцию вопроса (или изображения) $\mathbf {X}$ и направляющую внимания $\mathbf {g}$, полученную из изображения (или вопроса), в качестве входных данных, а затем выводит вектор рассматриваемого вопроса (или изображения).Мы можем объяснить вышеуказанную операцию следующими шагами: $$\mathbf {H}~=~\rm {tanh}(\mathbf {W}_{x}\mathbf {X}+(\mathbf {W}_{ g}g)\mathbf {1}^{T})$$ (уравнение 26) $$\mathbf {a}^{x}~=~\rm {softmax}(\mathbf {w}_{hx} ^{T}\mathbf {H})$$ (уравнение 27) , где $\mathbf {a}^{x}$ — вес внимания функции $\mathbf {X}$ , $\mathbf {1} $ — вектор, все элементы которого равны 1, а $\mathbf {W}_{g}$, $\mathbf {W}_{x}$ и $\mathbf {w}_{hx}$ — матрицы параметров.Конкретно, на первом этапе механизма попеременного совместного внимания $\mathbf {g}$ равен 0 и $\mathbf {X} = \mathbf {Q}$ .Затем, на втором этапе, $\mathbf {X} = \mathbf {V}$, где $\mathbf {V}$ — это характеристики изображения, а направляющий выступ, $\mathbf {g}$ — это промежуточный элемент посещаемого вопроса, $\hat{s}$ , который взят из первого шага.На последнем этапе он использует функцию посещаемого изображения $\hat{v}$ в качестве руководства для повторного ответа на вопрос.То есть $\mathbf {X} = \mathbf {Q}$ и $\mathbf {g} = \hat{v}$ .InВ разделе 6 мы описываем детали нашей реализации и обсуждаем результаты эксперимента по предлагаемому методу.Мы проводим эксперименты на наборе данных VQA BIBREF0.Набор данных VQA основан на наборе данных MS COCO BIBREF30 и содержит наибольшее количество вопросов.Есть вопросы, 248349 для обучения, 121512 для проверки и 244302 для тестирования.В наборе данных VQA каждый вопрос связан с 10 ответами, аннотированными разными людьми из Amazon Mechanical Turk (AMT).Около 98% ответов не превышают трех слов и 90% ответов состоят из отдельных слов.Обратите внимание, что мы тестируем наш метод только на открытом случае в наборе данных VQA, потому что он содержит больше всего открытых вопросов среди всего доступного набора данных, и мы также считаем, что открытая задача ближе к реальной ситуации, чем задача с множественным выбором.Чтобы доказать наше утверждение о том, что BQ может повысить точность и сравнить его с современным методом VQA BIBREF7, в нашем Модуле 2 мы используем те же настройки, набор данных и исходный код, упомянутые в BIBREF7.Далее, Модуль 1 модели VQABQ — это наш основной модуль генерации вопросов.Другими словами, в нашей модели единственное отличие от BIBREF7 — это модуль 1, показанный на рисунке 2.VQA.Набор данных предоставляет для оценки неограниченную задачу с множественным выбором.Что касается открытого задания, то ответом может быть любая фраза или слово.Однако в задании с множественным выбором ответ следует выбрать из 18 вариантов ответов.В обоих случаях ответы оцениваются по точности, которая может отражать консенсус людей.Точность определяется следующим образом: $$Accuracy_{_{VQA}}=\frac{1}{N}\sum _{i=1}^{N}\min \left\lbrace \frac{\sum _ {t\in T_{i}}\mathbb {I}[a_{i}=t]}{3},1 \right\rbrace $$ (уравнение 36) , где $N$ — общее количество примеров , $\mathbb {I}[\cdot ]$ обозначает индикаторную функцию, $a_{i}$ — предсказанный ответ, а $T_{i}$ — множество ответов примера $i^{th}$.То есть прогнозируемый ответ считается правильным, если с ним согласны хотя бы 3 аннотатора, а оценка зависит от общего количества соглашений, когда прогнозируемый ответ неверен.Здесь мы описываем наши окончательные результаты и анализ по следующим частям: Помогает ли основной вопрос точности?Ответ: да.Здесь мы обсуждаем только открытый случай.В нашем эксперименте мы используем $avg\pm std$, ссылаясь на Таблицу 3, как начальное предположение о правильных порогах s1, s2 и s3 в Таблице 1.Мы обнаружили, что когда s1 = 0,43, s2 = 0,82 и s3 = 0,53, мы можем добиться более эффективного использования BQ.Порог s1 = 0,43 можно рассматривать как 43% вопросов тестирования из набора данных VQA, в которых не удается найти базовый вопрос, из обучающего и проверочного наборов набора данных VQA, и только 57% вопросов тестирования могут найти базовые вопросы.Обратите внимание, что мы объединяем наборы данных для обучения и проверки из набора данных VQA, чтобы получить наш базовый набор данных для вопросов.Что касается s2 = 0,82, это означает, что 82% из этих 57% вопросов тестирования, т.е. 46,74%, могут найти только 1 базовый вопрос, а 18% из этих 57% вопросов тестирования, т.е. 10,26%, могут найти как минимум 2 основных вопроса.Кроме того, s3 = 0,53 означает, что 53% из этих 10,26% тестовых вопросов, то есть около 5,44%, могут найти только 2 основных вопроса, а 47% из этих 10,26% тестовых вопросов, то есть около 4,82%, могут найти 3 основных вопроса.Вышеупомянутую информацию можно сослаться на Таблицу 2. Согласно Таблице 2, 43% вопросов тестирования из набора данных VQA не могут найти правильные базовые вопросы в наборах данных обучения и проверки VQA, и в Таблице 6 есть несколько неудачных примеров в этом случае.Мы также обнаружили, что многие вопросы в наборах данных для обучения и проверки VQA практически одинаковы.Эта проблема уменьшает разнообразие набора данных базовых вопросов.Хотя у нас есть только 57% вопросов тестирования, которые могут улучшить базовые вопросы, наш метод все же может улучшить современную точность BIBREF7 с 60,32% до 60,34%, ссылаясь на Таблицы 4 и 5.Тогда у нас есть 142093 тестовых вопроса, это означает, что количество правильных ответов на вопросы нашего метода больше, чем 28 вопросов современного метода.Другими словами, если у нас есть достаточно хороший набор данных для базовых вопросов, мы можем еще больше повысить точность, особенно в вопросах типа подсчета, ссылаясь на Таблицы 4 и 5.Поскольку механизм совместного внимания хорошо справляется с локализацией, вопрос типа «счет» улучшается больше, чем другие.Итак, основываясь на нашем эксперименте, мы можем сделать вывод, что основной вопрос, очевидно, может повысить точность.Сравнение с современным.Недавно BIBREF7 предложил механизм совместного внимания в VQA и получил самую современную точность.Однако когда мы используем их код и ту же установку, упомянутую в их статье, для повторного запуска эксперимента, мы не можем получить ту же точность, о которой сообщается в их работе.Результаты повторного запуска представлены в Таблице 5.Таким образом, при честных условиях наш метод конкурентоспособен по сравнению с современными методами.В этой статье мы предлагаем модель VQABQ для визуального ответа на вопросы.Модель VQABQ состоит из двух основных модулей: модуля генерации базовых вопросов и модуля VQA совместного внимания.Первый может генерировать основные вопросы для вопроса запроса, а второй может использовать изображение, основной вопрос и вопрос запроса в качестве входных данных, а затем выводить текстовый ответ на вопрос запроса.Согласно разделу 6.4, поскольку базовый набор данных вопросов, созданный на основе набора данных VQA, недостаточно хорош, у нас есть только 57% всех вопросов тестирования, которые могут получить пользу от базовых вопросов.Тем не менее, мы все еще можем увеличить количество правильных ответов на 28 вопросов по сравнению с современным состоянием.Мы считаем, что если наш базовый набор данных вопросов достаточно хорош, прирост точности будет намного больше.Согласно предыдущим современным методам VQA, все они получили высочайшую точность в вопросах типа Да/Нет.Итак, как эффективно использовать только базовые вопросы типа «да/нет» для проведения VQA, будет интересной работой, проиллюстрированной рис. 3.Кроме того, как генерировать другие конкретные типы базовых вопросов на основе вопроса запроса и как лучше сочетать визуальные и текстовые функции, чтобы уменьшить семантическую несогласованность?Вышеупомянутые будущие работы станут нашим следующим направлением исследований.Эта работа поддерживается конкурсным финансированием исследований Университета науки и технологий имени короля Абдаллы (KAUST).Также мы хотели бы выразить признательность Фабиану Кабе, Хумаму Альвасселю и Адель Биби.Они всегда могут предоставить нам полезное обсуждение этой работы.
Принимая изображение и вопрос в качестве входных данных нашего метода, он может выводить текстовый ответ на вопрос о данном изображении, так называемый визуальный ответ на вопрос (VQA). В нашем алгоритме есть два основных модуля. Учитывая вопрос об изображении на естественном языке, первый модуль принимает этот вопрос в качестве входных данных, а затем выводит основные вопросы основного заданного вопроса. Второй модуль принимает основной вопрос, изображение и эти основные вопросы в качестве входных данных, а затем выводит текстовый ответ на основной вопрос. Мы формулируем проблему генерации основных вопросов как задачу оптимизации LASSO, а также предлагаем критерий того, как использовать эти основные вопросы, чтобы помочь ответить на главный вопрос. Наш метод оценивается на сложном наборе данных VQA и обеспечивает современную точность — 60,34% в открытой задаче.
4,899
QasperSumInstruct
ru