input
stringclasses
1 value
context
stringlengths
4.28k
71.5k
answers
stringlengths
353
1.93k
length
int64
639
12.6k
dataset
stringclasses
1 value
language
stringclasses
1 value
all_classes
stringclasses
1 value
_id
stringclasses
1 value
Напиши аннотацию по статье
Неконтролируемая декомпозиция вопросов для ответов на вопросы. Системы вопросов-ответов (QA) стали удивительно хороши в ответах на простые вопросы с одним переходом, но все еще испытывают трудности с композиционными вопросами с несколькими переходами BIBREF0, BIBREF1.В этой работе мы проверим, можем ли мы ответить на сложные вопросы, используя нашу способность отвечать на простые вопросы.В частности, мы подходим к обеспечению качества, разбивая сложный вопрос на ряд подвопросов, на которые можно ответить с помощью простой одноступенчатой ​​системы контроля качества.Ответы системы затем могут быть переданы в качестве входных данных для последующей системы обеспечения качества для ответа на сложный вопрос, как показано на рисунке FIGREF1.Таким образом, наш подход отвечает на сложный вопрос за несколько небольших шагов, что может быть проще, чем отвечать на сложный вопрос сразу.Например, может быть проще ответить: «Какая профессия общая у Х. Л. Менкена и Альбера Камю?» при ответах на подвопросы «Какая профессия у Х. Л. Менкена?»и «Кем был Альбер Камю?» Предыдущая работа по обучению разложению вопросов на подвопросы основывалась на экстрактивной эвристике, которая плохо обобщается на различные области и типы вопросов и требует человеческих аннотаций BIBREF2, BIBREF3.Чтобы масштабироваться к любому произвольному вопросу, нам потребуются сложные возможности генерации естественного языка, которые часто опираются на большие объемы высококачественных контролируемых данных.Вместо этого мы обнаруживаем, что можно научиться разлагать вопросы без присмотра.В частности, мы учимся сопоставлять распределение сложных вопросов с распределением более простых вопросов.Во-первых, мы автоматически создаем зашумленную «псевдодекомпозицию» для каждого сложного вопроса, извлекая соответствующих кандидатов на подвопросы на основе их сходства с данным сложным вопросом.Мы извлекаем кандидатов из набора из 10 миллионов простых вопросов, которые мы извлекли из Common Crawl.Во-вторых, мы обучаем модели генерации нейронного текста на этих данных с помощью (1) стандартного обучения от последовательности к последовательности и (2) обучения от последовательности к последовательности без учителя.Преимущество последнего состоит в том, что он может выйти за рамки шумного спаривания вопросов и псевдодекомпозиций. Рис.FigREF2 представляет наш подход к декомпозиции.Мы используем декомпозицию для улучшения многошагового контроля качества.Сначала мы используем стандартную одношаговую модель контроля качества для ответа на декомпозированные подвопросы.Затем мы даем каждый подвопрос и ответ на него в качестве дополнительных входных данных для многошаговой модели контроля качества.Мы тестируем наш метод на HotpotQA BIBREF0, популярном тесте многошагового контроля качества.Наш вклад заключается в следующем.Во-первых, модели контроля качества, основанные на декомпозиции, повышают точность по сравнению с сильным базовым уровнем на 3,1 F1 в исходном наборе разработчиков, на 11 F1 в многоскачковом наборе разработчиков из BIBREF4 и на 10 F1 в наборе разработчиков вне домена из BIBREF3.Наша наиболее эффективная модель декомпозиции — это 12-блочный преобразователь-кодер-декодер BIBREF5, обученный с использованием неконтролируемого последовательного обучения, включая моделирование замаскированного языка, шумоподавление и цели обратного перевода BIBREF6.Во-вторых, наш метод конкурирует с современными методами SAE BIBREF7 и HGN BIBREF8, в которых используется строгий контроль.В-третьих, мы показываем, что наш подход автоматически учится генерировать полезные декомпозиции для всех 4 типов вопросов в HotpotQA, подчеркивая общий характер нашего подхода.В нашем анализе мы исследуем, как подвопросы улучшают многоступенчатое обеспечение качества, и приводим качественные примеры, которые подчеркивают, как декомпозиция вопросов добавляет форму интерпретируемости к моделям обеспечения качества «черного ящика».Наши абляции показывают, что каждый компонент нашего конвейера способствует повышению эффективности контроля качества.В целом мы обнаружили, что можно успешно разложить вопросы без какого-либо контроля, и это улучшает качество качества. Теперь мы сформулируем проблему и рассмотрим наш высокоуровневый подход, подробности которого приведены в следующем разделе.Мы стремимся использовать модель контроля качества, которая точна в отношении простых вопросов, для ответа на сложные вопросы без использования контролируемой декомпозиции вопросов.Здесь мы рассматриваем простые вопросы как «одношаговые» вопросы, которые требуют рассуждения по одному абзацу или фрагменту доказательства, а сложные вопросы мы считаем «многошаговыми».Наша цель состоит в том, чтобы обучить многошаговую модель контроля качества $M$ так, чтобы она давала правильный ответ $a$ на многошаговый вопрос $q$ о заданном контексте $c$ (например, нескольких абзацах).Обычно мы обучаем $M$ максимизировать $\log p_M(a | c, q)$. Чтобы помочь $M$, мы используем модель контроля качества с одним переходом, к которой можно запрашивать подвопросы $s_1, \dots , s_N$, чьи «подответы» на каждый подвопрос $a_1, \dots , a_N$ могут быть предоставлены для модели QA с несколькими переходами.Вместо этого $M$ может максимизировать (потенциально более простую) цель $\log p_M(a | c, q, [s_1, a_1], \dots ,[a_N, s_N])$.Модели контролируемой декомпозиции учатся сопоставлять каждый вопрос $q \in Q$ с декомпозицией $d =[с_1; \точки; s_N]$ $N$ подвопросов $s_n \in S$ с использованием аннотированных $(q, d)$ примеров.В этой работе мы не предполагаем доступ к строгому $(q, d)$-надзору.Чтобы использовать модель одношагового контроля качества без надзора, мы следуем трехэтапному подходу: 1) сопоставляем вопрос $q$ с подвопросами $s_1, \dots , s_N$ с помощью неконтролируемых методов, 2) находим подответы $ a_1, \dots, a_N$ с моделью контроля качества с одним переходом и 3) предоставить $s_1, \dots, s_N$ и $a_1, \dots, a_N$, чтобы помочь спрогнозировать $a$. Чтобы обучить модель декомпозиции, мы нужны соответствующие обучающие данные.Мы предполагаем доступ к корпусу сложных вопросов $Q$ и корпусу простых вопросов $S$. Вместо использования обучающих примеров $(q, d)$ мы разрабатываем алгоритм, который строит псевдоразложения $d^{\prime }$ для формирования $(q, d^{\prime })$ пар из $Q$ и $S$ с использованием неконтролируемого подхода (§SECREF4).Затем мы обучаем модель отображать $q$ в разложение.Мы исследуем обучение декомпозиции с помощью стандартного и неконтролируемого последовательного обучения (§SECREF6). Для каждого $q \in Q$ мы строим набор псевдодекомпозиции $d^{\prime } = \lbrace s_1; \точки; s_N\rbrace $, получив простой вопрос $s$ из $S$. Мы объединяем все $N$ простых вопросов в $d^{\prime }$, чтобы сформировать псевдоразложение, используемое в дальнейшем.$N$ может выбираться в зависимости от задачи или варьироваться в зависимости от $q$. Чтобы получить полезные простые вопросы для ответа на $q$, мы сталкиваемся с совместной задачей оптимизации.Нам нужны подвопросы, которые (i) похожи на $q$ в соответствии с некоторой метрикой $f$ и (ii) максимально разнообразны: теперь, получив соответствующие псевдоразложения, мы исследуем различные способы научиться разлагать (с деталями реализации в следующем разделе): Мы используем псевдодекомпозицию напрямую, используя полученные подвопросы в дальнейшем тестировании. Мы обучаем модель Seq2Seq с параметрами $\theta $ для максимизации $\log p_{\theta }(d^{\prime } | q)$.Мы начинаем с парных примеров $(q, d^{\prime })$, но не учимся на спаривании, потому что спаривание зашумлено.Мы используем неконтролируемое последовательность обучения для изучения отображения $q \rightarrow d$ вместо обучения непосредственно на шумных парах.Чтобы ответить на сгенерированные подвопросы, мы используем стандартную модель контроля качества.Модель контроля качества может отвечать на подвопросы, используя любой текст в свободной форме (т. е. слово, фразу, предложение и т. д.).Подойдет любая модель контроля качества, если она может точно ответить на простые вопросы в $S$. Таким образом, мы используем хорошую точность вопросов в $S$, чтобы помочь моделировать контроль качества по вопросам в $Q$. Последующие системы контроля качества могут использовать подвопросы и подответы различными способами.Мы добавляем подвопросы и подответы в качестве вспомогательных входных данных для последующей модели контроля качества, которые можно включить в ее обработку.Теперь мы опишем детали реализации нашего подхода, изложенного выше.Мы тестируем неконтролируемую декомпозицию на HotpotQA BIBREF0, стандартном тесте многошагового контроля качества.Мы используем «Настройку отвлекающего фактора» HotpotQA, которая предоставляет 10 контекстных абзацев из Википедии.Два (или более) абзаца содержат предложения, относящиеся к вопросу, называемые «подтверждающими фактами», а остальные абзацы не имеют отношения к делу и являются «отвлекающими абзацами».Ответы в HotpotQA — «да», «нет» или фрагмент текста во входном абзаце.Точность измеряется баллами F1 и точным совпадением (EM) между прогнозируемым и золотым диапазоном.Мы используем вопросы HotpotQA в качестве нашего первоначального многоступенчатого корпуса сложных вопросов $Q$. Мы используем вопросы SQuAD 2 в качестве исходного одноступенчатого корпуса простых вопросов $S$. Однако наш корпус псевдодекомпозиции должен быть большим, поскольку он будет использоваться для обучения нейронных моделей Seq2Seq, которым не хватает данных.Большее значение $|S|$ также улучшит соответствие полученных простых вопросов сложному вопросу.Таким образом, мы черпаем вдохновение из работы в области машинного перевода над параллельным корпусным анализом BIBREF9, BIBREF10 и неконтролируемым контролем качества BIBREF11.Мы дополняем $Q$ и $S$, извлекая больше вопросов из Common Crawl.Мы выбираем предложения, которые начинаются с обычных слов «wh» и заканчиваются «?»Затем мы обучаем классификатор FastText BIBREF12 классифицировать 60 тысяч вопросов, выбранных из Common Crawl, SQuAD 2 и HotpotQA.Затем мы классифицируем вопросы Common Crawl, добавляя вопросы, классифицированные как вопросы SQuAD 2, в $S$ и вопросы, классифицированные как вопросы HotpotQA, в $Q$. Анализ вопросов значительно увеличивает количество вопросов с одним переходом (130 тыс. $\rightarrow $ 10,1 млн) и вопросов с несколькими переходами (90 тыс. $\rightarrow $ 2,4 млн).Таким образом, наш неконтролируемый подход позволяет нам использовать гораздо больше данных, чем контролируемые аналоги.Чтобы создать псевдодекомпозицию, мы устанавливаем количество $N$ подвопросов на вопрос равным 2, поскольку вопросы в HotpotQA обычно включают два этапа рассуждения.В Приложении §SECREF52 мы обсудим, как работает наш метод, когда $N$ варьируется в зависимости от вопроса.Чтобы получить подвопросы, относящиеся к вопросу, мы встраиваем любой текст $t$ в вектор $\mathbf {v}_t$ путем суммирования векторов FastText BIBREF13 для слов из $t$. В качестве метрики сходства $f$ мы используем косинусное сходство. Пусть $q$ — многошаговый вопрос, используемый для получения псевдоразложения $(s_1^*, s_2^*)$, и пусть $\hat{\mathbf {v}}$ — единичный вектор $\mathbf { v}$. Поскольку $N=2$, уравнение. DISPLAY_FORM5 сводится к следующему: Последний термин требует сравнений $O(|S|^2)$, что дорого, поскольку $|S|$ велик ($>$10M).Вместо решения уравнения.(DISPLAY_FORM19) точно, мы находим приближенное псевдоразложение $(s_1^{\prime }, s_2^{\prime })$ путем вычисления уравнения.(DISPLAY_FORM19) над $S^{\prime } = \operatornamewithlimits{topK}_{\lbrace s \in S\rbrace }\left[ \mathbf {\hat{v}}_{q}^{\top } \ mathbf {\hat{v}}_s\right]$, используя $K=1000$. Мы используем FAISS BIBREF14 для эффективного построения $S^{\prime }$. Для сравнения мы тестируем случайные псевдоразложения, где мы случайным образом извлекаем $s_1, \dots, s_N$ путем выборки из $S$. USeq2Seq обучен случайным образом $d^{\prime } =[с_1; \точки; s_N]$ должен как минимум научиться сопоставлять $q$ с несколькими простыми вопросами.Поскольку подвопросы основаны на поиске, они часто не относятся к тем же сущностям, что и $q$. На этапе постобработки мы заменяем сущности из $(s^{\prime }_1, s^{\prime }_2)$ сущностями из $q$. Мы находим все объекты в $(s^{\prime }_1, s^{\prime }_2)$, которые не появляются в $q$, используя spaCy BIBREF15.Мы заменяем эти сущности случайной сущностью из $q$ того же типа (например, «Дата» или «Местоположение») тогда и только тогда, когда она существует.Мы используем замену сущностей при псевдодекомпозиции как из случайного поиска, так и из поиска на основе сходства.Предварительное обучение является ключевым компонентом неконтролируемых методов Seq2Seq BIBREF16, BIBREF17, поэтому мы инициализируем все модели декомпозиции с одинаковыми предварительно обученными весами, независимо от метода обучения (Seq2Seq или USeq2Seq).Мы начинаем предварительное обучение с предварительно обученной модели английского языка в маске (MLM) из BIBREF6, 12-блочной модели преобразователя, предназначенной только для декодера BIBREF5, обученной предсказывать замаскированные слова в Toronto Books Corpus BIBREF18 и Википедии.Мы обучаем модель с целью MLM в течение одной эпохи на расширенном корпусе $Q$ (2,4 млн вопросов), а также обучаем на разложениях $D$, сформированных путем случайного извлечения из $S$. Для нашего предварительно обученного кодера-декодера мы инициализируем 6-блочный кодер с первыми 6 блоками MLM и инициализируем 6-блочный декодер с последними 6 блоками MLM, случайным образом инициализируя оставшиеся веса, как в BIBREF6. настройте предварительно обученный кодер-декодер, используя максимальное правдоподобие.Мы прекращаем обучение на основе проверки BLEU BIBREF19 между сгенерированными разложениями и псевдоразложениями.Мы следуем подходу BIBREF6 в неконтролируемом переводе.Обучение состоит из двух этапов: (1) предварительное обучение MLM на обучающих корпусах (описанных выше), за которым следует (2) обучение одновременно с задачами шумоподавления и обратного перевода.Для шумоподавления мы создаем зашумленные входные данные $\hat{d}$ путем случайной маскировки, удаления и локального перемешивания токенов в $d \sim D$ и обучаем модель с параметрами $\theta $ для максимизации $\log p_. {\ тета }(д |\hat{d})$. Аналогичным образом мы максимизируем $\log p_{\theta }(q | \hat{q})$.Для обратного перевода мы генерируем вопрос с несколькими переходами $\hat{q}$ для разложения $d \sim D$ и максимизируем $\log p_{\theta }(d | \hat{q})$ .Аналогично мы максимизируем $\log p_{\theta }(q | \hat{d})$. Чтобы прекратить обучение без присмотра, мы используем модифицированную версию туда и обратно BLEU BIBREF17.(подробности см. в Приложении §SECREF56).Мы обучаем с шумоподавлением и обратным переводом на небольших корпусах вопросов HotpotQA ($Q$) и их псевдодекомпозиции ($D$). Мы обучаем нашу односкачковую модель QA после предыдущей работы из BIBREF3 над HotpotQA. Мы точно настраиваем предварительно обученная модель, которая берет вопрос и несколько абзацев и предсказывает ответ, аналогично модели контроля качества с одним переходом от BIBREF21.Модель вычисляет отдельный проход вперед для каждого абзаца (с вопросом).Для каждого абзаца модель учится прогнозировать диапазон ответов, если абзац содержит ответ, и прогнозировать «нет ответа» в противном случае.Мы лечим даи никаких прогнозов в виде промежутков внутри отрывка (предваряемых перед каждым абзацем), как в BIBREF22 на HotpotQA.Во время вывода для окончательного softmax мы рассматриваем все абзацы как один блок.Подобно BIBREF23, мы вычитаем логит «нет ответа» абзаца из логитов всех интервалов в этом абзаце, чтобы соответственно уменьшить или увеличить вероятность интервала.Другими словами, мы вычисляем вероятность $p(s_p)$ каждого интервала $s_p$ в абзаце $p \in \lbrace 1, \dots , P \rbrace $, используя предсказанный логит интервала $l(s_p)$ и Логит абзаца «нет ответа» $n(p)$ выглядит следующим образом: Мы используем $\textsc {RoBERTa}_{\textsc {LARGE}}$ BIBREF24 в качестве предварительно обученной инициализации.Позже мы также экспериментируем с использованием ансамбля $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3. Аналогично BIBREF3, мы обучаем ансамбль из двух одношаговых моделей контроля качества, используя данные из SQuAD 2 и вопросов HotpotQA. помечены как «легкие» (одиночные).Для ансамбля мы усредняем логиты двух моделей, прежде чем предсказать ответ.SQuAD — это задача контроля качества, состоящая из одного абзаца, поэтому мы адаптируем SQuAD к настройке с несколькими абзацами, извлекая отвлекающие абзацы из Википедии для каждого вопроса.Мы используем ретривер TFIDF из DrQA BIBREF25 для получения двух абзацев-дистракторов, которые добавляем во входные данные для одной модели в ансамбле.Мы удаляем слова из вопроса с вероятностью 5%, чтобы помочь модели справиться с любыми неправильно сформулированными подвопросами.Мы используем ансамбль QA с одним переходом в качестве модели черного ящика после обучения и никогда не тренируем модель на вопросах с несколькими переходами.У нас есть модель контроля качества с одним переходом, возвращающая предложение, содержащее прогнозируемый диапазон ответов модели, а также подвопросы.Позже мы сравниваем альтернативы, то есть возвращаем прогнозируемый диапазон ответов без контекста или не возвращаем подвопросы.Наша многошаговая архитектура контроля качества идентична одношаговой модели контроля качества, но модель многошагового контроля качества также использует в качестве входных данных подвопросы и подответы.Мы добавляем каждую пару (подвопрос, подответ) к вопросу с несколькими переходами вместе с токенами-разделителями.Мы обучаем одну многошаговую модель контроля качества на всех HotpotQA, включая примеры SQuAD 2, используемые для обучения одношаговой модели контроля качества.Позже мы поэкспериментируем с использованием $\textsc {BERT}_{\textsc {LARGE}}$ и $\textsc {BERT}_{\textsc {BASE}}$ вместо $\textsc {RoBERTa}_{\textsc { LARGE}}$ в качестве модели многошагового контроля качества.Все сообщаемые пределы погрешности показывают среднее и стандартное значение. разработчикв течение 5 многопроходных тренировок по обеспечению качества с использованием одних и тех же декомпозиций.Мы сравниваем варианты нашего подхода, в которых используются разные методы обучения и разные псевдовыровненные обучающие наборы.В качестве основы мы сравниваем RoBERTa с декомпозицией с моделью RoBERTa, которая не использует декомпозицию, но идентична во всех других отношениях.Мы обучаем базовую линию в течение двух эпох, охватывая размер пакета $\in \lbrace 64, 128\rbrace $, скорость обучения $\in \lbrace 1 \times 10^{-5}, 1,5 \times 10^{-5} , 2 \times 10^{-5}, 3 \times 10^{-5}\rbrace $ и уменьшение веса $\in \lbrace 0, 0.1, 0.01, 0.001\rbrace $; мы выбираем гиперпараметры, которые лучше всего работают в нашем наборе разработчиков.Затем мы используем лучшие гиперпараметры в качестве базовой линии для обучения наших моделей RoBERTa с помощью разложения.Мы сообщаем о результатах по 3 версиям набора разработчиков: (1) исходная версия, (2) многошаговая версия из BIBREF4, в которой состязательно созданы некоторые отвлекающие абзацы для проверки многошаговых рассуждений, и (3) внешняя версия. версия домена из BIBREF3, которая извлекала отвлекающие абзацы, используя ту же процедуру, что и исходная версия, но исключала абзацы из исходной версии.В таблице показано, как неконтролируемая декомпозиция влияет на контроль качества.Наша базовая версия RoBERTa довольно хорошо работает на HotpotQA (77.0 F1), несмотря на обработку каждого абзаца отдельно, что запрещает межабзацные рассуждения.Результат соответствует предыдущей работе, которая показала, что версия нашей базовой модели контроля качества с использованием BERT BIBREF26 хорошо работает на HotpotQA за счет использования ярлыков рассуждения с одним переходом BIBREF21.Мы добились значительных успехов по сравнению с нашим сильным базовым уровнем, используя декомпозицию из нашей лучшей модели декомпозиции, обученной с помощью USeq2Seq на псевдодекомпозиции FastText; мы обнаруживаем прирост F1 3,1 на исходном наборе разработчиков, прирост F1 11 на наборе разработчиков с несколькими переходами и прирост F1 10 на наборе разработчиков вне домена.Неконтролируемая декомпозиция даже соответствует производительности использования (в нашем конвейере) контролируемой и эвристической декомпозиции из DecompRC (т. е. 80,1 против 79,8 F1 в исходном наборе разработчиков).БолееКак правило, все методы декомпозиции улучшают качество качества по сравнению с базовым уровнем за счет использования модели обеспечения качества с одним переходом («1 переход» в таблице ).Использование псевдодекомпозиции FastText в качестве подвопросов напрямую улучшает качество качества по сравнению с использованием случайных подвопросов в многоскачковом наборе (72,4 против 70,9 F1) и наборе вне домена (72,0 против 70,7 F1).USeq2Seq для случайного псевдоразложения также улучшается по сравнению с базовым уровнем случайного подвопроса (например, 79,8 против 78,4 F1 в HotpotQA).Однако мы обнаруживаем лишь небольшие улучшения при обучении USeq2Seq на FastText по сравнению со случайными псевдоразложениями (например, 77,1 против 76,5 F1 на наборе разработчиков вне домена). Лучшие методы декомпозиции обучаются с помощью USeq2Seq.Использование Seq2Seq для генерации декомпозиции обеспечивает такую ​​же точность контроля качества, как и настройка «Без обучения», например. оба подхода достигают 78,9 F1 на исходном наборе разработчиков для псевдоразложения FastText.Результаты, возможно, схожи, поскольку обучение с учителем напрямую обучается, чтобы обеспечить высокую вероятность псевдоразложения.USeq2Seq может улучшиться по сравнению с Seq2Seq, научившись согласовывать сложные вопросы и псевдоразложения, игнорируя при этом шумные пары.После наших экспериментов мы выбрали USeq2Seq, обученный на псевдоразложениях FastText, в качестве окончательной модели и отправили модель на скрытую тестовую оценку.Наш подход достиг результата теста F1 79,34 и точного совпадения (EM) 66,33.Наш подход конкурирует с современными параллельными системами SAE BIBREF7 и HGN BIBREF8, которые (в отличие от нашего подхода) учатся благодаря дополнительному строгому контролю относительно того, какие предложения необходимы для ответа на вопрос.Чтобы понять, в чем помогает декомпозиция, мы разбили эффективность контроля качества по четырем типам вопросов из BIBREF3.«Мостовые» вопросы касаются сущности, прямо не упомянутой в вопросе («Когда родился отец Эрика Уоттса?»).Вопросы «пересечения» требуют найти объект, который удовлетворяет множеству отдельных условий («Кто был на CNBC и Fox News?»).В вопросах «Сравнения» предлагается сравнить свойства двух объектов («Что выше, Момхил Сар или К2?»).На «однопереходные» вопросы, скорее всего, можно ответить, используя однопереходные сокращения или рассуждения, состоящие из одного абзаца («Откуда Electric Six?»).Мы разделили исходный набор разработчиков на 4 типа, используя классификатор контролируемых типов из BIBREF3.В таблице показаны баллы F1 для RoBERTa с разложением по 4 типам и без него.Неконтролируемая декомпозиция улучшает качество ответов на все типы вопросов.Наша единая модель декомпозиции генерирует полезные подвопросы для всех типов вопросов без специальной обработки случаев, в отличие от более ранней работы BIBREF3, в которой каждый тип вопросов обрабатывался отдельно.Для одношаговых вопросов наш подход к обеспечению качества не требует возврата к одношаговой модели контроля качества и вместо этого учится использовать декомпозицию, чтобы лучше отвечать на вопросы с помощью одношаговых ярлыков (76,9 против 73,9 F1 без декомпозиции). Для измерения полезности подвопросов и подответов мы обучаем многошаговую модель контроля качества с различными удаленными входными данными, как показано в таблице .Дополнительные ответы имеют решающее значение для улучшения качества качества, поскольку подвопросы без ответов или случайные ответы не помогают (76,9 против 77,0 F1 для базового уровня).Только когда предоставляются дополнительные ответы, мы видим улучшение качества с подвопросами или без них (80.1 и 80.2 F1 соответственно).Важно предоставить предложение, содержащее прогнозируемый диапазон ответов, а не только диапазон ответов (80,1 против 77,8 F1 соответственно), хотя сам по себе диапазон ответов все равно улучшается по сравнению с базовым уровнем (77,0 F1). Декомпозиция помогает отвечать на вопросы путем извлечения важные подтверждающие данные для ответа на вопросы.Рис.Фиг.41 показывает, что точность многошагового контроля качества увеличивается, когда предложения с дополнительными ответами представляют собой «подтверждающие факты» или предложения, необходимые для ответа на вопрос, как это аннотировано HotpotQA.Мы извлекаем подтверждающие факты, не учась прогнозировать их под строгим контролем, в отличие от многих современных моделей BIBREF7, BIBREF8, BIBREF22. Чтобы проиллюстрировать, как декомпозиция помогает обеспечить контроль качества, в таблице показаны примеры подвопросов из нашей лучшей модели декомпозиции с предсказанными подвопросами. -ответы.Подвопросы — это вопросы с одним переходом, относящиеся к вопросу с несколькими переходами.Модель контроля качества с одним переходом возвращает соответствующие дополнительные ответы, иногда несмотря на грамматические ошибки (Q1, SQ$_1$) или недостаточно определенные вопросы (Q2, SQ$_1$).Затем модель многошагового контроля качества возвращает ответ, соответствующий предсказанным дополнительным ответам.Модель декомпозиции в значительной степени является экстрактивной: она копирует многошаговый вопрос, а не создает галлюцинации новых сущностей, что помогает генерировать соответствующие подвопросы.Чтобы лучше понять нашу систему, мы анализируем модель на каждом этапе: декомпозиция, одношаговый контроль качества и многошаговый контроль качества. Мы оцениваем качество декомпозиции по другим метрикам, помимо нисходящего контроля качества.Чтобы измерить беглость декомпозиции, мы вычисляем вероятность декомпозиции, используя предварительно обученную языковую модель GPT-2 BIBREF27.Мы обучаем классификатор на наборе данных правильности вопросов BIBREF28 и используем классификатор для оценки доли правильно сформированных подвопросов.Мы измеряем, насколько абстрактны декомпозиции, вычисляя (i) расстояние по токену Левенштейна между вопросом с несколькими шагами и созданной им декомпозицией и (ii) соотношение между длиной декомпозиции и длиной вопроса с несколькими шагами.Мы сравниваем нашу лучшую модель декомпозиции с контролируемой+эвристической декомпозицией из DecompRC BIBREF3 в таблице. Неконтролируемые декомпозиции являются более естественными и правильно сформированными, чем декомпозиции из DecompRC.Неконтролируемая декомпозиция также ближе по расстоянию редактирования и длине к вопросу с несколькими шагами, что согласуется с нашим наблюдением о том, что наша модель декомпозиции в значительной степени является экстрактивной.Другой способ проверить качество модели декомпозиции — проверить, обеспечивает ли модель более высокую вероятность декомпозиций, которые более полезны для последующего контроля качества.Мы генерируем $N=5$ гипотез на основе нашей лучшей модели декомпозиции с использованием лучевого поиска и обучаем многошаговую модель QA использовать гипотезу $n$-го ранга в качестве декомпозиции вопросов (рис. FigREF46, слева).Точность контроля качества снижается по мере того, как мы используем разложение с меньшей вероятностью, но точность остается относительно высокой, самое большее снижается с 80,1 до 79,3 F1.Ограниченное падение предполагает, что декомпозиция по-прежнему полезна, если она входит в число главных гипотез модели, что является еще одним показателем того, что наша модель хорошо обучена декомпозиции.Рисунок ФИГРЕФ46(справа) показывает, что достоверность подответа модели коррелирует с производительностью многоступенчатого контроля качества в нисходящем направлении для всех наборов разработчиков HotpotQA.Подответ с низкой степенью достоверности может указывать на (i) подвопрос, на который нет ответа, или неправильно сформулированный подвопрос, или (ii) подответ, который с большей вероятностью будет неправильным.В обоих случаях одношаговая модель контроля качества с меньшей вероятностью сможет получить полезные подтверждающие данные для ответа на многошаговый вопрос.Мы обнаружили, что наш подход устойчив к модели контроля качества с одним переходом, которая отвечает на подвопросы.Мы используем ансамбль $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3 в качестве модели контроля качества с одним переходом.Модель работает намного хуже по сравнению с нашим однопрыжковым ансамблем $\textsc {RoBERTa}_{\textsc {LARGE}}$ при использовании непосредственно на HotpotQA (56,3 против 66,7 F1).Тем не менее, модель обеспечивает сопоставимый контроль качества при использовании для ответа на подвопросы с одним переходом в нашей более крупной системе (79,9 против 80,1 F1 для нашего ансамбля $\textsc {RoBERTa}_{\textsc {LARGE}}$). как декомпозиция влияет на производительность по мере того, как многошаговая модель контроля качества становится сильнее, мы изменяем базовую предварительно обученную модель.В таблице показано влияние добавления разложений на $\textsc {BERT}_{\textsc {BASE}}$ , $\textsc {BERT}_{\textsc {LARGE}}$ и, наконец, $\textsc {RoBERTa}_{ \textsc {LARGE}}$ (гиперпараметры см. в Приложении §SECREF64).Выгода от использования декомпозиции растет с увеличением эффективности многошаговой модели контроля качества.Декомпозиция улучшает качество качества на 1,2 F1 для модели $\textsc {BERT}_{\textsc {BASE}}$, на 2,6 F1 для более сильной модели $\textsc {BERT}_{\textsc {LARGE}}$ и на 3.1 F1 для нашей лучшей модели $\textsc {RoBERTa}_{\textsc {LARGE}}$.Ответы на сложные вопросы уже давно являются проблемой обработки естественного языка.С этой целью в предыдущих работах изучались вопросы декомпозиции с помощью надзорных или эвристических алгоритмов.IBM Watson BIBREF29 разбивает вопросы на подвопросы разными способами или не разбивает их вообще.DecompRC BIBREF3 в основном оформляет подвопросы как извлекаемые фрагменты многошагового вопроса, обучаясь прогнозировать подвопросы на основе интервалов посредством контролируемого обучения на человеческих аннотациях.В других случаях DecompRC разлагает многошаговый вопрос с помощью эвристического алгоритма или DecompRC вообще не разлагает вопрос.Watson и DecompRC используют специальную обработку случаев для декомпозиции различных вопросов, а наш алгоритм полностью автоматизирован и требует минимального ручного проектирования.Более традиционные методы семантического анализа сопоставляют вопросы с композиционными программами, подпрограммы которых можно рассматривать как декомпозицию вопросов на формальном языке BIBREF2, BIBREF30.Примеры включают классические системы контроля качества, такие как SHRDLU BIBREF31 и LUNAR BIBREF32, а также нейронные семантические парсеры Seq2Seq BIBREF33 и сети нейронных модулей BIBREF34, BIBREF35.Такие методы обычно требуют строгого контроля на уровне программы для создания программ, как в визуальном QA BIBREF36 и в HotpotQA BIBREF37.В некоторых моделях используются другие формы строгого надзора, например прогнозирование «подтверждающих доказательств» для ответа на вопрос, аннотированный HotpotQA.Такой подход используется в SAE BIBREF7 и HGN BIBREF8, методы которых можно комбинировать с нашим подходом.Неконтролируемая декомпозиция дополняет сильно и слабо контролируемую декомпозицию.Наш неконтролируемый подход позволяет использовать миллионы вопросов, которые в противном случае были бы непригодны для использования, аналогично работе над неконтролируемым контролем качества BIBREF11.Когда существуют примеры декомпозиции, обучение с учителем и без учителя можно использовать в тандеме для обучения как на помеченных, так и на немаркированных примерах.Такие полуконтролируемые методы превосходят контролируемое обучение для таких задач, как машинный перевод BIBREF38.Другая работа по генерированию вопросов со слабым контролем использует точность последующей модели контроля качества в качестве сигнала для обучения генерированию полезных вопросов.При генерации вопросов со слабым учителем часто используется обучение с подкреплением BIBREF39, BIBREF40, BIBREF41, BIBREF42, BIBREF43, где неконтролируемая инициализация может значительно смягчить проблемы исследования BIBREF44 с нуля. Мы предложили алгоритм, который разлагает вопросы без присмотра, используя 3 этапа: (1) научиться декомпозировать с использованием псевдодекомпозиции без присмотра, (2) отвечать на подвопросы с помощью готовой системы контроля качества и (3) более точно отвечать на сложные вопросы, используя подвопросы и ответы на них в качестве дополнительных входных данных.При оценке с помощью HotpotQA, стандартного эталона многошагового контроля качества, наш подход значительно повысил точность по сравнению с эквивалентной моделью, которая не использовала разложение.Наш подход опирается только на окончательный ответ в качестве надзора, но работает так же эффективно, как и современные методы, основанные на строгом надзоре, такие как поддержка ярлыков фактов или декомпозиция примеров.В качественном отношении мы обнаружили, что неконтролируемая декомпозиция привела к появлению беглых подвопросов, ответы на которые часто соответствуют аннотированным подтверждающим фактам в HotpotQA.Наши неконтролируемые декомпозиции в основном являются экстрактивными, что эффективно для композиционных многошаговых вопросов, но не для всех сложных вопросов, оставляя место для будущей работы.В целом, эта работа открывает захватывающие возможности для использования методов обучения без учителя и генерации естественного языка для улучшения интерпретируемости и обобщения систем машинного обучения.EP поддерживается стипендией для аспирантов NSF.KC поддерживается Институтом передовых технологий Samsung (глубокое обучение следующего поколения: от распознавания образов до искусственного интеллекта) и исследованиями Samsung (улучшение глубокого обучения с использованием скрытой структуры).KC также благодарит eBay и NVIDIA за поддержку.Мы благодарим Пола Кристиано, Себастьяна Риделя, Хе Хе, Джонатана Беранта, Алексиса Конно, Цзятао Гу, Севона Мина, Исинь Не, Ладжанугена Логесварана и Адама Фиша за полезные отзывы, а также Ичена Цзяна и Пэн Ци за помощь в оценке.Таблицы — показывают примеры псевдоразложений и изученных разложений из различных моделей.В §SECREF15 мы использовали знания предметной области о задаче, чтобы зафиксировать длину псевдодекомпозиции $N=2$. Общий алгоритм создания псевдоразложений должен найти подходящее $N$ для каждого вопроса.Мы находим, что уравнение. DISPLAY_FORM5 в SECREF4 всегда приводит к разложению длины $N=2$, поскольку член регуляризации быстро растет с ростом $N$. Таким образом, мы тестируем другую формулировку, основанную на евклидовом расстоянии: мы создаем псевдоразложения аналогично предыдущему способу, сначала находя набор подвопросов-кандидатов $S^{\prime } \in S$ с высоким косинусным сходством с $\ mathbf {v}_q$, затем выполняя поиск по лучу до максимального значения $N$. Мы проверяем формулировки псевдодекомпозиции, создавая синтетические композиционные вопросы, объединяя 2-3 односкачковых вопроса со знаком «и».Затем мы измеряем рейтинг правильной декомпозиции (объединения вопросов с одним переходом).Для $N=2$ оба метода работают хорошо, но уравнение. DISPLAY_FORM5 не работает для разложений, где $N=3$, тогда как уравнение. DISPLAY_FORM53 делает это, достигая среднего взаимного ранга 30%.Однако уравнение. DISPLAY_FORM5 превосходит уравнение.DISPLAY_FORM53 на HotpotQA, например, достижение 79,9 против 79,4 F1 при использовании ансамбля $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3 для ответа на подвопросы.уравнение DISPLAY_FORM5 также быстрее вычисляется и его легче масштабировать.Более того, уравнение. DISPLAY_FORM53 требует пространства для встраивания, где суммирование представлений подвопросов имеет смысл, тогда как уравнение. DISPLAY_FORM5 требует только встраивания, которые кодируют семантическое сходство.Таким образом, мы принимаем уравнение. DISPLAY_FORM5 для наших основных экспериментов.В таблице приведен пример, в котором упомянутый выше метод декомпозиции переменной длины дает декомпозицию по трем подвопросам, тогда как другие методы фиксируются на двух подвопросах.В дополнение к нашим предыдущим результатам по сравнению FastText и случайных псевдодекомпозиций мы обнаружили, что важно использовать большой корпус вопросов для создания псевдодекомпозиций.QA F1 увеличился с 79,2 до 80,1, когда мы обучили модели декомпозиции псевдодекомпозиции, состоящей из вопросов, полученных из Common Crawl ($>$10 млн вопросов), а не только из SQuAD 2 ($\sim $130 тыс. вопросов), используя соответственно больший размер луча (100 $\rightarrow $ 1000). В таблице показаны результаты контроля качества с псевдоразложениями, полученными с использованием представлений суммы слов из FastText, TFIDF, $\textsc {BERT}_{\textsc {LARGE}}$ первого слоя скрыто. состояния.Мы также варьируем метод обучения и включаем результаты в учебный план Seq2Seq.(CSeq2Seq), где мы инициализируем подход USeq2Seq с моделью Seq2Seq, обученной на тех же данных.Чтобы остановить обучение USeq2Seq, мы используем критерий неконтролируемой остановки, чтобы не полагаться на контролируемый набор проверок декомпозиции.Мы генерируем декомпозицию $\hat{d}$ для многоступенчатого вопроса $q$ и измеряем BLEU между $q$ и сгенерированным моделью вопросом $\hat{q}$ для $\hat{d}$ , аналогично двустороннему BLEU в неконтролируемой трансляции BIBREF17.Мы масштабируем оценку BLEU туда и обратно по доле «хороших» разложений, где хорошее разложение имеет (1) 2 подвопроса (вопросительные знаки), (2) нет подвопроса, который содержит все слова в вопросе с несколькими переходами. и (3) ни один подвопрос не длиннее, чем вопрос с несколькими переходами.Без масштабирования модели декомпозиции достигают идеального BLEU туда и обратно, копируя многошаговый вопрос в качестве декомпозиции.Мы измеряем масштабированный BLEU по многошаговым вопросам в HotpotQA dev и прекращаем обучение, когда показатель не увеличивается в течение 3 последовательных эпох.Можно прекратить обучение модели декомпозиции на основе точности последующего контроля качества.Однако обучение модели контроля качества на каждой контрольной точке модели декомпозиции (1) требует больших вычислительных затрат и (2) привязывает декомпозицию к конкретной последующей модели контроля качества.На рисунке FigREF57 мы показываем результаты нисходящего контроля качества по различным контрольным точкам USeq2Seq при использовании ансамбля однопрыжкового контроля качества $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3.Критерий неконтролируемой остановки не оказывает значительного ущерба для последующего контроля качества по сравнению с использованием критерия остановки со слабым контролем.Мы предварительно обучаем наш кодер-декодер, распределенный на 8 машинах DGX-1, каждая из которых оснащена 8 графическими процессорами NVIDIA V100 емкостью 32 ГБ, соединенными между собой Infiniband.Мы предварительно обучаем, используя максимально возможный размер пакета (1536), и выбираем лучшую скорость обучения ($3 \times 10^{-5}$) на основе потерь при обучении после небольшого количества итераций.Мы выбрали максимальную длину последовательности 128.Мы сохраняем другие гиперпараметры, идентичные гиперпараметрам из BIBREF6, используемым при неконтролируемой трансляции.Мы обучаем каждую модель декомпозиции с помощью распределенного обучения на 8 графических процессорах NVIDIA V100 емкостью 32 ГБ.Мы выбрали максимально возможный размер пакета (256), а затем максимальную скорость обучения, которая привела к стабильному обучению ($3 \times 10^{-5}$).Другие гиперпараметры такие же, как у BIBREF6. Мы используем большой размер пакета (1024) и выбрали наибольшую скорость обучения, которая привела к стабильному обучению во многих обучающих корпусах псевдодекомпозиции ($1 \times 10^{-4}$).Остальные настройки обучения и гиперпараметры остаются такими же, как и для USeq2Seq.Чтобы понять, как декомпозиция влияет на производительность при различных объемах обучающих данных, мы варьируем количество примеров многошагового обучения.Мы используем метки «среднего» и «жесткого» уровня в HotpotQA, чтобы определить, какие примеры являются многопрыжковыми.Мы рассматриваем схемы обучения, в которых модель многошагового контроля качества использует или не использует пополнение данных посредством обучения «простым»/одношаговым вопросам и вопросам SQuAD 2. Рис.FigREF63 показывает результаты.Декомпозиция улучшает качество качества, если модель многошагового контроля качества имеет достаточно обучающих данных либо с помощью примеров одношагового контроля качества, либо с помощью достаточного количества примеров многошагового контроля качества.Для обучения $\textsc {RoBERTa}_{\textsc {LARGE}}$ мы фиксируем количество эпох обучения равным 2, поскольку более длительное обучение не помогло.Мы просматриваем размер пакета $\in \lbrace 64, 128\rbrace $, скорость обучения $\in \lbrace 1 \times 10^{-5}, 1,5 \times 10^{-5}, 2 \times 10^{ -5}, 3 \times 10^{-5}\rbrace $ и снижение веса $\in \lbrace 0, 0.1, 0.01, 0.001\rbrace $, аналогично диапазонам, использованным в оригинальной статье BIBREF24.Мы выбрали гиперпараметры, которые лучше всего подходят для базовой модели контроля качества (без декомпозиции) в нашем наборе проверки: размер пакета 64, скорость обучения $1,5 \times 10^{-5}$ и снижение веса $0,01$. Аналогично, для экспериментов с BERT мы фиксируем количество эпох равным 2 и выбираем гиперпараметры, просматривая рекомендуемые диапазоны скорости обучения из BIBREF26 ($\lbrace 2 \times 10^{-5}, 3 \times 10^{ -5}, 5 \times 10^{-5}\rbrace $) и размер пакета ($\lbrace 16, 32\rbrace $).Таким образом, для $\textsc {BERT}_{\textsc {BASE}}$ мы выбираем скорость обучения $2 \times 10^{-5}$ и размер пакета 16, а для $\textsc {BERT}_{\textsc { LARGE}}$ , мы используем модель маскирования всего слова со скоростью обучения $2 \times 10^{-5}$ и размером пакета 32.Мы обучаем все модели контроля качества с помощью арифметики с плавающей запятой смешанной точности BIBREF45, распределяя обучение по 8 графическим процессорам NVIDIA V100 емкостью 32 ГБ.Чтобы лучше понять, где декомпозиция улучшает качество качества, мы показываем улучшение при различных детальных разделениях наборов оценок на рисунках FigREF66-FIGREF70.
Мы стремимся улучшить систему ответов на вопросы (QA), разбивая сложные вопросы на более простые подвопросы, на которые могут ответить существующие системы контроля качества. Поскольку сбор помеченных декомпозиций является обременительным, мы предлагаем неконтролируемый подход к созданию подвопросов. В частности, используя более 10 миллионов вопросов из Common Crawl, мы учимся сопоставлять распределение многошаговых вопросов с распределением одношаговых подвопросов. Мы отвечаем на подвопросы с помощью готовой модели контроля качества и включаем полученные ответы в последующую многоступенчатую систему контроля качества. В популярном наборе данных многошагового контроля качества HotpotQA мы показываем значительные улучшения по сравнению с сильным базовым уровнем, особенно по состязательным и выходящим за рамки предметной области вопросам. Наш метод общеприменим и автоматически учится разлагать вопросы разных классов, при этом соответствуя производительности методам декомпозиции, которые в значительной степени полагаются на ручную разработку и аннотации.
7,224
QasperSumInstruct
ru
Напиши аннотацию по статье
Автоматическая нейтрализация субъективной предвзятости в тексте. Авторы и редакторы таких текстов, как энциклопедии, новости и учебники, стараются избегать предвзятого языка.Однако предвзятость остается повсеместной.62% американцев считают, что их новости предвзяты BIBREF0, а предвзятость является крупнейшим источником недоверия к средствам массовой информации BIBREF1. В этой работе представлены данные и алгоритмы для автоматического снижения предвзятости в тексте.Мы фокусируемся на определенном виде предвзятости: неуместной субъективности («субъективная предвзятость»).Субъективная предвзятость возникает, когда язык, который должен быть нейтральным и справедливым, искажается чувствами, мнениями или вкусами (сознательно или бессознательно).На практике мы выявляем субъективную предвзятость с помощью метода BIBREF2: используя политику нейтральной точки зрения Википедии (NPOV).Эта политика представляет собой набор принципов, которые включают в себя «недопущение высказывания мнений как фактов» и «предпочитание непредвзятого языка».Например, заголовок новостей типа «Джон Маккейн разоблачен как беспринципный политик» (рис. РИС. 1) является предвзятым, потому что глагол «разоблачить» — это факторивный глагол, который предполагает истинность своего дополнения; в непредвзятом предложении будет использоваться глагол типа «описать», чтобы не предполагать чего-то, что является субъективным мнением автора.«Украдено» в формулировке «геймплей украден из DDR» (таблица TABREF3) субъективно представляет общий игровой процесс как разновидность кражи.«Его» в фразе «ведущий программист обычно проводит свою карьеру» снова вводит предвзятую и субъективную точку зрения (что все программисты — мужчины) посредством предположений.Мы стремимся устранить предвзятость текста, предлагая изменения, которые сделают его более нейтральным.Это контрастирует с предыдущими исследованиями, которые снизили предвзятость представления текста, удалив аспекты предубеждений из встраивания слов BIBREF3, BIBREF4 и скрытых состояний прогнозных моделей BIBREF5, BIBREF6.Чтобы не перегружать определение «дебиаса», мы называем наш вид дискриминации текста нейтрализацией этого текста.На рисунке FigREF1 приведен пример.Мы представляем Wiki Neutrality Corpus (WNC).Это новый параллельный корпус из 180 000 предвзятых и нейтрализованных пар предложений, а также контекстных предложений и метаданных.Корпус был собран из правок Википедии, призванных обеспечить нейтральную точку зрения в текстах.WNC — это первый параллельный корпус, ориентированный на предвзятый и нейтрализованный язык.Также мы определяем задачу нейтрализации субъективно ангажированного текста.Эта задача имеет много общих свойств с такими задачами, как обнаружение рамочной или эпистемологической предвзятости BIBREF2 или оценка достоверности/прогнозирование фактов BIBREF7, BIBREF8, BIBREF9, BIBREF10.Наша новая задача расширяет эти проблемы обнаружения/классификации в задачу генерации: создание более нейтрального текста со схожим смыслом.Наконец, мы предлагаем пару новых алгоритмов последовательного преобразования для этой задачи нейтрализации.Оба метода используют автокодировщики шумоподавления и функцию потерь, взвешенную по токенам.Интерпретируемый и управляемый модульный алгоритм разбивает задачу на (1) обнаружение и (2) редактирование, используя (1) детектор на основе BERT для явной идентификации проблемных слов и (2) новое встраивание соединений, с помощью которого детектор может изменять скрытые состояния редакторов.Эта парадигма продвигает важный подход «человек в цикле» к пониманию предвзятости и генеративному языковому моделированию.Во-вторых, простая в обучении и использовании, но более непрозрачная параллельная система использует кодировщик BERT для выявления субъективности как части процесса генерации.Масштабная человеческая оценка показывает, что, хотя наши алгоритмы не лишены недостатков, они могут выявлять и уменьшать предвзятость в энциклопедиях, новостях, книгах и политических выступлениях, и делают это лучше, чем современные системы переноса стиля и машинного перевода.Эта работа представляет собой важный первый шаг к автоматическому управлению предвзятостью в реальном мире.Мы публикуем данные и код для общественности.Корпус Wiki Neutrality Corpus состоит из согласованных предложений до и после нейтрализации, выполненных редакторами английской Википедии (таблица TABREF3).Мы использовали регулярные выражения для сканирования 423 823 редакций Википедии в период с 2004 по 2019 год, где редакторы предоставили обоснование, связанное с NPOV, BIBREF11, BIBREF2, BIBREF12.Чтобы максимизировать точность изменений, связанных с предвзятостью, мы игнорировали версии, в которых [noitemsep]было изменено более одного предложения.Минимальные правки (дистанция Левенштейна символов $<$4). Максимальные правки (изменено больше половины слов). Правки, где более половины слов были именами собственными.Правки, исправляющие орфографические или грамматические ошибки.Изменения, в которых добавлялись ссылки или гиперссылки.Правки, которые изменили нелитературные элементы, такие как таблицы или знаки препинания.Мы выравниваем предложения в тексте до и после, вычисляя скользящее окно (размером $k = 5$) парных BLEU BIBREF13 между предложениями и сопоставляя предложения с наибольшим баллом BIBREF14, BIBREF15.Наконец, мы отбросили пары, соотношение длин которых превышало 95-й процентиль BIBREF16. Статистика корпуса приведена в таблице TABREF12.Окончательные данные представляют собой (1) параллельный корпус из 180 тысяч предвзятых предложений и их нейтральных аналогов и (2) 385 тысяч нейтральных предложений, которые примыкали к исправленному предложению во время редактирования, но не были изменены редактором.Обратите внимание, что после BIBREF2 эксперименты по нейтрализации в разделе SECREF4 сосредоточены на подмножестве WNC, где редактор изменил или удалил одно слово в исходном тексте («Смещенное слово» в таблице TABREF12). В таблице TABREF12 также дана категоризация этих образцов. пары, используя небольшое расширение типологии BIBREF2.Они определили фреймировочную предвзятость как использование субъективных слов или фраз, связанных с определенной точкой зрения (например, использование таких слов, как «лучший» или «самый глубокий», или использование «украдено из» вместо «основано на»), а эпистемологическую предвзятость — как лингвистические особенности, которые тонко (часто через пресуппозицию) фокусируются на правдоподобность предложения.К этим двум мы добавляем третий вид субъективной предвзятости, который также встречается в наших данных, который мы называем демографической предвзятостью, текст с предположениями об определенном поле или расе или других демографических категориях (например, предположение, что все программисты — мужчины). включите ярлыки для этих категорий, но мы вручную пометили случайную выборку из 500 примеров, чтобы оценить распределение трех типов.Таблица TABREF13 показывает, что, хотя систематическая ошибка является наиболее распространенной, в данных представлены все типы систематической ошибки, включая случаи демографической систематической ошибки.Мы внимательно рассмотрим WNC, чтобы выявить характеристики субъективной предвзятости в Wikipedia.Topic.Мы используем модели категоризации BIBREF17 Фонда Викимедиа, чтобы объединить статьи из WNC и вышеупомянутой случайной выборки в онтологию из 44 категорий, а затем сравнить пропорции изменений, вызванных NPOV, по категориям.Субъективно предвзятые правки наиболее распространены в категориях истории, политики, философии, спорта и языка.Наименее они распространены в категориях метеорологии, науки, форм рельефа, радиовещания и искусства.Это говорит о том, что существует связь между темой текста и реализацией предвзятости.Мы используем это наблюдение при разработке нашей модели в разделе SECREF19.Tenure.Мы группируем редакторов на «новичков» (стаж меньше месяца) и «опытных» (более месяца).Мы обнаружили, что новички с меньшей вероятностью будут выполнять нейтрализующие правки (15% в WNC) по сравнению с другими правками (34% в случайной выборке из 685 тысяч правок).Эта разница значительна ($\tilde{\chi }^2$ p $=$ 0,001), что позволяет предположить, что сложность нейтрализации текста обычно предназначена для более старших редакторов, что помогает объяснить работу оценщиков-людей в разделе SECREF53. Мы предлагаем задача нейтрализации текста, в которой алгоритму дается входное предложение, и он должен создать выходное предложение, значение которого максимально похоже на входное, но с удаленной субъективной предвзятостью.Мы предлагаем два алгоритма решения этой задачи, каждый из которых имеет свои преимущества.Модульный алгоритм обеспечивает человеческий контроль и интерпретируемость.Параллельный алгоритм прост в обучении и эксплуатации.Примем следующие обозначения: $\mathbf {s} =[w^s_1, ..., w^s_n]$ — это исходная последовательность субъективно предвзятого текста.$\mathbf {t} =[w^t_1, ..., w^t_m]$ — это целевая последовательность и нейтрализованная версия $\mathbf {s}$. Первый алгоритм, который мы предлагаем, состоит из двух этапов: обнаружение на основе BERT и редактирование на основе LSTM. .Мы предварительно обучаем модель для каждого этапа, а затем объединяем их в единую систему для сквозной точной настройки общей задачи нейтрализации.Переходим к описанию каждого модуля.Модуль обнаружения представляет собой устройство для определения нейронных последовательностей, которое оценивает $p_i$, вероятность того, что каждое входное слово $w^s_i$ является субъективно предвзятым (рисунок FigREF26). Описание модуля.Каждый $p_i$ вычисляется в соответствии с $\mathbf {b}_i \in \mathcal {R}^{b}$, представляющим семантическое значение $w^s_i$.Это контекстуализированный вектор слов, созданный BERT, кодировщиком-преобразователем, который был предварительно обучен как модель замаскированного языка BIBREF18.Чтобы использовать взаимосвязь предвзятости по теме, раскрытую в разделе SECREF14, мы добавляем токен, указывающий категорию темы статьи (<искусство>, <спорт> и т. д.) к $\mathbf {s}$.Векторы слов для этих токенов изучаются с нуля. $\mathbf {e}_i$ представляет экспертные особенности предвзятости, предложенные BIBREF2: $\mathbf {W}^{in} \in \mathcal {R}^{f \times h}$ — матрица изученных параметров, а $\mathbf {f}_i$ — вектор дискретных признаков.$\mathbf {W}^{b} \in \mathcal {R}^{b}$, $ \mathbf {W}^{e} \in \mathcal {R}^{h}$ и $b \in \mathcal {R}$ — обучаемые параметры.Предварительное обучение модуля.Мы обучаем этот модуль, используя различия между исходным и целевым текстом.Метка $p^*_i$ равна 1, если $w^s_i$ была удалена или изменена в рамках процесса нейтрализации.Метка равна 0, если она встречается как в исходном, так и в целевом тексте.Потери рассчитываются как средняя отрицательная логарифмическая вероятность меток: Модуль редактирования берет субъективное исходное предложение $\mathbf {s}$ и обучается редактировать его в более нейтральный комплимент $\mathbf {t}$. Описание модуля .Этот модуль основан на модели нейронного машинного перевода BIBREF19.Кодер bi-LSTM BIBREF20 превращает $\mathbf {s}$ в последовательность скрытых состояний $\mathbf {H} = (\mathbf {h}_1, ..., \mathbf {h}_n)$. Затем декодер LSTM генерирует текст по одному токену за раз, неоднократно обращаясь к $\mathbf {H}$ и создавая распределения вероятностей по словарю.Мы также добавляем два механизма из обобщающей литературы BIBREF21.Первый — это механизм копирования, где окончательный результат модели для временного шага $i$ становится взвешенной комбинацией прогнозируемого распределения словарного запаса и распределения внимания на этом временном шаге.Второй — это механизм покрытия, который включает сумму предыдущих распределений внимания в окончательную функцию потерь, чтобы предотвратить повторное обращение модели к слову и его повторение.Мы предварительно обучаем декодер как языковую модель нейтрального текста, используя нейтральную часть WNC (раздел SECREF2).Это выражает основанное на данных априорное представление о том, как должны читаться целевые предложения.Мы достигаем этого с помощью функции шумоподавления автокодировщика BIBREF22 и максимизации условной логарифмической вероятности $\log p(\mathbf {x} \vert \widetilde{\mathbf {x}})$ восстановления последовательности $\mathbf {x}$ из поврежденная версия самого себя $\widetilde{\mathbf {x}} = C(\mathbf {x})$ с использованием модели шума $C$. Наш $C$ похож на BIBREF23.Мы слегка перетасовываем $\mathbf {x}$ так, чтобы индекс $x_i$ в $\widetilde{\mathbf {x}}$ случайным образом выбирался из $[i - k, i + k]$. Затем мы отбрасываем слова с вероятностью $p$. Для наших экспериментов мы установили $k = 3$ и $p = 0,25$. После того, как модули обнаружения и редактирования были предварительно обучены, мы объединяем их и настраиваем вместе как сквозную систему для перевода $\mathbf { s}$ в $\mathbf {t}$. Это делается с помощью нового механизма встраивания соединений, который позволяет детектору управлять редактором (рис. FigREF29).Встраивание соединения представляет собой вектор $\mathbf {v} \in \mathcal {R}^h$, который мы добавляем к каждому скрытому состоянию кодировщика в модуле редактирования.Эта операция контролируется выходными вероятностями детектора $\mathbf {p} = (p_1, ..., p_n)$. Обратите внимание, что один и тот же $\mathbf {v}$ применяется на всех временных шагах.Мы приступаем к настройке декодера на новые скрытые состояния $\mathbf {H}^{\prime } = (\mathbf {h^{\prime }}_1, ..., \mathbf {h}^{\prime } _n)$.Интуитивно понятно, что $\mathbf {v}$ обогащает скрытые состояния слов, которые детектор определил как субъективные.Это сообщает декодеру, какой язык следует изменить и что можно безопасно копировать в процессе нейтрализации.Сигналы ошибок могут проходить обратно как в кодер, так и в детектор, создавая сквозную систему из двух модулей.Для точной настройки параметров объединенной системы мы используем функцию потерь, взвешенную по токенам, которая масштабирует потери нейтрализованных слов (т. е. слов, уникальных для $\mathbf {t}$) в $\alpha $:Обратите внимание, что $c$ — это термин из механизма покрытия (раздел SECREF28).В наших экспериментах мы используем $\alpha = 1.3$.Интуитивно, эта функция потерь включает в себя индуктивное смещение процесса нейтрализации: источник и цель имеют высокую степень лексического сходства, но цель состоит в том, чтобы изучить структуру их различий, а не просто копировать слова в выходные данные (что-то предварительно обученное автоэнкодер уже должен знать об этом).Эта функция потерь связана с предыдущей работой по исправлению грамматики BIBREF24 и экономичному обучению BIBREF25. Наш второй алгоритм берет проблемный источник $\textbf {s}$ и напрямую генерирует нейтрализованный $\mathbf {\hat{t}}$ . Хотя это упрощает обучение и эксплуатацию системы, это ограничивает интерпретируемость и управляемость.Описание модели.Параллельная система представляет собой нейронную сеть кодер-декодер.Кодировщик - BERT.Декодер тот же, что и в разделе SECREF28: LSTM с механизмами копирования и покрытия.На входах декодера установлены следующие значения: Скрытые состояния $\mathbf {H} = \mathbf {W}^H\ \mathbf {B}$, где $\mathbf {B} = (\mathbf {b}_1, ... , \mathbf {b}_{n})\in \mathcal {R}^{b \times n}$ — это источник, встроенный в BERT, а $\mathbf {W}^H \in \mathcal {R}^{h \times b}$ — это матрица изученных параметры.Начальные состояния $\mathbf {c}_0 = \mathbf {W}^{c0}\ \sum \mathbf {b}_i / n$ и $\mathbf {h_0} = \mathbf {W}^{h0}\ \ сумма \mathbf {b}_i / n$. $\mathbf {W}^{c0} \in \mathcal {R}^{h \times b}$ и $\mathbf {W}^{h0} \in \mathcal {R}^{h \times b} $ — изученные матрицы.Модельное обучение.Параллельная модель предварительно обучается с помощью той же процедуры автокодирования, которая описана в разделе SECREF28.Затем она настраивается как система перевода от субъективного к нейтральному с той же функцией потерь, которая описана в разделе SECREF30.Реализация.Мы реализовали нелинейные модели с помощью Pytorch BIBREF29 и оптимизировали с помощью Adam BIBREF30, настроенного в BIBREF18, со скоростью обучения 5e-5.Мы использовали размер партии 16.Все векторы имели длину $h = 512$, если не указано иное.Мы используем обрезку градиента с максимальной нормой градиента 3 и вероятностью исключения 0,2 на входах каждой ячейки LSTM BIBREF31.Мы инициализируем компонент BERT модуля тегов с помощью общедоступных параметров bert-base-uncases.Все остальные параметры были равномерно инициализированы в диапазоне $[-0.1,\0.1]$.Процедура.Следуя BIBREF2, мы обучаем и оцениваем нашу систему на подмножестве WNC, где редактор изменил или удалил одно слово в исходном тексте.В результате было получено 53 803 обучающих пары (около четверти WNC), из которых мы выбрали 700 разрабатывающих и 1000 тестовых пар.Для справедливого сравнения мы предоставили нашим базовым показателям дополнительный доступ к 385 639 нейтральным примерам, когда это было возможно.Мы предварительно обучили модуль маркировки на 4 эпохи.Мы предварительно обучили модуль редактирования на нейтральной части нашего WNC в течение 4 эпох.Совместная система обучалась на тех же данных, что и тагер, в течение 25 000 шагов (около 7 эпох).Мы выполняем интерференцию, используя поиск луча и ширину луча 4.Все вычисления выполнялись на одном графическом процессоре NVIDIA TITAN X; Обучение всей системы заняло примерно 10 часов.Мы сообщаем о статистической значимости с повторной выборкой бутстрепа и уровнем достоверности 95% BIBREF32, BIBREF33.Evaluation.Мы оцениваем наши модели по пяти метрикам.BLEU BIBREF13 и точность (доля декодировок, которые точно соответствуют изменениям редактора) являются количественными.Мы также наняли на Amazon Mechanical Turk людей, свободно говорящих по-английски.Работникам показали определение «предвзятого заявления» в BIBREF2 и Википедии и шесть примеров предложений, а затем подвергли квалификационному тесту из пяти вопросов, в ходе которого им нужно было выявить субъективную предвзятость.Примерно половина из 30 000 рабочих, прошедших квалификационное испытание, прошла его.Тех, кто прошел тест, попросили сравнить пары оригинальных и отредактированных предложений (не зная, какое из них было оригиналом) по трем критериям: беглость, сохранение смысла и предвзятость.Беглость и предвзятость оценивались по шкале семантического дифференциала от -2 до 2.Здесь семантическая дифференциальная шкала может лучше оценить вопросы, ориентированные на отношение, с двумя поляризованными вариантами (например, «текст A или B более беглый?»).Смысл оценивался по шкале Лайкерта от 0 до 4 в диапазоне от «совершенно разные» до «идентичные».Согласие между экспертами было от среднего до существенного (альфа Криппендорфа 0,65 для беглости, 0,33 для значения и 0,51 для предвзятости).Мы сообщаем о статистической значимости с помощью t-критерия и 95% доверительного интервала.Результаты по WNC представлены в таблице TABREF35.В дополнение к методам из литературы мы включаем (1) систему на основе BERT, которая просто прогнозирует и удаляет субъективные слова, и (2) систему, которая прогнозирует замены (включая удаление) субъективных слов непосредственно из их вложений BERT.По мнению оценщиков, все методы успешно уменьшают предвзятость.Однако многим методам, похоже, не хватает беглости.Добавление функции потерь, взвешенной по токенам, и предварительное обучение декодера помогают обеспечить согласованность модели в соответствии с BLEU и точность.Добавление детектора (модульного) или кодера BERT (параллельного) дает дополнительные преимущества.Предложенные модели сохраняют сильные эффекты систем из литературы, но при этом обеспечивают беглость речи в среднем на целевом уровне.Наши результаты показывают, что между двумя предложенными нами системами нет явного победителя.модульный метод лучше снижает предвзятость и имеет более высокую точность, в то время как параллельный дает более плавные ответы, лучше сохраняет смысл и имеет более высокий BLEU. Таблица TABREF39 показывает, что BLEU больше коррелирует с беглостью речи, но точность больше коррелирует с уменьшением субъективной предвзятости.Слабая связь между BLEU и оценками человека подтверждается другими исследованиями BIBREF35, BIBREF36.Мы приходим к выводу, что ни одна автоматическая метрика не является полноценной заменой человеческого суждения.Чтобы продемонстрировать эффективность предложенных методов в отношении субъективной предвзятости в дикой природе, мы делаем выводы на трех наборах данных, находящихся за пределами домена (таблица TABREF45).Мы подготовили каждый набор данных в соответствии с той же процедурой, что и WNC (раздел SECREF2).После вывода мы привлекли 1800 оценщиков для оценки качества 200 случайно выбранных точек данных.Обратите внимание, что для партийных наборов данных мы выбираем равное количество примеров из «консервативных» и «либеральных» источников.Эти данные таковы: Корпус идеологических книг (IBC), состоящий из партийных книг и журнальных статей BIBREF37, BIBREF38. Заголовки партийных новостных статей идентифицированы как предвзятые по данным mediabiasfactcheck.com.Фразы из предвыборных речей видного политика (президента США Дональда Трампа).Мы отфильтровали артефакты, специфичные для диалога (междометия, фатики и т. д.), удалив все предложения с менее чем 4 токенами перед выборкой тестового набора.В целом, хотя модульный подход лучше справляется с уменьшением предвзятости, параллельный, по-видимому, лучше сохраняет смысл и беглость исходного текста.Мы пришли к выводу, что предложенные методы, хотя и несовершенны, способны дать полезные предложения о том, как можно уменьшить субъективную предвзятость в реальных новостях или политических текстах.Чтобы лучше понять ограничения наших моделей и предлагаемую задачу нейтрализации предвзятости, мы случайным образом выбираем 50 ошибок, произведенных нашими моделями, на тестовом наборе Википедии и распределяем их по следующим категориям: Без изменений.Модель не смогла удалить или изменить исходное предложение.Плохая перемена.Модель изменила источник, но внесла редактирование, которое не соответствовало основной цели (т. е. изменению редактора Википедии).Ошибки в языковом моделировании и генерации текста. Шум.Точка данных зашумлена, а целевой текст не является нейтральной версией источника.Распределение ошибок приведено в таблице TABREF50.Большинство ошибок происходит из-за тонкости и сложности понимания языка, необходимого для нейтрализации предвзятости, а не из-за создания беглого текста.Эти проблемы особенно выражены при нейтрализации правок, предполагающих замену факторивных и утвердительных глаголов.Как показывает столбец 2, значительная часть ошибок, хотя и не согласуется с правкой, внесенной редакторами Википедии, тем не менее успешно нейтрализует предвзятость в источнике.Примеры каждого типа ошибок приведены в таблице TABREF52.(через две страницы).Как показывают примеры, наши модели имеют тенденцию просто удалять слова вместо того, чтобы найти хорошую замену.Мы приступаем к анализу способности нашего алгоритма обнаруживать и классифицировать предвзятость, а также эффективности предлагаемого встраивания соединений.Выявление субъективности в предложении (явное или неявное) является предпосылкой ее нейтрализации.Соответственно, мы оцениваем способность нашей модели (и 3000 краудворкеров) обнаруживать субъективность, используя процедуру BIBREF2 и те же 50 тысяч обучающих примеров, что и раздел SECREF4 (таблица TABREF51).Для каждого предложения мы выбираем слово с наибольшей прогнозируемой вероятностью и проверяем, было ли это слово действительно изменено редактором.Пропорция правильно подобранных слов и есть «точность» системы.Результаты приведены в таблице TABREF51. Обратите внимание, что в concurrent отсутствует окно интерпретации его поведения обнаружения, поэтому мы оцениваем верхнюю границу возможностей обнаружения модели путем (1) подачи скрытых состояний кодировщика в полностью связанный слой + softmax, который прогнозирует вероятность того, что токен является субъективно предвзятым, и (2) обучение этого уровня в качестве маркера последовательности в соответствии с процедурой раздела SECREF19. Низкая производительность человека может быть объяснена трудностью выявления предвзятости.Вопросы предвзятости обычно решают старшие редакторы Википедии (раздел SECREF14), а неподготовленные работники хуже (37,39%) справляются с той же задачей в BIBREF2 (и могут испытывать трудности с другими задачами, требующими лингвистических знаний BIBREF39).Кодер concurrent, архитектурно идентичный BERT, имел производительность, аналогичную автономной системе BERT.Лингвистические и категориальные функции модульного детектора давали ему небольшое преимущество перед простыми моделями на основе BERT.Мы продолжаем анализировать возможности предлагаемого механизма встраивания соединений.Встраивание соединения объединяет две отдельно предварительно обученные модели посредством закрытого внедрения вместо более традиционной практики удаления любых окончательных слоев классификации и объединения открытых скрытых состояний BIBREF40.Соответственно, мы упразднили механизм внедрения соединения, обучив новую модель, в которой предварительно обученный детектор замораживается, а его предварительные скрытые состояния $\mathbf {b}_i$ объединяются со скрытыми состояниями кодера перед декодированием.В результате производительность снизилась до 90,78 BLEU и точности до 37,57 (с 93,52/46,8 при встраивании соединения).Это говорит о том, что обученные внедрения могут быть высокопроизводительным и сквозным каналом между подмодулями систем машинного обучения.Мы приступаем к демонстрации того, как встраивание соединения создает управляемость в процессе нейтрализации.Напомним, что модульность опирается на распределение вероятностей $\mathbf {p}$, чтобы определить, какие слова требуют редактирования (уравнение DISPLAY_FORM31).Обычно это распределение поступает из модуля обнаружения (раздел SECREF19), но мы также можем использовать определяемые пользователем распределения, которые заставляют модель ориентироваться на определенные слова.Это может позволить консультантам исправлять ошибки или подталкивать поведение модели к желаемому результату.Мы обнаружили, что моделью действительно можно управлять, позволяя пользователям перефразировать определенные слова в случае, если они не согласны с результатами модели или обращаются за рекомендациями по конкретному языку.Однако это также может привести к ошибкам в последующей генерации языка (таблица TABREF52). Предвзятость субъективности.Пионерами изучения субъективности в НЛП выступили покойная Дженис Вибе и ее коллеги BIBREF41, BIBREF42.В нескольких исследованиях разрабатываются методы выделения субъективных или убедительных рамок в тексте BIBREF43, BIBREF44 или обнаружения предвзятых предложений BIBREF45, BIBREF46, BIBREF12, BIBREF47, из которых наиболее похожим на наш является BIBREF2, ранняя, уменьшенная версия WNC и основанная на логистической регрессии Детектор смещения послужил источником вдохновения для нашего исследования.Устранение предвзятости.Многие ученые работали над устранением демографических предрассудков из смысловых репрезентаций BIBREF48, BIBREF49, BIBREF5, BIBREF50, BIBREF51.Такие исследования начинаются с определения направления или подпространства, которое отражает предвзятость, а затем удаления такого компонента предвзятости, чтобы сделать эти представления справедливыми по таким атрибутам, как пол и возраст BIBREF3, BIBREF48.Например, BIBREF50 ввел термин регуляризации для языковой модели, чтобы наказать за проекцию вложений слов на это гендерное подпространство, в то время как BIBREF51 использовал состязательное обучение для устранения направлений предвзятости из скрытых состояний.Генерация нейронного языка.В нескольких исследованиях предлагаются поэтапные процедуры генерации текста, включая выборку из корпуса BIBREF52 и определение языка, готового для модификации BIBREF53.Больше всего на нас похож BIBREF26, который локализует стиль текста до части его слов.Наш модульный модуль обнаружения выполняет аналогичную локализацию мягким способом, и наши шаги соединяются плавным каналом (встраивание соединения) вместо дискретной логики.Есть также работа, связанная с нашей параллельной моделью.Ближайшим из них является BIBREF54, где к BERT был подключен декодер для ответов на вопросы, или BIBREF23, где системы машинного перевода инициализируются для LSTM и языковых моделей исходного текста на основе Transformer.Растущее присутствие предвзятости подорвало доверие к нашим новостям, образовательным системам и платформам социальных сетей.Таким образом, автоматическое снижение предвзятости является важной новой задачей для сообщества обработки естественного языка и искусственного интеллекта.Эта работа, изучающая модели для автоматического обнаружения и исправления субъективной предвзятости в тексте, является первым шагом в этом важном направлении.Тем не менее, наши возможности были ограничены изменениями, состоящими из одного слова, которые составляют лишь четверть всех изменений в наших данных и, вероятно, являются одними из самых простых случаев предвзятости.Поэтому мы поощряем будущую работу по борьбе с более широкими случаями многословной, многоязычной и перекрестной предвзятости.Еще одним важным направлением является интеграция аспектов проверки фактов BIBREF55, поскольку более сложная система сможет узнать, когда предположение на самом деле истинно и, следовательно, не является субъективным.Наконец, наш новый механизм внедрения соединений можно применить к другим модульным архитектурам нейронных сетей.Мы благодарим Японско-американскую комиссию по образованию (Фулбрайт, Япония) за щедрую поддержку.Мы благодарим Криса Поттса, Хирокадзу Киёмару, Эбигейл Си, Кевина Кларка, Стэнфордскую группу НЛП и наших анонимных рецензентов за их вдумчивые комментарии и предложения.Мы с благодарностью отмечаем поддержку программы DARPA Communication with Computers (CwC) в рамках основного контракта ARO №. W911NF15-1-0462 и NSF через грант IIS-1514268.Дийи Ян поддерживается грантом Google.
Такие тексты, как новости, энциклопедии и некоторые социальные сети, стремятся к объективности. Тем не менее, предвзятость в форме неуместной субъективности – привнесения взглядов посредством формулирования, предположения истины и сомнений – остается повсеместной. Такая предвзятость подрывает наше коллективное доверие и разжигает социальные конфликты. Чтобы решить эту проблему, мы представляем новый испытательный стенд для генерации естественного языка: автоматическое приведение неуместно субъективного текста к нейтральной точке зрения («нейтрализация» предвзятого текста). Мы также предлагаем первый параллельный корпус предвзятой речи. Корпус содержит 180 000 пар предложений и создан на основе правок Википедии, которые удалили различные рамки, предпосылки и отношения из предвзятых предложений. Наконец, мы предлагаем два надежных базовых варианта кодирования-декодера для этой задачи. Простая, но непрозрачная система CONCURRENT использует кодировщик BERT для идентификации субъективных слов в рамках процесса генерации. Интерпретируемый и управляемый алгоритм MODULAR разделяет эти этапы, используя (1) классификатор на основе BERT для идентификации проблемных слов и (2) новое встраивание соединений, с помощью которого классификатор может редактировать скрытые состояния кодировщика. Масштабная человеческая оценка в четырех областях (энциклопедии, заголовки новостей, книги и политические выступления) позволяет предположить, что эти алгоритмы являются первым шагом на пути к автоматическому выявлению и уменьшению предвзятости.
4,948
QasperSumInstruct
ru
Напиши аннотацию по статье
И победителем становится...: Байесовский прогноз на основе Твиттера о президентских выборах в США 2016 года. Президентские выборы — важный момент для каждой страны, в том числе и для США.Их экономическая политика, устанавливаемая правительством, влияет на экономику других стран BIBREF0 .На президентских выборах в США в 2016 году кандидаты от республиканской и демократической партии использовали Twitter в качестве средства массовой информации для своей предвыборной кампании.Предыдущие исследования предсказывали исход президентских выборов в США с использованием Twitter BIBREF1, BIBREF2, BIBREF3, BIBREF4.Некоторые из них доказали, что данные Twitter могут дополнять или даже предсказывать результаты опроса.Это следует за растущим улучшением исследований в области интеллектуального анализа текста BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9. Некоторые из самых последних исследований — BIBREF3, BIBREF2, BIBREF1, BIBREF10.Ниже мы обсуждаем эти три недавних исследования и объясняем, как наше исследование связано с их исследованиями.Первое исследование было проведено BIBREF3, которое проанализировало настроения кандидатов в президенты США 2008 года, рассчитав соотношение настроений с использованием скользящего среднего.Они подсчитали ценность настроений Обамы и Маккейна на основе количества положительных и отрицательных слов, заявленных в каждом твите.Твиты были собраны в течение 2008-2009 годов, а положительные и отрицательные слова были получены из OpinionFinder.Они обнаружили, что сравнение настроений в твитах и ​​опросах было сложным, поскольку люди могли выбрать в опросах «Обаму», «Маккейна», «не решили», «не собираются голосовать» или любого независимого кандидата.Второе исследование предсказало результаты опросов президентских выборов в США в 2012 году с использованием наивной байесовской модели BIBREF2.С 29 сентября по 16 ноября 2012 года они собрали более 32 миллионов твитов.Они использовали Tweepy и установили ключевые слова для каждого кандидата для сбора твитов, например, Митт Ромни, Барак Обама, выборы в США.Собранные твиты прошли несколько этапов предварительной обработки: (1) удаление URL, упоминаний, хэштегов, RT и стоп-слов; (2) токенизация; и (3) дополнительное not_ для отрицания.Они проанализировали 10 000 случайно выбранных твитов, содержащих только имя кандидата.Результаты анализа сравнили с опросами Huffington Post, и они обнаружили, что популярность Обамы в Твиттере отражает результат опросов.В этом исследовании не использовались твиты с двумя или более именами кандидатов, поскольку это требует более сложных методов предварительной обработки.В рамках третьего исследования была создана система анализа настроений в режиме реального времени на президентских выборах в США 2012 года, позволяющая отображать общественное мнение о каждом кандидате в Twitter BIBREF1.Они собрали твиты каждого кандидата с помощью Gnip Power Track с 12 октября 2012 года и токенизировали их.Твиты были помечены примерно 800 пользователями Amazon Mechanical Turk (AMT).Они обучили наивный байесовский классификатор, используя 17 000 твитов, которые разделены на 4 класса: (1) положительные; (2) отрицательный; (3) нейтральный; и (4) не уверен.Он достиг точности 59%, что является лучшим результатом, достигнутым в трех недавних исследованиях.Они визуализировали настроения на информационной панели и рассчитали популярные слова с помощью TF-IDF. Насколько нам известно, никаких исследований о прогнозах на президентские выборы в США 2016 года пока не проводилось.Предыдущие исследования либо устанавливали настроение твита непосредственно на основе лексикона субъективности BIBREF3, либо предварительно обрабатывали твит с помощью сложного метода предварительной обработки BIBREF1, BIBREF2.BIBREF2 не только удалил URL-адреса, упоминания, ретвиты, хэштеги, цифры и стоп-слова; но также токенизировал твиты и добавил not_ к отрицательным словам.BIBREF1 токенизировал твиты и отдельные URL-адреса, смайлики, номера телефонов, теги HTML, упоминания, хэштеги, дроби или десятичные дроби, а также повторение символов или символов Юникода.В этом исследовании анализируются настроения в твитах о кандидатах в президенты США 2016 года.Мы построим наивную байесовскую прогностическую модель для каждого кандидата и сравним прогноз с RealClearPolitics.com.Мы ожидаем получить правильный прогноз относительно ведущих кандидатов от Демократической и Республиканской партии.Мы доказываем, что использование более простого метода предварительной обработки по-прежнему может иметь производительность, сравнимую с лучшим недавним исследованием BIBREF1.объясните наши методы подготовки данных в следующем разделе.За ней следует наша методология исследования в разделе III.Мы представляем наши результаты в разделе IV, за которым следуют обсуждение и выводы в разделах V и VI. Мы собрали 371 264 твита с помощью Twitter Streaming API на Tweepy BIBREF2 с 16 декабря 2015 года по 29 февраля 2016 года.Мы используем #Election2016 в качестве ключевого слова для поиска, поскольку это официальный хэштег, используемый во время цикла президентских выборов в США в 2016 году, и он охватывает разговоры обо всех кандидатах.Мы разделяем твиты по периодам, которые составляют семь дней.На рисунке 1 показано распределение частот твитов: в среднем 37 126,4 твитов за период и стандартное отклонение 27 823,82 твитов.Сбор данных с 20 по 26 января 2016 г. ограничен из-за ограниченности ресурсов.Данные сохраняются в виде файлов JSON.Каждая строка файлов JSON представляет собой твит, который состоит из 26 основных атрибутов, таких как create_at, ID, text, retweet_count и lang.Мы используем только содержимое атрибутов «create_at» и «text», поскольку это исследование фокусируется на настроениях по отношению к кандидатам в определенное время, не включая географическое положение и другую информацию.Собранные твиты в основном написаны на английском языке.Мы публикуем необработанные и предварительно обработанные твиты по запросу для использования в будущем.Данные доступны для исследовательского использования по электронной почте.Мы предварительно обрабатываем данные путем: (1) удаления URL-адресов и изображений, а также (2) фильтрации твитов, в которых есть имена кандидатов.Хэштеги, упоминания и ретвиты не удаляются, чтобы сохранить первоначальный смысл твита.Мы сохраняем только те твиты, которые соответствуют двум требованиям, например, указанным в Таблице 1.В первом примере не видно никаких изменений в содержании твита, поскольку в нем нет URL-адресов или изображений, и он содержит имя кандидата: Берни Сандерс.Во втором примере показан удаленный твит, который не содержит имен кандидатов.На этапе предварительной обработки изменяется содержимое третьего твита.Он удаляет URL-адреса и по-прежнему сохраняет твит, поскольку он содержит «Хиллари Клинтон» и «Дональд Трамп».На этапе предварительной обработки удаляется 41% данных (рис. 2). Предварительно обработанные твиты маркируются вручную 11 аннотаторами, понимающими английский язык.Всем аннотаторам выставляются либо оценки за курсовую работу, либо сувениры за свою работу.Данный ярлык состоит из предполагаемого кандидата и настроения.Аннотаторы интерпретируют твит и решают, к кому он относится.Если они считают, что твиты не относятся к конкретному кандидату и не понимают содержания, они могут выбрать в качестве ярлыка «непонятно».В противном случае они могут отнести это к одному кандидату и обозначить как положительное или отрицательное.Мы разделили твиты и аннотаторов на три группы (табл. II).Они помечают как можно больше твитов с 24 января по 16 апреля 2016 года. Срок действия ярлыка определяется с помощью правила большинства BIBREF11.Каждый твит распространяется среди трех или пяти комментаторов, и он действителен, если есть метка, которая встречается чаще всего.На последнем этапе подготовки данных мы удаляем все твиты с пометкой «непонятно».На рисунке 3 показано распределение меток твитов.Большинство твитов связано с Берни Сандерсом, Дональдом Трампом и Хиллари Клинтон.Кандидаты в президенты прогнозируются путем поиска кандидатов с наиболее прогнозируемыми положительными настроениями.Настроения прогнозируются с использованием байесовской модели.В этом разделе описываются: (1) обучение модели, (2) проверка точности модели и (3) проверка точности прогнозирования.Наши модели обучены с использованием наивного байесовского классификатора.У нас есть одна модель, представляющая каждого кандидата, следовательно, у нас есть 15 обученных моделей.Мы используем модуль nltk.classify в библиотеке Natural Language Toolkit на Python.Мы используем размеченные данные, собранные с 16 декабря 2015 г. по 2 февраля 2016 г., в качестве данных для обучения наших моделей.Остальные размеченные данные будут использоваться для оценки моделей.Точность наших моделей проверяется с помощью 10-кратной перекрестной проверки.Проверка модели выполняется с использованием библиотеки scikit-learn.Точность рассчитывается путем проверки матрицы путаницы BIBREF12 , BIBREF13 и ее оценки INLINEFORM0 BIBREF14.Onв некоторых случаях модели прогнозируют настроения в экстремальных значениях (т. е. имеют только положительные или отрицательные результаты).Из-за этих случаев мы не можем вычислить оценку INLINEFORM0 модели Криса Кристи.Средняя точность и балл INLINEFORM1 составляют 95,8% и 0,96 соответственно.Оценка INLINEFORM0 измеряет только то, насколько хорошо модель работает при прогнозировании позитивных настроений, поэтому мы предлагаем модифицированную оценку INLINEFORM1 ( INLINEFORM2 ), изменив формулу.Оценка INLINEFORM3 показывает, насколько хорошо модель прогнозирует негативные настроения.DISPLAYFORM0 Модели показывают хорошую точность и оценку INLINEFORM0 (таблица III).Это показывает, что модель может почти идеально предсказывать тестовые данные (95,8%) с немного лучшим результатом для положительных настроений, чем для отрицательных, о чем можно судить по большему значению INLINEFORM1, чем INLINEFORM2. Результаты теста не показывают точного эффекта обучения. данные и точность модели.Модели с меньшим количеством обучающих данных (например, Хакаби, Санторума) достигают более высокой точности, чем модели с большим количеством обучающих данных (например, Трампа, Клинтона), в то время как наименьшая точность достигается у модели Касича, которая обучается с небольшим количеством обучающих данных.Неопределенное значение оценок INLINEFORM0 и INLINEFORM1 в моделях Christie's, Gilmore's и Santorum показывает экстремальные прогнозы для этих моделей.В качестве входных данных для прогнозирования модели используют твиты, собранные с 3 по 9 февраля 2016 года.Прогноз состоит из двух шагов: (1) мы вычисляем положительные настроения по твитам и рассматриваем количество положительных настроений как вероятность того, что кандидат станет кандидатом, и (2) мы сортируем кандидатов по количеству их положительных настроений.Рейтинги сравниваются с результатами опроса на RealClearPolitics.com.Мы рассчитываем частоту ошибок (E), разделив разницу рейтинга опроса с нашим прогнозируемым рейтингом на количество кандидатов ( INLINEFORM0 ).DISPLAYFORM0 DISPLAYFORM1, где INLINEFORM0 и n — количество кандидатов.Po и Pre — это рейтинги опросов и прогнозов, связанные с RealClearPolitics.com и моделью соответственно.Мы используем твиты за 3-9 февраля 2016 года в качестве входных данных для наших моделей относительно указанного кандидата.Мы ранжируем результат прогнозирования, сортируя количество положительных прогнозов для каждого кандидата.В Демократической партии лидирует Берни Сандерс с 3335 твитами, за ним следуют Мартин О'Мэлли (14 твитов) и Хиллари Клинтон (ни одного).Ранги прогнозов по Республиканской партии следующие: (1) Тед Круз (1432 твита), (2) Марко Рубио (1239 твитов), (3) Рэнд Пол (645 твитов), (4) Рик Санторум (186 твитов), (5) Джон Кейсич (133 твита), (6) Карли Фиорина (88 твитов), (7) Майк Хакаби (11 твитов) и (8) Джим Гилмор (5 твитов).Остальные кандидаты от Республиканской партии не имеют положительного прогноза, поэтому мы помещаем их на последнее место.Наш прогноз модели имеет рейтинг от 1 до 9 и отличается от прогноза опроса (ранг от 1 до 8).Прежде чем провести сравнение, мы корректируем ранги прогнозов, чтобы получить равный диапазон.Мы перемещаем Джеба Буша, Бена Карсона, Криса Кристи и Дональда Трампа, которые раньше занимали 9-е место, на 8-е место.Мы сравниваем ранги прогнозов с результатами опроса и вычисляем коэффициент ошибок.Наша модель дает ошибку 1,33 для двух оставшихся кандидатов от Демократической партии, что мы считаем не очень хорошим.Наша модель лучше работает при прогнозировании кандидатов-республиканцев, что дает ошибку 1,67 для 7 оставшихся кандидатов (см. Таблицу IV и V). Общую точность прогноза можно рассчитать путем вычитания единицы из среднего результата деления частоты ошибок для каждой партии на количество оставшихся в ней кандидатов. кандидаты.Мы достигаем точности прогнозирования 0,548, что недостаточно для BIBREF1.На точность модели в основном влияет большая частота ошибок среди кандидатов от Демократической партии (1,33 из 2 кандидатов). Используя простые предварительно обработанные данные, наша наивная байесовская модель успешно достигает точности 95,8% при 10-кратной перекрестной проверке и точности 54,8% при прогнозировании результатов опроса. результат.Модель предсказывает, что Тед Круз и Берни Сандерс будут кандидатами от Республиканской и Демократической партии соответственно.Основываясь на позитивных прогнозах, он предсказывает, что Берни Сандерс будет избран президентом США в 2016 году.Несмотря на то, что точность модели во время теста модели составляет 95,8%, ее прогноз не отражает результат опроса.Таблица III показывает, что точность модели не зависит от количества обучающих данных.Модель с меньшим количеством обучающих данных (например, Майка Хакаби) может отлично работать во время теста модели и пропускать только рейтинг в прогнозе, тогда как модель с большим количеством обучающих данных (например, Дональда Трампа) может иметь худшую производительность.Чтобы увидеть, как на точность модели влияет количество обучающих данных, мы обучаем больше моделей для каждого кандидата, используя n первых твитов, и используем их для прогнозирования настроений следующих 4000 твитов (см. рисунок 4).Модели Берни Сандерса и Дональда Трампа наиболее точно предсказывают настроения.Модели с меньшим количеством обучающих данных (например, Мартин О'Мэлли, Джим Гилмор, Майк Хакаби), как правило, имеют нестабильную точность.Модели, обученные с использованием 1000 первых твитов, имеют среднюю точность 55,85% и стандартное отклонение 26,49%, тогда как модели, обученные с использованием 33 000 первых твитов, имеют немного другую точность: 65,75% средней точности и 27,79% стандартного отклонения.Это показывает, что количество обучающих данных не влияет на общую точность модели.Наша модель, возможно, не отражает результаты опроса, но выборы все еще продолжаются, и мы не знаем, какой кандидат станет следующим президентом США.Следовательно, существует вероятность того, что предполагаемые кандидаты станут следующим президентом США.В противном случае Twitter нельзя будет использовать для прогнозирования реальных результатов опросов BIBREF15. Мыпостроила наивные байесовские модели прогнозирования для президентских выборов в США в 2016 году.Мы используем официальный хэштег и простой метод предварительной обработки для подготовки данных без изменения их значения.Наша модель достигает точности 95,8% во время тестирования модели и прогнозирует опрос с точностью 54,8%.Модель предсказывает, что Берни Сандерс и Тед Круз станут кандидатами от Демократической и Республиканской партии соответственно, а на выборах победит Берни Сандерс.
В этой статье описывается наивно-байесовская модель прогнозирования президентских выборов в США 2016 года, основанная на данных Twitter. Мы используем 33 708 твитов, собранных с 16 декабря 2015 г. по 29 февраля 2016 г. Мы вводим более простой метод предварительной обработки данных для маркировки данных и обучения модели. Модель достигает точности 95,8% при 10-кратной перекрестной проверке и прогнозирует, что Тед Круз и Берни Сандерс будут кандидатами от республиканской и демократической партии соответственно. Он достигает результата, сравнимого с результатами, полученными от методов конкурентов.
2,500
QasperSumInstruct
ru
Напиши аннотацию по статье
"Информативное и контролируемое обобщение мнений. Рас(...TRUNCATED)
"Обобщение мнений — это задача автоматического создан(...TRUNCATED)
4,492
QasperSumInstruct
ru
Напиши аннотацию по статье
"Изучение представлений эмоциональной речи с помощью (...TRUNCATED)
"Автоматическая оценка эмоциональной валентности чел(...TRUNCATED)
3,241
QasperSumInstruct
ru
Напиши аннотацию по статье
"Автоматическая классификация отчетов о патологии с и(...TRUNCATED)
"Отчет о патологии, возможно, является одним из наиболе(...TRUNCATED)
2,126
QasperSumInstruct
ru
Напиши аннотацию по статье
"Объединение функций акустики, контента и взаимодейст(...TRUNCATED)
"«Горячие точки» вовлечения были предложены в качеств(...TRUNCATED)
3,036
QasperSumInstruct
ru
Напиши аннотацию по статье
"Насколько мы далеки от эффективного контекстного мод(...TRUNCATED)
"В последнее время семантическому анализу в контексте (...TRUNCATED)
4,715
QasperSumInstruct
ru
Напиши аннотацию по статье
"Генеративно-состязательные сети для нескольких текст(...TRUNCATED)
"Генеративно-состязательные сети (GAN) успешно применяю(...TRUNCATED)
5,631
QasperSumInstruct
ru
Напиши аннотацию по статье
"Связанная многореляционная сеть внимания для рекомен(...TRUNCATED)
"Для борьбы с фейковыми новостями исследователи в осно(...TRUNCATED)
6,940
QasperSumInstruct
ru
README.md exists but content is empty. Use the Edit dataset card button to edit it.
Downloads last month
2
Edit dataset card