MERA-evaluation commited on
Commit
3f0cd4a
·
verified ·
1 Parent(s): 8a57d6a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +46 -46
README.md CHANGED
@@ -52,96 +52,96 @@ size_categories:
52
  ---
53
 
54
 
55
- # ruCLEVR
56
 
57
 
58
- ## Task description
59
 
60
- RuCLEVR is a Visual Question Answering (VQA) dataset inspired by the [CLEVR](https://cs.stanford.edu/people/jcjohns/clevr/) methodology and adapted for the Russian language.
61
 
62
- RuCLEVR consists of automatically generated images of 3D objects, each characterized by attributes such as shape, size, color, and material, arranged within various scenes to form complex visual environments. The dataset includes questions based on these images, organized into specific families such as querying attributes, comparing attributes, existence, counting, and integer comparison. Each question is formulated using predefined templates to ensure consistency and variety. The set was created from scratch to prevent biases. Questions are designed to assess the models' ability to perform tasks that require accurate visual reasoning by analyzing the attributes and relationships of objects in each scene. Through this structured design, the dataset provides a controlled environment for evaluating the precise reasoning skills of models when presented with visual data.
63
 
64
- Evaluated skills: Common everyday knowledge, Spatial object relationship, Object recognition, Physical property understanding, Static counting, Comparative reasoning
65
 
66
- Contributors: Ksenia Biryukova, Daria Chelnokova, Jamilya Erkenova, Artem Chervyakov, Maria Tikhonova
67
 
68
 
69
- ## Motivation
70
 
71
- The RuCLEVR dataset was created to evaluate the visual reasoning capabilities of multimodal language models, specifically in the Russian language, where there is a lack of diagnostic datasets for such tasks. It aims to assess models' abilities to reason about shapes, colors, quantities, and spatial relationships in visual scenes, moving beyond simple language understanding to test compositional reasoning. This is crucial for models that are expected to analyze visual data and perform tasks requiring logical inferences about object interactions. The dataset's design, which uses structured question families, ensures that the evaluation is comprehensive and unbiased, focusing on the models' reasoning skills rather than pattern recognition.
72
 
73
 
74
- ## Data description
75
 
76
- ### Data fields
77
 
78
- Each dataset question includes data in the following fields:
79
 
80
- - `instruction` [str] — Instruction prompt template with question elements placeholders.
81
- - `inputs` — Input data that forms the task for the model. Can include one or multiple modalities - video, audio, image, text.
82
- - `image` [str] — Path to the image file related to the question.
83
- - `question` [str] — Text of the question.
84
- - `outputs` [str] — The correct answer to the question.
85
- - `meta` — Metadata related to the test example, not used in the question (hidden from the tested model).
86
- - `id` [int] — Identification number of the question in the dataset.
87
- - `question_type` [str] — Question type according to possible answers: binary, colors, count, materials, shapes, size.
88
- - `image` — Image metadata.
89
- - `synt_source` [list] — Sources used to generate or recreate data for the question, including names of generative models.
90
- - `type` [str] — Image typeaccording to the image classification for MERA datasets.
91
 
92
 
93
- ### Data formatting example
94
 
95
  ```json
96
  {
97
- "instruction": "Даны вопрос и картинка, необходимая для ответа на вопрос. Посмотри на изображение и дай ответ на вопрос. Ответом является одна цифра или одно слово в начальной форме.\nИзображение:<image>\nВопрос:{question}\nОтвет:",
98
  "inputs": {
99
- "image": "samples/image0123.png",
100
- "question": "Одинаков ли цвет большой металлической сферы и матового блока?"
101
  },
102
- "outputs": "да",
103
  "meta": {
104
- "id": 17,
105
  "question_type": "binary",
106
  "image": {
107
  "synt_source": [
108
  "blender"
109
  ],
110
- "type": "generated"
 
 
111
  }
112
  }
113
  }
114
  ```
115
 
116
 
117
- ### Prompts
118
 
119
- For the task, 10 prompts were prepared and evenly distributed among the questions on the principle of "one prompt per question". The templates in curly braces in each prompt are filled in from the fields inside the `inputs` field in each question.
120
 
121
- Prompt example:
122
 
123
- ```
124
- Даны вопрос и картинка, необходимая для ответа на вопрос. Посмотри на изображение и дай ответ на вопрос. Ответом является одна цифра или одно слово в начальной форме.
125
- Изображение:<image>
126
- Вопрос:{question}
127
- Ответ:
128
- ```
129
 
130
 
131
- ### Dataset creation
132
 
133
- To create RuCLEVR, we used two strategies: 1) generation of the new samples and 2) data augmentation with color replacement. Below, each technique is described in more detail:
134
 
135
- **Generation of the New Samples**: We generated new, unique images and corresponding questions from scratch. This process involved a multi-step process to ensure a controlled and comprehensive evaluation of visual reasoning. First, 3D images were automatically generated using Blender, featuring objects with specific attributes such as shape, size, color, and material. These objects were arranged in diverse configurations to create complex scenes. Questions with the corresponding answers were then generated based on predefined templates, which structured the inquiries into families, such as attribute queries and comparisons. To avoid conjunction errors, we stick to the original format and generate questions in English, further translating them into Russian using Google Translator. After generation, we automatically filtered incorrectly translated questions using the [model](https://huggingface.co/RussianNLP/ruRoBERTa-large-rucola) pertained to the linguistic acceptability task. In addition, we checked the dataset for the absence of duplicates.
136
 
137
- **Data Augmentation with Color Replacement**: We also augmented the dataset modifying the images from the validation set of the original CLEVER. Specifically, we developed a [script](https://github.com/erkenovaj/RuCLEVR/tree/main) to systematically replace colors in questions and images according to predefined rules, thereby creating new augmented samples. This process was initially conducted in English to avoid morphological complexities. Once the questions were augmented, they were translated into Russian and verified for grammatical correctness.
138
 
139
 
140
- ## Evaluation
141
 
 
142
 
143
- ### Metrics
144
 
145
- Metrics for aggregated evaluation of responses:
146
 
147
- - `Exact match`: Exact match is the average of scores for all processed cases, where a given case score is 1 if the predicted string is the exact same as its reference string, and is 0 otherwise.
 
52
  ---
53
 
54
 
55
+ ## ruCLEVR
56
 
57
 
58
+ ## Описание задачи
59
 
60
+ RuCLEVR это датасет для задачи визуального вопросно-ответного ризонинга (Visual Question Answering, VQA), созданный по методологии [CLEVR](https://cs.stanford.edu/people/jcjohns/clevr/), адаптированной для русского языка.
61
 
62
+ RuCLEVR состоит из автоматически сгенерированных изображений 3D-объектов, каждый из которых характеризуется такими признаками, как форма, размер, цвет и материал, расположенных в различных условиях и образующих сложное визуальное окружение. Набор данных включает вопросы, основанные на этих изображениях и разбитые на определенные группы, такие как запрос атрибутов, сравнение атрибутов, существование, подсчет и целочисленное сравнение. Для создания вопросов использованы предопределённые шаблоны, что позволяет обеспечить последовательность и разнообразие. Датасет был создан с нуля, чтобы избежать предвзятости модели. Вопросы предназначены для оценки способности моделей выполнять задачи, требующие точного визуального рассуждения, анализируя признаки и отношения объектов в каждой сцене. Благодаря такому структурированному дизайну датасет обеспечивает контролируемую среду для оценки навыков точного рассуждения моделей при работе с визуальными данными.
63
 
64
+ Тестируемые навыки моделей: Spatial object relationship, Physical property understanding, Object recognition, Object localization, Spatial object relationship, Static counting
65
 
66
+ Авторы: Ксения Бирюкова, Дарья Челонокова, Джамиля Эркенова, Артем Червяков, Мария Тихонова
67
 
68
 
69
+ ## Мотивация
70
 
71
+ Датасет RuCLEVR был создан для оценки возможностей визуальных рассуждений мультимодальных языковых моделей, в частности на русском языке, где не хватает диагностических датасетов для таких задач. Его цель оценить способность моделей рассуждать о формах, цветах, количествах и пространственных отношениях в визуальных сценах, выходя за рамки базового понимания языка и проверяя способности моделей к комплексным рассуждениям. Данный навык необходим моделям, которые, как ожидается, будут анализировать визуальные данные и выполнять задачи, требующие логических выводов о взаимодействии объектов. Дизайн датасета, в котором используются структурированные семейства вопросов, обеспечивает всестороннюю и непредвзятую оценку, сосредоточенную на навыках рассуждения моделей, а не на распознавании паттернов.
72
 
73
 
74
+ ## Описание датасета
75
 
76
+ ### Поля данных
77
 
78
+ Каждый вопрос в датасете содержит следующие поля:
79
 
80
+ - `instruction` [str] — Промпт-инструкция для модели, содержащая шаблон для вставки элементов вопроса.
81
+ - `inputs` — Вводные данные, формирующие задание для модели.
82
+ - `image` [str] — Путь к файлу с изображением, к которому относится вопрос.
83
+ - `question` [str] — Текст вопроса.
84
+ - `outputs` [str] — Правильный ответ на вопрос.
85
+ - `meta` — Метаданные, относящиеся к тестовому примеру, но не используемые в вопросе (скрытые от тестируемой модели).
86
+ - `id` [int] — Номер-идентификатор вопроса в датасете.
87
+ - `question_type` [str] — Тип вопроса в зависимости от возможных ответов: бинарный, цвета, количество, материалы, формы, размер.
88
+ - `image` — Метаданные, относящиеся к изображению.
89
+ - `synt_source` [list] — Источники, с помощью которых сгенерированы или воссозданы данные для формирования вопроса, в том числе названия генеративных моделей.
90
+ - `type` [list] — Тип изображениясогласно классификации изображений для датасетов MERA.
91
 
92
 
93
+ ### Пример данных
94
 
95
  ```json
96
  {
97
+ "instruction": "Изображение:\n<image>\nНа этом изображении показаны различные геометрические объекты со своей формой, цветом и расположением друг относительно друга.\nВопрос: {question}\nЭтот вопрос касается объектов на изображении. Ответь на вопрос одним словом, употребив начальную форму этого слова, или числом, используя цифры для его записи.\nОтвет:",
98
  "inputs": {
99
+ "image": "samples/image0007.png",
100
+ "question": "Есть ли еще какие-нибудь предметы такой же формы, как и большой металлический предмет?"
101
  },
102
+ "outputs": "нет",
103
  "meta": {
104
+ "id": 7,
105
  "question_type": "binary",
106
  "image": {
107
  "synt_source": [
108
  "blender"
109
  ],
110
+ "type": [
111
+ "generated"
112
+ ]
113
  }
114
  }
115
  }
116
  ```
117
 
118
 
119
+ ### Создание датасета
120
 
121
+ Для создания RuCLEVR использовались два подхода: 1) генерация новых примеров и 2) аугментация данных с заменой цвета. Ниже каждый подход описан более подробно:
122
 
123
+ **Генерация новых примеров**: Были сгенерированы новые уникальные изображения и соответствующие вопросы с нуля. Этот процесс включал несколько этапов для обеспечения контролируемой и всесторонней оценки визуального рассуждения. Сначала автоматически генерировались 3D-изображения с использованием [Blender](https://www.blender.org/download/releases/2-78/) с изображением объектов с заданными свойствами, такими как форма, размер, цвет и материал. Эти объекты были размещены в различных конфигурациях для создания сложных сцен. Затем на основе заданных шаблонов были сгенерированы вопросы и ответы к ним. Чтобы избежать ошибок в грамматических формах (падежи, склонения), мы генерировали вопросы на английском языке, после чего перевели их на русский с помощью Google Translate. После генерации вопросы были отфильтрованы для выявления некорректных переводов с использованием модели [ruRoBERTa-large-rucola](https://huggingface.co/RussianNLP/ruRoBERTa-large-rucola), обученной для задачи лингвистической приемлемости. Кроме того, мы проверили датасет на отсутствие дубликатов.
124
 
125
+ **Аугментация данных с заменой цвета**: Нами были применены техники аугментации данных для повышения вариативности и сложности тестовой части с использованием разработанного [скрипта](https://github.com/erkenovaj/RuCLEVR/tree/main) для систематической замены цветов в вопросах и изображениях по заданным правилам. Аугментация изначально проводилась для сэмплов на английском языке, чтобы избежать морфологических сложностей. После аугментации вопросы были переведены на русский язык и проверены на грамматическую корректность.
126
+
127
+ Финально датасет был вручную проверен, некорректные примеры, появившиеся из-за автоматического способа генерации данных, были исключены.
 
 
 
128
 
129
 
130
+ ## Оценка
131
 
132
+ ### Метрики
133
 
134
+ Для агрегированной оценки ответов моделей используются следующие метрики:
135
 
136
+ - `Exact match`: Метрика Exact match вычисляет среднее по оценкам всех обработанных вопросов, где оценка имеет значение 1, если предсказанная строка точно совпадает с правильным ответом, и 0 в остальных случаях.
137
 
138
 
139
+ ### Human baseline
140
 
141
+ Human baseline — это оценка усредненных ответов людей на вопросы бенчмарка. Оценка проводится по тем же метрикам, что и для моделей.
142
 
143
+ Для всех вопросов датасета были получены ответы разметчиков на crowd-source платформе с перекрытием 5. Ответы в свободной форме были нормализованы (регистр, пробелы) для сравнения с эталоном. Агрегированным ответом считался тот, который был выбран большинством (majority vote).
144
 
145
+ Результаты оценки:
146
 
147
+ - Exact match 0.96