export const metadata = {
  sidebar_position: 1000,
  title: "📚 Бібліографічний список",
};

# 📚 Бібліографічний список

Сторінка містить упорядкований список усіх документів, які використовуються у цьому курсі. Статті розподілені за темами.

**Щоб процитувати цей курс, використовуйте надану цитату в репозиторії Github.**

🔵 = Стаття, безпосередньо цитована в цьому курсі. Інші документи доповнили моє розуміння теми.

Примітка: оскільки [документи GPT-3 та GPT-3 Instruct не відповідають моделям davinci](https://twitter.com/janleike/status/1584618242756132864), я намагаюся не цитувати їх як такі.

## Стратегії інженерії запитів

#### Ланцюг думок (Chain of Thought)(@wei2022chain) 🔵

#### Ланцюг думок без прикладів у запиті (Zero Shot Chain of Thought)(@kojima2022large) 🔵

#### Самоузгодженість (Self Consistency)(@wang2022selfconsistency) 🔵

#### Чим хороші контекстні приклади для GPT-3?(@liu2021makes) 🔵

### Запит про все, що завгодно (Ask-Me-Anything)(@arora2022ama) 🔵

#### Згенеровані знання(@liu2021generated) 🔵

#### Мовні моделі із функцією озвучення(@sun2022recitationaugmented) 🔵

#### Переосмислення ролі демонстрацій(@min2022rethinking) 🔵

#### Scratchpads(@nye2021work)

#### Майєвтичні запити(@jung2022maieutic)

#### STaR(@zelikman2022star)

#### Запити від найменшого до найбільшого(@zhou2022leasttomost) 🔵

#### Рефреймінг інструктивних запитів на мову GPTk (@mishra2022reframing) 🔵

#### Тест Тюркінга: чи можуть мовні моделі розуміти інструкції?(@efrat2020turking) 🔵

## Надійність

#### MathPrompter(@imani2023mathprompter) 🔵

#### Ненадійність пояснень у запитах з невеликою кількістю прикладів для текстових міркувань(@ye2022unreliability) 🔵

#### Запит для GPT-3 має бути надійним(@si2022prompting)

#### Різноманітні запити(@li2022advance) 🔵

#### Калібрування перед використанням: покращення продуктивності мовних моделей з кількома прикладами(@zhao2021calibrate) 🔵

#### Покращена самоузгодженість(@mitchell2022enhancing)

#### Упередженість у тестовому ланцюзі думок з кількома прикладами(@shaikh2022second) 🔵

#### Конституційний ШІ: нешкідливість зворотного зв'язку із ШІ(@bai2022constitutional) 🔵

#### Композиційне узагальнення - SCAN(@lake2018scan)

## Автоматизоване створення запитів

#### AutoPrompt(@shin2020autoprompt) 🔵

#### Інженер автоматичних запитів(@zhou2022large)

## Моделі

### Мовні моделі

#### GPT-3(@brown2020language) 🔵

#### GPT-3 Instruct(@ouyang2022training) 🔵

#### PaLM(@chowdhery2022palm) 🔵

#### BLOOM(@scao2022bloom) 🔵

#### BLOOM+1 (більше мов/ 0 покращень прикладів)(@yong2022bloom1)

#### Технічний звіт GPT-4(@openai2023gpt4) 🔵

#### Jurassic 1(@lieberjurassic) 🔵

#### GPT-J-6B(@wange2021gptj)

#### Roberta(@liu2019roberta)

### Моделі генерування зображень

#### Stable Diffusion(@rombach2021highresolution) 🔵

#### DALLE(@ramesh2022hierarchical) 🔵

## М'який запит

#### М'які запити(@lester2021power) 🔵

#### Інтерпретовані дискретизовані м'які запити (@khashabi2021prompt) 🔵

## Набори даних

#### MultiArith(@roy-roth-2015-solving) 🔵

#### GSM8K(@cobbe2021training) 🔵

#### HotPotQA(@yang2018hotpotqa) 🔵

#### Fever(@thorne2018fever) 🔵

#### BBQ: власноруч створений тест на упередженість для відповідей на запитання(@parrish2021bbq) 🔵

## Інженерія запиту для зображень

#### Таксономія модифікаторів запитів(@oppenlaender2022taxonomy)

#### DiffusionDB(@wang2022diffusiondb)

#### Книга запитів DALLE 2(@parsons2022dalleprompt) 🔵

#### Інженерія запитів для мистецтва, згенерованого на основі тексту(@oppenlaender2022prompt) 🔵

#### Зі створенням правильних запитів допоможе Stable Diffusion 2.0.(@blake2022with) 🔵

#### Оптимізація запитів для перетворення тексту в зображення(@hao2022optimizing)

## Інженерія запитів IDEs

#### Prompt IDE(@strobelt2022promptide) 🔵

#### Prompt Source(@bach2022promptsource) 🔵

#### PromptChainer(@wu2022promptchainer) 🔵

#### PromptMaker(@jiang2022promptmaker) 🔵

## Інструменти

#### LangChain(@Chase_LangChain_2022) 🔵

#### TextBox 2.0: Бібліотека генерування текстів з попередньо підготовленими мовними моделями(@tang2022textbox) 🔵

#### OpenPrompt: фреймворк з відкритим вихідним кодом для швидкого навчання(@ding2021openprompt) 🔵

#### GPT Index(@Liu_GPT_Index_2022) 🔵

## Прикладна інженерія запитів

#### Конструкції мовних моделей(@dohan2022language)

#### MRKL(@karpas2022mrkl) 🔵

#### ReAct(@yao2022react) 🔵

#### PAL: Програмовані мовні моделі(@gao2022pal) 🔵

## Дизайн інтерфейсу користувача

#### Інструкції з проєктування запитів для моделей, які генерують текст у зображення(@liu2022design)

## Введення запитів

#### Згенерований машиною текст: всебічний огляд загроз і методів їх виявлення(@crothers2022machine) 🔵

#### Оцінка вразливості мовних моделей за допомогою власних прикладів(@branch2022evaluating) 🔵

#### Дослідження програмної поведінки ВММ: подвійне використання через атаки на систему безпеки(@kang2023exploiting) 🔵

#### Додатковий матеріал: всебічний аналіз нових загроз швидкого введення даних до великих мовних моделей, які інтегровані з додатками(@greshake2023youve) 🔵

#### Введення запитів як атаки проти GPT-3(@simon2022inject) 🔵

#### Використання запитів GPT-3 зі зловмисними введеннями, які наказують моделі ігнорувати попередні вказівки(@goodside2022inject) 🔵

#### Суперечливі запити(@chase2021adversarial) 🔵

#### ChatGPT "DAN" (та інші випадки джейлбрейку)(@kiho2023chatgpt) 🔵

#### Захист від введення запитів у GPT-3(@goodside2021gpt) 🔵

#### Діалог з машиною: інженерія запитів та їхнє введення(@christoph2022talking)

#### Дослідження атак під час введення запитів(@selvi2022exploring) 🔵

#### Використання GPT-Eliezer проти джейлбрейку ChatGPT(@armstrong2022using) 🔵

#### Запит в чаті Microsoft Bing(@kevinbing)

## Джейлбрейк

#### Ігнорувати попередній запит: методи атаки на мовні моделі(@perez2022jailbreak)

#### Уроки з техніки безпеки та зловживання мовними моделями(@brundage_2022)

#### Виявлення токсичності з генеративним висновком на основі запитів(@wang2022jailbreak)

#### Нові вдосконалені засоби модерації контенту(@markov_2022)

#### OpenAI API(@openai_api) 🔵

#### OpenAI ChatGPT(@openai_chatgpt) 🔵

#### Твіт про ChatGPT 4(@alice2022jailbreak) 🔵

#### Робочий твіт(@miguel2022jailbreak) 🔵

#### Твіт-дослідження(@derek2022jailbreak) 🔵

#### Твіт про здатність удавати(@nero2022jailbreak) 🔵

#### Твіт про відповідальність(@nick2022jailbreak) 🔵

#### Твіт у режимі Lynx(@jonas2022jailbreak) 🔵

#### Твіт у режимі Sudo(@sudo2022jailbreak) 🔵

#### Ігнорування попереднього запиту(@ignore_previous_prompt) 🔵

## Дослідження

#### Попереднє навчання, запит та прогнозування: систематичний огляд методів запитів в обробці природної мови(@liu2021pretrain)

#### Статті про запити(@ning2022papers)

## Генерування наборів даних

#### Дослідження поведінки мовної моделі за допомогою модельних оцінок(@perez2022discovering)

#### Вибіркове коментування покращує навчання мовних моделей з кількома прикладами(@su2022selective)

## Застосунки

#### Atlas: Навчання з кількома прикладами мовних моделей із розширеним пошуком(@izacard2022atlas)

#### STRUDEL: Структуроване узагальнення діалогу для його розуміння(@wang2022strudel)

## Актуальні теми

#### Auto-GPT(@richards2023)

#### Baby AGI(@nakajima2023)

#### AgentGPT(@reworkd2023)

## Різне

#### Запит — це програмування: мова запитів для великих мовних моделей(@beurerkellner2022prompting)

#### Паралельні контекстні вікна покращують контекстне навчання великих мовних моделей(@ratner2022parallel)

#### Каталог шаблонів запитів для покращення їхньої розробки за допомогою ChatGPT(@white2023prompt) 🔵

#### Навчання для виконання складних завдань за допомогою композиційного тонкого налаштування мовних моделей(@bursztyn2022learning)

#### Надзвичайні інструкції: узагальнення 1600+ завдань NLP за допомогою декларативних інструкцій(@wang2022supernaturalinstructions)

#### Покращення здатності мовних моделей з кількома прикладами до навчання(@gao2021making)

#### Занурення в результати пошуку(@livin2022large)

#### Як створювати запити? Можливості та виклики навчання з прикладами та без них для взаємодії людини та штучного інтелекту задля творчого застосування генеративних моделей(@dang2022prompt)

#### Про визначення соціальних упереджень у багатозадачному навчанні на основі запитів(@akyrek2022measuring)

#### Написання сюжету з використанням попередньо навчених мовних моделей(@jin2022plot) 🔵

#### StereoSet: Визначення стереотипів у попередньо навчених мовних моделях(@nadeem-etal-2021-stereoset)

#### Дослідження галюцинацій у продукуванні природної мови(@Ji_2022)

#### Приклади(@liu2021makes)

#### Wordcraft(@yuan2022wordcraft)

#### PainPoints(@fadnavis2022pain)

#### Самонавчання: узгодження мовної моделі з самостійно створеними інструкціями(@wang2022selfinstruct)

#### Від зображень до текстових запитів: нульовий VQA із замороженими великими мовними моделями(@guo2022images)

#### Використання Cloze Questions для класифікації текстів з невеликою кількістю прикладів та висновку природною мовою(@schick2020exploiting)

### Запит про все, що завгодно (Ask-Me-Anything)(@arora2022ama)

### Водяний знак для великих мовних моделей(@kirchenbauer2023watermarking)
