1. add blip-2-cn
Browse files2. spr-inference and llm's image resolve issue
Signed-off-by: Yao, Matrix <matrix.yao@intel.com>
- blip-2-cn.md +223 -0
- intel-sapphire-rapids-inference-cn.md +6 -9
- large-language-models-cn.md +6 -10
blip-2-cn.md
ADDED
@@ -0,0 +1,223 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# 使用 BLIP-2 零样本“图生文”
|
2 |
+
|
3 |
+
本文将介绍来自 Salesforce 研究院的 [BLIP-2](https://huggingface.co/docs/transformers/main/en/model_doc/blip-2) 模型,它支持一整套最先进的视觉语言模型,且已集成入 [🤗 Transformers](https://huggingface.co/transformers) 。
|
4 |
+
我们将向你展示如何将其用于图像字幕生成、有提示图像字幕生成、视觉问答及基于聊天的提示这些应用场景。
|
5 |
+
|
6 |
+
## 目录
|
7 |
+
|
8 |
+
1. [简介](#简介)
|
9 |
+
2. [BLIP-2 葫芦里卖的什么药?](#BLIP-2-葫芦里卖的什么药?)
|
10 |
+
3. [通过 Hugging Face Transformers 使用 BLIP-2](#通过-Hugging-Face-Transformers-使用-BLIP-2)
|
11 |
+
1. [图像字幕生成](#图像字幕生成)
|
12 |
+
2. [有提示图片字幕生成](#有提示图片字幕生成)
|
13 |
+
3. [视觉问答](#视觉问答)
|
14 |
+
4. [基于聊天的提示](#基于聊天的提示)
|
15 |
+
4. [结论](#结论)
|
16 |
+
5. [致谢](#致谢)
|
17 |
+
|
18 |
+
## 简介
|
19 |
+
|
20 |
+
近年来,计算机视觉和自然语言处理领域各自都取得了飞速发展。但许多实际问题本质上其实是多模态的,即它们同时涉及几种不同形式的数据,如图像和文本。因此,需要视觉语言模型来帮助解决一系列组合模态的挑战,我们的技术才能最终得到广泛落地。视觉语言模型可以处理的一些 **图生文** 任务包括图像字幕生成、图文检索以及视觉问答。图像字幕生成可以用于视障人士辅助、创建有用的产品描述、识别非文本模态的不当内容等。图文检索可以用于多模态搜索,也可用于自动驾驶场合。视觉问答可以助力教育行业、使能多模态聊天机器人,还可用于各种特定领域的信息检索应用。
|
21 |
+
|
22 |
+
现代计算机视觉和自然语言模型在能力越来越强大的同时,模型尺寸也随之显著增大。由于当前进行一次单模态模型的预训练既耗费资源又昂贵,因此端到端视觉语言预训练的成本也已变得越来越高。
|
23 |
+
|
24 |
+
[BLIP-2](https://arxiv.org/pdf/2301.12597.pdf) 通过引入一种新的视觉语言预训练范式来应对这一挑战,该范式可以任意组合并充分利用两个预训练好的视觉编码器和 LLM,而无须端到端地预训练整个架构。这使得我们可以在多个视觉语言任务上实现最先进的结果,同时显著减少训练参数量和预训练成本。此外,这种方法为多模态ChatGPT 类应用奠定了基础。
|
25 |
+
|
26 |
+
## BLIP-2 葫芦里卖的什么药?
|
27 |
+
|
28 |
+
BLIP-2 通过在冻结的预训练图像编码器和冻结的预训练大语言模型之间添加一个轻量级 **查询 Transformer (Query Transformer, Q-Former)** 来弥合视觉和语言模型之间的模态隔阂(modality gap)。在整个模型中,Q-Former 是唯一的可训练模块,而图像编码器和语言模型始终保持冻结状态。
|
29 |
+
|
30 |
+
<p align="center">
|
31 |
+
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/blip-2/q-former-1.png" alt="BLIP-2 框架概览" width=500>
|
32 |
+
</p>
|
33 |
+
|
34 |
+
Q-Former 是一个 transformer 模型,它由两个子模块组成,这两个子模块共享相同的自注意力层:
|
35 |
+
* 与冻结的图像编码器交互的**图像 transformer**,用于视觉特征提取
|
36 |
+
* 文本 transformer,用作文本编码器和解码器
|
37 |
+
|
38 |
+
<p align="center">
|
39 |
+
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/blip-2/q-former-2.png" alt="Q-Former 架构" width=500>
|
40 |
+
</p>
|
41 |
+
|
42 |
+
图像 transformer 从图像编码器中提取固定数量的输出特征,这里特征的个数与输入图像分辨率无关。同时,图像 transformer 接收若干查询嵌入作为输入,这些查询嵌入是可训练的。这些查询还可以通过相同的自注意力层与文本进行交互(译者注:这里的相同是指图像 transformer 和文本 transformer 对应的自注意力层是共享的)。
|
43 |
+
|
44 |
+
Q-Former 分两个阶段进行预训练。
|
45 |
+
|
46 |
+
第一阶段,图像编码器被冻结,Q-Former 通过三个损失函数进行训练:
|
47 |
+
* 图文对比损失(image-text contrastive loss):每个查询的输出都与文本输出的 CLS 词元计算成对相似度,并从中选择相似度最高的一个最终计算对比损失。在该损失函数下,查询嵌入和文本不会 “看到” 彼此。
|
48 |
+
* 基于图像的文本生成损失:查询内部可以相互计算注意力但不计算文本词元对查询的注意力,同时文本内部的自注意力使用因果掩码且需计算所有查询对文本的注意力。
|
49 |
+
* 图文匹配损失(image-text matching loss):查询和文本可以看到彼此,最终获得一个几率(logit)用以表示文字与图像是否匹配。这里,使用难例挖掘技术(hard negative mining)来生成负样本。
|
50 |
+
|
51 |
+
图像 transformer 作为一个信息瓶颈(information bottleneck),查询嵌入经过它后,其输出嵌入已经不仅仅包含了视觉信息,而且包含了与文本相关的视觉信息。这些输出嵌入用作第二阶段 LLM 输入的视觉前缀。该
|
52 |
+
预训练阶段主要涉及一个以基于图像的文本生成任务,损失函数使用因果 LM 损失。
|
53 |
+
|
54 |
+
BLIP-2 使用 ViT 作为视觉编码器。而对于 LLM,论文作者使用 OPT 和 Flan T5 模型。你可以找到在
|
55 |
+
[Hugging Face Hub](https://huggingface.co/models?other=blip-2) 上找到 OPT 和 Flan T5 的预训练 checkpoints。
|
56 |
+
|
57 |
+
但不要忘记,如前所述,BLIP-2 设计的预训练方法允许任意的视觉主干模型和 LLM 的组合。
|
58 |
+
|
59 |
+
## 通过 Hugging Face Transformers 使用 BLIP-2
|
60 |
+
|
61 |
+
使用 Hugging Face Transformers,你可以轻松下载并在你自己的图像上运行预训练的 BLIP-2 模型。如果你想跑跑本文中的示例,请确保使用大显存 GPU。
|
62 |
+
|
63 |
+
我们从安装 Transformers 开始。由于此模型是最近才添加到 Transformers 中的,因此我们需要从源代码安装 Transformers:
|
64 |
+
|
65 |
+
```bash
|
66 |
+
pip install git+https://github.com/huggingface/transformers.git
|
67 |
+
```
|
68 |
+
|
69 |
+
接下来,我们需要一个输入图像。《纽约客》每周都会面向其读者举办一场 [卡通字幕比赛](https://www.newyorker.com/cartoons/contest#thisweek)。我们从中取一张卡通图像输入给 BLIP-2 用于测试。
|
70 |
+
|
71 |
+
```
|
72 |
+
import requests
|
73 |
+
from PIL import Image
|
74 |
+
|
75 |
+
url = 'https://media.newyorker.com/cartoons/63dc6847be24a6a76d90eb99/master/w_1160,c_limit/230213_a26611_838.jpg'
|
76 |
+
image = Image.open (requests.get (url, stream=True).raw).convert ('RGB')
|
77 |
+
display (image.resize ((596, 437)))
|
78 |
+
```
|
79 |
+
|
80 |
+
<p align="center">
|
81 |
+
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/blip-2/cartoon.jpeg" alt="New Yorker Cartoon" width=500>
|
82 |
+
</p>
|
83 |
+
|
84 |
+
现在我们有一张输入图像了,还需要一个预训练过的 BLIP-2 模型和相应的预处理器来处理输入。你
|
85 |
+
可以在 [Hugging Face Hub](https://huggingface.co/models?other=blip-2) 上找到所有可用的预训练 checkpoints 列表。这里,我们将加载一个使用 Meta AI 的预训练 OPT 模型的 BLIP-2 checkpoint,该 OPT 模型具有 27 亿个参数。
|
86 |
+
|
87 |
+
```
|
88 |
+
from transformers import AutoProcessor, Blip2ForConditionalGeneration
|
89 |
+
import torch
|
90 |
+
|
91 |
+
processor = AutoProcessor.from_pretrained ("Salesforce/blip2-opt-2.7b")
|
92 |
+
model = Blip2ForConditionalGeneration.from_pretrained ("Salesforce/blip2-opt-2.7b", torch_dtype=torch.float16)
|
93 |
+
```
|
94 |
+
|
95 |
+
请注意,你暂时还无法使用 Auto API(例如 AutoModelForXXX)来加载 BLIP-2 模型,这种情况在 Hugging Face 中比较少见。你需要显式使用 `Blip2ForConditionalGeneration` 来加载 BLIP-2 模型。虽然自动获取模型还不能做到,但是你可以使用 `AutoProcessor` 来获取匹配的处理器类,在本例中为 `Blip2Processor`。
|
96 |
+
|
97 |
+
我们可以使用 GPU 来加快文本生成速度:
|
98 |
+
|
99 |
+
```
|
100 |
+
device = "cuda" if torch.cuda.is_available () else "cpu"
|
101 |
+
model.to (device)
|
102 |
+
```
|
103 |
+
|
104 |
+
### 图像字幕生成
|
105 |
+
|
106 |
+
我们先看看 BLIP-2 是否可以零样本地为《纽约客》卡通图像生成字幕。要为图像添加字幕,我们不必向模型提供任何文本提示,仅提供预处理过的输入图像。没有任何文字提示,模型将从 BOS(beginning-of-sequence)开始生成图像字幕。
|
107 |
+
|
108 |
+
```
|
109 |
+
inputs = processor (image, return_tensors="pt")
|
110 |
+
|
111 |
+
generated_ids = model.generate (**inputs, max_new_tokens=20)
|
112 |
+
generated_text = processor.batch_decode (generated_ids, skip_special_tokens=True)[0].strip ()
|
113 |
+
print (generated_text)
|
114 |
+
```
|
115 |
+
|
116 |
+
```
|
117 |
+
"two cartoon monsters sitting around a campfire"
|
118 |
+
```
|
119 |
+
|
120 |
+
对于未使用《纽约客》风格的卡通图像训练过的模型,这是一个令人印象深刻的准确描述!
|
121 |
+
|
122 |
+
### 有提示图片字幕生成
|
123 |
+
|
124 |
+
我们还可以通过提供文本提示来扩展图像字幕生成,模型将在给定图像的情况下接着提示词往下补充。
|
125 |
+
|
126 |
+
```
|
127 |
+
prompt = "this is a cartoon of"
|
128 |
+
|
129 |
+
inputs = processor (image, text=prompt, return_tensors="pt").to (device, torch.float16)
|
130 |
+
|
131 |
+
generated_ids = model.generate (**inputs, max_new_tokens=20)
|
132 |
+
generated_text = processor.batch_decode (generated_ids, skip_special_tokens=True)[0].strip ()
|
133 |
+
print (generated_text)
|
134 |
+
```
|
135 |
+
|
136 |
+
```
|
137 |
+
"two monsters sitting around a campfire"
|
138 |
+
```
|
139 |
+
|
140 |
+
```
|
141 |
+
prompt = "they look like they are"
|
142 |
+
|
143 |
+
inputs = processor (image, text=prompt, return_tensors="pt").to (device, torch.float16)
|
144 |
+
|
145 |
+
generated_ids = model.generate (**inputs, max_new_tokens=20)
|
146 |
+
generated_text = processor.batch_decode (generated_ids, skip_special_tokens=True)[0].strip ()
|
147 |
+
print (generated_text)
|
148 |
+
```
|
149 |
+
|
150 |
+
```
|
151 |
+
"having a good time"
|
152 |
+
```
|
153 |
+
|
154 |
+
### 视觉问答
|
155 |
+
用于视觉问答时,提示必须遵循特定格式:
|
156 |
+
"Question: {} Answer:"
|
157 |
+
|
158 |
+
```
|
159 |
+
prompt = "Question: What is a dinosaur holding? Answer:"
|
160 |
+
|
161 |
+
inputs = processor (image, text=prompt, return_tensors="pt").to (device, torch.float16)
|
162 |
+
|
163 |
+
generated_ids = model.generate (**inputs, max_new_tokens=10)
|
164 |
+
generated_text = processor.batch_decode (generated_ids, skip_special_tokens=True)[0].strip ()
|
165 |
+
print (generated_text)
|
166 |
+
```
|
167 |
+
|
168 |
+
```
|
169 |
+
"A torch"
|
170 |
+
```
|
171 |
+
|
172 |
+
### 基于聊天的提示
|
173 |
+
|
174 |
+
最后,我们可以通过拼接对话中每轮的问题和回答来创建类似 ChatGPT 的体��。我们用某个提示(比如 “恐龙拿着什么?”)来问模型,模型会为它生成一个答案(如 “火炬”),我们可以把这一问一答拼接到对话中。然后我们再来一轮,这样就把上下文(context)建立起来了。
|
175 |
+
但是,需要确保的是,上下文不能超过 512 个标记,因为这是 BLIP-2 使用的语言模型(OPT 和 T5)的上下文长度。
|
176 |
+
|
177 |
+
```
|
178 |
+
context = [
|
179 |
+
("What is a dinosaur holding?", "a torch"),
|
180 |
+
("Where are they?", "In the woods.")
|
181 |
+
]
|
182 |
+
question = "What for?"
|
183 |
+
template = "Question: {} Answer: {}."
|
184 |
+
|
185 |
+
prompt = "".join ([template.format (context [i][0], context [i][1]) for i in range (len (context))]) +" Question: "+ question +" Answer:"
|
186 |
+
|
187 |
+
print (prompt)
|
188 |
+
```
|
189 |
+
|
190 |
+
```
|
191 |
+
Question: What is a dinosaur holding? Answer: a torch. Question: Where are they? Answer: In the woods.. Question: What for? Answer:
|
192 |
+
```
|
193 |
+
|
194 |
+
```
|
195 |
+
inputs = processor (image, text=prompt, return_tensors="pt").to (device, torch.float16)
|
196 |
+
|
197 |
+
generated_ids = model.generate (**inputs, max_new_tokens=10)
|
198 |
+
generated_text = processor.batch_decode (generated_ids, skip_special_tokens=True)[0].strip ()
|
199 |
+
print (generated_text)
|
200 |
+
```
|
201 |
+
|
202 |
+
```
|
203 |
+
To light a fire.
|
204 |
+
```
|
205 |
+
|
206 |
+
## 结论
|
207 |
+
|
208 |
+
BLIP-2 是一种零样本视觉语言模型,可用于各种含图像和文本提示的图像到文本任务。这是一种效果好且效率高的方法,可应用于多种场景下的图像理解,特别是当训练样本稀缺时。
|
209 |
+
|
210 |
+
该模型通过在预训练模型之间添加 transformer 来弥合视觉和自然语言模态之间的隔阂。这一新的预训练范式使它能够充分享受两种模态的各自的进展的红利。
|
211 |
+
|
212 |
+
如果您想了解如何针对各种视觉语言任务微调 BLIP-2 模型,请查看 [Salesforce 提供的 LAVIS 库](https://github.com/salesforce/LAVIS),它为模型训练提供全面支持。
|
213 |
+
|
214 |
+
要查看 BLIP-2 的运行情况,可以在 [Hugging Face Spaces](https://huggingface.co/spaces/Salesforce/BLIP2) 上试用其演示。
|
215 |
+
|
216 |
+
|
217 |
+
## 致谢
|
218 |
+
|
219 |
+
非常感谢 Salesforce 研究团队在 BLIP-2 上的工作,感谢 Niels Rogge 将 BLIP-2 添加到 🤗 Transformers,感谢 Omar Sanseviero 审阅这篇文章。
|
220 |
+
|
221 |
+
> 英文原文: <url> https://huggingface.co/blog/blip-2 </url>
|
222 |
+
>
|
223 |
+
> 译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。
|
intel-sapphire-rapids-inference-cn.md
CHANGED
@@ -135,9 +135,7 @@ for model in models:
|
|
135 |
|
136 |
为简洁起见,我们先看下 [distilbert-base-uncased](https://huggingface.co/distilbert-base-uncased) 的 p99 结果。你可以在文章末尾找到所有测例的完整结果。
|
137 |
|
138 |
-
|
139 |
-
<img src="assets/129_intel_sapphire_rapids_inference/01.png">
|
140 |
-
</kbd>
|
141 |
|
142 |
如上图所示,与上一代至强 CPU 相比,Sapphire Rapids 上单个句子的预测延迟加速了 **60-65%**。也就是说,由于结合了英特尔 Sapphire Rapids 平台以及 Hugging Face Optimum 的优化,你只需对代码进行很少改动就可将预测速度提高 3 倍。
|
143 |
|
@@ -160,12 +158,11 @@ for model in models:
|
|
160 |
|
161 |
## 附录:完整结果
|
162 |
|
163 |
-
|
164 |
-
<img src="assets/129_intel_sapphire_rapids_inference/02.png">
|
165 |
-
</kbd>
|
166 |
|
167 |
* 基准测试软件环境:Ubuntu 22.04 with libtcmalloc, Linux 5.15.0 patched for Intel AMX support, PyTorch 1.13 with Intel Extension for PyTorch, Transformers 4.25.1, Optimum 1.6.1, Optimum Intel 1.7.0.dev0*
|
168 |
|
169 |
-
|
170 |
-
|
171 |
-
|
|
|
|
135 |
|
136 |
为简洁起见,我们先看下 [distilbert-base-uncased](https://huggingface.co/distilbert-base-uncased) 的 p99 结果。你可以在文章末尾找到所有测例的完整结果。
|
137 |
|
138 |
+
![](assets/129_intel_sapphire_rapids_inference/01.png)
|
|
|
|
|
139 |
|
140 |
如上图所示,与上一代至强 CPU 相比,Sapphire Rapids 上单个句子的预测延迟加速了 **60-65%**。也就是说,由于结合了英特尔 Sapphire Rapids 平台以及 Hugging Face Optimum 的优化,你只需对代码进行很少改动就可将预测速度提高 3 倍。
|
141 |
|
|
|
158 |
|
159 |
## 附录:完整结果
|
160 |
|
161 |
+
![](assets/129_intel_sapphire_rapids_inference/02.png)
|
|
|
|
|
162 |
|
163 |
* 基准测试软件环境:Ubuntu 22.04 with libtcmalloc, Linux 5.15.0 patched for Intel AMX support, PyTorch 1.13 with Intel Extension for PyTorch, Transformers 4.25.1, Optimum 1.6.1, Optimum Intel 1.7.0.dev0*
|
164 |
|
165 |
+
|
166 |
+
> 英文原文: <url> https://huggingface.co/blog/intel-sapphire-rapids-inference </url>
|
167 |
+
>
|
168 |
+
> 译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。
|
large-language-models-cn.md
CHANGED
@@ -1,14 +1,12 @@
|
|
1 |
# 大语言模型:新的摩尔定律?
|
2 |
|
3 |
-
|
4 |
|
5 |
不久前,微软和 NVIDIA [推出](https://www.microsoft.com/en-us/research/blog/using-deepspeed-and-megatron-to-train-megatron-turing-nlg-530b-the-worlds-largest-and-most-powerful-generative-language-model/) 了 Megatron-Turing NLG 530B,一种基于 Transformer 的模型,被誉为是 “*世界上最大且最强的生成语言模型*”。
|
6 |
|
7 |
毫无疑问,该工作对于机器学习工程来讲是一个令人印象深刻的能力展示,表明我们的工程能力已经能够训练如此巨大的模型。然而,我们应该为这种超级模型的趋势感到兴奋吗?我个人倾向于否定的回答。我将在通过本文阐述我的理由。
|
8 |
|
9 |
-
|
10 |
-
<img src="assets/33_large_language_models/01_model_size.jpg">
|
11 |
-
</kbd>
|
12 |
|
13 |
### 这是你的深度学习大脑
|
14 |
|
@@ -56,9 +54,7 @@ BERT-Large 有 3.4 亿个参数。我们可以通过此推断 Megatron-Turing
|
|
56 |
|
57 |
[Big Science](https://bigscience.huggingface.co/) 项目的最新模型也令人印象深刻。下面这张来自于 [论文](https://arxiv.org/abs/2110.08207) 的图表明,他们的 T0 模型在许多任务上都优于 GPT-3,同时尺寸小 16 倍。你可以 [这儿](https://huggingface.co/bigscience/T0pp) 尝试 T0。
|
58 |
|
59 |
-
|
60 |
-
<img src="assets/33_large_language_models/02_t0.png">
|
61 |
-
</kbd>
|
62 |
|
63 |
我们需要更多的此类研究!
|
64 |
|
@@ -100,6 +96,6 @@ BERT-Large 有 3.4 亿个参数。我们可以通过此推断 Megatron-Turing
|
|
100 |
|
101 |
这条路似曾相识,我们应该知道这条路迟早会遇到收益递减、成本增加、复杂性等问题以及新的风险。指数的结局往往不是会很好。还记得 [Meltdown and Spectre](https://meltdownattack.com/) 吗?我们想知道人工智能的 Meltdown and Spectre 会是什么吗?
|
102 |
|
103 |
-
|
104 |
-
|
105 |
-
|
|
|
1 |
# 大语言模型:新的摩尔定律?
|
2 |
|
3 |
+
> 译者按:最近一段时间,ChatGPT 作为一个现象级应用迅速蹿红,也带动了对其背后的大语言模型(LLM)的讨论,这些讨论甚至出了 AI 技术圈,颇有些到了街谈巷议的程度。在 AI 技术圈,关于 LLM 和小模型的讨论在此之前已经持续了不短的时间,处于不同生态位置和产业环节的人都有表达自己的观点,其中不少是有冲突的。大模型的研究者和大公司出于不同的动机站位 LLM,研究者出于对 LLM 的突现能力(emergent ability)的好奇和对 LLM 对 NLP 领域能力边界的拓展、而大公司可能更多出自于商业利益考量;而社区和中小公司犹犹豫豫在小模型的站位上徘徊,一方面是由于对 LLM 最终训练、推理和数据成本的望而却步,一方面也是对大模型可能加强大公司数据霸权的隐隐担忧。但讨论,尤其是公开透明的讨论,总是好事,让大家能够听到不同的声音,才有可能最终收敛至更合理的方案。我们选译的这篇文章来自于 2021 年 10 月的 Hugging Face 博客,作者在那个时间点站位的是小模型,一年多以后的 2023 年作者的观点有没有改变我们不得而知,但开卷有益,了解作者当时考虑的那些点,把那些合理的点纳入自己的思考体系,并结合新的进展最终作出自己的判断可能才是最终目的。
|
4 |
|
5 |
不久前,微软和 NVIDIA [推出](https://www.microsoft.com/en-us/research/blog/using-deepspeed-and-megatron-to-train-megatron-turing-nlg-530b-the-worlds-largest-and-most-powerful-generative-language-model/) 了 Megatron-Turing NLG 530B,一种基于 Transformer 的模型,被誉为是 “*世界上最大且最强的生成语言模型*”。
|
6 |
|
7 |
毫无疑问,该工作对于机器学习工程来讲是一个令人印象深刻的能力展示,表明我们的工程能力已经能够训练如此巨大的模型。然而,我们应该为这种超级模型的趋势感到兴奋吗?我个人倾向于否定的回答。我将在通过本文阐述我的理由。
|
8 |
|
9 |
+
![](assets/33_large_language_models/01_model_size.jpg)
|
|
|
|
|
10 |
|
11 |
### 这是你的深度学习大脑
|
12 |
|
|
|
54 |
|
55 |
[Big Science](https://bigscience.huggingface.co/) 项目的最新模型也令人印象深刻。下面这张来自于 [论文](https://arxiv.org/abs/2110.08207) 的图表明,他们的 T0 模型在许多任务上都优于 GPT-3,同时尺寸小 16 倍。你可以 [这儿](https://huggingface.co/bigscience/T0pp) 尝试 T0。
|
56 |
|
57 |
+
![](assets/33_large_language_models/02_t0.png)
|
|
|
|
|
58 |
|
59 |
我们需要更多的此类研究!
|
60 |
|
|
|
96 |
|
97 |
这条路似曾相识,我们应该知道这条路迟早会遇到收益递减、成本增加、复杂性等问题以及新的风险。指数的结局往往不是会很好。还记得 [Meltdown and Spectre](https://meltdownattack.com/) 吗?我们想知道人工智能的 Meltdown and Spectre 会是什么吗?
|
98 |
|
99 |
+
> 英文原文: <url> https://huggingface.co/blog/large-language-models </url>
|
100 |
+
>
|
101 |
+
> 译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。
|