Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
translation / New_ViT_and_ALIGN_Models_From_Kakao_Brain_cn.md
yaoqi's picture
Upload New_ViT_and_ALIGN_Models_From_Kakao_Brain_cn.md (#56)
a7ce7fd
|
raw
history blame
17.6 kB

New ViT and ALIGN Models From Kakao Brain

Created by: cony zhang Created time: March 7, 2023 7:08 AM Last edited by: cony zhang Last edited time: March 9, 2023 9:01 AM URL: https://huggingface.co/blog/vit-align

Kakao Brain 发布开源 ViT and ALIGN模型和数据

最近 Kakao Brain 在 Hugging Face 发布了一个全新的开源图像文本数据集 COYO,包含7亿对图像和文本,并训练了两个新的视觉语言模型 ViT 和 ALIGN [ViT](https://github.com/kakaobrain/coyo-vit)和[ALIGN](https://github.com/kakaobrain/coyo-align)。

这是 ALIGN 模型首次公开发布供开源使用,同时 ViT 和 ALIGN 模型的发布都附带有训练数据集。

Google 的 ViT 和 ALIGN 模型都使用了巨大的数据集(ViT 训练于 3 亿张图像,ALIGN 训练于 18 亿个图像-文本对)进行训练,因为数据集不公开导致无法复现。Kakao Brain 的 ViT 和 ALIGN 模型采用与 Google 原始模型相同的架构和超参数,不同的是其在开源 COYO 数据集上进行训练。对于想要拥有数据并复现视觉语言模型的研究人员有很大的价值。详细的 Kakao ViT 和 ALIGN 模型信息可以参照:

https://huggingface.co/kakaobrain

这篇博客将介绍新的 COYO 数据集、Kakao Brain 的 ViT 和 ALIGN 模型,以及如何使用它们!以下是主要要点:

  • 第一个开源的 ALIGN 模型!
  • 第一个在开源数据集 COYO 上训练的开源 ViT 和 ALIGN 模型。
  • Kakao Brain 的 ViT和 ALIGN 模型表现与 Google 版本相当。
  • ViT模型在HF上可演示!您可以使用自己的图像样本在线体验ViT!

性能比较

Kakao Brain 发布的 ViT 和 ALIGN 模型与 Google 的模型表现相当,某些方面甚至更好。Kakao Brain 的 ALIGN-B7-Base 模型虽然训练的数据对少得多( 7 亿VS 1.8 亿),但在图像 KNN 分类任务上表现与 Google 的 ALIGN-B7-Base 相当,在 MS-COCO 图像-文本检索、文本-图像检索任务上表现更好。Kakao Brain 的 ViT-L/16 在384×512的 ImageNet 和 ImageNet-ReaL 数据上的表现与 Google 的ViT-L/16 相当。这意味着同行可以使用Kakao Brain的 ViT 和 ALIGN 模型来复现 Google的 ViT 和 ALIGN ,尤其是当用户需要训练数据时。所以我们很高兴开源这些与现有技术相当的模型!

New%20ViT%20and%20ALIGN%20Models%20From%20Kakao%20Brain%2096dc66c155824d38814f76b7e882ad2f/vit-align-performance.png

COYO 数据集

New%20ViT%20and%20ALIGN%20Models%20From%20Kakao%20Brain%2096dc66c155824d38814f76b7e882ad2f/coyo-samples.png

本次发布的模型特别之处在于都是基于开源的 COYO 数据集训练的。COYO 数据集包含7亿图像-文本对,类似于 Google 的ALIGN 1.8B图像-文本数据集,是从网页上收集的“嘈杂”的html文本(alt-text)和图像对。COYO-700MALIGN 1.8B都是“嘈杂”的,只使用了适当的清洗处理。COYO类似于另一个开源的图像–文本数据集LAION,但有一些区别。尽管LAION 2B是一个更大的数据集,包含20亿个英语配对,但COYO的附带有更多元数据,为用户提供更多灵活性和更细粒度的使用。以下表格显示了它们之间的区别:COYO所有数据对都提供了美感评分,更健壮的水印评分和面部计数信息(face count data)。

COYO LAION 2B ALIGN 1.8B
Image-text similarity score calculated with CLIP ViT-B/32 and ViT-L/14 models, they are provided as metadata but nothing is filtered out so as to avoid possible elimination bias Image-text similarity score provided with CLIP (ViT-B/32) - only examples above threshold 0.28 Minimal, Frequency based filtering
NSFW filtering on images and text NSFW filtering on images Google Cloud API
Face recognition (face count) data provided as meta-data No face recognition data NA
700 million pairs all English 2 billion English 1.8 billion
From CC 2020 Oct - 2021 Aug From CC 2014-2020 NA
Aesthetic Score Aesthetic Score Partial NA
More robust Watermark score Watermark Score NA
Hugging Face Hub Hugging Face Hub Not made public
English English English?

ViT和ALIGN是如何工作的

这些模型是干什么的?让我们简要讨论一下 ViT和ALIGN模型的工作原理。

ViT—Vision Transformer 是谷歌于 2020 年提出的一种视觉模型,类似于文本Transformer架构。这是一种与卷积神经网络不同的视觉方法(AlexNet自2012年以来一直主导视觉任务)。同样表现下,它的计算效率比CNN高达四倍,且具有域不可知性(domain agnostic)。ViT将输入的图像分解成一系列图像块(patch),就像文本 Transformer 输入文本序列一样,然后为每个块提供位置嵌入以学习图像结构。ViT 的性能尤其在于具有出色的性能-计算权衡。谷歌的一些ViT模型是开源的,但其训练使用的JFT-300百万图像-标签对数据集尚未公开发布。Kakao Brain的训练模型是基于公开发布的COYO-Labeled-300M进行训练,对应的ViT模型在各种任务上具有相似表现,其代码、模型和训练数据(COYO-Labeled-300M)完全公开,以便能够进行复现和科学研究。

New%20ViT%20and%20ALIGN%20Models%20From%20Kakao%20Brain%2096dc66c155824d38814f76b7e882ad2f/vit-architecture.gif

谷歌在2021年推出了 ALIGN,它是一种基于“嘈杂”文本–图像数据训练的视觉语言模型,可用于各种视觉和跨模态任务,如文本-图像检索。ALIGN 采用简单的双编码器架构,通过对比损失函数学习图像和文本对,ALIGN 的“嘈杂”训练语料特点包括用语料规模弥补其噪音以及强大的鲁棒性。之前的视觉语言表示学习都是在手动标注的大规模数据集上进行训练,这就需要大量的预先处理和成本。ALIGN 的语料库使用HTML文本(alt-text)数据作为图像的描述,导致数据集不可避免地嘈杂,但更大的数据量(18亿对)使ALIGN能够在各种任务上表现出SoTA水平。Kakao Brain的模型是第一个ALIGN开源版本,它在 COYO 数据集上训练,表现比谷歌的结果更好。

New%20ViT%20and%20ALIGN%20Models%20From%20Kakao%20Brain%2096dc66c155824d38814f76b7e882ad2f/align-architecture.png

如何使用COYO数据集

我们可以使用 HuggingFace🤗数据集库的一行代码方便地下载 COYO 数据集。要预览COYO数据集并了解数据处理过程和包含的元属性,请前往hub数据集页面。

https://huggingface.co/datasets/kakaobrain/coyo-700m

开始前,请安装HuggingFace🤗数据集库:pip install datasets,然后下载数据集。

from datasets import load_dataset

dataset = load_dataset('kakaobrain/coyo-700m')
dataset

由于 COYO 数据集非常庞大,包含747M个图像-文本对,您可能无法在本地下载整个数据集。或者可能只需要下载和使用数据集的子集。为此,可以简单地将streaming=True参数传递给load_dataset()方法,以创建可迭代数据集,并在需要时下载数据实例。

from datasets import load_dataset

dataset = load_dataset('kakaobrain/coyo-700m', streaming=True)
print(next(iter(dataset['train'])))
{'id': 2680060225205, 'url': 'https://cdn.shopify.com/s/files/1/0286/3900/2698/products/TVN_Huile-olive-infuse-et-s-227x300_e9a90ffd-b6d2-4118-95a1-29a5c7a05a49_800x.jpg?v=1616684087', 'text': 'Olive oil infused with Tuscany herbs', 'width': 227, 'height': 300, 'image_phash': '9f91e133b1924e4e', 'text_length': 36, 'word_count': 6, 'num_tokens_bert': 6, 'num_tokens_gpt': 9, 'num_faces': 0, 'clip_similarity_vitb32': 0.19921875, 'clip_similarity_vitl14': 0.147216796875, 'nsfw_score_opennsfw2': 0.0058441162109375, 'nsfw_score_gantman': 0.018961310386657715, 'watermark_score': 0.11015450954437256, 'aesthetic_score_laion_v2': 4.871710777282715}

如何使用 Hub 中的 ViT 和 ALIGN

让我们尝试一下新的 ViT 和 ALIGN 模型。由于 ALIGN 是新加入 HuggingFace🤗 Transformers 的,我们先安装最新版本的库:pip install -q git+https://github.com/huggingface/transformers.git然后导入我们将要使用的模块和库,开始使用 ViT 进行图像分类。请注意,新添加的 ALIGN 模型将会包含到下一版 PyPI 包。

import requests
from PIL import Image
import torch
from transformers import ViTImageProcessor, ViTForImageClassification

接下来,我们将从COCO数据集中随机下载一张有沙发图像,上边有两只猫和一个遥控器,并对图像进行预处理为模型所期望的输入格式,我们可以方便地使用相应的预处理器类(ViTProcessor)实现这一步。初始化模型和预处理器,可以使用hub中Kakao Brain Vi·T repos之一。请注意使用hub 中的库预处理器,确保预处理后的图像符合特定预训练模型所需的格式。

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)

processor = ViTImageProcessor.from_pretrained('kakaobrain/vit-large-patch16-384')
model = ViTForImageClassification.from_pretrained('kakaobrain/vit-large-patch16-384')

接下来将图像预处理并将其输入到模型,实现检索类别标签。Kakao Brain ViT图像分类模型是在ImageNet标签上训练的,输出形状为 batch_size×1000维度的类别(logits)。

# preprocess image or list of images
inputs = processor(images=image, return_tensors="pt")

# inference
with torch.no_grad():
    outputs = model(**inputs)

# apply SoftMax to logits to compute the probability of each class
preds = torch.nn.functional.softmax(outputs.logits, dim=-1)

# print the top 5 class predictions and their probabilities
top_class_preds = torch.argsort(preds, descending=True)[0, :5]

for c in top_class_preds:
    print(f"{model.config.id2label[c.item()]} with probability {round(preds[0, c.item()].item(), 4)}")

到这里就完成了!为了更加简单和简洁,还可以使用图像分类管道(pipeline)并将Kakao Brain ViT仓库名称作为目标模型传递给初始化管道。然后,我们可以传入图像的URL或本地路径,或Pillow图像,可选“top_k”参数表述返回前k个预测。让我们继续对猫和遥控器图片获取前5个预测结果。

from transformers import pipeline

classifier = pipeline(task='image-classification', model='kakaobrain/vit-large-patch16-384')
classifier('http://images.cocodataset.org/val2017/000000039769.jpg', top_k=5)

如果您想更多地尝试 Kakao Brain ViT模型,请前往🤗 中心的项目空间。

https://huggingface.co/spaces/adirik/kakao-brain-vit

New%20ViT%20and%20ALIGN%20Models%20From%20Kakao%20Brain%2096dc66c155824d38814f76b7e882ad2f/vit_demo.png

我们开始实验 ALIGN,它可用于检索文本或图像的多模态嵌入或执行零样本图像分类。ALIGN 的 Transformer 实现和用法类似于 CLIP。首先,下载预训练模型和其处理器(processor),处理器预处理图像和文本,使它们符合 ALIGN 的预期格式,以便将其输入到视觉和文本编码器中。这步导入了我们将要使用的模块并初始化预处理器和模型。

import requests
from PIL import Image
import torch
from transformers import AlignProcessor, AlignModel

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)

processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignModel.from_pretrained('kakaobrain/align-base')

先从零样本图像分类开始。为此,我们将提供候选标签(自由格式文本),并使用 AlignModel 找出更好地描述图像的表述。我们将首先预处理图像和文本输入,并将预处理后的输入送到 AlignModel 中。

candidate_labels = ['an image of a cat', 'an image of a dog']

inputs = processor(images=image, text=candidate_labels, return_tensors='pt')

with torch.no_grad():
    outputs = model(**inputs)

# this is the image-text similarity score
logits_per_image = outputs.logits_per_image  

# we can take the softmax to get the label probabilities
probs = logits_per_image.softmax(dim=1)  
print(probs)

完成了,就这么简单。要进一步尝试 Kakao Brain ALIGN 模型进行零样本图像分类,只需前往 HuggingFace🤗 Hub 上的 demo演示。请注意,AlignModel 的输出包括 text_embedsimage_embeds(参阅 ALIGN 的 文档)。如果不需要计算用于零样本分类的每个图像和每个文本的逻辑(logits),可以使用 AlignModel 类中的 get_image_features()get_text_features() 方法便捷地检索视觉和文本嵌入。

text_embeds = model.get_text_features(
    input_ids=inputs['input_ids'],
    attention_mask=inputs['attention_mask'],
    token_type_ids=inputs['token_type_ids'],
)
image_embeds = model.get_image_features(
    pixel_values=inputs['pixel_values'],
)

或者,我们可以使用 ALIGN 的独立视觉和文本编码器获取多模态嵌入。然后可以使用这些嵌入用于各种下游任务的模型训练,例如目标检测、图像分割和图像字幕生成。让我们看看如何使用 AlignTextModelAlignVisionModel 获取这些嵌入。请注意,我们可以使用便捷的AlignProcessor 类分别对文本和图像进行预处理。

from transformers import AlignTextModel

processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignTextModel.from_pretrained('kakaobrain/align-base')

# get embeddings of two text queries
inputs = processor(['an image of a cat', 'an image of a dog'], return_tensors='pt')

with torch.no_grad():
    outputs = model(**inputs)

# get the last hidden state and the final pooled output 
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output

我们也可以在推理过程中设置output_hidden_states和output_attentions参数为True,以返回所有隐藏状态和注意力值。

with torch.no_grad():
    outputs = model(**inputs, output_hidden_states=True, output_attentions=True)
# print what information is returned
for key, value in outputs.items():
    print(key)

在 AlignVisionModel 中执行相同的操作,获取图像的多模态嵌入。

from transformers import AlignVisionModel

processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignVisionModel.from_pretrained('kakaobrain/align-base')

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)

inputs = processor(images=image, return_tensors='pt')

with torch.no_grad():
    outputs = model(**inputs)

# print the last hidden state and the final pooled output 
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output

与ViT类似,使用零样本图像分类管道(pipeline)可以让过程更加轻松。以下实现了如何使用此流程使用自由文本候选标签在野外执行图像分类。

from transformers import pipeline

classifier = pipeline(task='zero-shot-image-classification', model='kakaobrain/align-base')
classifier(
    'https://huggingface.co/datasets/Narsil/image_dummy/raw/main/parrots.png',
    candidate_labels=['animals', 'humans', 'landscape'],
)

classifier(
   'https://huggingface.co/datasets/Narsil/image_dummy/raw/main/parrots.png',
   candidate_labels=['black and white', 'photorealist', 'painting'],
)

结论

近年来,多模态取得了令人难以置信的进展,例如 CLIP 和 ALIGN 等模型赋能了各种下游任务,例如图像描述、零样本图像分类和开放世界目标检测。本博客,我们介绍了由 Kakao Brain 贡献的最新开源代码 ViT 和 ALIGN 模型,以及新的 COYO 文本-图像数据集。展示了如何使用这些模型执行各种任务,只需几行代码即可单独使用或作为 🤗Transformers pipeline 的一部分使用。

我们正在继续整合最有影响力的计算机视觉和多模型模型,并乐于听取您的反馈。要了解计算机视觉和多模态研究的最新消息,作者及 Twitter :@adirik、@a_e_roberts、@NielsRogge、@RisingSayak 和 @huggingface。

英文原文: https://huggingface.co/blog/vit-align 译者: Cony Zhang (张聪聪)