--- language: ja license: cc-by-sa-4.0 tags: - clip - feature-extraction - sentence-similarity --- # 日本語版[CLIP](https://github.com/openai/CLIP)モデル This is a [CLIP](https://github.com/openai/CLIP) text/image encoder model for Japanese. 英語版CLIPモデルのテキストエンコーダーを一種の蒸留を用いて日本語化したモデルです。 作り方や精度、使い方、サンプルコードは下記の解説記事をご参照ください。 - 解説記事: - 概要: [【日本語モデル付き】2022年にマルチモーダル処理をする人にお勧めしたい事前学習済みモデル](https://qiita.com/sonoisa/items/00e8e2861147842f0237) - 使い方の解説: [【日本語CLIP】画像とテキストの類似度計算、画像やテキストの埋め込み計算、類似画像検索](https://qiita.com/sonoisa/items/d6db2f130fa9a4ce0c2c) - (公開準備中) 応用解説: いらすとや画像のマルチモーダル検索(ゼロショット編) - (公開準備中) 応用解説: いらすとや画像のマルチモーダル検索(ファインチューニング編) - (公開準備中) 応用解説: 画像とテキストの両方を用いたマルチモーダル分類 - サンプルコードのリポジトリ: https://github.com/sonoisa/clip-japanese - デモ: - [いらすとや画像のマルチモーダル検索(ゼロショット)](https://huggingface.co/spaces/sonoisa/Irasuto_search_CLIP_zero-shot)