Tanuki-8x8B-vision-exp
モデルについて
Tanuki-8x8B-vision-expは、LLaVA1.5に基づく視覚言語モデルです。言語モデルとして、Tanuki-8x8B-dpo-v1.0の学習途中のモデル(事後学習前)、画像エンコーダとしてgoogle/siglip-so400m-patch14-384を使用しています。
(計算リソースの観点で、学習を1epoch未満で打ち切ったことから、学習途中の実験的なモデルという意味で-expという名称を付けています)
背景
- 近年、視覚言語モデル(VLM)が注目されている一方で、商用利用可能な日本語データセットは限られています。本プロジェクトでは、データの合成を活用してこの課題に取り組むとともに、80億パラメータ(Tanuki-8B-vision)および500億パラメータ(Tanuki-8x8B-vision-exp)のVLMを開発しました
- VLM開発は、GENIAC 松尾研 LLM開発プロジェクトの主要な開発目標としてではなく、有志の参加者によって実験的に行われました
使用したコード
学習
データ合成
評価
使い方
ローカル
評価
Heron VLM リーダーボード
- Downloads last month
- 4