--- license: gemma datasets: - DataPilot/in-foxhound-ja language: - ja base_model: - google/gemma-2-9b-it pipeline_tag: text2text-generation tags: - finance --- ## 概要 このモデルは[in-foxhound-ja](https://huggingface.co/datasets/DataPilot/in-foxhound-ja)を用いて、長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことを目的に製作されました。(あくまで実験であり、実際にはAIが出力した指示に従わないで下さい。) ## how to use ```python # sentencepiece, protobuf, accelerate>=0.26.0, bitsandbytesをインストールしてあることを前提とします。 import torch from transformers import AutoTokenizer, AutoModelForCausalLM # モデルとトークナイザーをロード model_name = "DataPilot/gemma2-Intelligent-Investor-5b-v2" # 好きなモデル名に変更可能 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) # デバイスを自動的に選択 # Alpaca形式のプロンプトテンプレート alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request. ### Instruction: {} ### Input: {} ### Response: {}""" # 推論を実行 inputs = tokenizer( [ alpaca_prompt.format( "あなたは世界最高レベルにある価値投資の達人です。長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことが得意です。", # 命令 "長期投資において優良な企業の条件と長期投資において大切なマインドを教えて下さい。", # 入力 "", # 出力 - 生成の場合は空白にします ) ], return_tensors="pt", ).to("cuda") outputs = model.generate(**inputs, max_new_tokens=1024, use_cache=True) print(tokenizer.batch_decode(outputs, skip_special_tokens=True)) ``` ## プロンプトフォーマット プロンプトフォーマットにはAlpaca形式のプロンプトテンプレートを使用しています。 ## 謝辞 もとデータセットの作成者である[glaive-ai](https://glaive.ai/)と計算資源を貸してくれた[MDL](https://www.metadatalab.net/)に感謝します。