Spaces:
Running
Running
from typing import Optional, List, Dict, Any | |
import openai | |
import anthropic | |
from dataclasses import dataclass | |
from config.llm_settings import LLMSettings | |
from core.file_scanner import FileInfo | |
class Message: | |
role: str | |
content: str | |
class LLMService: | |
MAX_TURNS = 5 | |
def __init__(self): | |
"""LLMサービスの初期化""" | |
self.settings = LLMSettings() | |
self.current_model = self.settings.default_llm | |
# API クライアントの初期化 | |
if self.settings.anthropic_api_key: | |
self.claude_client = anthropic.Anthropic(api_key=self.settings.anthropic_api_key) | |
if self.settings.openai_api_key: | |
openai.api_key = self.settings.openai_api_key | |
self.conversation_history: List[Message] = [] | |
def switch_model(self, model: str): | |
"""使用するモデルを切り替え""" | |
if model not in self.settings.get_available_models(): | |
raise ValueError(f"モデル {model} は利用できません") | |
self.current_model = model | |
def create_prompt(self, content: str, query: str) -> str: | |
"""プロンプトを生成""" | |
return f"""以下はGitHubリポジトリのコード解析結果です。このコードについて質問に答えてください。 | |
コード解析結果: | |
{content} | |
質問: {query} | |
できるだけ具体的に、コードの内容を参照しながら回答してください。""" | |
def _add_to_history(self, role: str, content: str): | |
"""会話履歴に追加(最大5ターン)""" | |
self.conversation_history.append(Message(role=role, content=content)) | |
# 最大ターン数を超えた場合、古い会話を削除 | |
if len(self.conversation_history) > self.MAX_TURNS * 2: # 各ターンは質問と回答で2メッセージ | |
self.conversation_history = self.conversation_history[-self.MAX_TURNS * 2:] | |
def _format_messages_for_claude(self) -> List[Dict[str, str]]: | |
"""Claude用にメッセージをフォーマット""" | |
return [{"role": msg.role, "content": msg.content} | |
for msg in self.conversation_history] | |
def _format_messages_for_gpt(self) -> List[Dict[str, str]]: | |
"""GPT用にメッセージをフォーマット""" | |
return [ | |
{"role": "system", "content": "あなたはコードアナリストとして、リポジトリの解析と質問への回答を行います。"}, | |
*[{"role": msg.role, "content": msg.content} | |
for msg in self.conversation_history] | |
] | |
def get_conversation_history(self) -> List[Dict[str, str]]: | |
"""会話履歴を取得""" | |
return [{"role": msg.role, "content": msg.content} | |
for msg in self.conversation_history] | |
def clear_history(self): | |
"""会話履歴をクリア""" | |
self.conversation_history = [] | |
def get_response(self, content: str, query: str) -> tuple[Optional[str], Optional[str]]: | |
"""LLMを使用して回答を生成""" | |
try: | |
prompt = self.create_prompt(content, query) | |
self._add_to_history("user", prompt) | |
if self.current_model == 'claude': | |
response = self.claude_client.messages.create( | |
model="claude-3-sonnet-20240229", | |
max_tokens=4000, | |
messages=self._format_messages_for_claude() | |
) | |
answer = response.content[0].text | |
else: # gpt | |
response = openai.ChatCompletion.create( | |
model="gpt-4o", | |
messages=self._format_messages_for_gpt() | |
) | |
answer = response.choices[0].message.content | |
self._add_to_history("assistant", answer) | |
return answer, None | |
except Exception as e: | |
return None, f"エラーが発生しました: {str(e)}" | |
def format_code_content(files: List[FileInfo]) -> str: | |
"""ファイル内容をプロンプト用にフォーマット""" | |
formatted_content = [] | |
for file_info in files: | |
formatted_content.append( | |
f"#ファイルパス\n{file_info.path}\n------------\n{file_info.content}\n" | |
) | |
return "\n".join(formatted_content) |