openai: key: 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 huggingface: token: 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 dev: false debug: true log_file: logs/debug_TIMESTAMP.log model: text-davinci-003 # text-davinci-003 use_completion: true inference_mode: hybrid # local, huggingface or hybrid local_deployment: minimal # minimal, standard or full num_candidate_models: 5 max_description_length: 100 proxy: logit_bias: parse_task: 0.5 choose_model: 5 tprompt: parse_task: >- #1 Etap planowania zadań: Asystent AI może przeanalizować dane wprowadzane przez użytkownika do kilku zadań: [{"task": task, "id": task_id, "dep": dependency_task_id, "args": {"text": text or -dep_id, "image": image_url or -dep_id, "audio": audio_url or -dep_id}}]. The special tag "-dep_id" refer to the one genereted text/image/audio in the dependency task (Please consider whether the dependency task generates resources of this type.) and "dep_id" must be in "dep" list. The "dep" field denotes the ids of the previous prerequisite tasks which generate a new resource that the current task relies on. The "args" field must in ["text", "image", "audio"], nothing else. The task MUST be selected from the following options: "token-classification", "text2text-generation", "summarization", "translation", "question-answering", "conversational", "text-generation", "sentence-similarity", "tabular-classification", "object-detection", "image-classification", "image-to-image", "image-to-text", "text-to-image", "text-to-video", "visual-question-answering", "document-question-answering", "image-segmentation", "depth-estimation", "text-to-speech", "automatic-speech-recognition", "audio-to-audio", "audio-classification", "canny-control", "hed-control", "mlsd-control", "normal-control", "openpose-control", "canny-text-to-image", "depth-text-to-image", "hed-text-to-image", "mlsd-text-to-image", "normal-text-to-image", "openpose-text-to-image", "seg-text-to-image". Może istnieć wiele zadań tego samego typu. Pomyśl krok po kroku o wszystkich zadaniach potrzebnych do rozwiązania żądania użytkownika. Przeanalizuj jak najmniej zadań, upewniając się, że żądanie użytkownika może zostać rozwiązane. Zwróć uwagę na zależności i kolejność zadań. Jeśli dane wprowadzone przez użytkownika nie mogą zostać przeanalizowane, musisz odpowiedzieć pustym JSON []. choose_model: >- #2 Etap wyboru modelu: Biorąc pod uwagę żądanie użytkownika i przeanalizowane zadania, asystent AI pomaga użytkownikowi wybrać odpowiedni model z listy modeli do przetworzenia żądania użytkownika. Asystent powinien bardziej skupić się na opisie modelu i znaleźć model, który ma największy potencjał do rozwiązywania próśb i zadań. Preferuj także modele z lokalnymi punktami końcowymi wnioskowania, aby uzyskać szybkość i stabilność. response_results: >- #4 Etap generowania odpowiedzi: Za pomocą dzienników wykonania zadania asystent AI musi opisać proces i wnioskować o wynikach. demos_or_presteps: parse_task: demos/demo_parse_task.json choose_model: demos/demo_choose_model.json response_results: demos/demo_response_results.json prompt: parse_task: The chat log [ {{context}} ] może zawierać zasoby, o których wspomniałem. Teraz wpisuję {{{input}} }. Zwróć uwagę na typy danych wejściowych i wyjściowych zadań oraz zależności między zadaniami. choose_model: >- Please choose the most suitable model from {{metas}} for the task {{task}}. The output must be in a strict JSON format: {"id": "id", "reason": "your detail reasons for the choice"}. response_results: >- Tak. Proszę najpierw dokładnie przemyśleć i bezpośrednio odpowiedzieć na moją prośbę na podstawie wyników wnioskowania. Niektóre wnioski mogą nie zawsze okazać się poprawne i wymagać starannego rozważenia przy podejmowaniu decyzji. Następnie uprzejmie proszę szczegółowo opisać swój przepływ pracy, w tym użyte modele i wyniki wnioskowania dla mojej prośby. Proszę odfiltrować informacje, które nie są istotne dla mojej prośby. Podaj pełną ścieżkę lub adresy URL plików w wynikach wnioskowania. Jeśli nie ma nic w wynikach, powiedz mi, że nie możesz tego zrobić. }