|
--- |
|
license: apache-2.0 |
|
datasets: |
|
- HuggingFaceFW/fineweb-2 |
|
language: |
|
- fa |
|
metrics: |
|
- bleu |
|
- brier_score |
|
base_model: |
|
- uclanlp/plbart-multi_task-php |
|
new_version: Qwen/QwQ-32B-Preview |
|
library_name: flair |
|
tags: |
|
- code |
|
- php |
|
- css |
|
- js |
|
- html |
|
--- |
|
|
|
# مدل کارت برای مدل برنامه نویسی Chtgpt |
|
|
|
## جزئیات مدل |
|
|
|
### توضیحات مدل |
|
|
|
مدل Chtgpt یک مدل پردازش زبان طبیعی است که برای تولید، درک و بازنویسی کد به زبان فارسی توسعه یافته است. این مدل با هدف بهبود کارایی و خوانایی کدها طراحی شده است و قابلیت کار با زبان های برنامه نویسی وب مانند PHP, CSS, JS و HTML را دارا می باشد. |
|
|
|
* **توسعه دهنده:** [amirbasim] |
|
* **زبان(های) (NLP):** فارسی |
|
* **مجوز:** Apache 2.0 |
|
* **مدل پایه:** `uclanlp/plbart-multi_task-php` |
|
* **نسخه جدید:** `Qwen/QwQ-32B-Preview` |
|
* **کتابخانه:** `flair` |
|
|
|
### منابع مدل |
|
|
|
* **مخزن:** [لینک به مخزن مدل در Hugging Face] |
|
* **مقاله:** [لینک به مقاله مربوط به مدل در صورت وجود] |
|
* **دمو:** [لینک به دموی آنلاین مدل در صورت وجود] |
|
|
|
## موارد استفاده |
|
|
|
### استفاده مستقیم |
|
|
|
این مدل به صورت مستقیم برای موارد زیر قابل استفاده است: |
|
|
|
* تولید قطعه کد بر اساس توضیحات فارسی |
|
* بازنویسی کدها به منظور بهبود خوانایی و کارایی |
|
* اضافه کردن توضیحات و کامنت به کدهای موجود |
|
* تبدیل کدها بین زبان های مختلف (مانند PHP به JS) |
|
|
|
### استفاده در پایین دست |
|
|
|
این مدل پس از آموزش بیشتر و با استفاده از تنظیم دقیق (Fine-tuning)، می تواند برای موارد زیر استفاده شود: |
|
|
|
* تکمیل خودکار کد |
|
* تشخیص خطاهای کد |
|
* توسعه ابزارهای برنامه نویسی |
|
|
|
### موارد خارج از محدوده استفاده |
|
|
|
این مدل برای موارد زیر طراحی نشده است و ممکن است عملکرد درستی نداشته باشد: |
|
|
|
* تحلیل کدهای پیچیده و با معماری خاص |
|
* تولید کد برای زبان های برنامه نویسی غیر از موارد ذکر شده |
|
* استفاده در برنامه های حساس به امنیت |
|
|
|
## تعصب، ریسک ها و محدودیت ها |
|
|
|
این مدل ممکن است تعصبات موجود در داده های آموزشی را منعکس کند و در برخی موارد نتایج نادرستی ارائه دهد. محدودیت های فنی مدل شامل موارد زیر است: |
|
|
|
* احتمال عدم درک صحیح ساختارهای پیچیده کد |
|
* ممکن است در برخی موارد کدهای بهینه تولید نکند. |
|
* وابستگی به دادههای آموزشی برای تولید و بازنویسی کد |
|
|
|
### توصیه ها |
|
|
|
کاربران باید از ریسک ها، تعصبات و محدودیت های فنی مدل آگاه باشند و نتایج را با دقت بررسی کنند. برای بهبود عملکرد مدل، پیشنهاد می شود از داده های آموزشی متنوع و با کیفیت استفاده شود. |
|
|
|
## نحوه شروع کار با مدل |
|
|
|
برای شروع کار با مدل، از قطعه کد زیر استفاده کنید: |
|
|
|
```python |
|
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer |
|
tokenizer = AutoTokenizer.from_pretrained("path/to/your/model") |
|
model = AutoModelForSeq2SeqLM.from_pretrained("path/to/your/model") |
|
inputs = tokenizer("your code here", return_tensors="pt") |
|
outputs = model.generate(**inputs) |
|
result = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
print(result) |
|
|