rezanaltjetlink commited on
Commit
3c6c43e
·
verified ·
1 Parent(s): 79ac046

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +588 -0
README.md ADDED
@@ -0,0 +1,588 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ library_name: transformers
4
+ tags:
5
+ - qwen
6
+ - multimodal
7
+ - moe
8
+ - vision-language
9
+ - conversational
10
+ - transformers
11
+ - vllm
12
+ - sglang
13
+ - ktransformers
14
+ pipeline_tag: image-text-to-text
15
+ base_model: Qwen/Qwen3.5-397B-A17B
16
+ ---
17
+
18
+ # JetLLMPremium-3.5
19
+
20
+ **JetLLMPremium-3.5** is a large-scale multimodal Mixture-of-Experts model published by **Jetlink**, built on top of [Qwen/Qwen3.5-397B-A17B](https://huggingface.co/Qwen/Qwen3.5-397B-A17B) as its base model.
21
+
22
+ It is intended for teams that want to manage deployment, access, and internal distribution from their own namespace while preserving compatibility with the original upstream model ecosystem.
23
+
24
+ ## Model Summary
25
+
26
+ JetLLMPremium-3.5 is a post-trained multimodal autoregressive model with:
27
+
28
+ - **397B total parameters**
29
+ - **17B activated parameters per token**
30
+ - **Causal Language Model with Vision Encoder**
31
+ - **262,144 tokens native context length**
32
+ - **Extensible context up to 1,010,000 tokens**
33
+ - **Support for 201 languages and dialects**
34
+ - Compatibility with **Transformers**, **vLLM**, **SGLang**, and **KTransformers**
35
+
36
+ ## Intended Use
37
+
38
+ This model is suitable for advanced workloads such as:
39
+
40
+ - multimodal chat assistants
41
+ - long-context document understanding
42
+ - agentic workflows
43
+ - tool-using assistants
44
+ - multilingual enterprise assistants
45
+ - coding and reasoning-heavy applications
46
+ - research and benchmarking
47
+
48
+ ## Model Details
49
+
50
+ ### Architecture
51
+
52
+ - **Model type:** Causal Language Model with Vision Encoder
53
+ - **Training stage:** Pre-training & Post-training
54
+ - **Total parameters:** 397B
55
+ - **Activated parameters:** 17B
56
+ - **Hidden dimension:** 4096
57
+ - **Number of layers:** 60
58
+ - **MoE experts:** 512
59
+ - **Activated experts:** 10 Routed + 1 Shared
60
+ - **Native context length:** 262,144 tokens
61
+ - **Extended context capability:** up to 1,010,000 tokens
62
+
63
+ ### Ecosystem Compatibility
64
+
65
+ The upstream model card states compatibility with:
66
+
67
+ - Hugging Face Transformers
68
+ - vLLM
69
+ - SGLang
70
+ - KTransformers
71
+
72
+ ## Hardware Requirements
73
+
74
+ > This model is **not intended for lightweight local deployment** in its original form.
75
+
76
+ The official upstream documentation does **not** define a single universal minimum hardware requirement, because actual requirements vary depending on:
77
+
78
+ - inference framework
79
+ - context length
80
+ - precision / quantization
81
+ - batch size
82
+ - KV cache configuration
83
+ - whether vision inputs are enabled
84
+ - latency and throughput goals
85
+
86
+ ### Reference Hardware
87
+
88
+ The upstream Qwen model card provides official serving examples using tensor parallelism across **8 GPUs** for both the standard and FP8 variants.
89
+
90
+ Recommended reference configurations for self-hosted deployment:
91
+
92
+ - **Preferred:** 8× H200-class GPUs
93
+ - **Alternative:** 8× H100-class GPUs, depending on precision, context length, runtime settings, and available memory headroom
94
+ - **Text-only deployments:** may reduce memory pressure by disabling the vision encoder with `--language-model-only`
95
+
96
+ > Note: hardware requirements vary significantly based on precision, context length, KV cache settings, batch size, and whether multimodal inputs are enabled. The configurations above should be treated as practical deployment references rather than universal minimum requirements.
97
+
98
+ ### Practical Guidance
99
+
100
+ #### Full model deployment
101
+
102
+ For the original model weights, this model should be treated as a **high-end multi-GPU server model**.
103
+
104
+ A practical baseline is:
105
+
106
+ - multiple high-memory datacenter GPUs
107
+ - fast GPU-to-GPU interconnect preferred
108
+ - substantial CPU RAM headroom
109
+ - fast NVMe storage
110
+ - Linux-based inference environment
111
+
112
+ #### Official serving examples
113
+
114
+ The upstream model card provides serving examples using **tensor parallelism across 8 GPUs** for both SGLang and vLLM.
115
+
116
+ That makes **8-GPU deployment** the safest reference point to document for standard, non-quantized serving.
117
+
118
+ #### Text-only deployment
119
+
120
+ The upstream vLLM example also documents a `--language-model-only` option, which skips the vision encoder and multimodal profiling to free more memory for KV cache. This can be useful when your workload is purely text-based.
121
+
122
+ ### Recommendation
123
+
124
+ For most production teams:
125
+
126
+ 1. start with a dedicated serving stack such as **vLLM** or **SGLang**
127
+ 2. benchmark with your real context length and batch profile
128
+ 3. use text-only mode when vision is not needed
129
+ 4. consider optimized / compressed variants for more practical infrastructure usage
130
+
131
+ ## Software Requirements
132
+
133
+ Recommended environment:
134
+
135
+ - Python 3.10+
136
+ - Linux
137
+ - CUDA-enabled GPU infrastructure
138
+ - One of the following runtimes:
139
+ - Transformers
140
+ - vLLM
141
+ - SGLang
142
+ - KTransformers
143
+
144
+ Common dependencies may include:
145
+
146
+ - `torch`
147
+ - `transformers`
148
+ - `torchvision`
149
+ - `pillow`
150
+
151
+ Additional runtime-specific packages may be required depending on your serving framework.
152
+
153
+ ## Quickstart
154
+
155
+ Install Transformers:
156
+
157
+ pip install "transformers[serving] @ git+https://github.com/huggingface/transformers.git@main"
158
+
159
+ Basic loading example:
160
+
161
+ from transformers import AutoProcessor, AutoModelForImageTextToText
162
+
163
+ model_id = "Jetlink/JetLLMPremium-3.5"
164
+
165
+ processor = AutoProcessor.from_pretrained(model_id)
166
+ model = AutoModelForImageTextToText.from_pretrained(
167
+ model_id,
168
+ trust_remote_code=True,
169
+ )
170
+
171
+ ## Serving Examples
172
+
173
+ ### vLLM
174
+
175
+ vllm serve Jetlink/JetLLMPremium-3.5 \
176
+ --port 8000 \
177
+ --tensor-parallel-size 8 \
178
+ --max-model-len 262144 \
179
+ --reasoning-parser qwen3
180
+
181
+ ### vLLM with Tool Use
182
+
183
+ vllm serve Jetlink/JetLLMPremium-3.5 \
184
+ --port 8000 \
185
+ --tensor-parallel-size 8 \
186
+ --max-model-len 262144 \
187
+ --reasoning-parser qwen3 \
188
+ --enable-auto-tool-choice \
189
+ --tool-call-parser qwen3_coder
190
+
191
+ ### vLLM text-only mode
192
+
193
+ vllm serve Jetlink/JetLLMPremium-3.5 \
194
+ --port 8000 \
195
+ --tensor-parallel-size 8 \
196
+ --max-model-len 262144 \
197
+ --reasoning-parser qwen3 \
198
+ --language-model-only
199
+
200
+ ### SGLang
201
+
202
+ python -m sglang.launch_server \
203
+ --model-path Jetlink/JetLLMPremium-3.5 \
204
+ --port 8000 \
205
+ --tp-size 8 \
206
+ --mem-fraction-static 0.8 \
207
+ --context-length 262144 \
208
+ --reasoning-parser qwen3
209
+
210
+ ### SGLang with Tool Use
211
+
212
+ python -m sglang.launch_server \
213
+ --model-path Jetlink/JetLLMPremium-3.5 \
214
+ --port 8000 \
215
+ --tp-size 8 \
216
+ --mem-fraction-static 0.8 \
217
+ --context-length 262144 \
218
+ --reasoning-parser qwen3 \
219
+ --tool-call-parser qwen3_coder
220
+
221
+ ### SGLang with Multi-Token Prediction (MTP)
222
+
223
+ python -m sglang.launch_server \
224
+ --model-path Jetlink/JetLLMPremium-3.5 \
225
+ --port 8000 \
226
+ --tp-size 8 \
227
+ --mem-fraction-static 0.8 \
228
+ --context-length 262144 \
229
+ --reasoning-parser qwen3 \
230
+ --speculative-algo NEXTN \
231
+ --speculative-num-steps 3 \
232
+ --speculative-eagle-topk 1 \
233
+ --speculative-num-draft-tokens 4
234
+
235
+ ## Long Context Notes
236
+
237
+ JetLLMPremium-3.5 natively supports **262,144 tokens**.
238
+
239
+ For tasks that exceed this window, the upstream documentation recommends using long-context scaling techniques such as **YaRN**, which are supported in several frameworks including Transformers, vLLM, KTransformers, and SGLang.
240
+
241
+ ## Strengths
242
+
243
+ - very large-capability multimodal model
244
+ - strong long-context support
245
+ - MoE design for efficient activated compute relative to total parameter count
246
+ - broad multilingual support
247
+ - compatible with modern high-throughput serving frameworks
248
+ - suitable for advanced agentic and enterprise deployments
249
+
250
+ ## Limitations
251
+
252
+ - requires substantial infrastructure
253
+ - long context significantly increases memory pressure
254
+ - multimodal usage adds further overhead
255
+ - original weights are not a good fit for consumer-grade single-GPU environments
256
+ - deployment characteristics depend heavily on framework and configuration
257
+
258
+ ## Out-of-Scope / Cautionary Use
259
+
260
+ As with other frontier-scale multimodal language models, outputs should be reviewed before use in:
261
+
262
+ - medical decision-making
263
+ - legal advice
264
+ - safety-critical automation
265
+ - high-stakes financial decisions
266
+ - fully autonomous customer actions without guardrails
267
+
268
+ Human review, policy controls, and tool-level validation are strongly recommended.
269
+
270
+ ## License
271
+
272
+ This repository follows the same license as the upstream release.
273
+
274
+ - **License:** Apache-2.0
275
+ - See the upstream Qwen repository and included license text for the governing terms.
276
+
277
+ If you redistribute, fine-tune, quantize, or otherwise modify this model, make sure your usage remains compliant with the upstream license and attribution requirements.
278
+
279
+ ## Attribution
280
+
281
+ Original model and research release by the **Qwen** team.
282
+
283
+ Upstream model:
284
+ - `Qwen/Qwen3.5-397B-A17B`
285
+
286
+ This repository is an organization-managed copy and is **not the original upstream source**.
287
+
288
+ ## Citation
289
+
290
+ Please cite the original Qwen release when using this model in research, evaluation, or production documentation.
291
+
292
+ ```bibtex
293
+ @misc{qwen3.5,
294
+ title = {Qwen3.5 Technical Report},
295
+ author = {Qwen Team},
296
+ year = {2026},
297
+ publisher = {Alibaba Cloud},
298
+ howpublished = {\url{https://huggingface.co/Qwen/Qwen3.5-397B-A17B}}
299
+ }
300
+ ```
301
+
302
+ ---
303
+
304
+ # JetLLMPremium-3.5 (Türkçe)
305
+
306
+ **JetLLMPremium-3.5**, **Jetlink** tarafından yayınlanan büyük ölçekli bir multimodal Mixture-of-Experts modelidir. Base model olarak [Qwen/Qwen3.5-397B-A17B](https://huggingface.co/Qwen/Qwen3.5-397B-A17B) kullanılmıştır.
307
+
308
+ Bu depo; modeli kendi namespace'i altında yönetmek, erişimi kontrol etmek ve dağıtımı kolaylaştırmak isteyen ekipler için hazırlanmıştır. Amaç, upstream model ekosistemiyle uyumluluğu koruyarak kurumsal kullanım sağlamaktır.
309
+
310
+ ## Model Özeti
311
+
312
+ JetLLMPremium-3.5, aşağıdaki özelliklere sahip, post-train edilmiş çok kipli (multimodal) otoregresif bir modeldir:
313
+
314
+ - **397B toplam parametre**
315
+ - Her token için **17B aktif parametre**
316
+ - **Vision Encoder** içeren **Causal Language Model**
317
+ - **262.144 token yerel bağlam uzunluğu**
318
+ - **1.010.000 token'a kadar genişletilebilir bağlam**
319
+ - **201 dil ve lehçe desteği**
320
+ - **Transformers**, **vLLM**, **SGLang** ve **KTransformers** ile uyumluluk
321
+
322
+ ## Kullanım Amacı
323
+
324
+ Bu model aşağıdaki gelişmiş kullanım senaryoları için uygundur:
325
+
326
+ - multimodal sohbet asistanları
327
+ - uzun bağlamlı doküman anlama
328
+ - agentic workflow yapıları
329
+ - araç kullanan asistanlar
330
+ - çok dilli kurumsal asistanlar
331
+ - kodlama ve yoğun akıl yürütme gerektiren uygulamalar
332
+ - araştırma ve benchmark çalışmaları
333
+
334
+ ## Model Detayları
335
+
336
+ ### Mimari
337
+
338
+ - **Model tipi:** Vision Encoder içeren Causal Language Model
339
+ - **Eğitim aşaması:** Pre-training ve Post-training
340
+ - **Toplam parametre:** 397B
341
+ - **Aktif parametre:** 17B
342
+ - **Hidden dimension:** 4096
343
+ - **Katman sayısı:** 60
344
+ - **MoE expert sayısı:** 512
345
+ - **Aktif expert:** 10 Routed + 1 Shared
346
+ - **Yerel bağlam uzunluğu:** 262.144 token
347
+ - **Genişletilmiş bağlam kapasitesi:** 1.010.000 token'a kadar
348
+
349
+ ### Ekosistem Uyumluluğu
350
+
351
+ Upstream model kartına göre model şu ekosistemlerle uyumludur:
352
+
353
+ - Hugging Face Transformers
354
+ - vLLM
355
+ - SGLang
356
+ - KTransformers
357
+
358
+ ## Donanım Gereksinimleri
359
+
360
+ > Bu model, orijinal haliyle hafif yerel kullanım için tasarlanmamıştır.
361
+
362
+ Resmi upstream dokümantasyonu tek ve evrensel bir minimum donanım gereksinimi belirtmez. Çünkü gerçek ihtiyaçlar şunlara bağlı olarak değişir:
363
+
364
+ - kullanılan inference framework'ü
365
+ - bağlam uzunluğu
366
+ - precision / quantization tercihi
367
+ - batch size
368
+ - KV cache yapılandırması
369
+ - vision girdilerinin kullanılıp kullanılmaması
370
+ - gecikme ve throughput hedefleri
371
+
372
+ ### Referans Donanım
373
+
374
+ Upstream Qwen model kartı, hem standart hem de FP8 varyantları için **8 GPU üzerinde tensor parallelism** kullanan resmi serving örnekleri sunmaktadır.
375
+
376
+ Self-hosted deployment için önerilen referans konfigürasyonlar:
377
+
378
+ - **Tercih edilen:** 8× H200 sınıfı GPU
379
+ - **Alternatif:** precision, bağlam uzunluğu, runtime ayarları ve kullanılabilir bellek payına bağlı olarak 8× H100 sınıfı GPU
380
+ - **Sadece metin tabanlı dağıtımlar:** vision encoder `--language-model-only` ile devre dışı bırakılarak bellek baskısı azaltılabilir
381
+
382
+ > Not: donanım gereksinimleri; precision, bağlam uzunluğu, KV cache ayarları, batch size ve multimodal girişlerin açık olup olmamasına göre ciddi şekilde değişir. Bu nedenle yukarıdaki konfigürasyonlar evrensel minimum gereksinim olarak değil, pratik dağıtım referansı olarak değerlendirilmelidir.
383
+
384
+ ### Pratik Rehber
385
+
386
+ #### Tam model dağıtımı
387
+
388
+ Orijinal model ağırlıklarıyla kullanımda bu model, **yüksek seviye çoklu GPU sunucu modeli** olarak düşünülmelidir.
389
+
390
+ Pratik bir başlangıç seviyesi şunları içerir:
391
+
392
+ - yüksek belleğe sahip birden fazla datacenter GPU
393
+ - tercihen hızlı GPU-GPU interconnect
394
+ - yüksek CPU RAM kapasitesi
395
+ - hızlı NVMe depolama
396
+ - Linux tabanlı inference ortamı
397
+
398
+ #### Resmi serving örnekleri
399
+
400
+ Upstream model kartında hem SGLang hem de vLLM için **8 GPU üzerinde tensor parallelism** kullanan serving örnekleri bulunmaktadır.
401
+
402
+ Bu nedenle standart, quantize edilmemiş serving için dokümante edilebilecek en güvenli referans noktası **8 GPU dağıtımıdır**.
403
+
404
+ #### Sadece metin kullanımı
405
+
406
+ Upstream vLLM örneğinde ayrıca `--language-model-only` seçeneği de yer alır. Bu seçenek vision encoder'ı ve multimodal profiling'i devre dışı bırakarak KV cache için daha fazla bellek açar. Sadece metin tabanlı iş yüklerinde faydalı olabilir.
407
+
408
+ ### Öneri
409
+
410
+ Çoğu production ekip için en mantıklı yaklaşım:
411
+
412
+ 1. **vLLM** veya **SGLang** gibi özel bir serving stack ile başlamak
413
+ 2. gerçek bağlam uzunluğu ve batch profiliyle benchmark almak
414
+ 3. vision gerekmiyorsa text-only modunu kullanmak
415
+ 4. daha pratik altyapı için optimize / sıkıştırılmış varyantları değerlendirmek
416
+
417
+ ## Yazılım Gereksinimleri
418
+
419
+ Önerilen ortam:
420
+
421
+ - Python 3.10+
422
+ - Linux
423
+ - CUDA destekli GPU altyapısı
424
+ - Şu runtime'lardan biri:
425
+ - Transformers
426
+ - vLLM
427
+ - SGLang
428
+ - KTransformers
429
+
430
+ Yaygın bağımlılıklar şunları içerebilir:
431
+
432
+ - `torch`
433
+ - `transformers`
434
+ - `torchvision`
435
+ - `pillow`
436
+
437
+ Kullandığınız serving framework'üne göre ek bağımlılıklar gerekebilir.
438
+
439
+ ## Hızlı Başlangıç
440
+
441
+ Transformers kurulumu:
442
+
443
+ pip install "transformers[serving] @ git+https://github.com/huggingface/transformers.git@main"
444
+
445
+ Temel yükleme örneği:
446
+
447
+ from transformers import AutoProcessor, AutoModelForImageTextToText
448
+
449
+ model_id = "Jetlink/JetLLMPremium-3.5"
450
+
451
+ processor = AutoProcessor.from_pretrained(model_id)
452
+ model = AutoModelForImageTextToText.from_pretrained(
453
+ model_id,
454
+ trust_remote_code=True,
455
+ )
456
+
457
+ ## Serving Örnekleri
458
+
459
+ ### vLLM
460
+
461
+ vllm serve Jetlink/JetLLMPremium-3.5 \
462
+ --port 8000 \
463
+ --tensor-parallel-size 8 \
464
+ --max-model-len 262144 \
465
+ --reasoning-parser qwen3
466
+
467
+ ### vLLM Tool Use ile
468
+
469
+ vllm serve Jetlink/JetLLMPremium-3.5 \
470
+ --port 8000 \
471
+ --tensor-parallel-size 8 \
472
+ --max-model-len 262144 \
473
+ --reasoning-parser qwen3 \
474
+ --enable-auto-tool-choice \
475
+ --tool-call-parser qwen3_coder
476
+
477
+ ### vLLM sadece metin modu
478
+
479
+ vllm serve Jetlink/JetLLMPremium-3.5 \
480
+ --port 8000 \
481
+ --tensor-parallel-size 8 \
482
+ --max-model-len 262144 \
483
+ --reasoning-parser qwen3 \
484
+ --language-model-only
485
+
486
+ ### SGLang
487
+
488
+ python -m sglang.launch_server \
489
+ --model-path Jetlink/JetLLMPremium-3.5 \
490
+ --port 8000 \
491
+ --tp-size 8 \
492
+ --mem-fraction-static 0.8 \
493
+ --context-length 262144 \
494
+ --reasoning-parser qwen3
495
+
496
+ ### SGLang Tool Use ile
497
+
498
+ python -m sglang.launch_server \
499
+ --model-path Jetlink/JetLLMPremium-3.5 \
500
+ --port 8000 \
501
+ --tp-size 8 \
502
+ --mem-fraction-static 0.8 \
503
+ --context-length 262144 \
504
+ --reasoning-parser qwen3 \
505
+ --tool-call-parser qwen3_coder
506
+
507
+ ### SGLang Multi-Token Prediction (MTP) ile
508
+
509
+ python -m sglang.launch_server \
510
+ --model-path Jetlink/JetLLMPremium-3.5 \
511
+ --port 8000 \
512
+ --tp-size 8 \
513
+ --mem-fraction-static 0.8 \
514
+ --context-length 262144 \
515
+ --reasoning-parser qwen3 \
516
+ --speculative-algo NEXTN \
517
+ --speculative-num-steps 3 \
518
+ --speculative-eagle-topk 1 \
519
+ --speculative-num-draft-tokens 4
520
+
521
+ ## Uzun Bağlam Notları
522
+
523
+ JetLLMPremium-3.5 yerel olarak **262.144 token** destekler.
524
+
525
+ Bu pencereyi aşan görevlerde upstream dokümantasyonu; Transformers, vLLM, KTransformers ve SGLang gibi framework'ler tarafından desteklenen **YaRN** benzeri uzun bağlam ölçekleme tekniklerini önermektedir.
526
+
527
+ ## Güçlü Yönler
528
+
529
+ - çok yüksek kapasiteli multimodal model
530
+ - güçlü uzun bağlam desteği
531
+ - toplam parametre sayısına kıyasla verimli aktif hesaplama sağlayan MoE tasarımı
532
+ - geniş çok dilli destek
533
+ - modern yüksek throughput serving framework'leriyle uyumluluk
534
+ - gelişmiş agentic ve kurumsal dağıtımlar için uygunluk
535
+
536
+ ## Sınırlamalar
537
+
538
+ - ciddi altyapı gerektirir
539
+ - uzun bağlam bellek baskısını ciddi şekilde artırır
540
+ - multimodal kullanım ek hesaplama ve bellek maliyeti getirir
541
+ - orijinal ağırlıklar consumer-grade tek GPU ortamları için uygun değildir
542
+ - deployment karakteristiği framework ve konfigürasyona göre ciddi biçimde değişir
543
+
544
+ ## Kapsam Dışı / Dikkat Gerektiren Kullanımlar
545
+
546
+ Diğer frontier-scale multimodal language model'lerde olduğu gibi, model çıktıları şu alanlarda insan denetimi olmadan kullanılmamalıdır:
547
+
548
+ - tıbbi karar verme
549
+ - hukuki tavsiye
550
+ - güvenlik kritik otomasyon
551
+ - yüksek riskli finansal kararlar
552
+ - korumasız tam otonom müşteri aksiyonları
553
+
554
+ İnsan incelemesi, politika kontrolleri ve tool seviyesinde doğrulama güçlü şekilde önerilir.
555
+
556
+ ## Lisans
557
+
558
+ Bu depo, upstream sürümle aynı lisansı takip eder.
559
+
560
+ - **Lisans:** Apache-2.0
561
+ - Geçerli şartlar için upstream Qwen deposu ve lisans metni incelenmelidir.
562
+
563
+ Modeli yeniden dağıtıyor, fine-tune ediyor, quantize ediyor veya başka şekilde değiştiriyorsan; kullanımının upstream lisans ve attribution gereklilikleriyle uyumlu olduğundan emin olmalısın.
564
+
565
+ ## Atıf
566
+
567
+ Orijinal model ve araştırma yayını **Qwen** ekibine aittir.
568
+
569
+ Upstream model:
570
+ - `Qwen/Qwen3.5-397B-A17B`
571
+
572
+ Bu depo, kurum tarafından yönetilen bir kopyadır ve **orijinal upstream kaynak değildir**.
573
+
574
+ ## Atıf / Citation
575
+
576
+ Bu modeli araştırma, değerlendirme veya production dokümantasyonunda kullanıyorsan, lütfen orijinal Qwen sürümüne atıf yap.
577
+
578
+ ```bibtex
579
+ @misc{qwen3.5,
580
+ title = {Qwen3.5 Technical Report},
581
+ author = {Qwen Team},
582
+ year = {2026},
583
+ publisher = {Alibaba Cloud},
584
+ howpublished = {\url{https://huggingface.co/Qwen/Qwen3.5-397B-A17B}}
585
+ }
586
+ ```
587
+
588
+