File size: 1,680 Bytes
a5c874d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
---
license: apache-2.0
---
# What is this?
[Qwen2.5-32B-Instructの公式GGUF](https://huggingface.co/Qwen/Qwen2.5-32B-Instruct-GGUF)を日本語imatrixで量子化したものです。<br>
なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、**32768トークンを超える文章では正常に機能しない恐れがあります。**<br>
よって、(メモリの占有を防ぐという意味でも)`-c`**オプションで適当なコンテキスト長に制限することを強く推奨します。**

# imatrix dataset
日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
なお、公式配布されているGGUFにはBF16やFP32が存在しなかったため、一連の作業はQ8_0量子化モデルで行いました。<br>
(imatrix計算時だけでなく、量子化時も`--allow-requantize`オプションでQ8からの再量子化を許容しています)
```
.\llama-quantize.exe --allow-requantize --imatrix .\imatrix.dat "F:\Users\Public\Downloads\models\qwen2.5-32b-instruct-q8_0.gguf" IQ4_XS
```

# Chat template
```
<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant


```

# Environment
Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

# License
Apache 2.0

# Developer
Alibaba Cloud