--- base_model: [cyberagent/calm3-22b-chat, Aratako/calm3-22b-RP-v0.1] library_name: transformers tags: - mergekit - merge datasets: - Aratako/Synthetic-Japanese-Roleplay-NSFW-Claude-3.5s-10.5k-formatted - Aratako/Synthetic-Japanese-Roleplay-gpt-4o-mini-19.8k-formatted - Aratako/Rosebleu-1on1-Dialogues-RP - SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed - grimulkan/LimaRP-augmented - MinervaAI/Aesir-Preview - openerotica/freedom-rp - openerotica/lima-nsfw - Chaser-cz/roleplay_scripts - roleplay4fun/aesir-v1.1 --- # calm3-22b-RP [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/calm3-22b-RP-GGUF) また、[こちら](https://huggingface.co/spaces/Aratako/calm3-22b-RP-demo)で本モデルのデモを公開しています。ぜひお試しください。 ## 概要 This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit). [cyberagent/calm3-22b-chat](https://huggingface.co/cyberagent/calm3-22b-chat)と、これをベースとしてロールプレイ用にファインチューニングしたモデルである[Aratako/calm3-22b-RP-v0.1](https://huggingface.co/Aratako/calm3-22b-RP-v0.1)をマージして作成したモデルです。 利用した学習データセットやパラメータ等の詳細は元モデルのモデルカードを参照してください。 ## プロンプトフォーマット 元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。 ``` <|im_start|>system {ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|> <|im_start|>user {userの1ターン目の入力}<|im_end|> <|im_start|>assistant {assistantの1ターン目の応答}<|im_end|> <|im_start|>user {userの2ターン目の入力}<|im_end|> <|im_start|>assistant ``` また、`tokenizer.apply_chat_template()`を使って自動で成形することも可能です。 ``` tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP") messages = [ {"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"}, {"role": "user", "content": "{userの1ターン目の入力}"}, {"role": "assistant", "content": "{assistantの1ターン目の入力}"}, {"role": "user", "content": "{userの2ターン目の入力}"} ] prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False) ``` ## マージの詳細 マージに利用しているモデルは以下の通りです。 - [cyberagent/calm3-22b-chat](https://huggingface.co/cyberagent/calm3-22b-chat) - [Aratako/calm3-22b-RP-v0.1](https://huggingface.co/Aratako/calm3-22b-RP-v0.1) また、mergekitのconfigは以下の通りです。 ```yaml models: - model: cyberagent/calm3-22b-chat # no parameters necessary for base model - model: Aratako/calm3-22b-RP-v0.1 parameters: weight: 0.5 merge_method: breadcrumbs base_model: cyberagent/calm3-22b-chat dtype: bfloat16 tokenizer_source: base parameters: density: 0.9 gamma: 0.01 ``` ## ライセンス 本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。 そのため、本モデルは[CC-BY-NC-SA 4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.ja)の元配布します。