Aratako's picture
Update README.md
f5d3bda verified
|
raw
history blame
4 kB
metadata
base_model:
  - elyza/ELYZA-japanese-Llama-2-13b
  - elyza/ELYZA-japanese-Llama-2-13b-instruct
license: llama2
language:
  - ja
tags:
  - mergekit
  - merge
  - MoE

ELYZA-japanese-Llama-2-MoE-2x13B-v0.1

English description here

概要

Llama-2ベースの学習済み日本語モデルであるelyza/ELYZA-japanese-Llama-2-13bと、そのinstruction tuningモデルであるelyza/ELYZA-japanese-Llama-2-13b-instruct を、mergekitを使ってMoEを行い作成したモデルです。

GGUF版はこちら

以下2モデルを利用しています。

ライセンス

元モデルの通り、Llama2ライセンスを継承します。

Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.

ベンチマーク

ベースとしたELYZA-japanese-Llama-2-13b-instructと本モデルのjapanese-mt-benchの結果は以下の通りです。 (シングルターン)

Model Size Coding Extraction Humanities Math Reasoning Roleplay STEM Writing avg_score
ELYZA-japanese-Llama-2-13b-instruct 13B 3.7 6.0 6.6 2.4 2.5 5.2 5.8 7.2 4.925
This model 2x13B 3.7 6.9 6.3 3.7 4.4 6.0 7.0 7.4 5.675

レーダーチャート

ベンチマークに使用したプロンプト

"""<s>[INST] <<SYS>>
あなたは誠実で優秀な日本人のアシスタントです。
<</SYS>>

{instruction} [/INST]"""

Description

This model is created using MoE (Mixture of Experts) through mergekit based on elyza/ELYZA-japanese-Llama-2-13b and elyza/ELYZA-japanese-Llama-2-13b-instruct.

Click here for the GGUF version

It utilizes the following two models:

License

This model inherit the Llama2 license.

Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.

Benchmark

The results of this model and the base ELYZA-japanese-Llama-2-13b-instruct on japanese-mt-bench are as follows. (Single turn)

Model Size Coding Extraction Humanities Math Reasoning Roleplay STEM Writing avg_score
ELYZA-japanese-Llama-2-13b-instruct 13B 3.7 6.0 6.6 2.4 2.5 5.2 5.8 7.2 4.925
This model 2x13B 3.7 6.9 6.3 3.7 4.4 6.0 7.0 7.4 5.675

レーダーチャート

Prompt used for benchmark

"""<s>[INST] <<SYS>>
あなたは誠実で優秀な日本人のアシスタントです。
<</SYS>>

{instruction} [/INST]"""

Merge config

mergekit_config.yml

base_model: ./ELYZA-japanese-Llama-2-13b-instruct
gate_mode: random
dtype: bfloat16
experts:
  - source_model: ./ELYZA-japanese-Llama-2-13b-instruct
    positive_prompts: []
  - source_model: ./ELYZA-japanese-Llama-2-13b
    positive_prompts: []
tokenizer_source: model:./ELYZA-japanese-Llama-2-13b-instruct