Update README_cn.md
Browse files- README_cn.md +2 -2
README_cn.md
CHANGED
@@ -55,7 +55,7 @@ pipeline_tag: text-generation
|
|
55 |
- 基座20B参数级别大模型综合评测效果表现优异
|
56 |
- 多语言能力强,在日语、韩语测试集上显著领先
|
57 |
- 微调模型适应性强,在人类标注盲测中,表现突出
|
58 |
-
-
|
59 |
- 量化版本模型大小缩小70%,推理速度提升30%,性能损失小于1%
|
60 |
|
61 |
<table style="border-collapse: collapse; width: 100%;">
|
@@ -72,7 +72,7 @@ pipeline_tag: text-generation
|
|
72 |
- 具体而言,Orion-14B系列大语言模型包含:
|
73 |
- **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
|
74 |
- **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
|
75 |
-
- **Orion-14B-LongChat:**
|
76 |
- **Orion-14B-Chat-RAG:** 在RAG、知识抽取、问答对生成、知识边界控制能力、回答精准度方面,接近千亿级模型效果。在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
|
77 |
- **Orion-14B-Chat-Plugin:** 在插件调用、Agent、ReAct Prompting能力方面,接近千亿级模型效果。专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
|
78 |
- **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
|
|
|
55 |
- 基座20B参数级别大模型综合评测效果表现优异
|
56 |
- 多语言能力强,在日语、韩语测试集上显著领先
|
57 |
- 微调模型适应性强,在人类标注盲测中,表现突出
|
58 |
+
- 长上下文版本支持超长文本,在200k token长度上效果优异,最长可支持可达320k
|
59 |
- 量化版本模型大小缩小70%,推理速度提升30%,性能损失小于1%
|
60 |
|
61 |
<table style="border-collapse: collapse; width: 100%;">
|
|
|
72 |
- 具体而言,Orion-14B系列大语言模型包含:
|
73 |
- **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
|
74 |
- **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
|
75 |
+
- **Orion-14B-LongChat:** 在200k token长度上效果优异,最长可支持可达320k,在长文本评估集上性能比肩专有模型。
|
76 |
- **Orion-14B-Chat-RAG:** 在RAG、知识抽取、问答对生成、知识边界控制能力、回答精准度方面,接近千亿级模型效果。在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
|
77 |
- **Orion-14B-Chat-Plugin:** 在插件调用、Agent、ReAct Prompting能力方面,接近千亿级模型效果。专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
|
78 |
- **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
|