CMMLU(Chinese Massive Multitask Language Understanding)是一个专为评估中文大规模多任务语言理解能力而设计的基准测试,由 haonan-li 团队开发并开源于 GitHub。该项目旨在填补中文自然语言处理领域在多任务评估方面的空白,提供一个全面、系
简介
CMMLU(Chinese Massive Multitask Language Understanding)是一个专为评估中文大规模多任务语言理解能力而设计的基准测试,由 haonan-li 团队开发并开源于 GitHub。该项目旨在填补中文自然语言处理领域在多任务评估方面的空白,提供一个全面、系统的测试框架,用于衡量语言模型在不同任务和知识领域的理解与推理能力。
功能
- 涵盖57个任务类别,涉及人文、社会科学、理工科、医学等多个领域
- 支持多项选择题格式,便于统一评估标准
- 可用于评估各类中文语言模型(如ChatGLM、Baichuan、ERNIE等)的综合能力
- 开源数据集和评测脚本,便于研究人员和开发者自由使用与扩展
- 支持与英文MMLU对比,便于跨语言模型性能分析
适用人群
- 人工智能与自然语言处理领域的研究人员
- 中文大语言模型的开发者与工程师
- 高校及科研机构进行语言模型评估的教师与学生
- 对比分析中英文语言模型性能的跨语言研究者
常见问题
- CMMLU 是否仍在更新?
是,项目活跃于 GitHub,社区持续贡献新任务与优化评估方法。
- 如何使用 CMMLU 评估自己的模型?
用户可通过克隆 GitHub 仓库,使用提供的脚本加载模型并运行评测。
- CMMLU 是否只适用于大模型?
虽然设计初衷是评估大语言模型,但中小型模型也可用于测试其任务泛化能力。
- 是否支持英文任务?
CMMLU 专注于中文任务,但支持与英文 MMLU 结果对比。