跳到内容

夜深了,注意休息,愿你今夜好梦。

AGI-Eval评测社区

AGI-Eval评测社区

AGI-Eval是由上海交大、同济大学、华东师大及DataWhale联合推出的大模型评测社区。平台提供权威模型能力榜单、丰富的评测数据集、人机协同比赛及Data Studio数据工坊,旨在通过科学、透明的评估体系,衡量AI模型在理解、推理、知识等维度的综合表现,为研究者和开发者提供评测支持。

浏览 447 收藏 0 外链点击 0 更新 2026年4月15日
适用地区
全球
适用平台
以官网说明为准
是否免费
以官网与标签为准

AGI-Eval是一个由上海交通大学、同济大学、华东师范大学以及DataWhale等高校和机构共同建设的大模型评测社区。它的目标是建立一个公正、可信的评测环境,专门评估人工智能基础模型在那些需要人类式认知和解决问题能力的任务上的表现。

核心功能与特色

这个平台主要围绕几个关键部分展开工作。

模型榜单与评估

平台会发布基于通用评测方案的大语言模型能力排名。这个榜单不仅看综合得分,还会拆解到理解、推理、知识、计算等具体能力项上。数据定期更新,力求透明,帮你看清不同模型的长处和短处。

人机协同评测比赛

AGI-Eval会组织人机评测比赛,让你可以和大模型组队去完成一些复杂任务,看看人机合作能产生什么奇妙效果。这类比赛也在探索未来人机协同的评测标准。

评测集社区

这里汇集了多种评测数据集:有公开的学术数据集可供下载;有平台自建的官方评测集;也欢迎用户上传自己构建的数据集,共同丰富这个开源社区。评估方式结合了自动评测和人工评测。

Data Studio 数据工坊

这是一个挺活跃的数据收集平台,拥有数万名众包用户。它支持收集单条数据、扩写数据、Arena对比数据等多种形式,并通过机器加人工的多重审核来保证数据质量。

评估与开发支持

平台提供完整的评估方法、基线系统,是衡量AI模型综合能力的一个实用工具。它特别关注语言能力评估,整合了中英文双语任务。对于科研人员和开发者来说,这里既是测试、优化模型性能的地方,也是探索新研究方法的一个支撑平台。

平台的价值

AGI-Eval的设计思路,是把模型放到类似高考、司法考试、数学竞赛这些贴近人类真实认知和决策的场景中去考验。这样做,不仅能看出模型在标准化测试中的分数,更能揭示它在实际应用中的潜力和局限。其透明的数据、社区的协作模式以及多维度的评测功能,让它成为了AI领域从业者一个值得关注的资源站。

发表评论

正文
强调色