Math24o是什么
Math24o 是中文大模型测评基准 SuperCLUE 开源的高中奥林匹克数学竞赛级别的数学推理测评基准。主要用于评估大型语言模型在数学推理方面的能力。使用2024年全国高中数学竞赛的部分预赛试题,包含21道高难度解答题,答案唯一且为整数或小数。测评通过程序自动判断模型答案与参考答案是否一致,以客观评估模型的正确率。测评基准能有效衡量语言模型在解决复杂数学问题时的表现,为相关研究和开发提供了有力的工具。

Math24o的主要功能
高难度数学问题测评:Math24o 使用2024年全国高中数学竞赛的预赛试题,包含21道高难度的解答题,题目类型涵盖函数、数列、几何等多个数学领域,能全面评估模型在高中数学竞赛中的推理能力。答案唯一性与客观评估:所有测评题目的最终答案都是唯一的,且必须是整数或小数,确保了测评的公正性和可靠性。通过程序自动判断模型答案与参考答案是否一致,客观地评估模型的正确率。自动化评估流程:Math24o 提供了自动化评估工具,用户可以将模型的回答保存到指定文件中,通过运行Python脚本自动获取模型的平均得分和每道题目的详细评估结果。为模型研发提供参考:测评基准为未来模型的研发提供参考,帮助开发者了解模型在复杂数学任务中的表现,推动模型在数学推理能力上的进一步提升。Math24o的技术实现
技术实现:Math24o 的技术实现基于 Python 编程语言,通过编写特定的脚本来实现自动化评估功能。使整个评估过程更加高效和标准化,减少了人为干预的可能性。Math24o的项目地址
Github仓库:https://github.com/CLUEbenchmark/Math24oMath24o的模型性能评估与对比
从测试结果可以看出,o3-mini(high) 表现最为出色,得分最高,达到了85.71分,其他模型如QwQ-32B和DeepSeek-R1等得分相对较低,分别为66.67分和57.14分,表明当前大模型在高中奥数领域的性能仍有提升空间。
排名模型机构总分使用方式发布日期1o3-mini(high)OpenAI85.71API2025.03.122Gemini-2.0-Flash-Thinking-Exp-01-21Google71.43API2025.03.123QwQ-Max-Preview阿里云66.67官网2025.03.123QwQ-32B阿里云66.67模型2025.03.123o1OpenAI66.67API2025.03.124DeepSeek-R1深度求索57.14API2025.03.124Claude 3.7 SonnetAnthropic57.14POE2025.03.12