2023年美赛C题评委文章及O奖论文解读 - 美国大学生数学建模竞赛 从评委和O奖论文出发-O奖论文

发布时间:2024年01月07日

2023年美赛C题评委文章及O奖论文解读 | 美国大学生数学建模竞赛 从评委和O奖论文出发-O奖论文做对了什么?

  • 美赛真的是画图比赛吗?
  • O奖论文的共同特点是什么?O奖论文做对了什么事情?
  • 赛题包含哪些要点
  • 参赛队伍最爱使用哪些方法
  • 全球不同队伍在该赛题上的表现如何?

本文调研了当年赛题的评委文章和O奖论文,这些问题都会在文章中一一解答。

引言

每年美赛结束后,评委根据参赛情况撰写评论文章,其中包括:

  1. 以23年C题为代表的预测模型问题的关键点是什么?
  2. 对23年C题各个小问的评价:哪些队伍的方案做得好,好在哪里
  3. 对文章其他部分的评价:数据预处理敏感性分析

本文结合评委意见和当年O奖论文对23年美国大学生数学建模竞赛C题做出要点分析和总结,让我们一起来看看2023年美赛C题赛题分析吧!

省流:

阅读原始全文页面点这里

获得2016~2023历年美赛赛题资料与O奖论文点这里

评委背景

一句话介绍23年C题评论文章撰写人背景- ***Richard J. Marchand ***

拥有15年的MCM评奖经验,获得弗吉尼亚大学应用数学博士学位,进入美国军事学院完成博士后工作,在美国空军学院担任杰出访问教授。

一句话总结23年C题要点:

预测模型不确定性做出量化分析

关键词:预测模型 → C题是时间序列数据,不确定性 → 给出置信区间,量化 → 公式化可计算,分析 → 可视化哈


简介

背景

23年C题要求团队开发基于一个不足一年时长的时间序列数据的预测模型,即Wordle结果预测模型。

评委意见:任何预测模型的重点之一是对预测结果不确定性的分析。

在这里插入图片描述

如此一来,23年c题重点之一也是对预测模型不确定性的分析。

而预测模型的不确定性可能来自很多方面。

数据本身可能存在误差或噪声,或者可能不完全代表整个想要模拟的系统。例如,测量误差、数据缺失或数据样本不足都可能导致不确定性。

此外,模型假设中对实际情况的简化可能带来模型不确定性。并且模型中的参数可能不是精确知道的。这些参数可能是基于历史数据估计得到的,因此包含估计误差。

📌C题的重点之一是如何对模型不确定性做出量化并合理解释。

问题重述

做一个简单的问题重述,免得大家忘了题目要求。

  1. 开发一个模型来解释每日报告结果数量的变化,并使用该模型为2023年3月1日的报告结果数量创建一个预测区间。确定影响困难模式报告百分比的单词属性,以及单词属性如何影响报告结果的数量。
  2. 开发一个模型,预测未来日期的尝试次数(1、2、3、4、6、X)的每日分布,并识别与模型和预测相关的任何不确定性。2023年3月1日,将该模型应用于“EERIE”一词,并确定与预测相关的置信水平。
  3. 开发并总结一个模型,按难度分类单词。识别与每个分类关联的给定单词的属性。利用该模型对“EERIE”一词的难度进行分类,并讨论该模型的准确性。
  4. 列出并描述数据集的其他有趣的特性
  5. 编写一封两页的信将调查结果告知《纽约时报》的谜题编辑

数据预处理

数据预处理是每年C题必须要完成的步骤。简单画个表格,我们很容易看到数据集中存在明显的异常值,错误的用户数据与正确的数据相差了一个数量级。

在这里插入图片描述

除此之外,单词中还存在错误,如 rprobe、clen等等,需要队伍进行纠正。

评委意见:成绩较好的论文纠正了这些错误。虽然许多团队使用了某种形式的推断策略来解决这些问题,但最好的团队只是纠正了它们——因为数据可以在线验证。

未来报告数量预测模型

预测模型

我们首先回顾一下问题的要求,需要我们根据以往数据开发一个模型来预测未来报告数量。

以往报告数据如下图。

在这里插入图片描述

不难看出,这是一个时间序列预测问题,利用历史数据来预测未来值。针对不同的时间序列数据,目前已经有各种模型。

常见的模型包括自回归模型(AR)、移动平均模型(MA)、自回归综合移动平均模型(ARIMA)、季节性自回归综合移动平均模型(SARIMA)、指数平滑模型、Facebook开发的Prophet模型、长短期记忆网络模型(LSTM)和门控循环单元模型(GRU)、向量自回归模型(VAR)、状态空间模型和卡尔曼滤波器等。

每种模型都有其假设和应用范围,模型的选择通常取决于数据的特点,如季节性、趋势和领域特定因素。为提高预测性能,结合不同模型或使用集成技术也是可行的方法。

如何从这么多模型中选择合适的模型?

评委意见: 许多团队主要依赖于某种形式的回归、ARIMA或机器学习模型。然而,任何预测区间的一个重要要求是提供一个相关的置信水平或其他一些稳健的不确定性度量来评估估计的质量。

评委认为与前几年一样,该问题最大的挑战是提供对不确定性恰当的度量。尤其是一些使用机器学习算法的团队,机器学习算法中并不包含对不确定性的度量。

!!!

合适的预测模型需要为预测结果的不确定性做出合理的说明和解释。

!!!

评委意见:许多团队还混淆了预测区间和置信区间,或者采用特别的方法来为用户数量创建某种区间估计。O奖论文提供了明确的预测区间,并附加了与之相关的不确定性或置信水平的有效度量。

评委表扬了来自天津大学的队伍2310767使用ARIMA模型预测报告结果的数量区间,并且使用LSTM模型预测残差序列用以纠正ARIMA模型的缺点。

在这里插入图片描述

以及来自华东师范大学的队伍2318982使用ARIMA(1,1,1) 模型,同样对未来报告数量做出置信水平做出合理的估计。

在这里插入图片描述

在这里插入图片描述

同样,获得O奖的队伍2307946也对模型预测结果给出置信区间。

在这里插入图片描述

对影响困难模式报告属性的分析

问题1的另一个部分是确定影响困难模式报告百分比的单词属性,以及确定单词属性如何影响报告结果的数量。

评委意见: 尽管大多数团队对不同的单词属性(如共性、重复字母的数量等)进行了某种类型的相关性分析,以及困难模式用户的数量。但是最好的论文清楚地利用可量化的方式证明他们结论,并提供了图形可视化,包括相关矩阵,热图等。

阅读剩余内容点这里,包括

评委对分布结果预测模型的分析。评选是否利用23年3月1日真实猜词结果与预测结果进行比较?评委认为哪种方式能够合理说明预测结果合理性?

其他队伍如何建立单词难度分类模型?这一问题中评委最看重哪些部分?

对其他特征的探索在评分中占比大吗?

敏感性分析是否必要?O奖论文如何进行敏感性分析?

一些评委给出的O奖论文的必要不充分条件?

以及文末的要点总结。

文章来源:https://blog.csdn.net/weixin_44634406/article/details/135430191
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。