最近老師收到了很多私信,很多隊伍說自己在比賽中大量參考了ChatGPT、DeepSeek等AI工具,現在開始“後怕”——擔心自己的作品因AI參與(yu) 度過高而被判定違規,甚至影響獎項評定。
AI技術的爆發式繁榮,其在數學建模競賽中的應用已成為(wei) 一把雙刃劍。盡管官方允許使用AI,但其強調“原創性”和“獨立思考”的核心原則始終未變。畢竟,AI可以是“神助攻”,但不能成為(wei) “替考員”。今天就讓老師來給大家分析一下這個(ge) 問題!
一、官方態度與(yu) 核心規則:AI可用但需規範
2024年美賽官方文件明確規定:允許參賽隊伍使用AI工具,但需在論文末尾添加獨立報告《Report on Use of AI》。該部分不計入25頁正文限製。
3項關(guan) 鍵要求
1.使用標注:在正文中每次引用AI生成內(nei) 容時,需以內(nei) 聯標注形式標明(如標注序號[1]),並在參考文獻中對應說明;
2.驗證義(yi) 務:必須驗證AI生成結果的準確性,需在AI報告中描述驗證方法(如交叉驗證、人工校驗等);
3.格式規範:AI報告需包含工具名稱、使用場景、輸入輸出記錄要素。示例如下:
AI工具 | 使用場景 | 輸入問題 | 輸出結果摘錄 |
DeepSeek | 模型參數優化 | "請給出適用於Logistic模型的粒子群算法參數設置建議" | "建議慣性權重設為0.729..." |
二、查重機製與(yu) AI風險
最新數據顯示,2024年因AI使用不當被取消資格的隊伍中,89%的問題源於(yu) :
- 未區分標注AI生成內容(51%)
- 驗證方法描述不充分(37%)
- 跨版本工具混用(12%)
美賽官方使用——雙重查重體(ti) 係
1.文本查重
采用Turnitin係統檢測,比對範圍包含:
- 5年美賽獲獎論文庫
- 學術期刊數據庫(Springer、IEEE等)
- 互聯網公開資源
2. AI特征檢測
- 句式結構分析(檢測機械性重複句式)
- 語義連貫性評估(識別邏輯斷層)
- 創新點溯源(驗證建模思路獨創性)
3. 禁止場景
- 直接生成完整模型代碼(需人工修改30%以上)
- 套用AI提供的現成數學模型(需進行參數本地化調整)
高風險行為(wei) 清單:
行為類型 | 典型案例 | 處理結果 |
未聲明AI使用 | 使用AI繪製圖表但未標注 | 直接取消評獎資格 |
低質量AI報告 | 僅列出工具名稱無具體交互記錄 | 降級評獎等級 |
過度依賴AI | 核心模型完全由AI生成且未驗證 | 扣減創新分30% |
三、自查方案
AI使用報告規範性核查
格式完整性
- 是否在論文後單獨附加了"Report on Use of AI"(無頁數限製,不計入25頁正文)?
- 是否完整記錄了每次AI交互過程(包括輸入提示詞和完整輸出內容)?
- 是否注明AI工具名稱、版本號及使用時間?如:"ChatGPT-4 (2025-02-01版)"
引用標注
- 正文中所有AI生成內容是否使用內聯引用標注?如:[1]、[2]
- 參考文獻是否建立與Report on Use of AI的對應關係?
AI生成內(nei) 容合規性檢查
原創性驗證
- 是否對AI生成的文字/數據進行了人工驗證?在報告中注明驗證方式(如交叉驗證文獻、實驗複現等)
- 連續200字符以上的AI生成文本是否經過改寫?
功能邊界把控
- 是否僅將AI用於輔助功能?
合理用途:翻譯驗證、文獻檢索、代碼調試、格式檢查
違規用途:自動生成論文主體(ti) 內(nei) 容、偽(wei) 造實驗數據
圖像生成規範
- AI製圖是否注明生成工具?
- 流程圖/示意圖是否經過人工修改?建議混合Visio等工具二次編輯
防抄襲專(zhuan) 項檢查
查重檢測
- 整體重複率<25%
- AI生成內容疑似度<15%
- 避免使用非正規查重平台(存在論文泄露風險)
文獻引用
- AI推薦的參考文獻是否真實存在?需逐條核對DOI編號
- 是否混合使用AI檢索與人工檢索(建議比例3:7)
代碼與(yu) 數據合規性
代碼查重
- 附錄代碼是否通過Turnitin等代碼查重係統檢測?
- AI生成的代碼是否添加功能注釋(注明AI改寫部分)
數據驗證
- AI收集的數據是否標注來源?
- 是否通過SPSS/Python等工具進行合理性驗證?
四、常見問題解答
Q:AI生成的圖表會(hui) 被查重嗎?
A:矢量圖元素(如坐標係樣式)可能觸發查重
Q:往屆有成功案例嗎?
A:2024年F獎論文中,32%的隊伍規範使用AI工具,典型做法包括:
- 用AI生成對比實驗對照組
- 自動化處理敏感性分析數據
- 輔助撰寫非核心章節(如附錄說明)
評論已經被關(guan) 閉。