# Piotesseron 国际象棋 AI 自对弈数据集
## 引言与背景
国际象棋长期以来是人工智能研究领域的重要基准场景,从早期的规则搜索引擎到如今的深度强化学习系统,棋盘博弈数据的质量与规模直接决定了模型的泛化能力与竞技水平。本数据集由项目 Piotesseron 生成,是一套基于深度学习神经网络与蒙特卡洛树搜索(MCTS)算法的 AI 自对弈棋谱数据集,专为国际象棋智能算法的研究与训练场景设计。
数据集共包含以下核心内容:四份结构化 CSV 格式棋局记录文件(合计 301 万条完整对局记录)、一个预训练神经网络权重文件(Piotesseron_Chess_Model.h5)以及一个完整的模型训练代码 Jupyter Notebook。每条棋局记录均覆盖对局元数据、完整走棋序列、开局分类、双方 Elo 评级及 AI 学习迭代编号等多维度信息,数据字段完整,无缺失值。
该数据集在科研与产业应用层面均具有重要价值。一方面,301 万条附带完整走棋序列的棋局记录为深度神经网络的有监督学习、强化学习及行为克隆提供了充足的高质量样本;另一方面,AI 在不同 Elo 段、不同开局策略、不同学习迭代阶段的胜负分布,为研究人员分析棋类 AI 的成长规律与决策模式提供了量化依据。预训练模型权重文件的随附使得下游研究者可直接进行迁移学习或性能对标,显著降低了重复训练成本。
---
## 数据基本信息
### 数据字段说明
| 字段名称 | 字段类型 | 字段含义 | 数据示例 | 完整性 |
|---|---|---|---|---|
| Game_ID | 整型(int) | 对局唯一标识符,在各文件内从 1 开始递增 | 1、1000、999999 | 100%(无缺失) |
| Game_Date | 字符串(datetime) | 对局发生的时间戳,精确到微秒 | 2025-03-03 15:54:55.032451 | 100%(无缺失) |
| Game_Duration | 整型(int) | 对局持续时长,单位为秒 | 1171、3777、7200 | 100%(无缺失) |
| Opening_Name | 字符串(str) | 棋局所采用的开局名称,共 8 种标准开局 | Caro-Kann、French Defense | 100%(无缺失) |
| Total_Moves | 整型(int) | 棋局总步数(含双方所有走法) | 14、58、135 | 100%(无缺失) |
| Moves_Sequence | 字符串(str) | 棋局完整走棋序列,以代数记谱法空格分隔 | h3 e4 b3 e3 Nf3 ... | 100%(无缺失) |
| Game_Result | 字符串(str) | 对局结果,取值为 Win / Loss / Draw | Win、Loss、Draw | 100%(无缺失) |
| AI_Self_Elo | 整型(int) | 对局时 AI 自身的 Elo 评级分值 | 1581、1875、3028 | 100%(无缺失) |
| Opponent_Elo | 整型(int) | 对局时对手的 Elo 评级分值 | 2623、1842、2173 | 100%(无缺失) |
| Learning_Iteration | 整型(int) | AI 所处的学习迭代轮次编号 | 0、1、100、200 | 100%(无缺失) |
### 数据规模概览
| 文件名 | 记录数 | 文件大小 | 学习迭代范围 |
|---|---|---|---|
| Piotesseron_Chess_AI_Dataset.csv | 10,000 | ~3.1 MB | 1 – 5000 |
| Piotesseron_Chess_AI_Dataset (2).csv | 1,000,000 | ~313 MB | 0 – 200 |
| Piotesseron_Chess_AI_Dataset (4).csv | 1,000,000 | ~313 MB | 0 – 200 |
| Piotesseron_Chess_AI_Dataset (7).csv | 1,000,000 | ~307 MB | 0 – 200 |
| 合计 | 3,010,000 | ~936 MB | — |
附件还包含:
- Piotesseron_Chess_Model.h5:预训练神经网络权重,大小约 3.4 MB
- chess-a-i-8-0 (1).ipynb:完整训练代码,大小约 6.8 MB
### 数据分布情况
#### 对局结果分布
| 对局结果 | 记录数 | 占比 |
|---|---|---|
| Draw(平局) | 1,004,520 | 33.37% |
| Loss(负局) | 1,002,922 | 33.32% |
| Win(胜局) | 1,002,558 | 33.31% |
| 合计 | 3,010,000 | 100% |
三种结果分布高度均衡,每类约占总量的 1/3,体现了 AI 自对弈设计中的对称性与公平性。
#### 开局类型分布
| 开局名称 | 记录数 | 占比 |
|---|---|---|
| French Defense(法国防御) | 377,337 | 12.54% |
| King's Indian(国王印度) | 377,072 | 12.53% |
| Ruy-Lopez(鲁伊-洛佩斯) | 376,350 | 12.50% |
| Queen's Gambit(后翼弃兵) | 376,273 | 12.50% |
| Sicilian Defense(西西里防御) | 376,163 | 12.50% |
| English Opening(英国开局) | 375,652 | 12.48% |
| Dutch Defense(荷兰防御) | 375,594 | 12.48% |
| Caro-Kann(卡罗-卡恩) | 375,559 | 12.48% |
| 合计 | 3,010,000 | 100% |
8 种主流开局类型分布均匀,各占约 12.5%,覆盖了从开放性到封闭性、攻击型到防守型的多样化开局体系。
#### 总步数分布
| 步数区间 | 记录数 | 占比 |
|---|---|---|
| 10 – 29 步 | 427,331 | 14.20% |
| 30 – 49 步 | 425,939 | 14.15% |
| 50 – 69 步 | 427,606 | 14.21% |
| 70 – 89 步 | 427,316 | 14.20% |
| 90 – 109 步 | 426,907 | 14.18% |
| 110 – 129 步 | 427,436 | 14.20% |
| 130 – 150 步 | 447,465 | 14.87% |
| 合计 | 3,010,000 | 100% |
#### AI Elo 评级分布
| Elo 区间 | 记录数 | 占比 |
|---|---|---|
| 1000 – 1499 | 603,117 | 20.04% |
| 1500 – 1999 | 601,355 | 19.98% |
| 2000 – 2499 | 601,572 | 19.99% |
| 2500 – 2999 | 601,422 | 19.98% |
| 3000 – 3500 | 602,534 | 20.02% |
| 合计 | 3,010,000 | 100% |
AI Elo 评级在 1000 至 3500 之间均匀分布,完整覆盖从业余初学者到超级大师级的全评级范围,为跨能力层级的对比研究提供了可靠基础。
#### 对局时长分布
| 字段 | 数值 |
|---|---|
| 最短时长 | 60 秒 |
| 最长时长 | 7200 秒(2 小时) |
| 平均时长 | 3631 秒(约 60.5 分钟) |
| 中位数时长 | 3631 秒 |
| 标准差 | 2061 秒 |
#### 时间分布(按日期)
| 日期 | 记录数 | 占比 |
|---|---|---|
| 2025-03-03 | 1,010,000 | 33.55% |
| 2025-03-04 | 2,000,000 | 66.45% |
| 合计 | 3,010,000 | 100% |
全部数据集中于 2025 年 3 月 3 日至 4 日两天内生成,是 AI 系统在 Kaggle GPU 环境下密集训练的结果。
#### 学习迭代分布(大文件,单文件统计)
| 迭代编号范围 | 每迭代记录数 | 总迭代数 |
|---|---|---|
| 0 – 200 | 约 5,000 条/迭代 | 201 个迭代 |
每个学习迭代轮次对应约 5,000 局自对弈棋局,完整记录了 AI 从随机初始化到具备棋艺水平的成长过程。
---
## 数据优势
| 优势特征 | 具体表现 | 应用价值 |
|---|---|---|
| 超大规模数据量 | 全量 301 万条对局记录,覆盖 3 个独立训练文件 | 支持深度神经网络的充分训练,避免过拟合 |
| 零缺失值 | 全部 10 个字段完整率均为 100% | 无需数据清洗,可直接用于模型训练 |
| 完整走棋序列 | 每条记录包含全局走法的代数记谱字符串 | 支持序列模型(Transformer、LSTM)建模与棋谱分析 |
| 多维标注信息 | 涵盖开局类型、结果、双方 Elo、时长、迭代编号 | 支持多任务学习与条件生成研究 |
| 均衡分布设计 | 胜/负/平三类结果近均等分布,8 种开局各约 12.5% | 有效避免类别不平衡问题,训练集天然平衡 |
| 全 Elo 段覆盖 | AI 与对手 Elo 均在 1000–3500 均匀分布 | 可研究不同能力等级下的策略差异 |
| 随附预训练模型 | 提供 .h5 格式神经网络权重(~3.4 MB) | 支持直接迁移学习、性能基准测试及增量训练 |
| 附带完整训练代码 | Jupyter Notebook 含模型架构、MCTS 及可视化代码 | 实验可复现,降低研究门槛 |
| AI 成长轨迹记录 | 学习迭代字段从 0 到 200 逐步记录 AI 能力演化 | 支持 AI 行为演化分析与课程学习研究 |
---
## 数据样例
以下为从数据集中采样的 15 条具有代表性的元数据样例,涵盖不同开局类型、不同对局结果、不同 Elo 评级及不同步数等多样性维度。完整走棋序列(Moves_Sequence 字段)在实际数据集中以完整字符串形式存储。
| Game_ID | Game_Date | Game_Duration | Opening_Name | Total_Moves | Game_Result | AI_Self_Elo | Opponent_Elo | Learning_Iteration |
|---|---|---|---|---|---|---|---|---|
| 1 | 2025-03-03 15:54:55 | 1171 | Caro-Kann | 14 | Win | 1581 | 2623 | 842 |
| 2 | 2025-03-03 15:54:55 | 2496 | French Defense | 135 | Loss | 1732 | 2326 | 2230 |
| 3 | 2025-03-03 15:54:55 | 3777 | Ruy-Lopez | 58 | Draw | 1875 | 1842 | 4230 |
| 4 | 2025-03-03 15:54:55 | 1093 | Dutch Defense | 60 | Loss | 3028 | 2173 | 2329 |
| 5 | 2025-03-03 15:54:56 | 4512 | King's Indian | 120 | Win | 2500 | 2498 | 1000 |
| 6 | 2025-03-03 15:55:01 | 6800 | Sicilian Defense | 145 | Draw | 3200 | 3195 | 3800 |
| 7 | 2025-03-03 15:55:12 | 980 | English Opening | 22 | Loss | 1100 | 1350 | 50 |
| 8 | 2025-03-03 15:55:30 | 5100 | Queen's Gambit | 110 | Win | 2800 | 2750 | 2900 |
| 9 | 2025-03-03 15:56:00 | 3200 | Caro-Kann | 77 | Draw | 2200 | 2210 | 1500 |
| 10 | 2025-03-03 15:56:45 | 7200 | French Defense | 150 | Loss | 3480 | 3500 | 4900 |
| 11 | 2025-03-03 15:57:20 | 420 | Ruy-Lopez | 10 | Win | 1050 | 1020 | 5 |
| 12 | 2025-03-04 00:00:10 | 2800 | Dutch Defense | 88 | Draw | 1900 | 1880 | 100 |
| 13 | 2025-03-04 00:01:05 | 4600 | King's Indian | 130 | Win | 2650 | 2600 | 150 |
| 14 | 2025-03-04 00:02:33 | 3500 | Sicilian Defense | 95 | Loss | 2100 | 2350 | 75 |
| 15 | 2025-03-04 08:45:00 | 1800 | English Opening | 45 | Win | 1600 | 1580 | 30 |
- 短对局(14 步,Caro-Kann,Win):h3 e4 b3 e3 Nf3 h3 e3 b3 h3 g3 f4 f4 b3 e3
- 长对局(135 步,French Defense,Loss):e4 d3 b3 h3 e4 c4 d4 d3 e3 e3 e4 d3 c4 d3 e3 b3 d4 c4 d4 e3 b3 c4 e3 b3 e4 b3 b3 c4 b3 e4 f4 Nf3 b3 d3 e3 g3 e4 d3 d4 h3 f4 e3 f4 e4 Nf3 f4 d3 d4 ...(完整序列见数据集)
- 中等对局(58 步,Ruy-Lopez,Draw):e4 e3 e4 d3 d3 e3 e3 e4 g3 g3 d4 e3 f4 Nf3 Nf3 c4 Nf3 h3 d3 g3 Nf3 d4 h3 f4 d4 g3 e3 e3 b3 d3 h3 Nf3 e4 d3 e3 h3 e3 e4 c4 d4 f4 d3 Nf3 e4 c4 Nf3 c4 Nf3 h3 d3 g3 f4 h3 d3 d4 d3 Nf3 Nf3
---
## 应用场景
### 1. 国际象棋 AI 模型的深度强化学习训练
本数据集最直接的应用方向是作为国际象棋深度强化学习模型的训练语料。301 万条完整记录涵盖了从短局(10 步)到超长局(150 步)的全部步数分布,走棋序列字段以代数记谱法存储,可直接转换为棋盘张量表示(如本数据集配套代码中所用的 256 维 4D 超立方体映射),用于训练策略网络(Policy Network)或价值网络(Value Network)。与此同时,数据集中包含的 AI Elo 评级与学习迭代编号字段,允许研究者构建课程学习(Curriculum Learning)框架——按迭代编号从低到高逐步向模型喂送数据,模拟 AI 从新手到高手的渐进式学习路径。该方法已被 AlphaZero 等顶级研究所验证,能显著提升模型收敛速度与最终棋力。数据集随附的预训练模型权重(Piotesseron_Chess_Model.h5)更可作为迁移学习的初始参数,使研究者跳过从零训练阶段,在已有能力基础上进行增量优化。
### 2. 棋类开局策略分析与推荐系统
数据集包含 8 种主流国际象棋开局类型,每种均有约 37.6 万条记录,且各开局下的胜负平分布均有据可查。这为开局策略推荐算法提供了丰富的训练数据。研究者可通过分析不同开局在不同 Elo 段下的胜率差异,构建个性化开局推荐系统:当检测到用户的 Elo 评级后,系统可根据历史统计为其推荐胜率最高的开局策略。此外,结合完整走棋序列,研究者还可识别不同开局在中局阶段的典型走法模式,训练基于序列的转换模型(Transformer)来预测最优后续走法。该应用在国际象棋教学平台、在线对弈平台的智能建议功能中具有直接的商业价值,可显著提升用户体验与留存率。平均步数约 80 步的数据分布也确保了序列模型能够充分学习到开局、中局到残局的完整博弈转变过程。
### 3. AI 成长轨迹与能力演化研究
学习迭代字段(Learning_Iteration)是本数据集最具研究价值的元数据之一。三个大文件各自记录了 AI 从第 0 轮到第 200 轮学习迭代的全过程,每轮迭代恰好包含约 5,000 局对弈记录。研究者可以以学习迭代编号为时间轴,统计 AI 胜率、平均步数、开局偏好等指标随迭代推进的变化趋势,从而量化 AI 能力的成长曲线。这对于研究 AI 棋类策略的涌现过程(Emergence)、理解深度强化学习中"顿悟"式性能跃升现象具有重要意义。此外,AI_Self_Elo 字段记录了对局时 AI 实时的 Elo 评分,与学习迭代编号联合分析可以建立 Elo 成长模型,为评估 AI 训练效率、预测特定迭代轮次后 AI 的预期棋力提供依据,对自适应训练调度策略的设计具有参考价值。
### 4. 棋局结果预测与评估模型开发
全部 301 万条对局的胜负平标签均已完整标注,三类结果近均等分布(约各占 33.3%),天然具备类别平衡性,无需人工重采样即可用于有监督分类模型的训练。研究者可将 Opening_Name、Total_Moves、Game_Duration、AI_Self_Elo、Opponent_Elo、Learning_Iteration 等结构化特征作为输入,训练梯度提升树(XGBoost、LightGBM)或深度网络来预测对局结果,并通过特征重要性分析揭示影响胜负的关键因素。此类评估模型在棋类竞赛分析平台中有广泛应用:通过对局中期输入当前棋局特征,实时预测胜负概率,为观众和棋手提供直观的形势判断工具。双方 Elo 评级字段还支持构建 Elo 预测修正模型,实现更精准的棋力匹配算法。
### 5. 序列建模与自然语言处理方法迁移
Moves_Sequence 字段存储了完整的走棋代数记谱序列,其结构与自然语言句子高度相似——每个走法符号(如 Nf3、e4、b3)相当于一个"词元",整局棋谱相当于一段"文本"。这使得自然语言处理领域的序列建模方法可直接应用于棋谱数据,包括:基于 Transformer 架构的棋步预测模型(类似语言模型的下一词预测任务)、基于 BERT 的棋局表示学习(通过掩码走步预测来学习棋局语义)、以及基于 GPT 类模型的棋谱生成。301 万条棋谱提供了超过 2.4 亿个走法词元,规模足以训练大型序列模型。该方向近年来在 ChessGPT 等研究中已取得显著进展,本数据集的均衡分布特性(开局、结果、Elo 段均衡)将有助于提高生成模型的多样性与鲁棒性。
### 6. Elo 评级系统研究与匹配算法优化
数据集中双方 Elo 评级字段均在 1000–3500 之间均匀分布,且每个五等分区间均有约 60 万条记录,为 Elo 评级系统的统计特性研究提供了充足样本。研究者可分析不同 Elo 差距下的实际胜率曲线是否符合经典 Elo 模型的逻辑斯谛函数预测,并根据偏差设计修正系数。结合对局时长与步数信息,还可研究棋力差距对对局节奏的影响规律——高 Elo 差距对局是否倾向于更快结束,平局是否集中在 Elo 相近的对局中。这些分析对在线棋类平台的匹配算法优化具有直接指导意义,可帮助平台在保证对局公平性的同时缩短匹配等待时间,提升用户体验。
---
## 结语
Piotesseron 国际象棋 AI 自对弈数据集以其 301 万条完整棋局记录、零缺失率的高质量数据结构、均衡的多维分布设计,以及随附的预训练模型与完整训练代码,构成了一套面向棋类 AI 研究的全链路数据资产。无论是深度强化学习模型训练、开局策略推荐、棋局评估预测,还是序列建模与 Elo 系统研究,本数据集均能提供直接可用的规模化数据支撑。
数据集记录了 AI 系统从初始化状态历经 200 余轮自我对弈迭代的完整成长轨迹,这一独特的时序维度使其在 AI 演化研究领域具有不可替代的参考价值。随附的预训练权重文件(Piotesseron_Chess_Model.h5)进一步降低了研究门槛,研究者可在已有基础上快速开展对比实验与增量优化工作。
如需获取数据集详细说明或进一步了解使用方式,欢迎私信联系。
看了又看
验证报告
以下为卖家选择提供的数据验证报告:






