Valve官方近日发布公告,自2025年7月15日起,所有上架Steam平台的游戏若使用AI生成内容,必须在发布页面明确标注其“生成形式、覆盖范围与人类监督程度”。此举旨在提高平台透明度、规范AI内容使用边界,同时应对玩家对“内容可信度”的担忧。
新规核心内容包括:
-
AI生成内容范围需标明(如场景生成、对话脚本、角色行为、立绘图像等);
-
需说明人工审核或修正情况,避免误导用户;
-
若游戏内容含深度AI交互(如AI NPC),需额外通过Steam专项审查机制;
-
违规游戏将视为“欺诈性描述”处理,可能被下架或封禁账号。
该政策一经发布,立即在开发者社区中引发广泛讨论。部分小型工作室认为这增加了上架流程复杂度,但也有开发者表示支持,认为“清晰标注有助于保护原创内容、提升用户信任”。
玩家群体反应亦较为积极,在Reddit与微博上,不少人表示欢迎新规:“终于不怕买到全AI堆砌的‘空壳游戏’了。”但也有担忧“可能打击使用AI进行美术辅助的独立开发者”。
业内人士指出,AI生成内容的崛起已成为不可逆趋势,Steam此举并非限制技术使用,而是强调“责任与透明”原则,预示游戏行业在AI时代的规则初步确立。