0

0

使用强化学习和线性 Q 网络掌握贪吃蛇游戏(使用 Python)

花韻仙語

花韻仙語

发布时间:2024-10-13 19:47:28

|

725人浏览过

|

来源于dev.to

转载

使用强化学习和线性 q 网络掌握贪吃蛇游戏(使用 python)

人工智能 (AI) 从最初的概念阶段已经走过了很长的路。强化学习 (RL) 世界是人工智能最迷人的子领域之一,智能体通过与环境交互来学习,以最大化累积奖励。强化学习的真正魅力在于它的试错学习能力,这与传统的基于规则的编程形成鲜明对比。在本文中,我们将探讨如何使用强化学习来教机器玩经典的贪吃蛇游戏,这是一项需要规划、策略和适应性的任务。

我们进行此探索的主要工具是线性 Q 网络 (LQN),这是一种为实现 Q 学习(一种流行的 RL 技术)而构建的神经网络架构。我们将介绍整个过程,从设置环境、训练代理,到最后将所有内容集成到自学习贪吃蛇游戏 AI 中。

贪吃蛇和人工智能的基础知识
在深入研究强化学习之前,我们先来分析一下贪吃蛇游戏及其带来的挑战。贪吃蛇游戏是一款简单的街机风格游戏,其中一条蛇在网格中连续移动。玩家的任务是引导蛇吃食物并避免撞到墙壁或自己的身体。每吃掉一次食物,蛇就会变得更长,并且随着空间变得更紧,挑战也随之增加。

教 AI 智能体玩贪吃蛇很困难,因为它要求智能体:

  • 避免自我碰撞。
  • 有策略地导航到食物。
  • 处理环境不断变化的动态游戏状态。

这就是强化学习的闪光点。通过对代理的良好行为(例如吃食物)给予奖励以及对错误(例如撞墙)进行惩罚,代理可以学习玩游戏的最佳策略。

立即学习Python免费学习笔记(深入)”;

什么是强化学习?
强化学习是一种机器学习,其中代理与环境交互,做出决策(行动),并根据这些决策接收反馈(奖励或惩罚)。随着时间的推移,智能体的目标是通过调整其行为来最大化累积奖励。

在强化学习中,代理不断遵循循环:

  • 观察状态:代理从环境中收集信息。
  • 选择一个操作:根据状态,代理决定最佳的操作方案。
  • 执行操作:代理执行操作并移动到新状态。
  • 接收反馈:代理根据操作的结果收到奖励或惩罚。

代理的目标是学习最优策略,即从状态到动作的映射,以最大化长期累积奖励。对于蛇来说,智能体的状态包括蛇的位置、食物位置和蛇前进的方向。它的动作很简单(左转、右转或直行),但游戏动态使其成为一项不平凡的任务。

Q-Learning:我们代理的基础
Q-Learning 是一种离策略 RL 算法,其中代理学习 Q 值函数,该函数估计在特定状态下采取操作的价值。 Q 值本质上代表了智能体可以从该操作中期望的未来奖励,并且随着时间的推移,智能体通过调整这些 Q 值来改进其预测。

Q 值函数使用贝尔曼方程更新:

Q_new(状态, 动作) = 奖励 + gamma * max(Q_next_state(all_actions))

地点:

腾讯交互翻译
腾讯交互翻译

腾讯AI Lab发布的一款AI辅助翻译产品

下载
  • 奖励是代理采取行动后立即获得的奖励。
  • gamma 是决定未来奖励价值的折扣因子。
  • max(Q_next_state) 是考虑所有可能的操作后,下一个状态的最大预期奖励。

通过根据经验迭代更新 Q 值,代理可以了解哪些操作从长远来看会带来更好的结果。

线性 Q 网络 (LQN):用于 Q 学习的神经网络
Q-Learning 的原始形式使用 Q-table,将状态映射到操作。然而,随着状态空间的增长(例如,蛇的许多可能位置),由于内存和计算的限制,维护 Q 表变得不切实际。这就是线性 Q 网络 (LQN) 的用武之地。

LQN 使用神经网络近似 Q 值函数。我们有一个模型,它以状态作为输入并输出每个可能动作的 Q 值,而不是 Q 表。该网络使用反向传播进行训练,最大限度地减少预测 Q 值与实际目标 Q 值之间的差异。

线性 Q 网络的架构
贪吃蛇游戏的线性 Q 网络具有简单的架构:

输入层:它接受游戏的状态表示,其中包括蛇的位置、方向、食物的位置和潜在危险(墙壁或蛇自己的身体)等详细信息。
隐藏层:全连接层,从输入状态学习抽象特征。
输出层:输出每个可能动作的 Q 值(左转、右转或继续前进)。选择 Q 值最高的动作作为下一步。

网络使用 ReLU 激活函数为模型添加非线性,使其能够学习状态和最佳动作之间的复杂关系。

贪吃蛇游戏环境
Snake 游戏环境是使用 Pygame 构建的,Pygame 是一个流行的游戏开发 Python 库。游戏处理蛇的运动,检测碰撞(与墙壁或蛇本身),随机放置食物,并检查游戏结束条件。

环境中的关键功能包括:

  • 移动蛇:根据当前动作向前移动蛇。
  • 放置食物:将食物放置在网格上的随机位置。
  • 检查碰撞:确定蛇是否撞到了墙壁或自己的身体。

游戏不断更新,为代理提供新的状态,然后代理选择下一步行动。通过在这个动态环境中进行训练,代理可以改善其决策。

训练代理
为了训练代理,我们使用重播内存和批量训练机制。在每个时间步,代理的经验(状态、行动、奖励、下一个状态)都存储在内存中。在每个训练步骤中,都会对一批随机经验进行采样,并使用这些过去的经验来训练网络。

此方法通过减少连续经验之间的相关性来帮助稳定训练,并使代理能够从各种游戏情况中学习。

训练过程遵循以下步骤:

  • 观察游戏当前的状态(蛇的位置、食物、危险)。
  • 使用 LQN 模型预测可能操作的 Q 值。
  • 选择一个动作:代理要么利用其知识(选择具有最高 Q 值的动作),要么根据探索-利用权衡探索新动作(随机选择)。
  • 执行动作,移动蛇,观察奖励。
  • 将经历储存在记忆中。
  • 通过采样一批过去的经验并更新网络的权重来训练模型。

重复此过程,直到智能体精通游戏。

可视化代理的进度
为了跟踪智能体的学习进度,我们绘制了游戏得分和得分随时间的移动平均值。随着智能体的进步,它的生存时间会更长,吃的食物会更多,得分也会增加。您可以使用 Matplotlib 实时可视化训练结果。

修改和集成代理
该项目可以轻松修改和扩展。您可以尝试不同的神经网络架构,调整奖励结构,甚至创建新的游戏规则来增加挑战。此外,经过训练的代理可以集成到各种应用程序中,例如手机游戏或人工智能竞赛。

结论
强化学习是一个强大的工具,使智能体能够从与环境的交互中学习。通过将强化学习应用于贪吃蛇游戏,我们创建了一个能够高水平玩该游戏的自学习人工智能。从 Q-Learning 到线性 Q-Networks 的旅程提供了关于如何将神经网络与 RL 相结合来解决复杂任务的见解。

对于任何对强化学习、游戏人工智能或神经网络感兴趣的人来说,这个项目都是一个很好的起点。代码可以轻松扩展,并且学习过程可以应用于其他游戏或现实世界的问题。

源代码
您可以使用以下链接从 GitHub 下载 Python 源代码:源代码

参考
强化学习的贪吃蛇游戏

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
github中文官网入口 github中文版官网网页进入
github中文官网入口 github中文版官网网页进入

github中文官网入口https://docs.github.com/zh/get-started,GitHub 是一种基于云的平台,可在其中存储、共享并与他人一起编写代码。 通过将代码存储在GitHub 上的“存储库”中,你可以: “展示或共享”你的工作。 持续“跟踪和管理”对代码的更改。

4212

2026.01.21

页面置换算法
页面置换算法

页面置换算法是操作系统中用来决定在内存中哪些页面应该被换出以便为新的页面提供空间的算法。本专题为大家提供页面置换算法的相关文章,大家可以免费体验。

497

2023.08.14

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

38

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

83

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

97

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

223

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

458

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

169

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号