# Raspberry Pi **Repository Path**: zhenyuzhang1/raspberry-pi ## Basic Information - **Project Name**: Raspberry Pi - **Description**: 本项目基于树莓派5进行开发,用其控制树莓派的智能小车,并实现手势控制,使用python代码编写 - **Primary Language**: Unknown - **License**: MulanPSL-2.0 - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-02-20 - **Last Updated**: 2026-02-21 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 基于实时手势的智能小车自动控制系统 (Real-time Gesture Controlled Smart Car) 本项目是一款结合了计算机视觉与嵌入式控制的智能原型系统。通过树莓派驱动,利用 Google MediaPipe 框架实现对人体手势的实时捕捉与解析,并将其转化为控制指令,驱动智能小车完成各项运动动作 。 +2 📖 项目背景 随着人机交互技术的演进,手势识别作为一种自然、直观的控制方式,在教育机器人、智能家居及辅助设备等领域展现出巨大潜力 。本项目旨在验证利用 MediaPipe Hands 模型在树莓派等资源受限设备上实现高精度、低延迟手势控制的技术可行性 。 +1 🛠️ 系统架构 硬件组成 核心板:树莓派 (Raspberry Pi) 4B 或 5 。 传感器:USB 摄像头或树莓派官方摄像头 ;扩展超声波传感器及 MPU6050 。 动力系统:直流减速电机、L298N 或 TB6612FNG 电机驱动模块、小车底盘 。 电源:配套电源系统 。 软件框架 系统采用“感知-决策-控制”一体化设计 : 图像采集与预处理:实时获取视频流 。 手部关键点检测:基于 MediaPipe 提取 21 个手部关键点坐标 。 基于规则的手势分类器:根据关键点间的几何关系(距离、角度)定义手势逻辑 。 电机控制与信号生成:将手势指令映射为 PWM 信号驱动电机 。 🎯 核心功能 实时手势识别:稳定识别前进、后退、左转、右转、停止等 5 种以上手势,识别准确率高于 95% 。 +2 超低延迟:通过多线程编程优化,端到端控制延迟控制在 200ms 以内 。 +1 性能平衡:针对树莓派计算资源进行了算法轻量化调整,确保帧率不低于 15fps 。 +1 智能交互扩展:支持通过 GPIO 输出音乐,或通过 WiFi 连接终端发出信号 。 +1 📅 实施计划 第一阶段:硬件平台搭建与基础运动控制实现 。 +1 第二阶段:MediaPipe 模型部署与 5-7 种特定手势算法开发 。 +1 第三阶段:系统深度集成与资源调度优化 。 +1 第四阶段:全面功能测试与鲁棒性验证(光照、背景等) 。 应用前景 智能玩具:开发高性价比的手势互动玩具车 。 特殊场景运输:无菌实验室内的药品/器械定向运输 。 +1 后勤保障:复杂环境下非接触式的指挥引导载具 。 包容性技术:为行动不便群体提供更自然的设备控制途径 。 👥 课题组信息 负责人:张振宇(初阳电信251班) 主要成员:陈泽凯、殷韬杰 指导老师:熊继平(副教授) 本项目为浙江师范大学初阳学院第二十二期学生课外学术科技活动立项课题 。