# EAI **Repository Path**: jc125/eai ## Basic Information - **Project Name**: EAI - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-01-15 - **Last Updated**: 2026-01-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ## 安装配置 ## 1. 创建虚拟环境 建议在虚拟环境中运行训练或部署程序,推荐使用 Conda 创建虚拟环境。 ### 1.1 创建新环境 使用以下命令创建虚拟环境: ```bash conda create -n robomimic python=3.8 ``` ### 1.2 激活虚拟环境 ```bash conda activate robomimic ``` ## 2. 安装依赖 ### 2.1 安装 PyTorch PyTorch 是一个神经网络计算框架,用于模型训练和推理。使用以下命令安装: ```bash conda install pytorch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 pytorch-cuda=12.1 -c pytorch -c nvidia ``` #### 2.2.2 安装组件 进入目录并安装: ```bash cd RoboMimic_Deploy pip install numpy==1.20.0 pip install onnx onnxruntime pip install hydra-core ``` #### 2.2.3 安装unitree_sdk2_python ```bash git clone https://github.com/unitreerobotics/unitree_sdk2_python.git cd unitree_sdk2_python pip install -e . ``` ## 运行代码 ## 1. 运行Mujoco仿真代码 ```bash python deploy_mujoco/deploy_mujoco.py ``` ## 2. Policy 说明 | 模式名称 | 描述 | | ----------------- | ------------------------------------ | | **PassiveMode** | 阻尼保护模式 | | **FixedPose** | 位控恢复至默认关节值 | | **STANDMODE** | 从平躺状态站立 | | **LocoMode** | 用于稳定行走的控制模式 | | **Dance** | 查尔斯顿舞蹈 | | **SKILL_ASAP** | 罗纳尔多的起跳动作 | | **KungFu** | 武术动作 | | **KungFu2** | 训练失败的武术动作 | | **Kick** | 拿来凑数的动作 | | **SkillCast** | 下肢+腰部稳定站立,上肢位控至特定关节角,一般在执行Mimic策略前执行 | | **SkillCooldown** | 下肢+腰部持续平衡,上肢恢复至默认关节角,一般在执行Mimic策略后执行 | ## 3. 仿真操作说明 1. 连接Xbox手柄 2. 运行仿真程序: ```bash python deploy_mujoco/deploy_mujoco.py ``` 如果需要机器人从平躺状态站立,进入 LocoMode ,则运行以下指令 ``` python deploy_mujoco/deploy_mujoco.py xml_path=g1_description/g1_29dof_LieDown.xml ``` 3. Start键进入位控模式 4. 同时按住R1+A,进入LocoMode,并按下 `BACKSPACE`在仿真中使机器人站立,之后能通过摇杆控制机器人行走 (当机器人从平躺状态开始时,需要先按 L1+X 进入站立状态, 再按 R1+A 进入 LocoMode.) 5. 同时按住R1+X,进入Dance,机器人开始跳查尔斯顿舞蹈,在该模式下,可以随时按下L1进入阻尼保护模式,也可以按住R1+A恢复行走模式(不推荐),或按Start进入位控模式(不推荐) 6. 终端会显示舞蹈的进度条,结束后可按下R1+A恢复至正常行走模式 7. 在LocoMode模式下,按R1+Y让机器人表演武术动作,**只推荐在仿真中使用** 8. 在LocoMode模式下,按L1+Y让机器人表演训练失败的武术动作,**只推荐在仿真中使用** 9. 在LocoMode模式下,按R1+B让机器人表演踢腿动作,**只推荐在仿真中使用** 10. 在LocoMode模式下,按 L1+A 让机器人表演ASAP跳跃动作,**只推荐在仿真中使用** ## 4. 真机操作说明 1. 开机后将机器人吊起来 2. 运行deploy_real程序: ```bash python deploy_real/deploy_real.py ``` 3. Start键进入位控模式 4. 当机器人从平躺状态开始时,需要先按 L1+X 进入站立状态, 再按 R1+A 进入 LocoMode 5. 其他动作操作与仿真中一致 ## 注意事项 ### 1. 框架兼容性说明 当前框架暂不支持在搭载Orin NX平台的G1机器人上直接部署。初步分析可能是由于 `unitree_python_sdk`在Orin平台上的兼容性问题。针对机载Orin平台的部署需求,建议采用以下替代方案: * 使用[unitree_sdk2](https://github.com/unitreerobotics/unitree_sdk2)替代原Python SDK * 基于ROS构建双节点架构: * **C++节点**:负责机器人与遥控器之间的数据收发 * **Python节点**:专用于策略推理 ### 2. Mimic策略可靠性警告 Mimic策略不保证100%成功率,特别是在湿滑/沙地等复杂地面上。若出现机器人失控情况: * 按下 `F1`键激活**阻尼保护模式**(PassiveMode) * 按下 `Select`键立即终止控制程序 ### 3. 查尔斯顿舞蹈(R1+X) - 稳定策略说明 目前唯一在真机上验证稳定的策略: ⚠️ **重要注意事项**: * **建议拆除手掌**:原始训练未考虑手掌碰撞(作者的G1初始无手掌) * **起止稳定需求**:舞蹈开始/结束时可能需要短暂人工稳定 * **舞蹈后过渡**:虽然可以切换至**行走模式/位控模式/阻尼模式**,但建议: * 先切换至**位控模式**或**阻尼模式** * 过渡期间需提供人工稳定 ### 4. 其他动作建议 其他所有动作目前均**不建议**在真机上部署。 ### 5. 强烈建议 **务必**先在仿真环境中熟练操作,再尝试真机部署。