# HiDevLab-openEuler **Repository Path**: dingjiahuichina/HiDevLab-openEuler ## Basic Information - **Project Name**: HiDevLab-openEuler - **Description**: HiDevLab-openEuler - **Primary Language**: Unknown - **License**: MulanPSL-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 3 - **Created**: 2025-05-21 - **Last Updated**: 2025-06-17 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # openEuler DevStation & Intelligence 用户操作示例 > **HiDevLab试用环境说明** > > - HiDevLab试用环境已将该指导文档作为Firefox浏览器的默认主页,您可以打开试用环境的Firefox浏览器,可以直接在试用环境中复制命令行到终端使用,以提高操作便利性。 > **DevStation介绍说明** > > - **DevStation** 是基于openEuler的智能LiveCD桌面版开发者工作站,专为极客与创新者而生。它融合了**一键式运行环境**与**全栈开发工具链**,支持从系统启动到代码落地的无缝衔接。无需复杂安装,即可体验**开箱即用**的开发环境,并借助内置的**MCP AI智能引擎**,快速完成Kubernetes集群部署、资源调度与社区工具链调用,实现从基础设施搭建到应用开发的效率飞跃。 > **温馨提示** > > - 一般情况下,VSCodium中的Roo Code已经配置了DeepSeek的远端API KEY(sk-9b5b2a23f1a7465fb82fa9e7d69c495c),你无需做额外的配置,可以直接使用。如果后面遇到上述API KEY不可用的情况,可以访问platform.deepseek.com获取新的API KEY。 > - 下文中的操作示例,请先执行示例1~3,再执行示例4~6。 ## 示例1:使用oeDeploy快速部署DeepSeek-R1 > oeDeploy 是一款轻量级的软件部署工具,旨在帮助开发者快速、高效地完成各类软件环境部署,对单节点与分布式场景均可适配。当前已经支持的软件包括:kubernetes、nginx、anythingLLM、ragflow、devkit-pipeline、pytorch、deepseek、helm、kuberay、kubeflow、mindspore、tensorflow 1. 打开终端,执行如下命令行,将用于DeepSeek部署的oeDeploy插件初始化到家目录。 ```bash cd; oedp repo update; oedp init deepseek-r1 ``` 2. 执行如下命令行,一键触发DeepSeek-R1的快速部署。这个过程中涉及模型参数文件(约4.5GB)的下载,执行时间受网络带宽影响,通常耗时5~10分钟。 ```bash oedp run install -p deepseek-r1/ ``` 3. 上述部署操作执行成功后,你会看到`Please manually execute: ollama run deepseek-r1:8b`和`Execute succeeded: start DeepSeek-R1`的提示。于是执行如下命令行,启动DeepSeek-R1模型,并开始对话。 ```bash ollama run deepseek-r1:8b ``` 4. 可以通过`ctrl + C`和`ctrl + D`退出对话。 ## 示例2:自然语言触发oeDeploy完成nginx快速启动 1. 打开终端,执行如下命令行,一键安装oeDeploy的MCP服务: ```bash sudo yum clean packages && sudo yum makecache && sudo yum remove -y mcp-servers-oeDeploy nginx && sudo yum install -y mcp-servers-oeDeploy ``` 2. 新打开或者重启VSCodium(**请确保工作目录为`/root`**),打开Roo Code插件(左侧插件栏的袋鼠图标),点击上方MCP按钮,确认MCP列表中mcp-oedp已经ready,如果VSCodium请求您输入new keyring,请输入keyring `Huawei12#$`。接下来在Roo Code 中新建对话框,发送如下指令。如果Roo Code向你询问是否发起MCP调用,请批准。 ``` 用oeDeploy,在当前节点一键部署nginx ``` 3. 执行成功后,你可以在浏览器中打开`127.0.0.1:80`来访问nginx的默认页面。 > 如果部署成功后,浏览器依然无法访问nginx默认页面,可能是浏览器缓存所致,可以先清理缓存后重启浏览器。 4. 为了避免占用80端口而对后续操作,产生影响,请执行如下命令行卸载nginx。 ```bash sudo yum remove -y nginx ``` ## 示例3:通过自然语言查看openEuler社区issue 1. 安装oeGitExt工具包 ```bash sudo yum clean packages && sudo yum makecache && sudo yum install -y mcp-servers-oeGitExt ``` 2. 获取Gitee个人访问令牌 ``` 登录您的Gitee账号 进入"设置" → "私人令牌"页面 点击"生成新令牌"按钮 勾选"issues"权限(建议同时勾选"projects"和"pull_requests"以获取完整功能) 点击"提交"并复制生成的token字符串 ``` 3. 配置Gitee令牌 ``` 新打开或者重启VSCodium(请确保工作目录为/root) 点击左边 openEuler 插件 在插件展开的导航栏点击`我的Issue` `我的PR` `我的Repo`中的任意页面 触发私人令牌配置,将`[Gitee私人令牌]`填写为第二步获取的实际token字符串。 ``` 4. 使用自然语言查询issue 在Roo Code交互界面中,您可以使用以下自然语言命令: - **查看我在openeuler社区的issue** 系统将返回您在openEuler社区负责的所有issue列表 - **查看[仓库名]的PR** 例如:`查看mcp-servers的PR` 5. 注意事项 ``` 请妥善保管您的Gitee令牌,不要泄露给他人 如需撤销令牌,请到Gitee的"私人令牌"页面删除对应令牌 首次使用可能需要等待1-2分钟同步数据 ``` ## 示例4:使用oeDeploy快速部署openEuler Intelligence 1. 打开终端,执行如下命令行,将用于openEuler Intelligence(别名euler-copilot)部署的oeDeploy插件初始化到家目录。 ```bash cd; oedp repo update; oedp init euler-copilot ``` 2. 用`vim`或者`VSCodium`编辑`euler-copilot/config.yaml`,将如下内容完整拷贝到其中(第12行的root密码需要修改): **提示:每个环境的root密码与桌面登录密码相同,获取方式 [右侧信息栏]->[其他登录方式]->[操作系统密码]** ```yaml all: hosts: host1: # 节点空余内存需要大于16G,建议规格32G以上 # 部署节点 IP ansible_host: 127.0.0.1 # 部署节点 SSH 端口 ansible_port: 22 # 部署节点用户 ansible_user: root # 目前仅支持root用户 # 部署节点密码 ansible_password: # <------------------- 改成实际的root密码 vars: ansible_ssh_common_args: '-o StrictHostKeyChecking=no' # 部署日志目录 log_dir: "/var/log/deploy-euler-copilot" # 源码仓库配置 repo_config: # 源码 url url: "https://gitee.com/openeuler/euler-copilot-framework.git" # 源码仓放置目录 dest_dir: "/opt/euler-copilot-framework" # 指定分支、tag 和 commit version: "release-0.9.5" # 是否覆盖本地修改 force: yes # 模型配置 models: # 用于问答的大模型;需要为OpenAI兼容接口 answer: # [必填] 接口URL(无需带上“v1”后缀) endpoint: http://173.108.1.2:8000/openai # [必填] 接口API Key;默认置空 key: sk-123456 # [必填] 模型名称 name: Qwen2.5-72B-Instruct # [必填] 模型最大上下文数;建议>=8192 ctxLength: 8192 # 模型最大输出长度,建议>=2048 maxTokens: 8192 # 用于Function Call的模型;建议使用特定推理框架 functionCall: # 推理框架类型,默认为ollama # 可用的框架类型:["vllm", "sglang", "ollama", "openai"] backend: openai # 模型地址;不填则与问答模型一致 endpoint: http://173.108.1.2:8000/openai/v1 # API Key;不填则与问答模型一致 key: sk-123456 # 模型名称;不填则与问答模型一致 name: Qwen2.5-72B-Instruct # 模型最大上下文数;不填则与问答模型一致 ctxLength: # 模型最大输出长度;不填则与问答模型一致 maxTokens: # 用于数据向量化(Embedding)的模型 embedding: # 推理框架类型,默认为openai # [必填] Embedding接口类型:["openai", "mindie"] type: openai # [必填] Embedding URL(需要带上“v1”后缀) endpoint: http://173.108.1.2:8090 # [必填] Embedding 模型API Key key: sk-123456 # [必填] Embedding 模型名称 name: bge-m3 ``` 3. 执行如下命令行,一键触发openEuler Intelligence的快速部署。这个过程中涉及多个镜像文件的拉取与启动,执行时间受网络带宽影响,典型耗时10~15分钟。 ```bash oedp run install -p euler-copilot/ ``` 4. 上述部署操作执行成功后,你会看到如下提示信息,说明已安装成功。 ``` [ INFO ] - [run_action] - Execute succeeded: install EulerCopilot [ INFO ] - [run_cmd] - End time: 2025-05-28 09:49:50 [ INFO ] - [run_cmd] - Elapsed time: 00:05:10.3 ``` 5. 添加解析,即可在web页面使用 https://www.eulercopilot.local 访问openEuler Intelligence 了 ```bash echo "0.0.0.0 authhub.eulercopilot.local www.eulercopilot.local" >> /etc/hosts ``` ## 示例5:使用openEuler Intelligence 定制化知识问答服务 测试目标:通过上传私有语料文档来完成定制化问答服务 测试任务: 1. 注册与登录openEuler Intelligence,向前端页面询问三个示例问题,按顺序分别是: - 问题一:openEuler24.09有什么AI特性? - 问题二:有哪些渠道获取该系统? - 问题三:这些AI特性是否有使用RAG? 2. 点击左侧知识库页签,输入默认账号和密码(账号:admin,密码:123456)登录,登录成功后,新建知识库,通过上传示例语料《openEuler 24.09 技术白皮书》文档(该文档存放在Downloads目录中),复制资产ID,配置到资产库ID中,对这三个比较模糊的问答进行优化; 3. 语料解析方法分别使用general和enhanced方式,配置资产库ID继续对上述三个问题发问,对比前后结果差异。 ## 示例6:使用openEuler Intelligence 构建工作流应用 测试目标:使用上次构建的私有知识库来构建定制化问答工作流 测试任务: 1. 在openEuler Intelligence Web端,选择应用中心,并创建工作流。注意:智能问答工作流中首先从知识库(需要将资产库ID填入到kb_sn里面)中查询相关知识,然后对大模型进行提问; 2. 通过工作流调试工具调试工作流至通过,并发布应用; 3. 使用工作流应用,询问如下三个示例问题: - 问题一:openEuler24.09有什么AI特性? - 问题二:有哪些渠道获取该系统? - 问题三:这些AI特性是否有使用RAG? 4. 对比查看回答结果,这样我们的工作流应用已经构建完成。 # 用户反馈收集 ### **📢 请用微信扫描下方二维码填写问卷,您的反馈对我们非常重要:** image ### **📢 openEuler 开发者群(devstation开发者voc)长期开放** image **👉 也可以添加openEuler小助手微信号:openeuler123** **👉 备注【devstation开发者voc进群】,小助手会统一拉您进群,畅聊技术、协作开发!** 群内聚焦 openEuler 生态开发、DevStation 工具链、自动化安装部署工具、社区协作等话题。入群后请遵守群规,勿发广告/无关链接。 ### **📢 欢迎扫描下方二维码,关注我们的代码仓** image