# acctransformer
**Repository Path**: HW_KK/acctransformer
## Basic Information
- **Project Name**: acctransformer
- **Description**: No description available
- **Primary Language**: Unknown
- **License**: Apache-2.0
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 5
- **Created**: 2023-12-27
- **Last Updated**: 2023-12-27
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
# acctransformer 介绍
## 一、介绍
**acctransformer**是一个基于MindSpore框架以及昇腾 CANN 软件栈的transformer加速库,原生支持昇腾AI处理器NPU。
实现了一些对transformer模型中self-attention部分的加速算法,目前已支持:
* **FlashAttention2**
如果您对MindSpore acctransformer有任何建议,请通过issue与我们联系,我们将及时处理。
算法支持列表如下:
| 名称 | 路径 | 文档 |
| --- | --- | --- |
| FlashAttention2 | [FlashAttention2](train/flash_attention) | [文档](train/flash_attention/README.md) |
## 二、安装使用
### 2.1、环境安装
#### 2.1.1、配套环境要求
首先需要准备包含昇腾AI处理器NPU的Linux服务器,并安装对应CANN版本的NPU驱动以及固件。
算法配套环境表如下:
| 名称 | 配套组件 | 版本要求 |
| --- | --- | --- |
| FlashAttention2 | MindSpore
CANN配套软件包
NPU: Ascend 910 | MindSpore: [2.2.0](https://www.mindspore.cn/versions#2.2.0)
CANN配套软件包: 适配MindSpore版本|
#### 2.1.2、安装指南
MindSpore官方网站:[链接](https://www.mindspore.cn/install)
各算法安装以及使用方法,参考算法支持列表各目录下README文档。
## 三、分支以及版本说明
初始版本,后续待补充
## 四、测试
参考每个算法模块下README指导文档。
## 五、许可证
[Apache License 2.0](LICENSE)