# TransUnet **Repository Path**: kleanfeng/trans-unet ## Basic Information - **Project Name**: TransUnet - **Description**: TransUnet实现+个人想法尝试 - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 1 - **Created**: 2022-07-19 - **Last Updated**: 2025-03-12 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # TransUNet 论文链接 [TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation](https://arxiv.org/pdf/2102.04306.pdf) 原项目地址[https://github.com/Beckschen/TransUNet](https://github.com/Beckschen/TransUNet) ## 使用介绍 ### 1. 下载预训练ViT模型 * 预训练权重:链接:https://pan.baidu.com/s/16jYx7yoVmALEIJ0ilPOtSw?pwd=25mm 提取码:25mm * 数据集:https://www.aliyundrive.com/s/1cyhNpLSC5n ### 2. 准备数据 到 ["./datasets/README.md"](datasets/README.md) 下查看细节,或者在gmail.com中联系jienengchen01请求获取预处理的数据。预处理数据仅可用于研究目的并且不可做重新分配(不知道啥意思,待完善翻译)。 ### 3. 环境 * python=3.7 * 使用"pip install -r requirements.txt" 指令安装相关依赖。 ### 4. 训练/测试 - 使用synapse数据集执行训练脚本。 为了减少内存使用,可以将batch size降低至12 或者 6(也请线性地降低base_lr), 这样也可以达到近似的效果。 ```bash CUDA_VISIBLE_DEVICES=0 python train.py --dataset Synapse --vit_name R50-ViT-B_16 ``` - 使用synapse数据集执行测试脚本。 同时支持2D图像和3D volumes的测试。 ```bash python test.py --dataset Synapse --vit_name R50-ViT-B_16 ``` ### Q:如何使用自己的数据集进行训练? - 根据上文安装好相关依赖。 - 将数据分为train和test,将图像和标签文件保存在data/dataname/train/images和data/dataname/train/labels下,test部分数据的保存及目录结构一致。 - 进行训练,执行脚本参考如下: ```bash python train.py --dataset crack --vit_name R50-ViT-B_16 --batch_size 8 ``` - 进行测试,执行脚本参考如下: ```bash python test.py --dataset crack --vit_name R50-ViT-B_16 ``` ## 参考 * [Google ViT](https://github.com/google-research/vision_transformer) * [ViT-pytorch](https://github.com/jeonsworld/ViT-pytorch) * [segmentation_models.pytorch](https://github.com/qubvel/segmentation_models.pytorch) ## 引用 ```bibtex @article{chen2021transunet, title={TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation}, author={Chen, Jieneng and Lu, Yongyi and Yu, Qihang and Luo, Xiangde and Adeli, Ehsan and Wang, Yan and Lu, Le and Yuille, Alan L., and Zhou, Yuyin}, journal={arXiv preprint arXiv:2102.04306}, year={2021} } ```