镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
深度学习
科学计算
其他
SAMed
用于医学图像分割的定制化 Segment Anything 模型
0/小时
v1.0

SAMed项目介绍

1 介绍

用于医学图像分割的定制化 Segment Anything 模型;该模型是一种通用的医学图像分割解决方案。与以前的方法不同,SAMed 建立在大规模图像分割模型 Segment Anything Model (SAM) 之上,以探索定制大规模医学图像分割模型的新研究范式。SAMed 将基于低秩 (LoRA) 的微调策略应用于 SAM 图像编码器,并将其与提示编码器和掩码解码器一起在标记的医学图像分割数据集上进行微调。我们还观察到,预热微调策略和 AdamW 优化器使 SAMed 成功收敛并降低损失。与 SAM 不同,SAMed 可以对医学图像进行语义分割。

1.1 说明

该镜像适配与RTX40系列、3090、3080ti的GPU卡型;

2 使用

2.1 vit_b

test测试

请下载预训练的SAM模型(由 SAM 原始存储库提供)和SAMed 的 LoRA 检查点。将它们放在/workspace/SAMed-main/checkpoint文件夹中。(目前已经存放在该目录下); 请下载测试集并将其放在 /workspace/SAMed-main/datasets/test_vol_h5_test 文件夹中。(test_vol_h5_test只存放两个数据,完整数据在test_vol_h5文件夹中); 运行下面的命令来测试 SAMed 的vit_b性能。

cd /workspace/SAMed-main

python test.py --is_savenii --output_dir <Your output directory> 

train训练

请下载处理好的训练集,其分辨率为224x224,并将其放入。然后解压并删除此文件。我们还准备了分辨率的训练集512x512以供参考,224x224训练集的版本是从512x512版本中降采样的。目前训练数据集已经下好,存放在/workspace/SAMed-main/datasets/train_npz_new_224中; 运行此命令来训练 SAMed。

cd /workspace/SAMed-main

python train.py --output <Your output path>

2.2 vit_h

test测试

请下载预训练的SAM模型(由 SAM 原始存储库提供)和SAMed 的 LoRA 检查点。将它们放在/workspace/SAMed-main/checkpoint文件夹中。(目前已经存放在该目录下);

请下载测试集并将其放在 /workspace/SAMed-main/datasets/test_vol_h5_test 文件夹中。(test_vol_h5_test只存放两个数据,完整数据在test_vol_h5文件夹中); 运行下面的命令来测试 SAMed 的vit_h性能。

  cd /workspace/SAMed-main/SAMed_h

  python test.py --is_savenii --output_dir <Your output directory> 

train训练

请下载处理好的训练集,其分辨率为224x224,并将其放入。然后解压并删除此文件。我们还准备了分辨率的训练集512x512以供参考,224x224训练集的版本是从512x512版本中降采样的。目前训练数据集已经下好,存放在/workspace/SAMed-main/datasets/train_npz_new_224中;

运行此命令来训练 SAMed。

cd /workspace/SAMed-main/SAMed_h

python train.py -output_dir <Your output directory> 
镜像信息
@naoxin
已使用
2
镜像大小50GB
最近编辑2025-01-23
支持卡型
RTX40系48G RTX40系2080
+3
框架版本
PyTorch-1.8.1
CUDA版本
11.1
应用
JupyterLab: 8888
版本
v1.0
2025-07-02
PyTorch:1.8.1 | CUDA:11.1 | 大小:50.00GB