用于医学图像分割的定制化 Segment Anything 模型;该模型是一种通用的医学图像分割解决方案。与以前的方法不同,SAMed 建立在大规模图像分割模型 Segment Anything Model (SAM) 之上,以探索定制大规模医学图像分割模型的新研究范式。SAMed 将基于低秩 (LoRA) 的微调策略应用于 SAM 图像编码器,并将其与提示编码器和掩码解码器一起在标记的医学图像分割数据集上进行微调。我们还观察到,预热微调策略和 AdamW 优化器使 SAMed 成功收敛并降低损失。与 SAM 不同,SAMed 可以对医学图像进行语义分割。
该镜像适配与RTX40系列、3090、3080ti的GPU卡型;
请下载预训练的SAM模型(由 SAM 原始存储库提供)和SAMed 的 LoRA 检查点。将它们放在/workspace/SAMed-main/checkpoint文件夹中。(目前已经存放在该目录下); 请下载测试集并将其放在 /workspace/SAMed-main/datasets/test_vol_h5_test 文件夹中。(test_vol_h5_test只存放两个数据,完整数据在test_vol_h5文件夹中); 运行下面的命令来测试 SAMed 的vit_b性能。
cd /workspace/SAMed-main
python test.py --is_savenii --output_dir <Your output directory>
请下载处理好的训练集,其分辨率为224x224,并将其放入
cd /workspace/SAMed-main
python train.py --output <Your output path>
请下载预训练的SAM模型(由 SAM 原始存储库提供)和SAMed 的 LoRA 检查点。将它们放在/workspace/SAMed-main/checkpoint文件夹中。(目前已经存放在该目录下);
请下载测试集并将其放在 /workspace/SAMed-main/datasets/test_vol_h5_test 文件夹中。(test_vol_h5_test只存放两个数据,完整数据在test_vol_h5文件夹中); 运行下面的命令来测试 SAMed 的vit_h性能。
cd /workspace/SAMed-main/SAMed_h
python test.py --is_savenii --output_dir <Your output directory>
请下载处理好的训练集,其分辨率为224x224,并将其放入
运行此命令来训练 SAMed。
cd /workspace/SAMed-main/SAMed_h
python train.py -output_dir <Your output directory>