============================================================================================================== Layer (type:depth-idx) Param # ============================================================================================================== monai_attunet -- ├─Sequential: 1-1 -- │ └─ConvBlock: 2-1 -- │ │ └─Sequential: 3-1 -- │ │ │ └─Convolution: 4-1 -- │ │ │ │ └─Conv2d: 5-1 160 │ │ │ │ └─ADN: 5-2 32 │ │ │ └─Convolution: 4-2 -- │ │ │ │ └─Conv2d: 5-3 2,320 │ │ │ │ └─ADN: 5-4 32 │ └─AttentionLayer: 2-2 -- │ │ └─AttentionBlock: 3-2 -- │ │ │ └─Sequential: 4-3 -- │ │ │ │ └─Convolution: 5-5 136 │ │ │ │ └─BatchNorm2d: 5-6 16 │ │ │ └─Sequential: 4-4 -- │ │ │ │ └─Convolution: 5-7 136 │ │ │ │ └─BatchNorm2d: 5-8 16 │ │ │ └─Sequential: 4-5 -- │ │ │ │ └─Convolution: 5-9 9 │ │ │ │ └─BatchNorm2d: 5-10 2 │ │ │ │ └─Sigmoid: 5-11 -- │ │ │ └─ReLU: 4-6 -- │ │ └─UpConv: 3-3 -- │ │ │ └─Convolution: 4-7 -- │ │ │ │ └─ConvTranspose2d: 5-12 4,624 │ │ │ │ └─ADN: 5-13 32 │ │ └─Convolution: 3-4 -- │ │ │ └─Conv2d: 4-8 4,624 │ │ │ └─ADN: 4-9 -- │ │ │ │ └─InstanceNorm2d: 5-14 -- │ │ │ │ └─Dropout: 5-15 -- │ │ │ │ └─PReLU: 5-16 1 │ │ └─Sequential: 3-5 -- │ │ │ └─ConvBlock: 4-10 -- │ │ │ │ └─Sequential: 5-17 14,016 │ │ │ └─AttentionLayer: 4-11 -- │ │ │ │ └─AttentionBlock: 5-18 1,139 │ │ │ │ └─UpConv: 5-19 18,528 │ │ │ │ └─Convolution: 5-20 18,465 │ │ │ │ └─Sequential: 5-21 1,923,112 │ └─Convolution: 2-3 -- │ │ └─Conv2d: 3-6 34 ============================================================================================================== Total params: 1,987,434 Trainable params: 1,987,434 Non-trainable params: 0 ==============================================================================================================