研究背景:
实验总览:
图1:骨细胞陷窝-小管网络。图片为使用Villanueva染色的兔胫骨荧光成像。图像为Z stack采集,使用100 X物镜,分辨率为0.04 µm/pixel,后采用ER图像分辨率增强处理,以最大值投影展示。
图2:传统二值化分割(b)和Segment.ai(c)分割结果比较。样本为561nm激发的Villanueva标记的未钙化的兔骨切片,用共聚焦显微镜进行荧光成像。图像为60X物镜采集的Z轴层扫,以最大值投影展示。(a) 观察的兔骨组织在组织学上由哈佛骨板、间骨板、骨髓组成。(b) 传统二值化方法分割的结果(蓝色)。除骨陷窝之外的结构,骨小管和骨髓中的某些部分也被检测到(以箭头标记)。需要人工校正或去除二值化区域以保证正确的结果。(c) 使用Segment.ai分割的结果(橙色)。Segment.ai被训练了如何识别骨陷窝区域,而结果也是只有骨陷窝被完全探测到了。
Segment.ai工作流程由3部分组成(图3)。训练数据集包括一个手动二值化分割的预期正确的图片,和没有进行二值化处理的原始图片数据。对Segment.ai准确率最重要的参数是训练数据集的图片数目。在这个实验中,我们首先获取了多部位的骨切片以增加图片的多样性。然后,这些图片被用于训练数据集。关于训练,我们创建了四种包含不同图片数目的数据集,如1张,4张,15张和20张,通过对这些不同数目的数据集的学习借以评估Segment.ai的成功率。结果很清晰的标明,如果Segment.ai使用了多于15张训练图片的数据集,自动提取骨陷窝的准确率可以高达95%(图4)。
图3:Segment.ai 工作流程图。
图4:训练图片数目对Segment.ai分割准确性的测试。用来测试的训练数据都是Z stack层扫最大值投影数据,并且训练次数统一为1000次。(a)使用60 X物镜随机获取多点骨切片Z stack图像并将其用于Segment.ai的训练和预测。标尺:1000 µm。(b)使用不同数目的训练数据集分别训练Segment.ai,计算识别率并进行比较以评估Segment.ai的准确率。(c) Segment.ai预测的结果比较。当使用较少数目的训练数据集时会出现骨陷窝的误识别(箭头),增加训练数据集的图片数目后会相应增加AI识别的准确性。在目前这个实验里,当训练数据集的图片数大于15后,AI识别的准确性会变得非常明显。
实验总结:
参考资料:
Takanori Sato, AyaTakakura, Ji-Won Lee, Kazuaki Tokunaga, Haruka Matsumori, Ryoko Takao-Kawabata,Tadahiro Iimura. Microscopy (Oxf). 2021 Jun 8; dfab020
产品信息:
AX/AX R 共聚焦显微镜
NIS.ai AI显微镜模块
NIS.ai是一款扩展了NIS-Elements图像软件性能的图像处理和分析模块,包含了Enhance.ai, Convert.ai和Segment.ai。Segment.ai提供了目标提取的新的解决方法,而目标提取使用传统的二值化分割方法通常很难,或者需要人工校正以保证准确率。
– The End –