图像语义分割EDA模板
时间:2025-07-28 | 作者: | 阅读:0本文围绕图像分割任务的EDA展开,以车道线检测为例构建通用模板。先介绍EDA重要性,接着统计图片像素信息,分析标签分布,包括含与不含背景类的情况,还探讨了标签均衡与不均衡的处理方法,最后进行重点图片分析及相关应用策略阐述。
0 序言
在完成目标检测任务的EDA模板开发后,本文继续探索图像分割任务的EDA。
什么是EDA?就是Exploratory Data Analysis,探索性数据分析。我们说工欲善其事,必先利其器;又说磨刀不误砍柴工,在算法模型开发的最佳实践中,EDA是必须的第一步。
在本文中,我们选取了最典型的图像分割场景之一——车道线检测任务,对数据集进行分析,以期形成一个较为通用的图像分割EDA模板。
In [?]# 解压数据集!unzip -oq /home/aistudio/data/data68698/智能车数据集.zip -d /home/aistudio/data登录后复制 ? ?In [37]
%cd data登录后复制 ? ? ? ?
/home/aistudio/data登录后复制 ? ? ? ?In [4]
%run make_list.py登录后复制 ? ? ? ?
[('image_4000/869.png', 'mask_4000/869.png'), ('image_4000/106.png', 'mask_4000/106.png'), ('image_4000/390.png', 'mask_4000/390.png')]4000登录后复制 ? ? ? ?In [22]
import osimport cv2import numpy as npfrom tqdm import tqdmimport matplotlib.pyplot as pltimport osfrom collections import Counterimport pandas as pdfrom pandas.core.frame import DataFramefrom PIL import Imageimport random%matplotlib inline登录后复制 ? ?
在图像分割任务中,数据集组织形式通常较为简单,一般就是有两个文件名一一对应的目录,比如标注文件长这样
images/xxx1.jpg (xx1.png) annotations/xxx1.pngimages/xxx2.jpg (xx2.png) annotations/xxx2.png……登录后复制 ? ? ? ?
然后标签文件labels.txt?每一行为一个单独的类别,相应的行号即为类别对应的id(行号从0开始),如下所示
labelAlabelB……登录后复制 ? ?
1 统计图片像素信息
图像分割任务本质上是对每个像素点的分布,因此,我们先统计下图片的像素标签分布信息。
In [63]#amount of classerCLASSES_NUM = 15#find image in folder dirdef findImages(dir,topdown=True): im_list = [] if not os.path.exists(dir): print(”Path for {} not exist!“.format(dir)) raise else: for root, dirs, files in os.walk(dir, topdown): for fl in files: im_list.append(fl) return im_list# 每一类别所包含的图像数量images_count = [0]*CLASSES_NUM# 每一类别的像素数目class_pixels_count = [0]*CLASSES_NUM# 每一类别对应的图像的总像素数目image_pixels_count = [0]*CLASSES_NUMimage_folder = './mask_4000'im_list = findImages(image_folder) # 创建一个统计全部图片像素标签信息的DataFramesum_df = pd.DataFrame()for im in tqdm(im_list): # 读取文件名 # print(im) # 加载图片 cv_img = cv2.imread(os.path.join(image_folder, im), cv2.IMREAD_UNCHANGED) size_img = cv_img.shape colors = set([]) agg = [] for i in range(size_img[0]): for j in range(size_img[1]): # (i,j)位置像素点label p_value = cv_img.item(i,j) # 检查像素点类别数是否正确 if not p_value < CLASSES_NUM: # check print(p_value) else: # 给指定类别计数+1 class_pixels_count[p_value] = class_pixels_count[p_value] + 1 # 把像素点塞到set集合里 colors.add(p_value) # print(p_value) agg.append(p_value) im_size = size_img[0]*size_img[1] df = pd.DataFrame.from_dict(Counter(agg), orient='index') df = df.T df['filename'] = im df['sum_pixels'] = im_size # print(df) sum_df = sum_df.append(df, ignore_index=True)登录后复制 ? ?In [5]
sum_df = sum_df.fillna(0)登录后复制 ? ?In [35]
# 分析列重排序column_names = ['filename', 'sum_pixels']classes = [i for i in range(CLASSES_NUM)]column_names.extend(classes) sum_df = sum_df.loc[:,column_names]登录后复制 ? ?In [42]
# 生成各类别目标占比数据for i in range(CLASSES_NUM): sum_df[str(i) + '_ratio'] = sum_df[i] / sum_df['sum_pixels']登录后复制 ? ?In [86]
sum_df.head()登录后复制登录后复制 ? ? ? ?
filename sum_pixels 0 1 2 3 4 5 869.png 2359296 2306267 0.0 10681.0 0.0 31493.0 0.0 1 106.png 2359296 2352657 0.0 0.0 0.0 0.0 0.0 2 390.png 2359296 2350482 0.0 0.0 0.0 0.0 8814.0 3 2256.png 2359296 2315716 2662.0 9939.0 0.0 0.0 3393.0 4 2968.png 2359296 2333629 0.0 10109.0 0.0 15558.0 0.0 6 7 ... 5_ratio 6_ratio 7_ratio 8_ratio 9_ratio 10_ratio 10855.0 0.0 ... 0.000000 0.004601 0.0 0.0 0.0 0.0 1 6639.0 0.0 ... 0.000000 0.002814 0.0 0.0 0.0 0.0 2 0.0 0.0 ... 0.003736 0.000000 0.0 0.0 0.0 0.0 3 10854.0 0.0 ... 0.001438 0.004601 0.0 0.0 0.0 0.0 4 0.0 0.0 ... 0.000000 0.000000 0.0 0.0 0.0 0.0 11_ratio 12_ratio 13_ratio 14_ratio 0 0.000000 0.0 0.0 0.0 1 0.000000 0.0 0.0 0.0 2 0.000000 0.0 0.0 0.0 3 0.007092 0.0 0.0 0.0 4 0.000000 0.0 0.0 0.0 [5 rows x 32 columns]登录后复制登录后复制 ? ? ? ? ? ? ? ?In [44]
# 保存分析数据sum_df.to_csv('../sum_df.csv', sep=',', header=True, index=True)登录后复制 ? ?
2 数据集概况分析
2.1 标签分布情况
2.1.1 含背景类标签分布情况
In [82]a = sum_df.loc[:,classes].apply(lambda x:x.sum(),axis=0)登录后复制 ? ?In [1]
plt.figure(figsize=(12,12)) #调节图形大小labels = [str(i) for i in range(CLASSES_NUM)] #定义标签patches,text1,text2 = plt.pie(a, labels=labels, autopct = '%3.2f%%', #数值保留固定小数位 shadow = False, #无阴影设置 startangle =90, #逆时针起始角度设置 pctdistance = 0.6) #数值距圆心半径倍数距离#patches饼图的返回值,texts1饼图外label的文本,texts2饼图内部的文本# x,y轴刻度设置一致,保证饼图为圆形plt.axis('equal')plt.show()登录后复制 ? ?
2.1.2 不含背景类标签分布情况
In [89]mask_pt = '/home/aistudio/data/mask_4000'count = [0 for _ in range(16)]for m in tqdm(os.listdir(mask_pt)): pt = os.path.join(mask_pt, m) mask = cv2.imread(pt, 0) size = mask.shape[0] * mask.shape[1] for i in range(16): a = mask == i ratio_i = np.sum(a.astype(np.float)) / size count[i] += ratio_isum_ = np.sum(count[1:])ratios = [v/sum_ for v in count[1:]]登录后复制 ? ?In [88]
for i in range(0, len(ratios)): print('-[INFO] Label {}: {:.4f}'.format(i+1, ratios[i]))登录后复制 ? ? ? ?
-[INFO] Label 1: 0.0170-[INFO] Label 2: 0.4482-[INFO] Label 3: 0.0843-[INFO] Label 4: 0.0767-[INFO] Label 5: 0.0334-[INFO] Label 6: 0.2513-[INFO] Label 7: 0.0070-[INFO] Label 8: 0.0025-[INFO] Label 9: 0.0158-[INFO] Label 10: 0.0152-[INFO] Label 11: 0.0292-[INFO] Label 12: 0.0087-[INFO] Label 13: 0.0061-[INFO] Label 14: 0.0046-[INFO] Label 15: 0.0000登录后复制 ? ? ? ?In [2]
plt.figure(figsize=(24,24)) #调节图形大小labels = [str(i) for i in range(1, 16)] #定义标签patches,text1,text2 = plt.pie(ratios, labels=labels, autopct = '%3.2f%%', #数值保留固定小数位 shadow = False, #无阴影设置 startangle =90, #逆时针起始角度设置 pctdistance = 0.6) #数值距圆心半径倍数距离#patches饼图的返回值,texts1饼图外label的文本,texts2饼图内部的文本# x,y轴刻度设置一致,保证饼图为圆形plt.axis('equal')plt.show()登录后复制 ? ?
? ? ? ?2.2 标签分布分析的应用
分析标签分布情况,是做好图像分割模型开发的先决条件。
2.2.1 标签均衡分布
显然,这会是我们比较希望看到的情况。如果标签均衡分布,可以考虑直接开始训练了。如果觉得样本量不是很够,还可以加入数据增强策略。
比如在PaddleSeg中,就给出了下列数据增强策略
在PaddleSeg的config文件里进行修改。2.2.2 标签不均衡分布
很不幸,在真实应用场景中,标签分布不均衡才是常态。这时主要的处理方法可以考虑:
- 数据增强
- Loss优化
在这里,数据增强是对某类别标签的单独增强,可以考虑离线构建补充的增强数据,从而是新的数据集回到整体的平衡态中。
而Loss优化方面,可以考虑以Lovasz loss为代表的损失函数设置。
Lovasz loss基于子模损失(submodular losses)的凸Lovasz扩展,对神经网络的mean IoU损失进行优化。Lovasz loss根据分割目标的类别数量可分为两种:lovasz hinge loss和lovasz softmax loss. 其中lovasz hinge loss适用于二分类问题,lovasz softmax loss适用于多分类问题。相关论文可参考参考文献查看具体原理。
在PaddleSeg中,推荐以下两种训练方式
- (1)与cross entropy loss或bce loss(binary cross-entropy loss)加权结合使用。
- (2)先使用cross entropy loss或bce loss进行训练,再使用lovasz softmax loss或lovasz hinge loss进行finetuning.
更详细的介绍可参考链接
3 重点图片分析
一般的分割库使用单通道灰度图作为标注图片,往往显示出来是全黑的效果。灰度标注图在可视化的时候效果不佳。
PaddleSeg支持伪彩色图作为标注图片,在原来的单通道图片基础上,注入调色板。在基本不增加图片大小的基础上,却可以显示出彩色的效果。
本文使用的就是PaddleSeg提供的转换脚本gray2pseudo_color.py。
In [39]image_pt = '/home/aistudio/data/image_4000/'pseudo_color_pt = '/home/aistudio/data/color_4000/'登录后复制 ? ?In [41]
!mkdir color_4000登录后复制 ? ?In [48]
!python ../gray2pseudo_color.py mask_4000 color_4000登录后复制 ? ?In [49]
def plot_image_examples(df, rows=3, cols=3, title='Image examples'): fig, axs = plt.subplots(rows, cols, figsize=(16,16)) if title=='Image examples': for row in range(rows): for col in range(cols): idx = np.random.randint(len(df), size=1)[0] name = df.iloc[idx][”filename“] img = Image.open(image_pt + str(name)) axs[row, col].imshow(img) axs[row, col].axis('off') else: for row in range(rows): for col in range(cols): idx = np.random.randint(len(df), size=1)[0] name = df.iloc[idx][”filename“] img = Image.open(pseudo_color_pt + str(name)) axs[row, col].imshow(img) axs[row, col].axis('off') plt.suptitle(title)登录后复制 ? ?
3.1 各类别的小目标分析
In [54]sum_df = pd.read_csv('../sum_df.csv',index_col='Unnamed: 0')登录后复制 ? ?In [7]
sum_df.head()登录后复制登录后复制 ? ? ? ?
filename sum_pixels 0 1 2 3 4 5 869.png 2359296 2306267 0.0 10681.0 0.0 31493.0 0.0 1 106.png 2359296 2352657 0.0 0.0 0.0 0.0 0.0 2 390.png 2359296 2350482 0.0 0.0 0.0 0.0 8814.0 3 2256.png 2359296 2315716 2662.0 9939.0 0.0 0.0 3393.0 4 2968.png 2359296 2333629 0.0 10109.0 0.0 15558.0 0.0 6 7 ... 5_ratio 6_ratio 7_ratio 8_ratio 9_ratio 10_ratio 10855.0 0.0 ... 0.000000 0.004601 0.0 0.0 0.0 0.0 1 6639.0 0.0 ... 0.000000 0.002814 0.0 0.0 0.0 0.0 2 0.0 0.0 ... 0.003736 0.000000 0.0 0.0 0.0 0.0 3 10854.0 0.0 ... 0.001438 0.004601 0.0 0.0 0.0 0.0 4 0.0 0.0 ... 0.000000 0.000000 0.0 0.0 0.0 0.0 11_ratio 12_ratio 13_ratio 14_ratio 0 0.000000 0.0 0.0 0.0 1 0.000000 0.0 0.0 0.0 2 0.000000 0.0 0.0 0.0 3 0.007092 0.0 0.0 0.0 4 0.000000 0.0 0.0 0.0 [5 rows x 32 columns]登录后复制登录后复制 ? ? ? ? ? ? ? ?
以类别1为例,展示像素点少于500个的原图和标注图片。
In [35]less_spikes_ids = sum_df[sum_df['1']>0][sum_df['1']<500].sort_values(by='1',ascending=False).filenameplot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)])登录后复制 ? ? ? ?
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/ipykernel_launcher.py:1: UserWarning: Boolean Series key will be reindexed to match DataFrame index. ”“”Entry point for launching an IPython kernel.登录后复制登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?In [50]
plot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)],title='Mask examples')登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?In [59]
less_spikes_ids = sum_df[sum_df['2']>0][sum_df['2']<500].sort_values(by='2',ascending=False).filenameplot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)])plot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)],title='Mask examples')登录后复制 ? ? ? ?
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/ipykernel_launcher.py:1: UserWarning: Boolean Series key will be reindexed to match DataFrame index. “”“Entry point for launching an IPython kernel.登录后复制登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
3.2 各类别的大目标分析
以类别1为例,展示大目标的原图和标注图片。
In [60]less_spikes_ids = sum_df[sum_df['1']>max(sum_df['1'])*0.9].sort_values(by='1',ascending=False).filenameplot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)])plot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)],title='Mask examples')登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?In [61]
less_spikes_ids = sum_df[sum_df['2']>max(sum_df['2'])*0.9].sort_values(by='2',ascending=False).filenameplot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)])plot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)],title='Mask examples')登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
3.3 多类别共存情况分析
以类别1、2、3为例,随机展示三者并存时的原图和标注图片。
In [75]sum_df[sum_df['1']>0][sum_df['2']>0][sum_df['3']>0].sort_values(by=str(i),ascending=False).filenameplot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)])plot_image_examples(sum_df[sum_df.filename.isin(less_spikes_ids)],title='Mask examples')登录后复制 ? ? ? ?
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/ipykernel_launcher.py:1: UserWarning: Boolean Series key will be reindexed to match DataFrame index. ”“”Entry point for launching an IPython kernel./opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/ipykernel_launcher.py:1: UserWarning: Boolean Series key will be reindexed to match DataFrame index. “”“Entry point for launching an IPython kernel.登录后复制 ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
<Figure size 1152x1152 with 9 Axes>登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制登录后复制 ? ? ? ? ? ? ? ?
3.4 重点图片分析的应用
重点图片分析首先再次印证了图像分割数据集的标签分布情况,而对于标签分布不均衡问题,处理方式在章节2.2中做了详细说明。
同时,在重点图片分析过程中,我们也可以确认,数据集中是否存在会影响模型精度的困难样本,并针对性地予以解决。
具体策略上,依然与Loss的选择密切相关。这里的重点是引入了OHEM,OHEM旨在解决处理困难样本的问题。OHEM算法将根据输入到模型中的样本的损失来区分出困难样本,这些困难样本分类精度差,会产生较大的损失。
- OhemCrossEntropyLoss
class paddleseg.models.losses.OhemCrossEntropyLoss( thresh = 0.7, min_kept = 10000, ignore_index = 255)登录后复制 ? ? ? ?
如果还需要提高边缘检测效果,可用:
OhemEdgeAttentionLoss
class paddleseg.models.losses.OhemEdgeAttentionLoss( edge_threshold = 0.8, thresh = 0.7, min_kept = 5000, ignore_index = 255)登录后复制 ? ?
福利游戏
相关文章
更多-
- Gemini AI能离线使用吗 Gemini AI联网与本地使用说明
- 时间:2025-07-28
-
- Claude AI如何查看历史对话 Claude AI聊天记录保存与导出方式
- 时间:2025-07-28
-
- ChatGPT如何安装本地桌面版 ChatGPT桌面程序安装详细图文教程
- 时间:2025-07-28
-
- ChatGPT使用后如何清除记录 ChatGPT聊天与使用记录管理方法
- 时间:2025-07-28
-
- Perplexity AI支持中文提问吗 Perplexity AI多语言支持设置方式
- 时间:2025-07-28
-
- multimodal AI需要哪些权限 multimodal AI设备访问权限说明详解
- 时间:2025-07-28
-
- multimodal AI图片无法识别怎么办 multimodal AI图像处理异常解决技巧
- 时间:2025-07-28
-
- 【PaddlePaddle+OpenVINO】打造一个会发声的电表检测识别器
- 时间:2025-07-28
大家都在玩
大家都在看
更多-
- 李楠:别再问我魅族22了
- 时间:2025-07-28
-
- 全球首款多模态梦境脑机接口发布:枕头形态 可缓解焦虑、改善睡眠
- 时间:2025-07-28
-
- 以太币(ETH)价格:623枚ETH价值几何?
- 时间:2025-07-28
-
- 再次刷新安全成绩!特斯拉Model Y获“最高安全车型”认证
- 时间:2025-07-28
-
- 大卡与运动强度的关系 心率与热量消耗
- 时间:2025-07-28
-
- 这种瓜正上市 一旦发苦千万别吃!有毒
- 时间:2025-07-28
-
- 欧翼交易所注册攻略:简单易上手
- 时间:2025-07-28
-
- 鸣潮弗洛洛阵容搭配
- 时间:2025-07-28