基于深度学习的农作物受灾区域检测方法研究

  • 来源:互联网周刊
  • 关键字:农作物受灾,深度学习,DeepLab v3+
  • 发布时间:2024-08-09 20:42

  基于深度学习的

  农作物受灾区域检测方法研究

  文/曲锦旭 黑龙江八一农垦大学现代教育技术与信息中心

  摘要:农作物容易受到自然灾害影响,导致减产、绝产等后果,给粮食安全造成一定影响。为了对灾后受灾区域进行快速客观准确的识别,本文基于DeepLab v3+网络提出农作物受灾区域分割方法,采用MobileNet v2作为骨干模型,基于多种数据增强技术扩充数据集,并通过MobileNet v2、Xception_65和Xception_71三种特征提取网络对比,发现MobileNet v2的识别准确率最高,识别速度最快,能实现实时分割效果。

  关键词:农作物受灾;深度学习;DeepLab v3+

  引言

  近年来,我国农业快速发展,成为全球粮食生产的关键力量,然而,随着全球气候变化加剧,自然灾害如洪水、干旱和台风等对农业造成的威胁愈发严重,频繁发生的极端天气事件导致粮食减产绝产等后果[1]。面对这些挑战,我国出台了许多政策,其中《中央财政农业保险保费补贴管理办法》[2]第三十七条提到:“鼓励各省和承保机构采取有效措施,加强防灾减损工作”,可见国家对农业保险领域实施过程的重视。

  随着计算机技术发展,深度学习[3]在计算机视觉领域受到了研究人员广泛关注,与传统算法相比,深度学习方法的识别率、可靠性更高,同时基本解决了传统方法的边界问题。深度学习在图像领域中的主要应用包括图像识别和分类、目标检测、图像分割、图像生成、图像增强和恢复、姿态估计、视觉问答系统等。本文采用深度学习框架对农作物受灾区域进行图像分割[4-5],将深度学习技术应用于农业实际问题[6-7],提高对农作物受灾区域检测的客观性和可回溯性。

  本文以玉米、大豆、水稻三种农作物在受到自然灾害如旱涝灾、风灾影响后的受灾区域图像作为研究对象,使用DeepLab v3+框架进行图像分割,框架中分别使用MobileNet v2、Xception_65和Xception_71三种特征提取网络进行对比实验,研究DeepLab v3+框架在农作物受灾区域快速识别的可行性。

  1. 数据与方法

  1.1 数据采集及预处理

  农作物受灾区域图像数据来源于无人机在不同季节、不同地点、不同光照角度情况下拍照,共取得原始图像数据642张。图像数据集中包括11种图像分割标签,包括大豆倒伏、玉米倒伏、水稻倒伏、大豆缺苗、玉米缺苗、水稻缺苗、水沟、树林、房屋建筑、道路、其他植物。本文是图像分割实验,除原数据集图像外,还需要对原始图像数据进行手动标注、生成标签、合成掩码图。使用Labelme软件标注、制作与生成分割标签,通过Python自动化脚本生成对应掩码图。

  为防止网络训练出现过拟合现象,必须提供大量的训练数据。但是,由于本实验图像数据无法在实验室环境中简单复现且收集难度较大,所以本文使用自动化随机图像增强技术对原始数据集和对应掩码图进行同步扩充,使用的数据增强技术主要包括旋转、缩放、裁剪,最终得到3万张图片及对应掩码图。部分图片及其掩码图如图1所示。

  1.2 PyTorch与环境搭建

  PyTorch框架提供了灵活的API和丰富的预构建组件,通过调用Python的torch标准库中各种函数,实现不同功能。本实验使用PyTorch框架实现了DeepLab v3+图像分割框架,并通过封装的方式将不同骨干网络各自封装成类。在train.py中可以指定训练中的所有参数,包括预训练模型路径、是否使用Cuda、标签种类、骨干模型、下采样倍数、图片输入大小,指定后直接运行即可开始训练。

  深度学习是一种基于人工神经网络的机器学习技术,通过模拟人脑处理和分析大量数据的能力,来实现复杂任务的学习。这一过程需要大量计算资源,特别是在处理大规模数据集和复杂网络结构时,GPU(图形处理单元)扮演了关键角色。与传统的CPU相比,GPU具有更多的计算核心,能够并行处理大量数据,特别适合进行深度学习训练中的矩阵运算和大规模数据处理。GPU显著加速了深度学习模型的训练过程,使研究者和开发者能够在更短的时间内训练出更复杂、性能更优的模型,加快了深度学习技术的发展和应用。本实验训练的软硬件配置如表1所示。

  2. 结果与分析

  本文使用的图像分割框架DeepLab v3+网络架构如图2所示,主要分为三个核心部分:深度卷积神经网络(骨干网络)、ASPP(空洞)空间金字塔池化模块、解码器模块。该模型在其编码器部分继承了DeepLab v3的设计,并通过加入空洞卷积和 ASPP模块来增强对环境上下文的理解和捕捉能力。解码器部分则采用了上采样和特征融合技术,用于恢复图像的分辨率和提升细节表现。通过这种编解码机制和多尺度处理,DeepLab v3+旨在提升语义分割任务中的准确性和处理效率。

  基于预处理和数据增强后的3万张图像数据集,使用DeepLab v3+框架,分别使用MobileNet v2、Xception_65和Xception_71三种特征提取网络进行特征提取,使用预选函数的形状调整学习率,初始学习率lr_min和lr_max分别为、0.07×e-3、7×e-3,图像分割训练过程中的损失函数如图3所示。图中50轮次出现波动是由于训练机器的性能不足,为了在显存小的情况下正常使用大的batch_size训练,在训练过程中的50轮次前冻结了主干网络,只对网络参数进行微调,50轮次开始恢复正常的batch_size,网络的所有参数开始有比较大的改变。

  利用验证集对各个标签类别对应颜色以及最终mIoU评估结果如表2所示,表中MIoU以玉米倒伏、水稻倒伏、大豆倒伏、水稻缺苗、玉米缺苗、大豆缺苗的IoU为依据计算得出。

  根据表2中过滤分类极值后的评估结果,MobileNet v2作为骨干网络的训练评估结果MIoU,比Xception_65高3%,比Xception_71高14%,并且对于大部分分割类别同样都有较明显提升,说明MobileNet v2作为骨干网络的泛化能力更强,并能够准确识别出小目标。

  3. 结论和展望

  本文以深度学习为基础,通过采集三种农作物的受灾区域图像进行研究,采用DeepLab v3+图像分割框架作为主体框架,分别使用MobileNet v2、Xception_65和Xception_71三种骨干网络作为特征提取网络,并进行对比实验。通过训练过程与评估结果的对比,得到结论为,基于DeepLab v3+框架的农作物受灾区域分析中,MobileNet v2作为骨干网络时所有分类的MIoU都是最优,且训练分割速度也最快。由此可见,MobileNet v2的识别准确率最高,识别速度最快,能实现实时分割效果。

  未来相关研究应当着重考虑以下几个方面:

  首先,研究更高效、更准确的算法,提高受灾区域分析结果的准确性和效率。

  其次,研究如何更好整合不同源的数据,如卫星遥感源、地面监测源,以提供更全面、更细致的灾害评估。

  最后,加强跨领域合作,如气候科学、经济管理学,特别是农学与信息技术相融合,以提高受灾分析的预测能力、横向评估能力。

  参考文献:

  [1]曾小艳,郭兴旭.气候变化、农业风险与天气指数保险创新[J].农村经济与科技,2017,28(15):209-212.

  [2]财政部关于印发《中央财政农业保险保费补贴管理办法》的通知(财金〔2021〕130号)[A/OL].(2021-12-31)[2024-06-03].https://www.gov.cn/gongbao/content/2022/content_5683856.htm.

  [3]周飞燕,金林鹏,董军.卷积神经网络研究综述[J].计算机学报,2017,40(6): 1229-1251.

  [4]黄鹏,郑淇,梁超.图像分割方法综述[J].武汉大学学报(理学版),2020,66(6): 519-531.

  [5]王秋萍,张志祥,朱旭芳.图像分割方法综述[J].信息记录材料,2019,20(7):12-14.

  [6]汤文静.遥感技术在农业领域的应用研究[J].中国农业信息,2016(23):112.

  [7]郑二功,田迎芳,陈涛.基于深度学习的无人机影像玉米倒伏区域提取[J].河南农业科学,2018,47(8):155-160.

  作者简介:曲锦旭,硕士研究生,研究实习员,研究方向:图像处理。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: