中國(guó)報(bào)告大廳網(wǎng)訊,2025 年無(wú)人機(jī)技術(shù)在軍事偵察、災(zāi)害監(jiān)測(cè)、邊境安防等領(lǐng)域的應(yīng)用滲透率持續(xù)提升,據(jù)行業(yè)數(shù)據(jù)顯示,具備紅外探測(cè)功能的專業(yè)無(wú)人機(jī)市場(chǎng)規(guī)模同比增長(zhǎng)超 35%。紅外成像技術(shù)因全天候工作與隱蔽探測(cè)優(yōu)勢(shì),成為無(wú)人機(jī)對(duì)地觀測(cè)系統(tǒng)的核心配置,但無(wú)人機(jī)受飛行高度與載荷限制,獲取的紅外圖像普遍存在空間分辨率低、信噪比差的問(wèn)題,導(dǎo)致像素占比小于 0.12% 的小目標(biāo)易被背景噪聲淹沒(méi),尤其在雨霧、沙塵等惡劣環(huán)境下,傳統(tǒng)檢測(cè)算法誤檢率高、漏檢嚴(yán)重,成為制約無(wú)人機(jī)態(tài)勢(shì)感知能力的關(guān)鍵瓶頸。在此背景下,基于深度學(xué)習(xí)的輕量化檢測(cè)算法優(yōu)化,成為滿足無(wú)人機(jī)實(shí)時(shí)、精準(zhǔn)檢測(cè)需求的核心方向。
《2025-2030年中國(guó)無(wú)人機(jī)行業(yè)發(fā)展趨勢(shì)及競(jìng)爭(zhēng)策略研究報(bào)告》指出,無(wú)人機(jī)視角下的紅外小目標(biāo)檢測(cè)面臨三重核心挑戰(zhàn),這些問(wèn)題直接影響無(wú)人機(jī)在復(fù)雜場(chǎng)景下的任務(wù)執(zhí)行效率。首先是目標(biāo)特征微弱,無(wú)人機(jī)紅外圖像中約 63% 的小目標(biāo)在傳統(tǒng)檢測(cè)層(如 YOLOv8n 的 P3 層)僅占 1-2 個(gè)像素點(diǎn),高頻細(xì)節(jié)因多次下采樣被稀釋,導(dǎo)致特征響應(yīng)不足;其次是環(huán)境干擾復(fù)雜,雨霧衰減紅外輻射、飛行震動(dòng)引發(fā)成像拖影、不同材質(zhì)熱輻射交叉干擾,均會(huì)削弱目標(biāo)與背景的輻射差異;最后是實(shí)時(shí)性與精度矛盾,部分算法為提升檢測(cè)能力增加模型復(fù)雜度(如某算法復(fù)雜度激增 40%),無(wú)法滿足無(wú)人機(jī)對(duì)輕量化、低延遲的需求。
傳統(tǒng)目標(biāo)檢測(cè)算法在無(wú)人機(jī)場(chǎng)景中存在明顯局限:YOLOv5 雖優(yōu)化特征金字塔,但對(duì)紅外小目標(biāo)的魯棒性不足;YOLOv7 引入注意力機(jī)制后計(jì)算成本上升,影響檢測(cè)效率;YOLOv9 雖提升部分精度,卻在 “Other vehicle” 等類別檢測(cè)中表現(xiàn)遜色(平均精準(zhǔn)率 78.7%);YOLOv10 對(duì)密集小目標(biāo)的區(qū)分能力較弱。這些局限促使需針對(duì)無(wú)人機(jī)紅外小目標(biāo)特性,對(duì)現(xiàn)有輕量化算法進(jìn)行定向優(yōu)化。
YOLOv8n 作為 YOLOv8 系列的輕量化版本,憑借 3.15×10?參數(shù)量、8.9 GFLOPs 計(jì)算量與 90.1 幀 /s 的推理速度,成為無(wú)人機(jī)實(shí)時(shí)檢測(cè)任務(wù)的優(yōu)選框架。針對(duì)無(wú)人機(jī)紅外小目標(biāo)檢測(cè)痛點(diǎn),改進(jìn)算法從檢測(cè)層、特征提取、損失函數(shù)、注意力機(jī)制四方面進(jìn)行優(yōu)化,全面提升檢測(cè)性能。
(一)新增 160×160 小目標(biāo)檢測(cè)層,強(qiáng)化無(wú)人機(jī)小目標(biāo)特征捕捉
針對(duì)無(wú)人機(jī)紅外小目標(biāo)尺寸微小(普遍低于 8×8 像素)的問(wèn)題,改進(jìn)算法在 YOLOv8n 原有 80×80(P3 層)、40×40(P4 層)、20×20(P5 層)檢測(cè)層基礎(chǔ)上,新增 160×160 高分辨率檢測(cè)層(P2 層)。該層直接調(diào)用骨干網(wǎng)絡(luò)首層 C2f 模塊輸出的淺層特征圖,經(jīng) 1×1 卷積壓縮通道后與其他檢測(cè)層并行預(yù)測(cè)。淺層特征圖保留了無(wú)人機(jī)紅外圖像中小目標(biāo)的邊緣、紋理等高頻信息,避免深層卷積導(dǎo)致的細(xì)節(jié)丟失,同時(shí)通過(guò)跨層級(jí)特征融合,將高分辨率空間信息與深層語(yǔ)義信息結(jié)合,提升無(wú)人機(jī)對(duì)微小目標(biāo)的上下文感知能力。
(二)設(shè)計(jì)雙卷積 CSP_BiFormer 模塊,提升無(wú)人機(jī)復(fù)雜環(huán)境特征提取能力
為解決無(wú)人機(jī)紅外圖像細(xì)節(jié)模糊、熱噪聲干擾的問(wèn)題,改進(jìn)算法在原有 C2f 模塊基礎(chǔ)上,融合 BiFormer 注意力機(jī)制構(gòu)建 CSP_BiFormer 瓶頸模塊。該模塊先通過(guò) 1×1 卷積完成淺層特征提取,再將特征圖在通道維度分割,部分特征圖經(jīng)多個(gè) BiFormerBlock 處理以挖掘深層信息,最后拼接分割與處理后的特征圖并整合通道。其中,BiFormer 采用四級(jí)層級(jí)金字塔架構(gòu),通過(guò) 3×3 深度可分離卷積編碼位置信息,引入雙層路由注意力機(jī)制(BRA)將注意力計(jì)算復(fù)雜度從 O (n2) 降至 O (n√n),有效強(qiáng)化無(wú)人機(jī)紅外圖像中目標(biāo)區(qū)域特征,削弱背景干擾,提升復(fù)雜場(chǎng)景下的特征提取魯棒性。
(三)提出 EAC_IOU 損失函數(shù),優(yōu)化無(wú)人機(jī)目標(biāo)檢測(cè)框回歸精度
原版 YOLOv8n 采用的 CIOU 損失函數(shù)存在縱橫比收斂失衡問(wèn)題,導(dǎo)致無(wú)人機(jī)紅外小目標(biāo)的檢測(cè)框調(diào)整精度不足。改進(jìn)算法將 EIOU 與 CIOU 結(jié)合,提出 EAC_IOU 損失函數(shù):先通過(guò) CIOU 調(diào)整預(yù)測(cè)框縱橫比至合理范圍,再利用 EIOU 拆分縱橫比影響因子 αv,分別計(jì)算預(yù)測(cè)框與真實(shí)框的長(zhǎng)、寬差異,優(yōu)化長(zhǎng)寬方向的獨(dú)立回歸。EAC_IOU 的計(jì)算公式為:EACIOU=1-IOU+αv+ρ2(b??,b)/c2+ρ2(h??,h)/c?2(其中 b 為預(yù)測(cè)框中心點(diǎn),b??為真實(shí)框中心點(diǎn),ρ 為歐氏距離,c 為最小封閉框?qū)蔷€長(zhǎng)度,h 為框高度),該函數(shù)能更精準(zhǔn)地反映無(wú)人機(jī)小目標(biāo)檢測(cè)框的相似程度,提升回歸準(zhǔn)確性。
(四)構(gòu)建 MS_SimAm 模塊,增強(qiáng)無(wú)人機(jī)多尺度目標(biāo)檢測(cè)適應(yīng)性
針對(duì)傳統(tǒng)注意力機(jī)制無(wú)法處理無(wú)人機(jī)紅外圖像多尺度目標(biāo)的問(wèn)題,改進(jìn)算法設(shè)計(jì)多尺度特征自適應(yīng)注意力模塊(MS_SimAm)。該模塊保留 SimAM 注意力機(jī)制的參數(shù)無(wú)關(guān)優(yōu)勢(shì),同時(shí)通過(guò)三個(gè)不同尺度(1×1、3×3、5×5)的卷積核生成多尺度特征圖,結(jié)合平均池化與最大池化整合跨維度特征響應(yīng)。MS_SimAm 能同時(shí)捕捉無(wú)人機(jī)紅外圖像中不同大小目標(biāo)的特征,既關(guān)注微小目標(biāo)的細(xì)節(jié)信息,也兼顧較大目標(biāo)的全局特征,提升無(wú)人機(jī)在低對(duì)比度、多目標(biāo)場(chǎng)景下的檢測(cè)性能,且未顯著增加模型計(jì)算成本。
為驗(yàn)證改進(jìn)算法在無(wú)人機(jī)場(chǎng)景中的有效性,實(shí)驗(yàn)基于統(tǒng)一環(huán)境與 HIT-UAV 數(shù)據(jù)集展開(kāi),從消融實(shí)驗(yàn)、對(duì)比實(shí)驗(yàn)兩方面評(píng)估性能,所有數(shù)據(jù)均保留原始測(cè)試結(jié)果,確保驗(yàn)證可信度。
(一)實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集配置
實(shí)驗(yàn)硬件環(huán)境為 Intel Core I9-10900X CPU、128GB RAM、Nvidia GeForce GTX 3090 GPU,軟件環(huán)境為 Windows 10 Professional 64bit 系統(tǒng)、Pytorch2.5.1 深度學(xué)習(xí)框架、Python3.12.0 編程語(yǔ)言。實(shí)驗(yàn)采用專門用于無(wú)人機(jī)高海拔紅外熱成像檢測(cè)的 HIT-UAV 數(shù)據(jù)集,該數(shù)據(jù)集從 43470 幀視頻中提取 2898 張紅外圖像,涵蓋學(xué)校、停車場(chǎng)、道路等多種無(wú)人機(jī)常見(jiàn)場(chǎng)景;數(shù)據(jù)集按 7:3 隨機(jī)劃分為訓(xùn)練集與測(cè)試集,初始學(xué)習(xí)率設(shè)為 0.01,輸入批次大小為 16。
(二)評(píng)價(jià)指標(biāo)與消融實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)采用精確率(P)、召回率(R)、平均精度均值(mAP@0.50、mAP@0.50:0.95)、參數(shù)量(Para)、浮點(diǎn)運(yùn)算次數(shù)(GFLOPs)、幀率(FPS)作為評(píng)價(jià)指標(biāo),其中 mAP@0.50 為 IoU 閾值 0.5 時(shí)的平均精度,mAP@0.50:0.95 為 IoU 閾值 0.5-0.95 的平均精度。
消融實(shí)驗(yàn)逐步添加改進(jìn)組件,結(jié)果如下:
基礎(chǔ)模型 YOLOv8n:P=78.2%、R=72.8%、mAP@0.50=77.2%、mAP@0.50:0.95=47.5%、Para=3.15×10?、GFLOPs=8.9、FPS=90.1 幀 /s;
添加小目標(biāo)檢測(cè)層與 EAC_IOU(實(shí)驗(yàn) 1):P=82.1%、R=73.1%、mAP@0.50=78.1%、mAP@0.50:0.95=49.5%、Para=3.18×10?、GFLOPs=9.5、FPS=94.3 幀 /s;
新增 CSP_BiFormer 模塊(實(shí)驗(yàn) 2):P=86.2%、R=73.9%、mAP@0.50=81.4%、mAP@0.50:0.95=50.5%、Para=3.25×10?、GFLOPs=15.2、FPS=99.2 幀 /s;
加入 MS_SimAm 模塊(實(shí)驗(yàn) 3,最終模型):P=88.6%、R=76.5%、mAP@0.50=83.9%、mAP@0.50:0.95=52.9%、Para=3.29×10?(僅增 4%)、GFLOPs=17.9、FPS=105.5 幀 /s。
消融實(shí)驗(yàn)表明,四大優(yōu)化組件均能提升無(wú)人機(jī)紅外小目標(biāo)檢測(cè)性能,最終模型較原版 YOLOv8n 在精確率、召回率、mAP@0.50、mAP@0.50:0.95、FPS 上分別提升 10.4%、3.7%、6.7%、5.4%、15.4 幀 /s,參數(shù)量增長(zhǎng)可控,符合無(wú)人機(jī)輕量化需求。
(三)對(duì)比實(shí)驗(yàn)與場(chǎng)景檢測(cè)效果
在 HIT-UAV 數(shù)據(jù)集上,將改進(jìn)算法與 Faster-RCNN、YOLOv7、YOLOv7-tiny、YOLOv8n、YOLOv9、YOLOv10 等主流算法對(duì)比,重點(diǎn)評(píng)估 “Person”“Car”“Bicycle”“Other vehicle”“Don't care” 五類目標(biāo)的平均精準(zhǔn)率及 mAP@0.50:
改進(jìn)算法(Ours):Person=93.0%、Car=98.4%、Bicycle=90.3%、Other vehicle=77.0%、Don't care=47.8%、mAP@0.50=84.0%;
對(duì)比算法表現(xiàn):YOLOv8n(原版)Person=91.0%、Other vehicle=66.1%、mAP@0.50=76.9%;YOLOv10 Person=88.7%、Don't care=45.5%、mAP@0.50=81.6%;YOLOv9 Other vehicle=78.7%、mAP@0.50=72.6%。
場(chǎng)景測(cè)試中,改進(jìn)算法在三類復(fù)雜場(chǎng)景表現(xiàn)更優(yōu):一是目標(biāo)輪廓?dú)埲眻?chǎng)景,避免原版 YOLOv8n 漏檢與 YOLOv9 誤檢;二是遠(yuǎn)距離小目標(biāo)場(chǎng)景,對(duì) 8×8 像素以下目標(biāo)的捕捉能力優(yōu)于 YOLOv7-tiny 與 YOLOv10;三是密集目標(biāo)場(chǎng)景,通過(guò)多尺度特征融合,解決紅外圖像分辨率低、目標(biāo)與背景區(qū)分弱的問(wèn)題,檢測(cè)精度顯著高于其他算法。
無(wú)人機(jī)行業(yè)現(xiàn)狀分析指出,2025 年無(wú)人機(jī)行業(yè)對(duì)紅外小目標(biāo)檢測(cè)的需求將從 “能檢測(cè)” 向 “精準(zhǔn)、實(shí)時(shí)、抗干擾” 升級(jí),改進(jìn) YOLOv8n 算法通過(guò)四大核心優(yōu)化,為這一需求提供了可行解決方案。該算法新增 160×160 檢測(cè)層強(qiáng)化小目標(biāo)捕捉,CSP_BiFormer 模塊提升復(fù)雜環(huán)境特征提取能力,EAC_IOU 優(yōu)化檢測(cè)框回歸,MS_SimAm 增強(qiáng)多尺度適應(yīng)性,最終在 HIT-UAV 數(shù)據(jù)集上實(shí)現(xiàn)性能與效率的雙重突破 —— 較原版 YOLOv8n 精度指標(biāo)最大提升 10.4%,幀率提升 15.4 幀 /s,參數(shù)量?jī)H增 4%,完美適配無(wú)人機(jī)輕量化、實(shí)時(shí)性需求。
從行業(yè)價(jià)值來(lái)看,該算法不僅解決了無(wú)人機(jī)紅外小目標(biāo)檢測(cè)的誤檢、漏檢難題,還為 2025 年無(wú)人機(jī)在災(zāi)害救援(快速定位受困人員)、邊境安防(識(shí)別遠(yuǎn)距離小型目標(biāo))、精準(zhǔn)農(nóng)業(yè)(監(jiān)測(cè)作物微小病蟲害)等場(chǎng)景的深度應(yīng)用提供技術(shù)支撐。未來(lái),隨著無(wú)人機(jī)紅外傳感器分辨率提升與數(shù)據(jù)集豐富度增加,算法可進(jìn)一步結(jié)合動(dòng)態(tài)注意力機(jī)制與輕量化量化技術(shù),持續(xù)推動(dòng)無(wú)人機(jī)紅外檢測(cè)能力向更高精度、更低延遲演進(jìn)。
更多無(wú)人機(jī)行業(yè)研究分析,詳見(jiàn)中國(guó)報(bào)告大廳《無(wú)人機(jī)行業(yè)報(bào)告匯總》。這里匯聚海量專業(yè)資料,深度剖析各行業(yè)發(fā)展態(tài)勢(shì)與趨勢(shì),為您的決策提供堅(jiān)實(shí)依據(jù)。
更多詳細(xì)的行業(yè)數(shù)據(jù)盡在【數(shù)據(jù)庫(kù)】,涵蓋了宏觀數(shù)據(jù)、產(chǎn)量數(shù)據(jù)、進(jìn)出口數(shù)據(jù)、價(jià)格數(shù)據(jù)及上市公司財(cái)務(wù)數(shù)據(jù)等各類型數(shù)據(jù)內(nèi)容。