近日,我院機(jī)器人研究所戰(zhàn)強(qiáng)教授團(tuán)隊,在人工智能領(lǐng)域國際著名期刊《Advanced Engineering Informatics》發(fā)表了題為“AIN-YOLO: A lightweight YOLO Network with Attention-based InceptionNext and Knowledge Distillation for Underwater Object Detection”的研究論文。該刊為中科院一區(qū)TOP、北航A類期刊,IF 9.9。碩士研究生何軒霆與博士研究生張悅為論文共同第一作者,戰(zhàn)強(qiáng)教授為論文唯一通訊作者,北京航空航天大學(xué)為唯一完成單位。
基于機(jī)器視覺的水下目標(biāo)檢測是實現(xiàn)智能海產(chǎn)品捕撈的關(guān)鍵技術(shù),也是水下機(jī)器人領(lǐng)域的研究熱點與前沿方向。然而,復(fù)雜多變的水下環(huán)境會導(dǎo)致圖像出現(xiàn)嚴(yán)重色偏和質(zhì)量退化,現(xiàn)有檢測方法普遍存在精度不足、誤檢/漏檢率高以及計算復(fù)雜度大等問題。針對上述問題,研究團(tuán)隊聚焦于單階段目標(biāo)檢測框架,融合跨任務(wù)協(xié)議不一致性橋接的知識蒸餾策略,提出了一種新型輕量化檢測網(wǎng)絡(luò)模型AIN-YOLO,旨在提升模型檢測精度的同時降低計算復(fù)雜度。研究結(jié)果表明,該AIN-YOLO模型通過分支聚合結(jié)構(gòu)以及分組通道混洗的稀疏掩碼與通道注意力機(jī)制,有效提高了對低質(zhì)量水下圖像語義特征的提取能力。此外,該模型融合了分類與回歸協(xié)同的知識蒸餾策略,在顯著壓縮參數(shù)規(guī)模和計算成本的同時,依然保持出色的檢測性能。部署實驗結(jié)果表明,該模型兼具低計算復(fù)雜度與高檢測精度,可以在樹莓派 4B上運行,展現(xiàn)出良好的工程應(yīng)用價值。