追蹤三文魚之源:融合高光譜成像與深度學習的創新技術揭秘
應用方向
在該研究中,高光譜成像技術(HSI)主要應用於三文魚地理來源溯源及真實性檢測。通過分析光譜和紋理數據,結合深度學習與數據融合策略,HSI成功實現了不同產地三文魚的精準分類,並有效檢測出摻假現象,為水產品真實性鑒定提供了快速、無損且高*的解決方案。此外,研究開發了一種基於HSI數據的智能雲平台,實現了實時分類,展示了該技術在食品溯源中的實際應用潛力和擴展性。這些成果凸顯了HSI在食品質量檢測與多維數據分析領域的廣泛前景。
背景
三文魚因其富含氨基酸、蛋白質、bubaohezhifangsuandengyingyangchengfen,zaiquanqiubeishouhuanying。raner,youyubutongdiqudedilihuanjingheshengchangtiaojiancunzaichayi,butongchandidesanwenyuzhilianghejiagechayixianzhu,zheshideqidililaiyuanchengweiqianzaideqizhamubiao。chuantongdesanwenyuchandishibiefangfaduoyilaiyuduiwaiguan(形狀、紋理和顏色)的人工觀察,但這種方法效率低下且耗時耗力。目前,農產品溯源領域常用的方法包括穩定同位素分析、感應耦合等離子體質譜法和多元素分析,但這些方法通常存在實驗複雜、成本高昂以及對樣品造成不可逆損傷等問題。因此,亟需探索一種快速、準確且無損的三文魚地理來源識別方法。
高光譜成像(HSI)是一種快速且無損的檢測技術,能夠結合光譜和圖像數據進行樣本分類,具有較高的分辨率和魯棒性。本研究基於HSI技術結合信息融合策略與深度學習模型,旨在解決三文魚的地理來源溯源問題,為市場穩定和食品安全提供技術支持。
實驗設計
1.1材料與方法
本研究中四種新鮮的三文魚樣本來自中國的劉家峽地區、法羅群島的Bakkafrost以及成都通威三文魚有限公司。這些三文魚在捕獲後立即被去內髒、放血並冷凍,使用無菌刀具去除頭部、尾部、皮膚和骨骼進行處理。然後,每種三文魚被切成500份,每份尺寸為40×50×15 mm,重量為40±5 g。
本研究中,三文魚片的高光譜圖像是使用江蘇雙利合譜科技有限公司的“Gaia”高光譜分選機獲取。該係統包括一個Image-λ “Spectrum”係列高光譜相機(Image-λ-V10E-PS),兩套200W的鎢鹵燈光源,一個電動控製的移動平台。“Gaia”高光譜分選機的光譜範圍從388-1036 nm,光譜分辨率為2.8 nm,每個像素點共有256個波段。在實驗過程中,每種三文魚獲得了500zhanggaoguangputuxiang。zaicaijiyangbenzhiqianfenbiehuoqugaoguangputuxiangdeheibaizhen,yibianduigaoguangputuxiangjinxingheibaixiaozheng。shiyongfenxiruanchulishoujidaodegaoguangputuxiangyitiquROI獲取各樣本平均光譜值,采用二階統計方法從樣本中提取紋理信息。
為了從光譜數據中去除噪聲並防止數據失真,本實驗采用了Savitzky-Golay平滑作為一種預處理方法,基於一係列實驗和經驗考慮,將窗口大小設置為17。在本研究中,采用了LightGBM和GBDT算法來消*冗餘和無關信息以提高模型效果。然後對集成機器學習模型(隨機森林、LightGBM和GBDT)、CNN-BiGRU深度學習模型、深度學習模型(MSADBO、CNN和BiGRU)三種模型結果進行對比,得出*優模型。同時,設計了一個自建的物聯網雲平台,以實現對不同三文魚地理來源的實時檢測。
1.2.結果
(1)不同類別三文魚片的光譜特性
使用HSI獲取了包括挪威三文魚、法羅群島三文魚、淡水彩虹鱒魚和智利三文魚四個類別三文魚樣本的光譜。圖1展(zhan)示(shi)了(le)這(zhe)四(si)種(zhong)三(san)文(wen)魚(yu)類(lei)別(bie)的(de)平(ping)均(jun)光(guang)譜(pu),可(ke)以(yi)觀(guan)察(cha)到(dao)這(zhe)四(si)種(zhong)三(san)文(wen)魚(yu)類(lei)別(bie)的(de)整(zheng)體(ti)光(guang)譜(pu)趨(qu)勢(shi)大(da)致(zhi)相(xiang)似(si),但(dan)反(fan)射(she)率(lv)值(zhi)有(you)所(suo)不(bu)同(tong)。然(ran)而(er),在(zai)大(da)多(duo)數(shu)情(qing)況(kuang)下(xia),僅(jin)憑(ping)視(shi)覺(jiao)是(shi)無(wu)法(fa)準(zhun)確(que)區(qu)分(fen)三(san)文(wen)魚(yu)類(lei)別(bie)的(de)。因(yin)此(ci),進(jin)行(xing)有(you)效(xiao)的(de)波(bo)段(duan)分(fen)析(xi)以(yi)提(ti)取(qu)相(xiang)關(guan)信(xin)息(xi),用(yong)於(yu)分(fen)類(lei)模(mo)型(xing)是(shi)必(bi)要(yao)的(de)。
圖1. 四類三文魚的平均光譜
此外,還識別出幾個與不同官能團相對應的常見吸收峰。在可見光至近紅外光譜範圍(400-1000 nm)內,光譜顯示出明顯的峰值和穀值,觀察到的吸收信息主要與樣本中有機大分子官能團的基本振動相關(例如,C-H、N-H、O-H和S-H)。在可見光區域(400-760 nm),在450 nm左右觀察到一個顯著的吸收峰,歸因於肌紅蛋白和總色素的吸收。在650-700 nm,觀察到高反射率,反映了三文魚的紅色光譜特征。在近紅外區域(700-1000 nm),在760 nm出現吸收峰,對應於O-H伸縮振動的第三泛音。此外,在980 nm觀察到輕微的下降,對應於O-H伸shen縮suo振zhen動dong的de第di二er泛fan音yin。這zhe些xie觀guan察cha表biao明ming,樣yang本ben中zhong光guang譜pu反fan射she率lv的de變bian化hua可ke以yi歸gui因yin於yu它ta們men化hua學xue性xing質zhi的de變bian化hua。換huan句ju話hua說shuo,不bu同tong品pin種zhong的de三san文wen魚yu由you於yu化hua學xue性xing質zhi的de差cha異yi而er表biao現xian出chu不bu同tong的de反fan射she率lv。總zong之zhi,400-1000 nm可以表征三文魚肉質的特性,為後續三文魚來源的追溯提供了理論基礎。
(2)特征變量貢獻分析
在全波段建模計算中,LGB和GBDT模型始終產生最穩定的結果。因此,本研究僅通過LGB和GBDT模型選擇重要波長進行分類。LGB和GBDT算法被用來對光譜和紋理融合模型的2133個變量進行特征選擇,每個算法提取的前30個貢獻*大的特征變量被分別用於分析(見圖2)。對特征變量重要性的分析顯示,兩個模型的光譜特征變量更集中於650 nm,而紋理特征更集中於400-450 nm和700-800 nm的單波段灰度圖像。特別值得注意的是,在640-670 nm的光譜區域觀察到最高的貢獻率。從圖1可以看出,這些光譜區域主要與色素、蛋白質和水分有關,導致三文魚片中高反射率,並突出了三文魚的光譜特性。
圖2.特征重要性分析結果:(a) LGB模型TOP30特征變量貢獻;(b) GBDT模型TOP30特征變量貢獻
(3)光譜建模分析
使用237個連續波段的光譜數據和傳統機器學習(ML)算法建立了三文魚溯源模型。數據預處理采用了SG平滑方法,窗口點數設置為17。利用LGB、RF、GBDT和STACK四種監督模式識別方法對三文魚的地理來源進行了區分。預測結果如圖3所示。
圖3.光譜模型的模擬結果。(a)原始數據ML算法的譜模型結果;(b)原始數據深度學習算法的光譜建模結果;(c)SG平滑後ML算法的光譜建模結果;(d)SG平滑算法的譜模型結果後深度學習算法的譜模型結果
從模型結果可以看出,傳統的ML模型、集成學習模型和深度學習模型在測試集上的分類準確率表現出令人滿意的穩定性,結果保持在87%到93%之間。此外,經過SG平滑處理後,所有模型的準確率都有所提高,在訓練集上提高了0.1%到3.2%,在測試集上提高了0.2%到4.3%。這一現象可以歸因於SG平滑有效地糾正了原始光譜中的曲率和偏移。另一方麵,在CNN-BiGRU模型中,改進的正弦算法注入了強大的全局探索和局部開發能力,顯著提升了模型的分類性能,整體準確率比優化前提高了0.5%到4.3%。值得注意的是,在基於光譜數據的ML模型結果中,集成學習模型表現突出,以訓練集95.8%和測試集93%的準確率展示了*佳的分類性能。然而,與ML模(mo)型(xing)相(xiang)比(bi),深(shen)度(du)學(xue)習(xi)模(mo)型(xing)在(zai)基(ji)於(yu)光(guang)譜(pu)數(shu)據(ju)的(de)分(fen)類(lei)任(ren)務(wu)中(zhong)表(biao)現(xian)不(bu)佳(jia)。這(zhe)是(shi)因(yin)為(wei)深(shen)度(du)學(xue)習(xi)需(xu)要(yao)大(da)量(liang)數(shu)據(ju)進(jin)行(xing)訓(xun)練(lian),但(dan)在(zai)處(chu)理(li)低(di)維(wei)數(shu)據(ju)時(shi)更(geng)容(rong)易(yi)出(chu)現(xian)過(guo)擬(ni)合(he)。
(4)紋理模型分析
本研究基於8個選定的特征紋理信息建立了三文魚的紋理分類模型。為了消*guangpushujuweidudechayi,tezhengwenlixinxijingguoleguiyihuayuchuli,yiquebaoshujudeyizhixing。caiyongyuguangpumoxingxiangtongdejiqixuexiheshenduxuexifangfaqufensanwenyudedililaiyuan。rutu4所示,經過歸一化處理後,所有模型的準確率都有所提高,訓練集上的提高範圍從0.7%到13.1%,測試集上的提高範圍從2.7%到15.1%。這種提高可以歸因於高維高光譜圖像中熵評估的複雜性和無序性,因此歸一化紋理信息有助於減少熵對分類結果的影響。
圖4.紋理模型的建模結果:(a)原始數據的ML算法紋理模型結果;(b)原始數據深度學習算法紋理建模結果;(c)歸一化預處理後的ML算法紋理模型結果;(d)歸一化預處理後的深度學習算法紋理模型結果
從ML的角度來看,集成學習模型繼續保持著強大的性能。在歸一化紋理數據的分類結果中,訓練集和測試集的準確率分別提高了1.3%至3.1%和0.8%至3.9%。盡管歸一化處理顯著增強了分類結果的準確率,但傳統的ML方法在提取紋理信息等數據類型的特征時仍麵臨一些挑戰。相比之下,CNN-BiGRU模型在處理紋理信息方麵的分類性能遠高於傳統ML模型。值得強調的是,改進的DBO-CNN-BiGRU模型進一步提高了分類準確率。訓練集和測試集的分類準確率分別達到了92.8%和92.5%,這展示了深度學習模型在處理高維和複雜數據,尤其是紋理數據方麵的卓越性能。
(5)融合模型分析
本研究采用了一種信息融合策略,整合光譜和紋理數據構建了一個全*deshujumoxing。zongtieryan,ronghemoxingzhanxianchulelingrenmanyidefenleixingneng。meigemoxingdouxianshichuyidingchengdudegaijin,zhebiaomingliyongguangpuhewenliliangfangmiandexinxiyouzhuyubuzhuobutongsanwenyuleibiezhijiandechayi。zaizhexiemoxingzhong,MSADBO-BiGRU取得了*佳結果,在訓練集和測試集上的準確率分別為99.6%和99.5%,與優化前的DBO-BiGRU相比,測試集準確率提高了0.7%。分類結果如圖5所示。法羅群島三文魚和智利三文魚更容易被混淆,而彩虹鱒魚很少與其他三文魚種類混淆。從傳統ML模型的結果來看,LGB、RF、GBDT和STACK模型的分類性能同樣令人滿意,測試集準確率分別為94.3%、96%、93.3%和96.3%。值得注意的是,與單獨的ML模型相比,集成學習模型一貫展現出穩定性,並表現出*佳的分類性能,測試集準確率提高了0.3%到3%。此外,為了進一步提升模型性能並降低數據維度和冗餘,使用了GBDT和LGB算法進行特征變量選擇,最終結果如表1所示。結果表明,與全變量建模相比,ML模型的準確率提高了0.2%至0.7%,這表明GBDT和LGB算法成功地選擇了關鍵變量,從而減少了HSI數據中的共線性和冗餘問題。相比之下,STACK模型取得了*佳結果,在訓練集和測試集上的準確率分別為97.4%和96.3%。總之,整合光譜和紋理數據的信息融合策略的分類性能優於使用單一光譜或紋理數據的*優模型。
圖5.融合模型的建模結果:(a)ML算法的融合建模結果;(b)深度學習算法的融合建模結果;(c)LGB的混淆矩陣;(d)RF的混淆矩陣;(e)GBDT的混淆矩陣;(f)STACK的混淆矩陣;(g)DBO-CNN-BiGRU的混淆矩陣;(h)MSADBO-CNN-BiGRU的混淆矩陣
(6)深度學習互聯網智能雲平台用於*佳分類結果可視化
基於本研究,發現基於HSIjishudexinxironghecelveyushenduxuexifangfajiehezaisanwenyusuyuanfangmianjuyoujudaqianli。raner,chuantongdemoxingyucefangfaxianzhileqizaishijiyingyongzhongdeshishinenglihelinghuoxing。ciwai,duigaoweishuju(如光譜和紋理特征)進(jin)行(xing)多(duo)次(ci)訓(xun)練(lian)迭(die)代(dai)不(bu)僅(jin)耗(hao)時(shi),而(er)且(qie)增(zeng)加(jia)了(le)模(mo)型(xing)擴(kuo)展(zhan)的(de)難(nan)度(du)。此(ci)外(wai),傳(chuan)統(tong)方(fang)法(fa)無(wu)法(fa)實(shi)現(xian)遠(yuan)程(cheng)訪(fang)問(wen),給(gei)用(yong)戶(hu)帶(dai)來(lai)不(bu)便(bian)。因(yin)此(ci),為(wei)了(le)解(jie)決(jue)這(zhe)些(xie)問(wen)題(ti),本(ben)研(yan)究(jiu)構(gou)建(jian)了(le)一(yi)個(ge)基(ji)於(yu)互(hu)聯(lian)網(wang)的(de)智(zhi)能(neng)雲(yun)平(ping)台(tai),用(yong)於(yu)追(zhui)蹤(zong)三(san)文(wen)魚(yu)的(de)來(lai)源(yuan)。雲(yun)平(ping)台(tai)的(de)分(fen)類(lei)結(jie)果(guo)如(ru)圖(tu)6所示。基於深度學習模型,借助光譜和紋理的融合數據,平台利用MSADBO-CNN-BiGRU算法處理融合數據,以實現三文魚的溯源。在平台投入使用之前,將實驗中的所有2000個融合數據(分為70%的訓練集和30%的測試集)輸入深度學習模型進行訓練。盡管本研究開發的智能雲平台可能尚未達到工業標準,評估其功能的可靠性和穩定性是必要的。結果如表2所示,證明了平台的平穩運行。此外,為了驗證平台在應用中的可靠性,通過上傳包含融合數據的文件到平台進行測試,可以獲得如圖8所示的四種三文魚來源區分結果,平台的分類準確率超過99%,這表明三文魚溯源檢測係統在三文魚地理來源區分方麵具有很大的應用潛力。

圖6.雲平台分類的結果。(a)法魯三文魚。(b)虹鱒。(c)挪威三文魚。(d)智利三文魚
結論
youyubutongchandizhijianjiazhichayixianzhu,sanwenyujingchangchengweiqizhaxingweidemubiao,yincijingzhunshibieqichandijuyouzhongyaoyiyi。weilejiejuezheyiwenti,benyanjiugoujianleyizhongjieheHSI信息融合策略與深度學習方法的模型,旨在快速、準確地追溯三文魚的地理來源。研究結果如下:(1)在比較的四種不同的ML模型中,STACK模型表現出較高的分類穩定性和準確性;(2)深度學習在處理高維和複雜數據方麵表現出色,其分類性能顯著超過ML模型,測試集準確率高達99.5%,MSADBO-CNN-BiGRU模型測試集準確率比優化前的CNN模型提高了0.8%至7%;(3)信(xin)息(xi)融(rong)合(he)的(de)結(jie)果(guo)表(biao)明(ming),與(yu)僅(jin)使(shi)用(yong)單(dan)一(yi)光(guang)譜(pu)和(he)紋(wen)理(li)模(mo)型(xing)相(xiang)比(bi),分(fen)類(lei)準(zhun)確(que)率(lv)有(you)所(suo)提(ti)高(gao),尤(you)其(qi)是(shi)融(rong)合(he)模(mo)型(xing)的(de)性(xing)能(neng)遠(yuan)遠(yuan)超(chao)過(guo)紋(wen)理(li)模(mo)型(xing),表(biao)明(ming)融(rong)合(he)模(mo)型(xing)展(zhan)現(xian)出(chu)*佳性能。總之,本研究成功地將深度學習方法與基於HSI的信息融合策略相結合,實現了三文魚產地的精準追溯,為市場穩定和食品安全提供了保障。同時,該研究為未來基於HSI信息融合策略與深度學習方法的農產品快速、無損追溯研究提供了技術支持。
推薦產品
作者簡介
通訊作者:許麗佳,四川農業大學機電學院,博導
參考文獻
論文引用自一區文章:Zhiyong Zou , Dongyu Yuan , Qingsong Wu , Qianlong Wang, Menghua Li ,Jiangbo Zhen , Chong Xu , Shutao Yin , Qiang Cui , Man Zhou , Lijia Xu , Salmon origin traceability based on hyperspectral imaging data fusion strategy and improved deep learning method , Food Control 166 (2024) 110740, https://doi.org/10.1016/j.foodcont.2024.110740