本論文為實現基於模糊化多維矩形複合式類神經網路(Fuzzy HyperRectangular Composite Neural Network, FHRCNN)之可解釋性YOLOv4(You Only Look Once v4),以多維矩形的模糊化理論架設在放射狀基底函數網路(Radial Basis Function Network, RBFNet),解決YOLOv4因網路架構設計上,在物件背景過於複雜或是雜訊干擾情況下,造成物件檢測結果輸出超出影像尺寸問題,並探討現今人工智慧因為透過演算法和數學理論模型進行分析決策無法向人類解釋其分析和決策行動結果背後意義的問題,提出以類似人類思考邏輯方式來理解人工智慧下判斷的理由及解釋。
在流程方面,本論文分為三個部分進行,分別為訓練YOLOv4物件檢測網路、FHRCNN資料集蒐集以及建立FHRCNN-YOLOv4。首先,本論文以Microsoft的COCO影像資料庫作為YOLOv4訓練資料集,並將訓練完成之YOLOv4作為FHRCNN-YOLOv4訓練資料的生產器,以半手動方式進行取樣將YOLOv4物件輸出結果當作FHRCNN的輸入,COCO資料集真實資料當作FHRCNN期望輸出,在資料蒐集完成後,進行FHRCNN訓練並將完成訓練之FHRCNN整合至YOLOv4,使整套演算法可以對於物件演算法校正以及擁有提出解釋性的能力。