畢業生作品區


姓名/學號:李文淳/10853051
題目:以深度學習為基礎之單階段影像物件分割演算法及其應用
簡介:
本論文提出一個單階段影像物件分割演算法,透過本演算法能夠預測影像中每個物件分別的形狀及其分類。與物件檢測演算法預測物件的邊界框不同,物件分割演算法是預測物件的形狀,因此對於形狀較不規則的物件以及小物件的預測較困難,本演算法以SOLO (Segmenting Objects by Locations)物件分割網路為基礎,將感受域模組(Receptive Field Block, RFB)結合特徵金字塔網路(Feature Pyramid Network, FPN),提出特徵融合網路RFB-FPN,藉由RFB製造出不同尺度的感受域,得到更多不同尺度的特徵,改善SOLO對於形狀較不規則的物件以及小物件預測結果較差的問題,並將其分別應用於道路影像檢測與盛鋼桶熱影像檢測。本演算法以Microsoft COCO資料集進行訓練、測試模型的預測效果,與其他演算法進行比較、分析,並將模型應用於道路影像檢測,結合立體視覺視差估測網路AANet (Adaptive Aggregation Network),再將視差轉換為深度,能夠預測道路影像中的物件分類、分割每個物件的形狀,並在沒有使用光達和其他深度感測器的情況下,只透過影像估測其深度值。在鋼鐵工業中,現場人員透過目測判斷盛鋼桶是否正確填砂,以及攪拌孔是否洗開,有可能因為人為因素誤判,進而影響後續製程或導致工程安全問題。在本論文中,我們使用自行標註的盛鋼桶熱影像資料集訓練模型,預測盛鋼桶熱影像中的填砂及攪拌孔的分類、分割其形狀,並計算其面積大小,這些資訊可以提供給現場人員輔助判斷。與SOLO進行比較後可以發現,本演算法的物件分割效果更佳,分割出的形狀更符合實際物件。

姓名/學號:張恩毓/10853075
題目:結合配子生殖特性之最佳化演算法設計及其應用
簡介:
本論文主要為提出一種結合配子生殖融合特性之最佳化演算法,透過本演算法能夠更大範圍的探索目標空間並更精確的收斂至最佳解。在近幾年已有許多的學者提出許多新穎的啟發式演算法用於解決不斷被發現的最佳化問題,但仍有收斂速度較慢、無法有效擺脫區域最佳解,以及其中的一些方法僅針對於某些特殊狀況等問題產生,因此本論文結合配子生殖融合的特性,提出結合配子生殖融合特性之最佳化演算法,藉由在演算法初期模擬雄性配子在龐大的空間中尋找雌性配子的移動方式擴大雄性配子的探索範圍,並於後期模擬雌性配子分泌特殊化學物質吸引與其較近的雄性配子提升小範圍的探索能力,改善目標空間探索不足與收斂度不佳的問題,並將其應用至離岸風電場中考慮尾流效應的風力機組位置設置與電力系統的經濟效益問題(Economic Dispatch problem, ED)。本演算法與其他最佳化演算法透過17個常見的測試函數進行比較與分析,可以發現我們演算法的效果比其他演算法在最佳解的品質、收斂程度與收斂速度皆有顯著的表現。在離岸風電場中,風力機組的設置位置與風場的發電效率有高度相關性,因此在本論文中考慮尾流效應的影響下,以最大化發電功率為目的進行最佳化的風場佈局並在結果顯示本文的方法能夠與其他演算法找到相同的最佳解。此外,在電力系統的ED問題中含有大量的約束條件與發電機組和有限制的需求量造成問題的高複雜性,若電力的發電量分配不佳將會產生高額的發電成本,如何正確的分配發電量則成為了有名的最佳化問題之一,在此部分的比較中發現大量的約束條件可能會影響演算法效能。透過上述的多個實驗結果證明了本論文所提出之結合配子生殖融合特性之最佳化演算法設計在絕大部分的問題中是有效且可行的。

姓名/學號:李柏諺/10853053
題目:基於深度學習應用於台灣斑石鯛之魚體參數分析研究
簡介:
本論文主要提出一種基於深度學習針對台灣斑石鯛之魚體參數進行預測分析的方法,此方法硬體設備使用GoPro Hero 8 Black兩台作為水下立體攝影機,在此論文中主要使用兩種深度學習演算法:第一種是水下深度圖預測,透過雙鏡頭影像預測魚隻與鏡頭距離;第二種則是魚隻姿態估計演算法,透過偵測魚隻關鍵點,並連結骨骼重建,以利魚體參數之預測。水下立體影像於水下影像成像過程中會受光的散射及吸收影響,導致影像霧化失真及光衰減問題。雖在近幾年已有許多學者提出基於深度學習之深度圖估計網路架構,但皆以陸地上資料為主,少數水下深度圖預估僅適用於特定環境且受侷限性高,水下環境因各地光照程度不同或水質混濁程度不同,對其水色及可見視野範圍皆有關鍵性影響,水下立體影像取得任務非常困難,導致目前並無水下深度圖資料集,不像陸地上有KITTI等大型資料集可使用,因此本論文欲自製水下立體影像資料集,以影像處理方法,估計水下影像深度,並參考陸地上深度圖預測網路架構進行訓練,再以水下測距儀設備進行影像深度值與實際距離之準確度驗證。魚隻為動態物件,影像僅能呈現2D狀態,且魚隻與鏡頭平行瞬間難以捕捉,會因為魚隻游動姿態或因面對鏡頭角度,導致魚體參數估計不易且有較大誤差,故於本論文中將參考基於深度學習之關鍵點偵測,進行魚隻姿態估計,搭配魚隻深度圖資訊,以更精準方式對魚體參數進行估計。本論文所提出之魚體參數演算法與透過傳統式立體視覺演算法估計比較,可發現論文中所開發演算法對魚體參數估計更為提升精進,且運算成本更低。整套演算法之應用對於養殖業者為可行的且更利於後續研究最佳化飼料投餵及降低人力成本進行最佳養殖規劃。

姓名/學號:陳佑庭/10853055
題目:以自我組織特徵映射圖結合圖形捲積深度學習之演算法開發應用於鳳梨成熟度分析
簡介:
現今深度學習技術被廣泛應用於歐幾里德資料型態中,模型架構也隨著技術的進步而有所突破,其中最耳熟能詳的神經網路架構包括DNN、CNN及LSTM等,且該些模型成就均達到一定水準。然而於各項領域中,並非所有的資料皆能以歐基里德資料結構表示,因此圖形捲積網路(Graph Convolutional Network, GCN)被提出用以解決該項問題。圖形捲積網路被應用於非歐基里德資料結構並將其以graph資料型態呈現,主要由節點(node)與邊(edge)所構成,如化學架構、網頁連結等,透過graph資料型態能表示節點與節點間的相互關係,使其不易發生重要特徵遺失之問題,因此本論文將影像轉換為graph資料型態以保留影像中完整的特徵資訊,不同於多數CNN模型需藉由多個不同維度的捲積層以保留影像中的特徵值。本論文為將影像轉換為graph資料型態故使用超像素分割演算法,由於傳統演算法中易發生超像素區塊消失問題,必須透過資料填補方式將消失區塊以補零方式進行維度偏差修正,由此方法易造成特徵提取不準確問題,故本論文提出以自我組織特徵映射圖進行超像素分割結合圖形捲積網路解決此問題,以及現有超像素分割演算法大多透過影像中像素點的RGB或CIELAB色彩空間進行分割較難解釋其特徵意義,故透過本論文演算法結合影像處理解釋其特徵意義,針對graph資料型態輸入提出可解釋性能力。