科技與工程學院
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/5
沿革
科技與工程學院(原名為科技學院)於87學年度成立,其目標除致力於科技與工程教育師資培育外,亦積極培育與科技產業有關之工程及管理專業人才。學院成立之初在原有之工業教育學系、工業科技教育學系、圖文傳播學系等三系下,自91學年度增設「機電科技研究所」,該所於93學年度起設立學士班並更名為「機電科技學系」。本學院於93學年度亦增設「應用電子科技研究所」,並於96學年度合併工教系電機電子組成立「應用電子科技學系」。此外,「工業科技教育學系」於98學年度更名為「科技應用與人力資源發展學系」朝向培育科技產業之人力資源專才。之後,本院為配合本校轉型之規劃,增加學生於科技與工程產業職場的競爭,本院之「機電科技學系」與「應用電子科技學系」逐漸朝工程技術發展,兩系並於103學年度起分別更名為「機電工程學系」及「電機工程學系」。同年,本學院名稱亦由原「科技學院」更名為「科技與工程學院」。至此,本院發展之重點涵蓋教育(技職教育/科技教育/工程教育)、科技及工程等三大領域,並定位為以技術為本位之應用型學院。
107學年度,為配合本校轉型規劃,「光電科技研究所」由原隸屬於理學院改為隸屬本(科技與工程)學院,另增設2學程,分別為「車輛與能源工程學士學位學程」及「光電工程學士學位學程」。
News
Browse
13 results
Search Results
Item 應用於行動裝置之基於深度學習的手繪運算放大器電路辨識與教學動畫生成系統開發(2025) 李柏翰; Li, Po-Han隨著深度學習技術的發展,手繪文本和電路圖的識別取得了顯著進步。然而,針對手繪運算放大器 OPA 電路的研究仍較為有限。本研究提出了一種行動裝置專用的手繪運算放大器電路識別與動畫生成系統,旨在解決現有影像搜尋工具(如 Google Images)無法有效辨識手繪電路的問題。本系統採用最新的 YOLOv9t 目標檢測模型進行電子元件識別,相較於 YOLOv8n,在模型參數量(Parameters, Params)與每秒十億次浮點運算次數(Giga Floating Point Operations Per Second, GFLOPS)方面均有所提升。系統透過分析識別出的電子元件及其相對位置來確定電路類型,並允許使用者輸入元件參數,以 Manim 動畫引擎生成對應的輸出波形動畫,幫助學生直觀理解運算放大器電路特性。本研究構建了一個包含 1,199 張手繪運算放大器電路圖的資料集,並比較了 YOLOv8n 和 YOLOv9t 兩種物件偵測模型的辨識效能。實驗結果顯示, YOLOv9t 與 YOLOv8n 在 Precision 指標上均達到 99%,整體辨識校效能相當。然而 YOLOv9t 的參數量為 2.8M,較 YOLOv8n 的 3.0M 減少約 7%,在模型輕量化方面展現優勢;此外 YOLOv9t 的每秒十億次浮點運算次數為 11.7,遠高於 YOLOv8n 的 8.1,效能提升約 44.4%。顯示 YOLOv9t 更具運算效率,適合應用於本系統所需的即時辨識場景。除此之外,系統整合 LINE Bot 作為互動介面,使學生可直接透過行動裝置拍攝手繪電路圖,並即時獲得識別結果與動畫回饋。整體實驗結果顯示,本系統在電子工程教育領域具有潛在應用價值,未來將進一步透過使用者調查來優化互動設計與學習成效。Item 基於超聲波的手部動作辨識模型研究(2025) 張仲軒; Chang, Michael-Austin隨著人工智慧與深度學習技術的快速發展,人體動作辨識在醫療照護、監控系統、人機互動等領域展現出極高的應用潛力。然而,傳統的影像辨識技術多仰賴可見光或紅外線攝影機,不僅容易受到環境光源變化影響,可能還有潛在的隱私疑慮。為解決上述問題,本研究提出一種結合超聲波訊號與深度學習之手部動作辨識模型,利用聲波反射特性來辨識手部動作,從而克服光線限制並提升隱私保護性。本研究使用USB介面的超聲波收音設備,錄製人體動作引發的聲波變化,並透過短時距傅立葉轉換(STFT)將訊號轉換為頻譜圖,以提取含有時頻解析度的特徵,接著使用ResNet-50卷積神經網路(CNN)進行手部動作分類。為驗證本方法之效能,本研究建立了一個包含五種手部動作及一類靜態背景的超聲波資料庫,並透過多位受試者進行測試以評估模型效能。實驗結果顯示,在特定實驗環境下,模型的辨識準確率可達95%;即使在不同受試者的推論測試中,仍能維持92%的表現。Item 基於雙重注意力機制之視網膜血管分割深度學習網路(2024) 胡景閎; Hu, Jing-Hung眼底影像之血管分割可以用來協助眼睛病灶的觀察,以提早發現病灶並進行治療,例如黃斑部病變、糖尿病視網膜病變、青光眼等等。由於眼底影像的採集會經過各種不同的程序而導致影像有不同的品質變化,眼底影像血管分割的精確度會影響病灶的判斷,儘管現今已存在許多影像分割方法,但是具有病灶的眼底圖像血管分支變化多端,現存各種分割方法的精確度也依舊無法達到完美,本研究目的為提出改良式眼底影像的血管分割方法,針對各種視網膜圖像,進行精確血管分割,以協助醫師對眼疾病變的診斷,期能對眼疾醫療做出微薄的貢獻。準確的血管分割是一項具有挑戰性的任務,主要是因為眼底影像的對比度低以及血管形態結構的複雜性,傳統卷積會增加乘法的數量,同時執行卷積操作,導致與細長且對比度低的血管相關信息損失。為了解決現有方法在血管提取時低敏感度以及信息損失的問題,本研究提出結合兩種注意力模型EPA以及DLA的並行注意力U-Net以實現準確的血管分割,EPA聚焦於空間以及通道的特徵提取,而DLA則專注於多尺度的局部特徵以及邊緣檢測的特徵,再將並行所得特徵進行深度和淺層特徵融合。本研究在DRIVE數據集上進行實驗,以驗證模型性能,研究結果指出,採用並行運算的U-Net模型分割視網膜血管具有競爭性效能。Item 基於非監督式生成對抗網路及對比學習之水下影像品質回復(2023) 宋奕泓; Sung, Yi-Hung近年來水下環境之相關應用的重要性與日俱增,比如:水下資源探勘及水下環境監控。這些應用往往需要由水下無人載具來擷取水下數位影像資料以供後續之資料分析及其相關應用 (例如:水下物件偵測及水下影像分類等相關應用)。然而水下影像品質受到許多環境因素影響而造成影像退化,包括光線折射、反射等等,如此可能使得基於水下影像之相關應用無法得到良好的效果。近年來,隨著深度學習技術蓬勃發展,研究者提出許多基於深度學習的模型來改善水下影像的品質。目前現有方法中,以具備成對影像資料之監督式深度學習模型為主。成對影像學習雖然能以較輕量模型得到好的影像品質回復效果,但礙於現實難以取得成對的原始水下影像及其還原之陸上影像,因此模型訓練上受到許多限制。為了解決這個限制,許多研究以人工合成之影像來建立成對之訓練影像資料集。然而,人工合成之訓練影像資料集未必能反映真實的水下影像特性。為了解決此問題,最近已有研究提出使用生成對抗網路及非成對影像資料來進行深度學習網路訓練。本論文提出一基於非成對影像資料及生成對抗網路之深度學習模型,來處理水下影像回復的問題。本論文提出基於非成對訓練影像資料集及利用生成對抗網路架構訓練一影像領域轉換生成器將輸入之水下影像轉換為對應之陸上影像 (回復之水下影像),其中我們利用對比學習及多樣損失函數來進行網路訓練。實驗結果已證實我們的方法可得到較佳的回復影像品質且優於 (或近似) 現有基於成對/非成對訓練資料之基於深度學習之水下影像回復網路。Item 疊代推進生成對抗網路用於陰影去除(2022) 吳建霖; Wu, Chien-Lin隨著科技的高速發展,深度學習在工業、軍事、民生科技處處都有大量的應用,現今運用在影像處理上的深度學習技術不斷進步,影像的去除如影像除霧、去反光、去陰影等都是電腦視覺領域中具挑戰性的任務。本論文研究目的為針對影像陰影去除提出了迭代推進生成對抗網路,首先我們輸入陰影圖藉由兩個生成器網路分別生成出無陰影的圖及殘差陰影圖,將兩者合成得到陰影圖,與輸入進行比對,最後將合成的圖再次輸入至網路重複上述步驟直到收斂,透過迭代推進的方式提升陰影移除的效果。此外為了使結果更加優異,我們的生成器網路加入了注意力機制,讓模型更專注於影子的部分,以及長短期記憶,使我們在長序列訓練過程中有更好的表現,最後是修復網路,以進一步改善生成的結果。我們與傳統方法以及近年來基於深度學習所提出的陰影去除方法比較,實驗結果表明本論文所提出的迭代推進方法有更優異的結果。Item 高性能之輕量級卷積神經網路之設計(2021) 周世耀; Jou, Shyh-Yaw因深度學習強大的分析能力,其時常被用做影像辨識與物件偵測的工具。時至今日,已有許多基於深度學習方法的著名模型被提出,例如:SENet、EfficientNet、Densenet、MobileNet、ResNet、ShuffleNet、GhostNet、Yolo等。深度學習模型的性能主要可從4個層面進行探討,分別是參數量,資料分析能力、處理資料的速度以及模型的泛用能力。一般而言,模型能在上述4個層面都表現優秀是很困難的。在本論文中,我們設計出一各性能皆優秀的深度學習模型―ExquisiteNetV2。我們選用了15個具公信力的影像辨識資料集以及1個物件偵測資料集進行實驗,並以上述提到的著名模型做為比較對象。我們分別使用兩種不同的權重更新法做實驗,根據實驗結果,無論使用何種權重更新法,在超過一半以上的資料集中,ExquisiteNetV2的分類正確率都是第一名。ExquisiteNetV2的參數量遠少於其他模型,但資料分析能力以及運算速度卻優於其他模型,因此,ExquisiteNetV2是一種高性能之輕量級卷積神經網路,可通用於影像分類與物件偵測之應用。Item 結合序列學習與動作狀態估測技術應用於自駕車行駛周圍之即時物件軌跡預測(2022) 許珮筠; Hsu, Pei-Yun隨著車輛智慧化的發展,開發自駕車各種功能也成為現代熱門研究方向,目前自駕車環周感知技術已大幅提升,在行駛於複雜車流環境時若能進一步了解其他用路人(例如行人與車輛)的意圖,便能採取更安全的因應策略,因此自駕車環周感知能力具備用路人的軌跡預測功能,對於自動駕駛安全性與可靠度扮演重要的角色。因此,本論文針對用路者移動軌跡預測提出一種混合式預測架構,此架構結合長短期記憶(Long Short-Term Memory, LSTM)編碼-解碼器網路與卡爾曼濾波器(Kalman Filter, KF),其中KF可以穩定的預測用路人直行與轉彎移動的軌跡,LSTM編碼-解碼器能夠依據軌跡的資訊提早判斷用路人轉彎的趨勢,為了加強所提出的架構於不同移動軌跡的適應力,本論文設計適應性即時權重機制,根據兩個模型的預測誤差調整輸出權重加乘的比例,除此之外也使用LSTM編碼-解碼器的部分預測結果來強化KF針對用路人轉彎移動的預測精準度。目前本論文所開發的軌跡預測技術能夠應用於車輛、摩托車、及行人三種類別的用路人,為了驗證所提出方法的有效性與正確性,本論文除了透過Waymo開放資料集來訓練與測試模型之外,並在校園環境及一般市區道路行駛的自駕巴士平台進行資料蒐集與預測效能驗證。Item 基於光學相干斷層掃描血管造影視網膜圖像的視覺預測多流網路(2021) 謝承璋; Hsieh, Cheng-Chang視網膜前膜(Epiretinal Membrane,ERM)是一種慢性眼疾,肇因於視網膜的表面出現微細缺口,導致黃斑部增生一層纖維薄膜而影響視力。黃斑前膜手術為最典型治療方法,惟部分患者在手術後的視力恢復效果不佳,重要的因素之一是缺乏執行內限界膜(Inner Limiting Membrane,ILM)剝離時機的判斷,而此診斷障礙乃因為缺乏判斷黃斑前膜是否影響視力的標準,而導致醫生無法做出診斷,並於早期進行內限界膜剝離手術以提升術後的視力恢復。為了解決這個問題,本論文提出多種多流(multi-stream)神經網路,透過光學共輒斷層掃描(optical coherence tomography,OCT)、非侵入性光學共輒斷層血管掃描 (optical coherence tomography angiography,OCTA)、眼底螢光血管攝影(fundus fluorescence angiography,FFA)進行視力預測。我們收集454位患者上述三種影像並標記其視力資訊以訓練我們提出的多流神經網路,並以不同的影像輸入測試網路的效能。實驗結果顯示透過FFA全層、淺層、深層等三種影像在黃斑前膜患者的視力診斷中達到90.19%的準確性。最後,我們利用梯度權重類別活化映射(gradient-weighted class activation map,Grad-CAM) 可視化視力在OCT、 OCTA和FFA之間的特徵,幫助醫生進行診斷。Item 結合Unreal Engine 4與生成式對抗網路之車牌影像合成系統(2021) 陳欣儀; Chen, Hsin-Yi車牌辨識已經是一門成熟的技術,廣泛被應用於停車場之車輛管理、道路收費系統、道路交通監測等領域。隨著深度學習的蓬勃發展,現已有許多能夠出色完成車牌辨識之網路,然而在訓練中不可或缺之車牌資料,於資料之獲取及準備階段相當耗費時間跟人力資源,甚至根據地區或狀況上的差異,需要之車牌資料會有字母、字型、角度、環境等不同的組合,若符合欲研究條件之車牌資料不足,也會有需要重新拍攝合適之車牌資料並重新進行標注的可能。因此本論文提出了一種車牌資料的合成方法,結合3D圖像軟體Unreal Engine 4以及CycleGAN,嘗試在不使用任何真實車牌影像輔助之條件下製作出可使用於車牌辨識訓練之合成車牌資料,以減少車牌辨識之相關研究用於資料收集及標記整理之時間與人力成本並強化車牌辨識效果。合成出來之車牌影像於視覺上與真實車牌相似,並且被證明能有效地提升作為辨識網路之YOLOv4之準確度。以3179張之真實車牌影像所訓練出來之YOLOv4為比較基準,我們所提出之合成方法所製作出的車牌影像能將原本97.00%之mAP提升至98.04%。Item 用於精細動作辨識的雙頭預測網路(2021) 陳維均; Chen, Wei-Jyun近年深度學習發展迅速,不僅2D影像辨識,現在3D動作辨識也受到關注。動作辨識的研究從3D CNN開始,便在許多數據集得到不錯的效果。但大部分的動作辨識網路,在細部動作的辨識上都有改進的空間,原因是細部動作整體來說和一般的動作差異不大,可能只是在一小段時間內發生的差異,因此十分不好判斷。這個情況在籃球比賽十分常見,籃球比賽中常常有各種肢體碰撞,但是這些肢體碰撞並不一定會造成犯規,要辨識這些犯規就勢必得加強細部動作的偵測。由於現在並沒有相關的資料集讓我們做相關的研究,因此我們自己蒐集資料,建立一個籃球犯規的資料集。在本論文中,我們提出了一種提昇細部動作辨識的網路套用在現有的網路上,包括3D-Resnet50[1]、(2+1)D-Resnet50[2]、I3D-50[3]。實驗結果顯示加入這個網路後,在各種模型的準確度上都獲得3~7%的提升。