記者洪聖壹/台北報導
深度學習其實是機器學習當中的一環,是目前整個人工智慧發展領域當中最被關注的,在應用上,則是以影像辨識發展最快。Google 研究團隊產品經理,同時本身也是醫學博士彭浩怡(Lily Peng)稍早向台灣媒體揭露了幾項 Google 在深度學習的醫療應用成果,整體看來,透過人工智慧協助醫生診斷出癌症,將成為必要的發展方向。
Google 研究團隊產品經理、醫學博士彭浩怡(Lily Peng)表示,這幾年深度學習因為真實資料量越來越多,再加上機器運算能力增強,使得神經網路的表現比起其他的網路更好,讓人們可以做出更多事情,像是使用深度神經網路分類小狗、小貓,雖然不如科學家,但是實際成果已經接近人類的表現。
[廣告] 請繼續往下閱讀.
深度學習應用在圖像辨識領域其實相當廣泛,而彭浩怡的團隊主要透過「卷積神經網路」來進行,只要給出足夠量的圖片,就可以讓機器快速辨識出物體,像是要辨識熊貓,只要給機器一些照片,告訴機器這些都是熊貓的照片,再給機器一些照片,告訴機器都不是熊貓,系統就可以透過深度學習的方式快速執行相對應的指令,好比說自動計算出有熊貓的照片有幾張,或者是選擇初辨識結果裡面有熊貓的照片。
[廣告] 請繼續往下閱讀.
這項技術跟傳統電腦運算的差異在於電腦運算是屬於「特徵工程」,工程師必需要先輸入指令告訴電腦熊貓有哪些特徵,接下來電腦才會辨識,不僅費工耗時,而且還會發生錯誤。以一般經驗法則來看,只要給電腦大約 5,000 張照片就可以辨識出熊貓,但是透過特徵工程則是要不斷修正指令跟架構,才能有效辨識熊貓,而且如果要執行其他動作,則必須要輸入其他指令。
在 Google I/O 2017 開展前,彭浩怡發布一項機器學習在醫療領域的研究成果,這項成果可以用深度學習的方式,快速判讀視網膜上細微的血管瘤位置,提早發現糖尿病性視網膜病變,讓患者進行即時或預防性治療。
[廣告] 請繼續往下閱讀..
而通過稍早的解釋,會這麼做的起因在於她看到印度當地並沒有足夠的眼科醫生判讀糖尿病的視網膜病變,她認為這不僅是醫療資源短缺的問題,而是透過現有的科技就可以解決的問題。因為糖尿病的視網膜病變,其實是可預防的失明病變,一般來說,定期篩檢是預防失明的做法,透過視網膜眼底圖像能協助診斷糖尿病是網膜病變,而透過機器學習的機制,其實已經能夠成功篩選出有問題的視網膜照片。
[廣告] 請繼續往下閱讀..
她說:「我自己本身是醫生,希望把機器學習跟深度學習應用在視網膜專案,初期只花了 20% 的工作時間跟印度當地的醫療機構溝通跟研究,後來這個案子成了一個大型的專案。」
相關數據顯示,印度當地至少還需要 12.7 萬名專業眼科醫生,有高達 45% 的糖尿病患者,在還沒診斷之前就失明了,一方便的原因在於要判讀視網膜病變必須要有專業的眼科醫生,搭配專業的醫療用拍攝儀器才能進行,而即使在在印度當地,這種疾病其實是完全可以預防的,因此若因為像是這種疾病導致失明的發生,讓人很不能接受。
在合作過程中,彭浩怡與團隊跟印度當地合作夥伴只聘請 54 名眼科醫生,就成功判讀超過 13 萬張視網膜圖像,判讀機制就是採用機器學習搭配醫生的專業判斷所進行。
[廣告] 請繼續往下閱讀...
在這當中,彭浩怡的深度學習研究團隊採用了 26 層卷積神經網路來辨別照片當中是否有視網膜病變,然後與醫生的專業判斷建立起辨識模型,之後建立一套辨識工具,把圖像放到系統裡面,近而作出診斷結果。從下圖的調查數據可以看出,為了檢測視網膜眼底照片中的糖尿病視網膜病變而開發出的深度學習演算法,表現已經接近醫生的判斷結果,醫學界也非常樂見這樣的成果。
下一步將與印度當地醫療相關機構像是 Aravind Eye Care System、SANKARA NETHRALAYA 以及 FDA ,並與 NIKON 等攝影器材合作夥伴共同合作,一方便提升影像品質,一方便透過更多的資料與認證結果,提升辨識成果。
除了視網膜疾病,透過機器學習可以判讀癌症切片的照片,數據指出,每 12 人的乳癌切片中,就有 1 人可能被誤診,其他癌症也有類似的情形,像是前列腺癌 7 人就有 1 人被誤診。畢竟如果要判斷切片,必須要看 1,000 張照片,對於醫生來說是相當不容易的,所以要研究新的演算法來協助醫生。
透過 Google 與醫療團隊 IHC 醫療實證的結果顯示,透過深度學習搭配專業醫生判斷的方式,有 92% 的機可診測到癌細胞,當中有 8 個是假陽性結果,若全部都是一般醫生判讀的話,只會有 73% 的機會去診測到癌細胞,而且還沒有假陽性的結果,因此未來若透過病理學家跟機器學習合作,將可望提升判讀的準確度。類似的案例,在史丹佛大學發表的一篇論文當中也說明,透過 Tensorflow 深度學習可有效判讀皮膚癌。
針對深度學習的下一步,彭浩怡表示,接下來深度學習的發展重點工作有三:第一件便是臨床驗證;第二件事情應該是建立醫療團隊的信任感,讓醫師願意跟機器合作,她個人坦承,這是一件不容易的事情;第三件事情是工作流程跟使用者介面設計。整個機器辨識的流程必須符合醫生的工作需求。她希望透過新的科技工具,是真正能幫助醫生,而不是造成醫生的困擾根阻礙。
其實透過機器演算法的形式來輔助醫療自 90 年代開始便有相關研究報告產出,只是到了最近這幾年,隨著機器本身的演進,才有跨時代的發展,類神經網路在圖像識別的應用,除了被應用在癌細胞之外,針對健康照護、醫療保健領域方面,也有做出相對應的研究,不過談到機器學習輔助醫療實際上線的時間點,彭浩怡表示,這些目前還在前期的研究當中,相關醫療儀器要真正開發出來,並且通過 FDA 審查,實際上至少需要五年,因此整體來說不會非常快。
Google 台灣董事總經理簡立峰表示,圖像辨識確實是在深度學習發展最好的,台灣糖尿病患者超過 100 萬人,僅次於日本,這是東亞基因缺陷,使得糖尿病患者比例比起歐美地區來說都相當高,因此這方面的研究需求是必須的,如果台灣要做類似的研究,其實是很有競爭力的。
簡立峰進一步指出,「醫療影像」跟「健康照護」這兩個領域都是台灣很值得投入的區塊,因為台灣不僅有很好的醫療研究資源,也有很強的資通訊技術,過去這兩個領域或許交集得很少,但是走在人工智慧蓬勃發展這個時代,醫生跟工程師這兩個領域之間的交流,是台灣需要投入更多的。
不過簡立峰也認為,現階段要談讓醫生跟深度學習科學家合作,在台灣非常困難的,因為台灣從學生時代的科系就在分流,很多即使學生想要學,老師卻沒有教。不過由於法規的關係,台灣的醫學體系是獨立的,很多研究都可以在內部先行,這個優點可能是別的國家所沒有的。
整體來說,台灣有資通訊優勢、醫療體系優勢,若當中獲得整合,相信對於人工智慧醫療的發展,將有跳躍式的進步。若從長照的領域來思考,簡立峰認為,如果科技部要推動 AI人工智慧 ,應該是從長照發展、智慧型輔具,或是替代人類的機器人等等方向推動,或許自動駕駛車不行,總該可以開發自動輪椅;此外,台灣還有別的國家沒有的問題,就是五樓公寓沒有電梯的問題,這些住在高樓層的年長者不方便下樓運動,造成提早老化,如果現在發展,10-20 年就可以收割。