mashbean 黃豆泥
mashbean.eth
豆泥的以太坊地址: mashbean.eth
狀態: 未簽名
0xd76b38035e6532dac739092422946fbcf5eeb18381172c36e81ff9e2527edf8b
已簽名表示這篇文章已建立獨特的身分證字號(內容雜湊,contentHash)並且由豆泥簽署認證,簽署是採用以太坊區塊鏈的豆泥專用地址(signer.mashbean.eth)。只要內容一經修改,就會需要重新驗證換發新的身分證字號。但豆泥不是每天都在公所上班,所以偶爾會慢一點認證。
本文探討了核子醫學科內人工智慧在PET影像性別判斷的應用過程中的趣聞,並反思人類如何擬人化機器行為、在醫療場域中對AI的理解與態度,以及人工智慧在醫院勞動環境中的影響與挑戰。
最近的核子醫學科晨會,主任都會指定報機器學習的論文,這週報在PET(正子斷層攝影)影像上自動判斷性別的小文章,撇開方程式的推導不談,其實蠻簡單好玩的,很適合我們這種沒根基的實習生沒事看看科普一下,網路上好多免費學習資源。
在醫院每次提到人工智慧相關的話題,在場總會有人提起一個陳年笑話,惹得哄堂大笑,不管是在心臟科討論心電圖、放射科討論X光、還是核醫討論PET都一樣。
故事是這樣的:「研究人員在餵資料給機器時,忘記遮掉影像上面的報告,機器會作弊不看圖像直接看報告,分析出正確答案,研究人員還傻傻的以為機器很聰明。」語畢,會議室內外充滿了快活的氣氛。
Clerk 時候的我聽到覺得很好笑,因為當時不會看心電圖的我也都是先偷看右上角的報告,原來機器也是帶有人性的心機,所以很好笑。我們嘗試去解釋機器的行為時,用「作弊」、「偷懶」、「看報告」這些擬人化的動詞來描述,但其實神經網絡每一層分析下來,根本沒辦法證明機器辨識出最精準的特徵背後的動機(嚴格來說機器不是看報告而是辨識出報告上文字的形狀)。這些動詞只是人類賦予的詮釋。
在場的程大川教授連忙緩頰(以前修醫工學程還上過老師醫學影像的課可惡都還給老師了…):「不能怪機器,機器只是在尋找最有效的路徑而已。」
現在的我聽了故事覺得發人深省。一來是因為報告的我必須嘗試去解釋機器的運作過程,二來是我比較能適應這個醜化機器的集體氛圍。
解釋卷積神經網路的架構時,我完全不會方程式的推導,但是在看完教學文章後,我發現能在不會公式的狀態下報得一口好晨會,理由是因為機器學習領域的開發者早已在應用神經生理學的現象去提升效能或解釋結果。比如說 LRN (Local Response Normalization) 就像是抑制鄰近回饋較小的神經元去放大中央訊號;Softmax layer 藉由權重的總加去推估可能性等等;而 Grad-CAM 的技術可以用視覺化的方式逆向回去看機器看片的重點是不是跟我們一樣(找到一個好棒的介紹放在留言)。這樣試圖解釋的行為不論正確與否還可以上綱到 Early stopping 是為了避免腦袋當機(overfitting)。
當敘述者(也就是我)在用生理學名詞去解釋機器學習的方法論時,這時候的我很容易不小心將更高層皮質功能 (high cortical function) 混進來作為一談,自然而然賦予機器情緒與動機這種擬人行為。所以報完晨會的當下再度聽到這個作弊笑話時,內心小小的共振出驚悚加上一點警世意味。落花有意,流水無情。
機器的形象來自於人的投射,而荒唐的機器形象年代久遠,比如說卓别林的摩登時代 (1936),或是更早的盧德主義者 (Luddite) 在第一次工業革命時因為對於紡織業機器的革新感到恐懼進而破壞紡織機。
醫院同仁當然不是盧德主義者,而且 AI AI 喊了這麼久,大家多少是有點適應了。姑且將笑出來的我們稱之為理性白領盧德主義者好了,那些經年累月培養出來的專家其實一眼就能判斷這些簡單的小題目(像這次的性別分類),而且加上上面那些老闆們想要推廣 AI 發大財的壓力,在理性的推斷之下,機器學習的成效要嘛實用性不高,要嘛距離還太遠,在現場氣氛的容許之下,聽到機器白爛笑話馬上讓內心那個小小的排斥感得到釋放,好不開心。
因此以動機加諸於機器,再以情緒(稍微負面地)評價動機,就能得到解釋了。
當然在醫院中也還是有很多看到人工智慧的引進,是勞動賦能而非勞動替代的工作者,不過這就是其他故事了。