近期讀到的文章與使用AI助力學習的心得感想
第一篇文章是事故因果理論與模型的回顧
該文章pdf版(約12M)可下載後上傳至notebookLM對話研討
在"密涅瓦的思考習慣訓練"一書當中提到,兩種運用邏輯與數學來認識世界的科學方式與觀點:
- 形式分析Formal Analysis: 用符號、邏輯與模型來proxy問題與世界的規律
- 實證分析Empirical Analysis:用觀察與實驗的方式來發現運作的規律
各種安全與事故理論≒形式分析Formal Analysis:
- 理論=一種說明而非證明、一種詮釋而非解釋,用於proxy真實問題與現實世界的規律
- 人所能理解的不是問題與世界的真實全貌,而是自己腦中的那套因果邏輯與理論(≠真實)
事故因果模型的用途,包含以下幾點:
- 事故分析: 事故因果模型提供了一個系統化的框架,可以幫助分析人員更全面地了解事故發生的原因、過程和 contributing factors。 模型可以引導分析人員關注系統中不同的層面,例如技術、組織、人員和環境等,避免僅關注單一原因或歸咎於人為疏失。
- 識別潛在風險與導致事故發生的因素: 通過事故調查,分析發生的原因和 contributing factors,事故因果模型可以幫助識別系統中潛在的風險因素。 這有助於組織採取主動 proactive 的安全管理措施,降低事故發生的可能性。
- 系統改進(不要頭痛醫頭/打補釘): 事故因果模型可以幫助識別系統中的設計缺陷、管理漏洞和操作問題。 基於分析結果,組織可以針對性地改進系統,例如更新設計、完善流程、加強培訓等,以提升系統的安全性。
- 累積經驗、知識管理: 通過分析事故案例,組織可以從中吸取教訓,避免重蹈覆辙。 事故因果模型可以幫助組織將事故分析的結果與相關數據轉化為可學習的經驗與資訊資料庫,並將這些經驗、知識與資訊應用於日後的安全管理中。
- 溝通和決策: 事故因果模型可以提供一個共同的語言和框架,方便不同領域的專家和管理人員進行溝通和交流。 模型可以幫助組織更有效地傳達安全資訊,並制定更科學的決策。
不同的事故因果模型適用於不同的情境,需要根據具體的分析目標和系統特點來選擇。 例如,瑞士乳酪模型適用於分析簡單的事故,而 STAMP 模型則更適合分析複雜系統中的事故。
而各種安全與事故理論有如不同的光譜濾鏡或不同的視角,可以讓人看見被疏忽的地方,也會過濾讓人只看見某部份事物,換言之存在誤導的可能,相關潛在問題如下:
- 過度簡化事故成因:各種方法與因果邏輯依賴結構化的分析,而忽略了複雜的人為因素、組織文化、以及管理決策等在事故中扮演的角色。事故描述可能因為資訊不足,無法全面了解事故發生的根本原因,或是過度聚焦於直接的行為,而忽略了潛在的系統性問題。
- 引導依賴「屏障(硬體防護機制)」:屏障的概念能激發人們思考各種安全措施+硬體防護機制比人可靠,但過度依賴屏障與硬體機制所導致的虛假安全感是另一種風險。如果屏障設計不良、未能有效執行或被錯誤使用,乃至於各種硬體防護機制其實可靠度不如預期,遭遇意外與出錯反而會導致嚴重的事故。
- 安全與管理都是系統與組織運作的一部份:各種研究分析把安全或管理機制當成獨立的可控變因,實際上安全或管理機制的良莠往往受組織運作所制約(The richer the safer),各種安全文化理論訴求管理階層的決策和資源分配對安全至關重要,但正因管理高層與組織資源分配忽視安全,所以才導致組織安全績效不彰,安全文化理論的訴求落入緣木求魚與雞生蛋蛋生雞的邏輯誤謬。
- 人是最大的變異(不可控)因素:事故因果描述中,往往提及「未辨識危害」、「不了解原因」等,這暗示了人的認知、判斷、以及決策在事故中的重要性+提升的可能性。然而「人」的行為、認知限制、以及決策過程,就是不受控、無法預料;訴求制定標準作業程序、硬體防呆機制與訓練宣導,某個層次而言,也是主事者的一廂情願/自我感覺良好+訴諸應為能為而不為的獵巫。
- 找出問題原因=「改善」,是一種誤解:問題的發生往往有如冰凍三尺非一日寒,「持續改善」一詞意味著:「改善」並非一次到位+藥到病除,而是持續的過程。如果對「系統」運作與系統動力的理解不夠深入,所謂的改善也可能是逆行倒施+助紂為孽,導致更大的風險潛勢蓄積+直到爆發更重大(無法掩蓋)的問題重複。
Accident Causation Models: The Good the Bad and the Ugly
該不該相信理論推理與模式預測的結果?
就科學的角度(波普提出的可否證性)而言,一個理論的好壞,要看它的預測效力(如同愛因斯坦的相對論取代了牛頓的力學理論)
以預測效力而言,以上事故理論偏向社會科學(模擬兩可)而非自然科學(非黑即白):可以套用各種理論來進行事故分析(見人見智)或用來進行事故預防(看看還有哪些沒注意到與忽視的地方),但很難拿這些理論來預測事故是否發生(變因太多&各變因之間存在複雜的交互作用)
試想:
將相關主被動指標、安委會報告、風險評估、各種巡檢稽核記錄灌入資料庫,由人工智慧(Machine Learning)套入各種模式進行與預測與分析,然後它告訴你:有95%的信心水準,你所服務的公司工廠1年内發生工傷(可能是踩空跌到、化學品噴濺或切割傷)的機率是10%,3年是20%,5年是40%;發生火災相關事故的或然率1年内的機率是0.1%,5年是1%,10年是5%
請問以上用統計或然率與信心水準表述的工廠安全氣象預報,對您有幫助嗎?(能比禱告或拜拜更能讓人睡得更安穩? 老闆會比較相信風水還是統計與數理模型?)
Predicting occupational injury causal factors using text-based analytics: A systematic review
再來如果各種事故預測模型,其信度與效度存在問題與瓶頸(備註:信度是指方法的一致性和可靠性,而效度是指方法是否能準確衡量其預期的目標。例如假設有ABCDE等5 種事故預測模型,如果這5種模型,預測同一家工廠在5年内發生事故的機率約為80-90%,且信心水準高達95-99%,那麼這5種預測模型間有高度的一致性=具備相當的信度,但五年過去,這間工廠卻沒發生事故,顯然預測失準與預言失效=預測不準/沒有效度。通常有信度才有效度可言,沒有信度責無效度可言),不同模型推估與預測的差異很大,那麼該如何做出判斷與與取捨? (類似中央氣象局的颱風路徑預報與模擬,各國模式跑出來的預測路徑天差地別,不知道該不該做防颱準備與要不要放颱風假...)
Back to the future: What do accident causation models tell us about accident prediction?
在這個AI應用與爆發的時代,嘗試詢問(號稱地表最聰明的AI)Grok 3 (deep search):
如何預測與預防事故的發生?台灣未來的職災率?納入少子化、高齡化與產業結構轉型等考量,預測台灣未來職災率變化,與提示主管機關管理重點
以下是其答覆
https://grok.com/share/bGVnYWN5_d7a9ab81-d7ab-4ad7-b17a-e647c6b39c51
讓人感到欽佩(與恐怖)的不是其答覆,而是其推理思考過程(與列出相關參考文獻)
30+年前,一個研究生讀一篇國外期刊文獻,可能要花上一個月,現在用NotebookLM只需要大概幾個鐘頭
而以上職災率的預測,可以是花上一年的碩士論文研究或是幾年的博士論文研究,Grok花70秒,掃瞄了144份資料來源,提供了答案如下
面對以上AI大爆發與AI比多數人的思考能力更強(不論是廣度還是深度)的(悲催)情境,人該如何不被取代?
Hint:讓AI當你/妳的研究生,而自己有要能力當指導教授
1.專業的問題不能問ChatGPT,它的長項在於Chat聊天,而非提供科學證據或研究論述
The risks of using ChatGPT to obtain common safety-related information and advice
2.專業的問題,通常有更聰明與更認真的先進能人大德思考過+找出解答了,而他/她們的研究成果通常發表在專業期刊上,需要去撈出下載人家的研究成果,上傳NotebookLM等輔助工具進行閱讀與問答,回饋的結論與建議會相對言之有物(或至少有所依據)
3.要能夠看出AI推理過程的漏洞,e.g., 假設前提是否合理,推理模型是否完整 ?是否低估高估或疏漏某些因素? 相較於自己的猜想,AI的預測至少提供一個對比的基準,可以協助驗證與檢驗推理模型與真實情境發展進行校準。你要有自己的因果模型,而非依賴AI
用AI而非被AI所用(變得BI 悲哀)
- 隨便什麼問題,AI都可以給你個答案(只是需要花時間+有那個腦力去判斷那個答案的可信度與效度);AI給個答案的好處在於:讓人想清楚"知道了答案又如何?" 很多問題與研究其實是庸人自擾、無病呻吟,問對問題比找出解答更重要與攸關。
- 承擔風險與願意面對不確定性,才能做出決策+伸張:生為人的能動性與自由。如果凡事問AI聽從AI指示選擇所謂的最佳方案,那麼你沒有自由可言,而是AI與演算法的奴隸。(如同某些信徒凡事占卜請求老天指示)
- 人有七情六慾與愛恨情仇,習慣憑感覺衝動意氣用事(因為系統二思考非常耗費腦力),現在AI可以輔助理性思考,讓人的行為與決策更週延。(以往的年代,人被當成小螺絲與工具人,現在AI的輔助,每個人都是主人與企業家=>沒有學會的會被淘汰)
這在AI天翻地覆的年代,如何教育與學習
- 養成密涅瓦的思考習慣
- AI識讀,能夠判斷與不被AI給的答案所呼巄誤導
- 批判性思考與問問題的能力,比考試或找答案更攸關
沒有留言:
張貼留言