2025年5月31日 星期六

如何看待不確定性、風險與機率

工作的關係,常接觸風險與統計數字(閱讀不少關於風險評估的報告),意識到清楚風險、機率與不確定性其實是三回事(只是絕大多數同行雞同鴨講以訛傳訛與自愚愚人),但遠不到可以清楚跟別人講述解釋這三者的差別

(從費曼學習法的觀點而言,就是自己還沒有搞清楚;想起當年部門的陳博士進行Wet Bench機台的風險評估,看似也是評估發生機率與嚴重度,但他用的表述是:risk priority number (RPN)而不是風險高中低,精準的用詞不愧是博士的水準與格調)



資料來源

The Art Of Uncertainty – David Spiegelhalter’s Guide To Risk And Luck

https://www.youtube.com/watch?v=WYZ46U_vd_A 


Why Understanding Statistics Is a Fundamental Part of Life feat. David Spiegelhalter 

https://www.youtube.com/watch?v=QNjlnNQQQYo 


Chance, luck, and ignorance: how to put our uncertainty into numbers - David Spiegelhalter

https://www.youtube.com/watch?v=Cybnip2Kyw0 


Disclaimer: 資料代勞整理NotebookLM

2025年5月24日 星期六

用事故因果理論來進行預測

近期讀到的文章與使用AI助力學習的心得感想

 

第一篇文章是事故因果理論與模型的回顧

The development history of accident causation models in the past 100years: 24Model, a more modern accident causation model

該文章pdf版(約12M)可下載後上傳至notebookLM對話研討

 

在"密涅瓦的思考習慣訓練"一書當中提到,兩種運用邏輯與數學來認識世界的科學方式與觀點:

  • 形式分析Formal Analysis: 用符號、邏輯與模型來proxy問題與世界的規律
  • 實證分析Empirical Analysis:用觀察與實驗的方式來發現運作的規律 


各種安全與事故理論≒形式分析Formal Analysis:

  • 理論=一種說明而非證明、一種詮釋而非解釋,用於proxy真實問題與現實世界的規律
  • 人所能理解的不是問題與世界的真實全貌,而是自己腦中的那套因果邏輯與理論(≠真實)

 

 

事故因果模型的用途,包含以下幾點:

  • 事故分析: 事故因果模型提供了一個系統化的框架,可以幫助分析人員更全面地了解事故發生的原因、過程和 contributing factors。 模型可以引導分析人員關注系統中不同的層面,例如技術、組織、人員和環境等,避免僅關注單一原因或歸咎於人為疏失。
  • 識別潛在風險與導致事故發生的因素: 通過事故調查,分析發生的原因和 contributing factors,事故因果模型可以幫助識別系統中潛在的風險因素。 這有助於組織採取主動 proactive 的安全管理措施,降低事故發生的可能性。
  • 系統改進(不要頭痛醫頭/打補釘): 事故因果模型可以幫助識別系統中的設計缺陷、管理漏洞和操作問題。 基於分析結果,組織可以針對性地改進系統,例如更新設計、完善流程、加強培訓等,以提升系統的安全性。
  • 累積經驗、知識管理: 通過分析事故案例,組織可以從中吸取教訓,避免重蹈覆辙。 事故因果模型可以幫助組織將事故分析的結果與相關數據轉化為可學習的經驗與資訊資料庫,並將這些經驗、知識與資訊應用於日後的安全管理中。
  • 溝通和決策: 事故因果模型可以提供一個共同的語言和框架,方便不同領域的專家和管理人員進行溝通和交流。 模型可以幫助組織更有效地傳達安全資訊,並制定更科學的決策。


不同的事故因果模型適用於不同的情境,需要根據具體的分析目標和系統特點來選擇。 例如,瑞士乳酪模型適用於分析簡單的事故,而 STAMP 模型則更適合分析複雜系統中的事故。

各種安全與事故理論有如不同的光譜濾鏡或不同的視角,可以讓人看見被疏忽的地方,也會過濾讓人只看見某部份事物,換言之存在誤導的可能,相關潛在問題如下

  • 過度簡化事故成因:各種方法與因果邏輯依賴結構化的分析,而忽略了複雜的人為因素、組織文化、以及管理決策等在事故中扮演的角色。事故描述可能因為資訊不足,無法全面了解事故發生的根本原因,或是過度聚焦於直接的行為,而忽略了潛在的系統性問題。
  • 引導依賴「屏障(硬體防護機制)」:屏障的概念能激發人們思考各種安全措施+硬體防護機制比人可靠,但過度依賴屏障與硬體機制所導致的虛假安全感是另一種風險。如果屏障設計不良、未能有效執行或被錯誤使用,乃至於各種硬體防護機制其實可靠度不如預期,遭遇意外與出錯反而會導致嚴重的事故。
  • 安全與管理都是系統與組織運作的一部份:各種研究分析把安全或管理機制當成獨立的可控變因,實際上安全或管理機制的良莠往往受組織運作所制約(The richer the safer),各種安全文化理論訴求管理階層的決策和資源分配對安全至關重要,但正因管理高層與組織資源分配忽視安全,所以才導致組織安全績效不彰,安全文化理論的訴求落入緣木求魚與雞生蛋蛋生雞的邏輯誤謬。
  • 人是最大的變異(不可控)因素:事故因果描述中,往往提及「未辨識危害」、「不了解原因」等,這暗示了人的認知、判斷、以及決策在事故中的重要性+提升的可能性。然而「人」的行為、認知限制、以及決策過程,就是不受控、無法預料;訴求制定標準作業程序、硬體防呆機制與訓練宣導,某個層次而言,也是主事者的一廂情願/自我感覺良好+訴諸應為能為而不為的獵巫。
  • 找出問題原因=「改善」,是一種誤解:問題的發生往往有如冰凍三尺非一日寒,「持續改善」一詞意味著:「改善」並非一次到位+藥到病除,而是持續的過程。如果對「系統」運作與系統動力的理解不夠深入,所謂的改善也可能是逆行倒施+助紂為孽,導致更大的風險潛勢蓄積+直到爆發更重大(無法掩蓋)的問題重複。

Accident Causation Models: The Good the Bad and the Ugly


 

該不該相信理論推理與模式預測的結果?  

 

就科學的角度(波普提出的可否證性)而言,一個理論的好壞,要看它的預測效力(如同愛因斯坦的相對論取代了牛頓的力學理論)

以預測效力而言,以上事故理論偏向社會科學(模擬兩可)而非自然科學(非黑即白):可以套用各種理論來進行事故分析(見人見智)或用來進行事故預防(看看還有哪些沒注意到與忽視的地方),但很難拿這些理論來預測事故是否發生(變因太多&各變因之間存在複雜的交互作用)

試想:

將相關主被動指標、安委會報告、風險評估、各種巡檢稽核記錄灌入資料庫,由人工智慧(Machine Learning)套入各種模式進行與預測與分析,然後它告訴你:有95%的信心水準,你所服務的公司工廠1年内發生工傷(可能是踩空跌到、化學品噴濺或切割傷)的機率是10%,3年是20%,5年是40%;發生火災相關事故的或然率1年内的機率是0.1%,5年是1%,10年是5%

 

請問以上用統計或然率與信心水準表述的工廠安全氣象預報,對您有幫助嗎?(能比禱告或拜拜更能讓人睡得更安穩? 老闆會比較相信風水還是統計與數理模型?)

Predicting occupational injury causal factors using text-based analytics: A systematic review


再來如果各種事故預測模型,其信度與效度存在問題與瓶頸(備註:信度是指方法的一致性和可靠性,而效度是指方法是否能準確衡量其預期的目標。例如假設有ABCDE等5 種事故預測模型,如果這5種模型,預測同一家工廠在5年内發生事故的機率約為80-90%,且信心水準高達95-99%,那麼這5種預測模型間有高度的一致性=具備相當的信度,但五年過去,這間工廠卻沒發生事故,顯然預測失準與預言失效=預測不準/沒有效度。通常有信度才有效度可言,沒有信度責無效度可言),不同模型推估與預測的差異很大,那麼該如何做出判斷與與取捨? (類似中央氣象局的颱風路徑預報與模擬,各國模式跑出來的預測路徑天差地別,不知道該不該做防颱準備與要不要放颱風假...)

Back to the future: What do accident causation models tell us about accident prediction?

 


在這個AI應用與爆發的時代,嘗試詢問(號稱地表最聰明的AI)Grok 3 (deep search):

如何預測與預防事故的發生?台灣未來的職災率?納入少子化、高齡化與產業結構轉型等考量,預測台灣未來職災率變化,與提示主管機關管理重點

 

以下是其答覆

https://grok.com/share/bGVnYWN5_d7a9ab81-d7ab-4ad7-b17a-e647c6b39c51

 

 

讓人感到欽佩(與恐怖)的不是其答覆,而是其推理思考過程(與列出相關參考文獻)


 

30+年前,一個研究生讀一篇國外期刊文獻,可能要花上一個月,現在用NotebookLM只需要大概幾個鐘頭

而以上職災率的預測,可以是花上一年的碩士論文研究或是幾年的博士論文研究,Grok花70秒,掃瞄了144份資料來源,提供了答案如下



  

面對以上AI大爆發與AI比多數人的思考能力更強(不論是廣度還是深度)的(悲催)情境,人該如何不被取代?

Hint:讓AI當你/妳的研究生,而自己有要能力當指導教授

1.專業的問題不能問ChatGPT,它的長項在於Chat聊天,而非提供科學證據或研究論述

The risks of using ChatGPT to obtain common safety-related information and advice


2.專業的問題,通常有更聰明與更認真的先進能人大德思考過+找出解答了,而他/她們的研究成果通常發表在專業期刊上,需要去撈出下載人家的研究成果,上傳NotebookLM等輔助工具進行閱讀與問答,回饋的結論與建議會相對言之有物(或至少有所依據)

 

3.要能夠看出AI推理過程的漏洞,e.g., 假設前提是否合理,推理模型是否完整 ?是否低估高估或疏漏某些因素? 相較於自己的猜想,AI的預測至少提供一個對比的基準,可以協助驗證與檢驗推理模型與真實情境發展進行校準。你要有自己的因果模型,而非依賴AI


用AI而非被AI所用(變得BI 悲哀)

  1. 隨便什麼問題,AI都可以給你個答案(只是需要花時間+有那個腦力去判斷那個答案的可信度與效度);AI給個答案的好處在於:讓人想清楚"知道了答案又如何?" 很多問題與研究其實是庸人自擾、無病呻吟,問對問題比找出解答更重要與攸關。
  2. 承擔風險與願意面對不確定性,才能做出決策+伸張:生為人的能動性與自由。如果凡事問AI聽從AI指示選擇所謂的最佳方案,那麼你沒有自由可言,而是AI與演算法的奴隸。(如同某些信徒凡事占卜請求老天指示)
  3. 人有七情六慾與愛恨情仇,習慣憑感覺衝動意氣用事(因為系統二思考非常耗費腦力),現在AI可以輔助理性思考,讓人的行為與決策更週延。(以往的年代,人被當成小螺絲與工具人,現在AI的輔助,每個人都是主人與企業家=>沒有學會的會被淘汰)


這在AI天翻地覆的年代,如何教育與學習

  1. 養成密涅瓦的思考習慣
  2. AI識讀,能夠判斷與不被AI給的答案所呼巄誤導
  3. 批判性思考與問問題的能力,比考試或找答案更攸關



2025年5月17日 星期六

EHS/ ESG Salary Range

去年有幸與對ESG超有熱情的夥伴見面交流,她除攻讀博班外也做職涯諮詢與輔導,問到兩個(求助者常問的)問題:

  • ESG人員的薪水  
  • 如何爭取調薪

Hint

  • 4-5萬大概就是工讀生與秘書的角色,7萬就要能獨立作業搞定相關工作
  • 一種是爭取公司内的升遷或多能工(服從聽話),另一種是用腳投票,拿自己的人頭去人肉市場估價(跳火坑、怕熱不要進廚房)
  • 期待公司每年固定調薪,就是上班族的白日夢幻想


大學科系決定與影響不少人的就業方向與職涯




2025年5月10日 星期六

為什麼EHS很難教也很難學

 一般外行判別OHS人員專業程度的指標

  • 學力:是否本科,學士/碩士/博士/教授
  • 證照:業務主管/乙員/甲師/技師
  • 職位:實習生/工程師/課長/…..
  • 經歷:傳產/科技廠/外商


用幾個層次來看(有如俄羅斯娃娃般的鑲嵌結構) ,由內而外描述如下

2025年5月3日 星期六

學習方式的改變與AI的危害風險

AI比人類強的長處

  • 運算、閱讀與計算速度
  • 接受資訊與學習的能力
  • 沒有成見與偏見(=沒有定見)


AI的問題與限制

  • 像大型語言模型LLM這樣的 AI,其「理解」是基於對人類語言和文化概念的重建(reconstruction),而非真正意義上的理解。透過分析大量文本數據來學習模式並生成回應,這與人類基於經驗、情感和社會互動形成的理解有本質區別(對LLM而言,它只是在玩文字接龍,對於輸出的文句其實沒有意義感;反而是使用者對於它輸出的文句(或圖片/音樂)產生情感)
  • AI必須被訓練與調教,其模型=訓練與調教過程輸入的偏見 (訓練資料庫當中沒有的知識或資訊=欠缺的知識與資訊)
  • AI理解表述的是相關性(可謂是天馬行空文學作品),而非真實世界當中的因果或物理法則(=不受限制)=>人類透過經驗學習(什麼可能、什麼不可能);AI透過調教與訓練,學習投其所好(猜測輸出使用者想看的內容=投放廣告)
  • AI的意見與建議,看似完備有模有樣,其實要非常小心與謹慎=>它不知道它在講什麼? 提供的意見與建議是否正確? (它沒有辦法判斷與宣告提供意見建議的可信度與正確性;責任落在使用者身上)


AI怎麼用
  • LLM(ChatGPT)可以用來創意發想、寫腳本與腦力激盪沒問題
  • 需要可信度的規劃提案,可以用Grok DeepSearch來輔助,但要一一查證資料來源、確認推理流程與邏輯
  • 如有可信度的研究報告或期刊文章,可上傳NotebookLM對話,會更言之有(依)據
  • AI提供意見與建議的可信度與嚴謹性=其資料來源的可信度與嚴謹性


當人類不再自己思考與探索,完全透過AI代勞時,也會是人類與AI共同停滯(=死亡)的時候


閱讀期刊文章的心路歷程

30年前念碩班(一個月讀一篇,點狀式閱讀,理解深度約50-70%)

  1. 心力被英文卡住,不知期刊文章重點所云(時間花在英文閱讀翻譯)
  2. 沒有人可以問,只能跟老師說自己沒讀懂,期待老師會解釋(有些老師也很聰明,知道不要叫研究生讀期刊文章以免自找麻煩自討苦吃)
  3. 閱讀數量少,通常就是老師指定或學期中的那幾篇"經典"文章(以管窺天+期末報告文章就還給老師了)


10年前讀博班(一週讀一篇,線狀與脈絡式閱讀,理解深度約80-95%)

  1. 英文閱讀能力變強,文章理解深度提升不少(一知半解會被老師鞭策,自己臉皮薄繃得比較緊)
  2. 老師交待:師父引進門,修行在個人(自己要勤快一點,主動去讀相關與參考文獻)
  3. 閱讀數量增加+老師指引方向+提供學門脈絡地圖:比較有方向感與全貌感,知道讀到的文章,在學海中的大致定位與經緯度


現在的學習與閱讀(透過perplexity與notebookLM 輔助,主題與搜索式閱讀,一個鐘頭可以讀一篇,理解深度約70-80%,但廣度與關聯性大增)

  1. 直接去那些有哀的期刊(SCI/SSCI)搜尋下載相關文章或搜尋有興趣的主題,pdf灌入notebookLM
  2. 透過發問來學習(問比學重要,善問者如撞鐘,叩之以小者則小鳴,叩之以大者則大鳴;但AI與LLM會唬爛穿鑿附會,使用者需謹慎判斷+從回答中進行第二階的詢問與搜尋),透過雙項問答,對於文章内容的理解深度與效率大增
  3. 以子之矛攻子之盾,同樣的問題可以問不同來源的期刊文章(notebookLM中的筆記本)=>看出不同回答間的交集與聯集,乃至於意識到:AI與LLM的答覆係依據你提供的文獻資料=>如果有些更高明的文獻沒有納入,那麼AI與LLM 無法產出那些洞見給你(你不知道的比知道的更重要,而一般人通常不知道自己不知道,對於自己的無知無感+被AI/LLM自愚愚人)
  4. 創意發想與想法掃雷補遺,Grok DeepSearch比Google好用



以下是測試問題與筆記