AI比人類強的長處
- 運算、閱讀與計算速度
- 接受資訊與學習的能力
- 沒有成見與偏見(=沒有定見)
AI的問題與限制
- 像大型語言模型LLM這樣的 AI,其「理解」是基於對人類語言和文化概念的重建(reconstruction),而非真正意義上的理解。透過分析大量文本數據來學習模式並生成回應,這與人類基於經驗、情感和社會互動形成的理解有本質區別(對LLM而言,它只是在玩文字接龍,對於輸出的文句其實沒有意義感;反而是使用者對於它輸出的文句(或圖片/音樂)產生情感)
- AI必須被訓練與調教,其模型=訓練與調教過程輸入的偏見 (訓練資料庫當中沒有的知識或資訊=欠缺的知識與資訊)
- AI理解表述的是相關性(可謂是天馬行空文學作品),而非真實世界當中的因果或物理法則(=不受限制)=>人類透過經驗學習(什麼可能、什麼不可能);AI透過調教與訓練,學習投其所好(猜測輸出使用者想看的內容=投放廣告)
- AI的意見與建議,看似完備有模有樣,其實要非常小心與謹慎=>它不知道它在講什麼? 提供的意見與建議是否正確? (它沒有辦法判斷與宣告提供意見建議的可信度與正確性;責任落在使用者身上)
- LLM(ChatGPT)可以用來創意發想、寫腳本與腦力激盪沒問題
- 需要可信度的規劃提案,可以用Grok DeepSearch來輔助,但要一一查證資料來源、確認推理流程與邏輯
- 如有可信度的研究報告或期刊文章,可上傳NotebookLM對話,會更言之有(依)據
- AI提供意見與建議的可信度與嚴謹性=其資料來源的可信度與嚴謹性
當人類不再自己思考與探索,完全透過AI代勞時,也會是人類與AI共同停滯(=死亡)的時候
閱讀期刊文章的心路歷程
30年前念碩班(一個月讀一篇,點狀式閱讀,理解深度約50-70%)
- 心力被英文卡住,不知期刊文章重點所云(時間花在英文閱讀翻譯)
- 沒有人可以問,只能跟老師說自己沒讀懂,期待老師會解釋(有些老師也很聰明,知道不要叫研究生讀期刊文章以免自找麻煩自討苦吃)
- 閱讀數量少,通常就是老師指定或學期中的那幾篇"經典"文章(以管窺天+期末報告文章就還給老師了)
10年前讀博班(一週讀一篇,線狀與脈絡式閱讀,理解深度約80-95%)
- 英文閱讀能力變強,文章理解深度提升不少(一知半解會被老師鞭
打策,自己臉皮薄繃得比較緊) - 老師交待:師父引進門,修行在個人(自己要勤快一點,主動去讀相關與參考文獻)
- 閱讀數量增加+老師指引方向+提供學門脈絡地圖:比較有方向感與全貌感,知道讀到的文章,在學海中的大致定位與經緯度
現在的學習與閱讀(透過perplexity與notebookLM 輔助,主題與搜索式閱讀,一個鐘頭可以讀一篇,理解深度約70-80%,但廣度與關聯性大增)
- 直接去那些有哀的期刊(SCI/SSCI)搜尋下載相關文章或搜尋有興趣的主題,pdf灌入notebookLM
- 透過發問來學習(問比學重要,善問者如撞鐘,叩之以小者則小鳴,叩之以大者則大鳴;但AI與LLM會唬爛穿鑿附會,使用者需謹慎判斷+從回答中進行第二階的詢問與搜尋),透過雙項問答,對於文章内容的理解深度與效率大增
- 以子之矛攻子之盾,同樣的問題可以問不同來源的期刊文章(notebookLM中的筆記本)=>看出不同回答間的交集與聯集,乃至於意識到:AI與LLM的答覆係依據你提供的文獻資料=>如果有些更高明的文獻沒有納入,那麼AI與LLM 無法產出那些洞見給你(你不知道的比知道的更重要,而一般人通常不知道自己不知道,對於自己的無知無感+被AI/LLM自愚愚人)
- 創意發想與想法掃雷補遺,Grok DeepSearch比Google好用
以下是測試問題與筆記
問的問題(問得越具體與清晰,越能看出回答的好壞)
基於事前預測 (Anticipating)、作業監控 (Monitoring)、錯誤應對 (Responding) 和事後學習 (Learning) 四個韌性概念,以下分別針對人員作業 (human safety)、製程安全 (process safety)、組織管理 (organization management),論述韌性的導入推行要點:
問的筆記本1是以下幾篇文章
- Jain, P., Pasman, H.J., Waldram, S., Pistikopoulos, E.N., Mannan, M.S., Process Resilience Analysis Framework (PRAF): A systems approach for improved risk and safety management, Journal of Loss Prevention in the Process Industries (2017)
- Muhammad Shah Rahim, Genserik Reniers, Ming Yang, Shailendra Bajpai, Risk assessment methods for process safety, process security and resilience in the chemical process industry: A thorough literature review, Journal of Loss Prevention in the Process Industries 88 (2024)
- Hans J. Pasman, Stewart W. Behie, The evolution to Industry 5.0 / Safety 5.0, the developments in society, and implications for industry management, Journal of Safety and Sustainability 1 (2024)
回答如下(AI/LLM產出)
一、人員作業 (Human Safety)
事前預測 (Anticipating)
- 情境模擬與訓練: 透過模擬各種潛在的異常情境,讓人員事先熟悉可能發生的狀況,並學習如何應對。
- 危害辨識: 加強人員對於潛在危害的辨識能力,例如噪音、震動、化學污染物、人因工程風險等 。
- 人因工程評估: 評估工作站設計、工具使用、工作流程等是否符合人因工程原則,降低人員疲勞、壓力等風險 。
作業監控 (Monitoring)
- 穿戴式裝置: 使用穿戴式裝置監測人員的生理狀態 (例如心率、疲勞程度),以及是否正確使用個人防護裝備 (PPE) 。
- 情緒 AI (EAI): 透過情緒 AI 辨識人員的情緒狀態,預防焦慮、憂鬱等問題,避免因心理壓力導致的失誤。
- 協作機器人 (Cobot) 安全監控: 監控協作機器人與人員之間的距離,確保安全距離 。
錯誤應對 (Responding)
- 緊急應變程序: 建立清晰、易懂的緊急應變程序,並定期演練,確保人員在緊急情況下能迅速、正確地採取行動 。
- 人為失誤預防: 建立容錯機制,即使人員發生失誤,系統也能夠自動修正或提供警示,避免事故擴大。
- 快速救援機制: 建立快速救援機制,確保在人員發生意外時,能迅速提供醫療協助 。
事後學習 (Learning)
- 事故調查: 徹底調查所有事故、事件,找出根本原因,並提出改善措施,避免類似事件再次發生 。
- 近 misses 分析: 重視近 misses 事件 (差點發生的事故),從中學習,預防重大事故發生。
- 經驗分享: 建立經驗分享平台,鼓勵人員分享作業經驗、教訓,促進組織學習。
二、製程安全 (Process Safety)
事前預測 (Anticipating)
- 危害分析 (PHA): 定期進行危害分析,例如 HAZOP (危害與可操作性分析),辨識製程中潛在的危害 。
- 風險評估: 進行風險評估,量化潛在危害的風險程度,並制定相應的風險控制措施 。
- 早期偵測 (ED): 建立早期偵測系統,監測製程中的 "weak signals" (微弱訊號),預測異常事件的發生。
作業監控 (Monitoring)
- 製程參數監控: 監控關鍵製程參數 (例如溫度、壓力、流量),確保製程在安全範圍內運行。
- 警報管理: 建立有效的警報管理系統,確保警報能夠及時、準確地傳達給操作人員。
- 安全儀錶系統 (SIS) 監測: 定期測試、維護安全儀錶系統,確保其功能正常。
錯誤應對 (Responding) 就是Detection/Protection+Interlock+Layers of Protection
- 自動安全系統: 建立自動安全系統 (例如緊急停車系統、洩漏偵測系統),在異常情況下自動啟動,保護人員和設備 。
- 緊急應變計畫: 制定詳細的緊急應變計畫,包括疏散路線、應急設備、通訊方式等。
- 滅火、救援設備: 確保滅火、救援設備可用性、有效性,定期檢查維護,以應對意外事故。
事後學習 (Learning)
- 事故調查: 徹底調查所有製程安全事故,找出根本原因,並提出改善措施 。
- 經驗回饋: 將事故調查結果、改善措施回饋給設計、操作、維護等部門,避免類似事件再次發生 。
- 製程安全資訊分享: 建立製程安全資訊分享平台,促進組織學習 。
三、組織管理 (Organization Management)
事前預測 (Anticipating)
- 風險文化建立: 建立積極的風險文化,鼓勵員工主動報告潛在的風險,並參與風險管理。
- 領導力承諾: 領導階層應展現對安全的承諾,並提供必要的資源,支持安全管理活動。
- 組織健康: 關注組織健康,營造良好的工作環境,降低員工壓力,提升整體安全績效。
作業監控 (Monitoring)
- 安全績效指標 (KPI): 監測安全績效指標,例如 LTIF (損失時間事故頻率)、TRIR (總可記錄事故率),評估安全管理成效。
- 安全稽核: 定期進行安全稽核,檢查安全管理系統是否符合標準,並找出改善機會。
- 員工意見調查: 進行員工意見調查,了解員工對於安全管理的看法,並作為改善的參考。
錯誤應對 (Responding)
- 管理變更 (MOC): 建立完善的管理變更程序,確保任何變更 (例如設備、製程、人員) 都經過充分的風險評估和控制。
- 持續改善: 建立持續改善機制,定期檢討安全管理系統,並根據新的資訊、技術進行調整 。
- 危機溝通: 建立有效的危機溝通機制,確保在緊急情況下能夠及時、準確地向員工、社區、媒體等傳達資訊。
事後學習 (Learning)
- 學習型組織: 建立學習型組織,鼓勵員工持續學習、創新,並將學習成果應用於安全管理 。
- 經驗傳承: 建立經驗傳承機制,確保資深員工的知識、技能能夠有效地傳承給新進員工 。
- 知識管理: 建立知識管理系統,系統化地收集、整理、儲存、分享安全管理相關的知識。
- 透過以上導入推行要點,可以提升人員作業、製程安全和組織管理的韌性,從而降低事故風險,保障工廠的安全運作
組織管理的部分,戴明是大師與洞見沒被納入,以上内容相對參考價值不高
同樣的問題詢問Resilience 的筆記
Hollnagel 提出了韌性系統的四個關鍵能力:預測(Anticipating)、監測(Monitoring)、應對(Responding)和學習(Learning) [4-6]。以下將分別針對人員作業安全、製程安全和組織管理,論述導入韌性概念的要點:
人員作業安全 (Human Safety)
預測 (Anticipating):
- 情境感知:操作人員需要具備良好的情境感知能力(Situation Awareness, SA),能夠感知環境中的元素、理解其意義並預測未來的狀態。
- 風險評估:操作人員應能主動預測潛在的危害,並事先規劃控制措施,以避免事故發生。
監測 (Monitoring):
- 自身狀態:操作人員應隨時注意自身的身心狀態,例如疲勞程度、壓力水平等,並在必要時尋求支援。
- 環境變化:操作人員應密切監測工作環境的變化,包括設備運作狀況、其他人員的行為等,以便及時發現異常情況 。
應對 (Responding):
- 快速反應:當事故發生時,操作人員應能迅速且有效地採取應對措施,以減輕事故造成的損害 。
- 靈活應變:操作人員應具備靈活應變的能力,能夠根據現場情況調整應對策略,而不是一味地遵循既定的程序 。
學習 (Learning):
- 經驗回顧:操作人員應定期回顧自身的工作經驗,從中學習成功的經驗和失敗的教訓。
- 知識分享:操作人員應主動與他人分享自己的經驗和知識,以促進團隊整體的學習和成長 。
製程安全 (Process Safety)
預測 (Anticipating):
- 危害辨識:從傳統和韌性工程的角度出發,全面辨識製程中潛在的危害 。
- 風險評估:評估各種危害發生的可能性和潛在影響,並據此制定相應的風險控制措施。
監測 (Monitoring):
- 主動指標:監測製程中的各項主動指標,例如安全培訓時數、設備維護頻率等,以評估安全措施的有效性。
- 被動指標:監測製程中的各項被動指標,例如事故發生率、設備故障率等,以評估安全績效 。
應對 (Responding):
- 應急計畫:制定完善的應急計畫,包括事故通報流程、人員疏散路線、緊急醫療支援等,確保在事故發生時能夠迅速有效地應對 。
- 容錯設計:設計容錯性高的系統,允許一定程度的錯誤發生,並具備自動修正或恢復功能 。
學習 (Learning):
- 事故調查:從系統的角度調查事故,找出根本原因,而不僅僅是追究個人的責任。
- 根本原因分析:進行根本原因分析 (Root Cause Analysis, RCA),找出安全漏洞並加以改進 。
組織管理 (Organization Management)
預測 (Anticipating):
- 高層承諾:高階管理階層應展現對健康安全的高度重視,並將其置於與公司其他目標同等重要的地位。
- 安全文化:建立積極的安全文化,鼓勵員工主動報告安全問題,並提供必要的資源和支持 。
監測 (Monitoring):
- 內部稽核:定期進行健康安全內部稽核,評估管理系統的有效性,並找出需要改進的地方 。
- 績效監控:監控安全績效指標,包括主動和被動指標,以評估組織的安全表現 。
應對 (Responding):
- 管理變更:建立變更管理機制,在引進新的技術、流程或組織結構時,評估其對健康安全的影響,並採取相應的措施。
- 危機管理:建立危機管理團隊,負責制定和執行危機應對計畫,確保組織在面臨危機時能夠有效運作 。
學習 (Learning):
- 管理審查:定期進行管理審查,檢討安全管理系統的有效性,並根據經驗和教訓進行持續改進 。
- 知識管理:建立知識管理系統,收集、整理和分享安全知識,以促進組織整體的學習和成長 。
- 透過在人員作業安全、製程安全和組織管理中導入韌性概念,可以提升系統的適應能力,並在面對不斷變化的環境時,確保安全和生產力。
以上概念觀點呼應4S
4Sight 方法透過四個核心流程來增強組織韌性 [1]:
預見 (Foresight):預期、預測並為未來做好準備 [2]。
掃描組織必須回應的刺激因素,以便生存和成長 [2]。
系統地探索可能、合理、可行和偏好的未來 [2]。
幫助組織成員在心理上為不確定性和變化做好準備 [2]。
關注組織內部,幫助成員預測並注意到可能發展成重大事件的問題、錯誤和隱憂 [2]。
鼓勵人們注意微弱的信號,並處理迫在眉睫的問題 [2]。
洞察 (Insight):解釋並回應當前的情況 [2]。
監督 (Oversight):監控和審查已發生的事情並評估變化 [2]。
後見 (Hindsight):從經驗中學習正確的教訓 [2]。
這些流程使組織能夠應對並創造破壞和機會 [3]。
4Sight 方法呼應 PDCA (Plan-Do-Check-Act) :
計畫 (Plan):定義政策、目標和指標 → 預見 (Foresight):預期、預測並為未來做好準備
執行 (Do):在結構化的管理框架內實施計畫 → 洞察 (Insight):解釋並回應當前的情況=>situational awareness
檢查 (Check):根據計畫目標測量和監控實際結果 → 監督 (Oversight):監控和審查已發生的事情並評估變化
行動 (Act):糾正和改進計畫以達到並超越計畫結果 → 後見 (Hindsight):從經驗中學習正確的教訓
同樣的問題詢問Resilience Engineering 對頭的Reliability of Systems and Engineering的文章筆記
以下針對人員作業、製程安全和組織管理,分別論述可靠度工程與提升系統可靠度的導入推行要點,並結合事前預測 (Anticipating)、作業監控 (Monitoring)、錯誤應對 (Responding) 和事後學習 (Learning) 四個韌性概念:
人員作業 (Human Safety)
事前預測 (Anticipating):
- 可靠度規格 (Reliability Specification):明確定義何謂失效。這包括定義執行的功能、識別失效模式,並確保定義是明確且可觀察的。
- 訓練與認證:提供針對性的訓練,確保人員具備執行任務所需的技能和知識..。訓練應涵蓋潛在風險和應對措施。
- 人因工程 (Human Reliability Analysis): 執行人為可靠性分析,找出人為錯誤的潛在點,並設計相應的防錯機制。
作業監控 (Monitoring):
- 程序遵循:嚴格執行標準作業程序 (SOP),並持續監控人員是否確實遵循。
- 工作環境:確保工作環境符合安全規範,例如照明、通風、噪音等。
- 即時回饋:建立即時回饋機制,讓人員能立即了解其操作是否符合安全標準。
錯誤應對 (Responding):
- 緊急應變計畫:建立明確且可執行的緊急應變計畫,並定期演練。
- 快速反應:訓練人員在第一時間做出正確的反應,防止事態擴大。
- 資源支援:提供足夠的資源,包括設備、工具和人力,以應對緊急狀況。
事後學習 (Learning):
- 事故調查:徹底調查每起事故,找出根本原因,並提出改善措施。
- 根本原因分析 (Root Cause Analysis):使用根本原因分析找出問題的根本原因。
- 經驗分享:建立經驗分享平台,讓所有人員都能從他人的錯誤中學習。
- 文件化:將所有調查結果、改善措施和經驗教訓文件化,以便日後參考。
製程安全 (Process Safety)
事前預測 (Anticipating):
- 危害分析:進行全面的危害分析 (例如 FMEA、FTA),識別製程中的潛在風險...。FMEA/CIL是可靠性工程的重要分析
- 安全設計:在設計階段就納入安全考量,例如使用安全係數10,或選擇更安全的材料。
- 製程參數設計:關鍵製程參數的設計。
作業監控 (Monitoring):
- 參數監控:即時監控製程中的關鍵參數,例如溫度、壓力等,確保在安全範圍內。
- 統計製程管制 (Statistical Process Control):採用統計製程管制,監控製程的穩定性。
- 異常偵測:建立異常偵測機制,及早發現潛在的問題。
錯誤應對 (Responding):
- 自動安全系統:設置自動安全系統,例如緊急停車系統 (ESD),在異常狀況下自動介入。
- 洩漏控制:建立洩漏控制措施,防止有害物質擴散
- 備援系統 (Redundancy): 設計備援系統,以應對單點失效...。高低階的備援系統可以提升系統可靠度。
事後學習 (Learning):
- 失效分析:對失效的設備或組件進行失效分析,找出設計或製造上的缺陷4。
- 製程改善:根據分析結果,修改製程或更換設備,以提高安全性16。
- 資料收集: 建立維護資料收集,以供專案管理17。
組織管理 (Organization Management)
事前預測 (Anticipating):
- 風險評估:定期進行風險評估,識別組織面臨的各種風險,包括人員、設備、流程等。
- 建立安全文化:培養組織內部的安全文化,使安全成為每個人的首要任務。任務成功始於安全。
作業監控 (Monitoring):
- 安全稽核:定期進行安全稽核,檢查各項安全措施的執行情況。
- 供應商監控:監控供應商的可靠性計劃...。
- 績效指標:設定安全績效指標,追蹤安全績效的變化。
錯誤應對 (Responding):
- 資源投入:在發生安全問題時,立即投入所需的資源,包括人力、物力和財力。
- 責任追究:明確各級人員的安全責任,對違規行為進行責任追究。
事後學習 (Learning):
- 知識管理:建立知識管理系統,收集和分享安全相關的資訊。
- 持續改善:將安全改善納入持續改善的循環中,不斷提升安全水準。
- 可靠性成長曲線:從可靠性成長曲線學習。
心得結論
1.以前是學比問重要,學習的目的是為了考試,而考試通常無法考出真正的知識或理解程度(考試不是做學問 https://www.darencademy.com/article/view/id/16127 )
2.現在問比學重要,問的目的是為了應用知識(要用得出來與用得對,而非是考試裝模作樣)=>AI與LLM的危害在於:讓學生假裝有在學習、老師假裝有在教學 (對於問題的定義與需求,發問的人自己要很清楚,而非無病呻吟死隨口問問)
3.AI與LLM會把世界區分成三種人
- 第一種是AI賤民,沉迷在AI創造出來的虛幻中、被操弄而不自知 https://zh.wikipedia.org/zh-tw/%E5%A5%B6%E5%A4%B4%E4%B9%90
- 第二種是AI的使用者,透過AI來增強自己的能力,但能力知識與見識受制於AI
- 第三種是知識的創造者,創造出原始的洞見(美術與藝術)與知識(科學研究)以供AI仿效
-----------------------------------------------------------------------------------------------------------------------------
使用ChatGPT來獲取安全衛生資訊的問題
文章出處:https://www.sciencedirect.com/science/article/pii/S0925753523001868
(以下是NotebookLM摘錄整理的文章結論與建議)
研究結論:
- ChatGPT 在提供安全相關資訊時存在風險:儘管 ChatGPT 具有潛力,但在安全領域的應用上仍存在許多風險和疑慮。其提供的建議可能過於簡化、不精確,甚至具有潛在危害。
- 資訊缺乏批判性:ChatGPT 的內容缺乏對證據衝突和差距的反思,未能警告使用者證據可能存在爭議或虛構。
- 缺乏透明度:ChatGPT 的建議來源不明確,無法引用特定的研究、理論或知識領域來支持其建議。
- 回應內容會因關鍵字和查詢行為而異:ChatGPT 的回應會根據使用者使用的關鍵字略有不同,可能導致不一致的結果。
- 過度強調個人責任:ChatGPT 傾向於強調個人責任,而非系統性和共同責任,可能忽略了環境、社會或政策因素。
- 可能不適用於特定群體或情境:ChatGPT 提供的通用建議可能不適用於某些群體或情境,特別是少數族群或低收入國家。
- 資訊量過大:ChatGPT 平均提供 7.3 個建議,可能讓使用者難以消化或決定哪些建議最重要。
- 可能存在偏見:ChatGPT 的訓練數據可能存在偏見,這些偏見會反映在其輸出的安全建議中。
- 可能誤導使用者:ChatGPT 具有高超的對話能力和類似人類的回應,使用戶難以評估其所接收資訊的可信度,而且可能會產生看似可信但不正確或無意義的回答。
- 缺乏案例特定的建議。即使在需要個性化建議的情況下,ChatGPT 也常常提供通用建議。
研究建議:
- 使用者應謹慎使用 ChatGPT 來獲取安全相關資訊:由於 ChatGPT 的資訊可能不準確或不完整,使用者不應將其視為唯一的資訊來源。
- 應尋求專家來源的建議:使用者在面對安全相關問題時,應諮詢相關領域的專家或查閱可靠的官方來源,以獲得更準確、完整且客觀的資訊。
- 開發者應加強風險管理:決策者和業界應積極管理 ChatGPT 及相關技術的風險,並考慮其潛在的負面影響。
- 開發者應加強安全機制:ChatGPT 的開發者應加強安全機制,例如:提供更透明的資訊來源、明確指出資訊可能存在的爭議或不確定性、以及強調共同責任而非個人責任。
- 教育使用者相關限制:教育機構應建立相關的培訓和規範,讓學生了解 ChatGPT 的限制,並培養批判性思考能力,以避免被誤導。
- 需要更多安全領域研究:許多安全領域的研究似乎不足,以致於語言模型無法提供完整的建議。這表示需要加強安全科學研究,並將研究成果傳播給大眾
- 關注公平性議題:在開發和應用 AI 技術時,應關注公平性、多樣性和包容性,確保 AI 技術不會加劇社會不平等。應以價值敏感設計和共創設計等方法來建構合乎道德且可信賴的.
- 改善資訊呈現方式:未來語言模型應改善資訊呈現方式,例如:對建議進行優先排序、避免資訊過載、以及考量使用者的情境和需求
謎之聲:
- 別鬧了的費曼先生說:科學最基本的品格就是不能欺騙,而你是最容易被自己欺騙的人。這年頭要自欺欺人,(不但有專業/訓練有素的詐騙集團,還)有超級強大AI與LLM,要不被騙其實難度更高
- 期刊文章研究發表扯到DEI...(本文作者多達14位,正是力行實踐DEI ! 亦或是某種學術不倫?)
- 這年頭學生使用各種AI工具(作弊偷懶),也需要教導(危害告知)他們如何不被AI欺騙吧? (博學,審問,慎思,明辨,狀顯示為八股XD)
-----------------------------------------------------------------------------------------------------------------------------
實證文章- 犧牲永續換取GDP成長
Sacrificing sustainability for a higher GDP growth rate
https://www.sciencedirect.com/science/article/pii/S2950524024000155
研究的結論和建議如下:
- 本研究旨在讓大家瞭解多個主權永續性指標和相關 GDP 成長之間的關係,追求 GDP 成長並不等同於健康的經濟成長。GDP 成長是以犧牲各種永續性為代價來實現的。
- 與GDP(經濟成長)負相關的SDGs:整體 SDG 分數、零飢餓 (SDG 2)、健康與福祉 (SDG 3)、永續城市與社區 (SDG 11)、氣候行動 (SDG 13)、陸地生態 (SDG 15)
- 與GDP(經濟成長)正相關的SDGs:優質教育 (SDG 4)、性別平等 (SDG 5)、體面工作和經濟成長 (SDG 8)、已開發國家,可再生能源消耗量 (SDG 7)、新興經濟體減少不平等現象 (SDG 10)
- 檢驗 GDP 成長因素對 SDG 評分的影響時,會出現有趣的模式。例如SDG 評分的提高與老年人口的增加相關,而在已開發經濟體中,SDG 評分的提高與政府支出的增加相關。相反,在這兩類經濟體中,SDG 評分的下降與家庭消費和人口成長的增加一致。在新興經濟體中,出口的增加與 SDG 評分的下降相對應,而在已開發經濟體中,政府支出的增加與 SDG 評分的增加相關。
謎之聲:
1.SDGs有17項,各目標彼此之間相互衝突也是合情合理的;永續發展SDG是個衝突矛盾的口號:追求發展勢必做出取捨(=犧牲部份永續目標,什麼都要=什麼都要不到)
2.想起縱斷面研究的顧志耐曲線( Kuznets curve),現實沒有那麼樂觀與理想,只能說不同國家在不同發展階段有不同的問題與取捨,家家有本難念的經,每個國家都有各自的永續發展特徵(pattern and context)與問題瓶頸
3.多元融合DEI其實不過兩個構念(pseudo-construct) :"多元(diversity)" & "融合(equity and inclusion)"是個衝突矛盾的口號:當價值觀越多元時,組織與成員之間越難融合(可以相互尊重、包容與容忍已經可以偷笑)
4.如果不願意面對衝突與困難,SDGs, DEI都可謂只是自欺欺人的標語口號,如同大門漆有安全第一的工廠發生事故災難
5.現在想想,很多看似理所當然大義凜然的研究問題(e.g., 消除貧窮、預防事故、永續發展),其實是很恐怖的陷阱=>因為問題複雜無解+各說各話,會讓當事人沉迷不可自拔(然後錯置心力與虛耗青春,解決能解決的問題才能名利雙收)
沒有留言:
張貼留言