【AI 時代的教育】我們不能失去的,是「價值觀教育」

近年來,AI 的進步一日千里。像 Gemini Banana model 這類工具,只要輸入幾個簡單提示,就能生成童年合照、明星合影,甚至創造出「從未發生過」的畫面。科技的力量,正在重新定義我們對「真實」的想像。
但在驚嘆 AI 的同時,我們也必須正視一個更深層的問題:
👉 當 AI 能取代傳統知識傳授時,我們的教育還剩下什麼?
答案也許是:價值觀教育。
一、什麼是知識?
AI 的「學習」並非純粹的邏輯推理;它更多是透過大量數據累積來歸納知識。例如,它能辨識一朵花,並非憑某本百科全書的描述,而是從成千上萬張花的圖像中,歸納出「花」的特徵。 (註:其實 Ai 的學習模式也具備生成模式及表示方式學習,不單純是歸納式學習,不過本文只提出 Ai 中的歸納學習模式作引子而已)
AI 的學習是高度「實用導向」的,而不是單純的理性推理思考。在人類知識論史上,對於「人如何取得知識」的爭論一直存在:有主張知識是純理性的(rationalist),也有主張知識是建立在經驗之上的(empiricist)。只要稍查 epistemology 的入門文獻,就不難理解這兩派的差異。
進入二十世紀後,相對論與量子力學的發展徹底顛覆了人們對「客觀知識」的信念。在量子領域中,觀察者如何觀察本身會影響觀察結果——觀察就不是中立的了。最著名的例子是薛丁格的貓(Schrödinger’s cat)思想實驗:在該實驗中,一隻貓既可能處於生也可能處於死的疊加狀態,直到觀察才「塌縮」成為一種狀態。這暗示,客觀性有其限制。
AI 的發展是否會不斷提醒我們:究竟什麼是「學習知識」?甚至,我們可以說:
“AI 的學習模式似乎在教我們應該如何學習”
你是否想過:一些科學家百思不得其解的難題,反而被一個不斷看圖、運算的機器解答?沒錯,由於 AI 的巨量運算能力,即使其內部「理解」可能僅相當於中學水準,但透過海量訓練,它可能解答出博士級的問題。
當今我們不斷鼓勵孩子涉獵琴棋書畫、天文地理、歷史文學等知識,可能反而壓抑了他們在某些強項上的深入發展。事實上,讓孩子把時間花在自學他真正強項上,可能效果比你期望的更理想。
二、默然知識:教不出的,更是最重要的
「個人化的知識──指一種默然的學習方式,擺脫傳統以理性為基礎的思維,著重傳承與經驗,是一種個人化,而非僵化死板的知識」
正如 Michael Polanyi 在其著作《個人化的知識》(Personal Knowledge, 1958)中指出,他認為知識並非僵硬的學理體系,而是透過默然(tacit)方式傳遞與掌握。 他指出,知識並非僵硬的學理體系,而往往透過默然(tacit)方式傳遞與掌握。譬如游泳或騎腳踏車,無人能透過閱讀說明書就立刻學會;正是透過實踐、錯誤、再實踐,才能漸漸掌握。而運動員與器材的關係,例如「人拍合一」或足球員精準傳球的能力,也正是透過長期重複訓練累積出的默然能力(參: The Tacit Dimension(1966) )。Polanyi 更進一步主張,我們傳統所視為學術知識,其實也蘊含這樣的默然成分。
甚至在相對論般突如其來的癲覆性理論,其實也是建立在前人理論與累積不足時的典範 轉移(paradigm shift)之上。當舊理論不足以解釋新現象時,新的詮釋模式就會冒起,這種情況也被稱為「典範轉移」(paradigm shift)。
三、 AI 能傳授知識,但無法塑造價值觀
「整全教育應重視人的心靈、社交、價值觀等維度,使人在與 AI 的競賽中不致迷失」
從這個角度看,傳統將教育視為知識傳授的模式,應轉向將知識視為 Heuristic(可傳承、啟發性的知識),而非僵化的邏輯體系。我們不可不反思:今日我們的教育是否將知識強塞進孩子的大腦?還是能順應 AI 的發展,讓學生掌握 AI 的使用技巧、設計守則與倫理,使人成為能分辨是非、真假的人?
你有沒有發現,我們越來越需要「分辨能力」?這不只是知識問題,更是一種智慧,需要從生命榜樣與價值觀中慢慢養成。 在 AI 世代中,價值觀教育 應是教育的契機。但問題在於:家長與教育界是否重視這一面向?
四、重新回到教育的核心:價值觀教育
「AI 世界裡沒有死亡,沒有罪性,看似擺脫人的束縛,卻忽略了死亡與苦難正是人的存在本質。唯有人承認自我有限(contingent),才能真正體會謙卑,彰顯人性的美善。」
價值觀教育若要落實「堅毅」「尊重」「仁愛」「同理心」等品格,前提是承認人的有限性,以及人易受挫折與失敗的可能性。例如,品格教育的落實,與人性的有限密切相關:
堅毅:使人在艱困中展現韌性
尊重:承認每人皆有其侷限與特長
仁愛:察覺他人的需求與限制,以愛心幫助他人
同理心:理解他人的難處,勇於開放心靈傾聽
總結——讓我們一起守護教育的靈魂
筆者認為,AI 給人類帶來的最大挑戰,不在於它是否超越人類或最終取代人類(這樣的憂慮在工業革命或電腦普及時期也曾出現)。相反地,我認為未來有兩種極端風險:首先,由於人太容易取得資訊,可能變得過度自我、自大,與本文所主張的價值觀教育理念背道而馳;其次,因為 AI 能快速生成各種成果,使人越來越懶惰、思考狹隘,喪失分析與分辨能力。
我們或許無法預測 AI 的下一步,但我們可以選擇不失去「人」的本質。
當世界加速前進,教育工作者、家長、信仰群體更需要站穩腳步,守護價值觀教育的資產。
👉 這不是懷舊,而是一種信念:
科技可以改變世界,但唯有人,能賦予世界意義。
盼望各位家長、老師與教育工作者,能夠重新看重道德與信仰教育,讓下一代在 AI 的浪潮中,不只是聰明,更能成為有智慧、懂得分辨與承擔的人。