實時更新飛瑞敖最新動態,了解飛瑞敖
眾所周知,人工智能的精準和高效使其在很多領域的應用已經超出了人類自身所具備的計算和執行能力。隨著技術逐步朝著自動感知、學習、決策和行動的自主系統方向發展,機器學習、深度學習等人工智能關鍵技術因缺少透明度和對結果的邏輯解釋,導致人工智能應用中存在的“黑箱”與數據偏見、算法不公等問題逐漸顯現。人工智能需要解釋它是如何做出決策的,這樣才能避免模型和算法的誤用濫用,從而成為推動人工智能治理從原則到實踐有效落地的有力工具和手段。因此,聯合國教科文組織于2021年發布了《人工智能倫理建議書》(Recommendation on the Ethics of Artificial Intelligence),明確提出人工智能倫理的十大原則,其中特別強調了人工智能的“透明性和可解釋性”。
可解釋的人工智能并不是一個新的概念。它是指算法模塊的輸入、輸出和性能及其系統結果可以被理解,并提供闡釋說明,幫助用戶充分理解算法的決策機制、決策過程和決策結果的公正性。可解釋性是構建教育領域對人工智能準確認知和良好信心的必然要求。教育作為特定環境下,通過人與人互動所形成的認知建構的過程和結果,其對人工智能可解釋性的要求更高,也更迫切。未來智能教育的目標是推動人工智能技術與教育教學的深度融合,并促進學生高階能力的培養。隨著越來越多學校開始使用人工智能技術,幫助教師了解人工智能技術的決策過程和決策依據變得越來越重要。教師不僅需要了解學習者學到了什么,還需要了解他們是如何學習的。因此,人工智能技術的提供者需要解釋它如何決定特定的行動方案。可以說,可解釋性帶來透明度,而透明度將帶來更大的信任度。
目前,許多智能教育產品片面關注機器學習、深度學習等技術結果的精準度,而忽視技術應用的可解釋性與可理解性。我們通過人工智能技術對教育數據進行收集、輸入和處理,獲得輸出的結果和決策,但卻無法理解和解讀模型中的工作原理,因此導致人工智能得出的結論無法解釋。不可避免地,具有偏見的教育數據集與算法有可能帶來不公平或錯誤的結論或決策,因此,亟需建立有效的機制對其結果進行解釋或驗證。由此可見,智能技術存在的“黑箱”問題,使智能教育系統的決策結果缺乏透明度和可解釋性。在此基礎上,智能教育的有效性因缺乏解釋能力和因果機制而受到限制和質疑。
在自適應學習系統中,智能教育的可解釋性包括模型理論、學習路徑和訓練數據,以及針對某些特定的學習場景和任務訓練的人工智能模型。一方面,開發人員需要了解算法的真實性能和局限因素并對公眾闡釋說明,從而達到可解釋的效果;另一方面,科技公司需要提供可解釋性機制、工具和服務,從而減少算法偏見和歧視,使教師和學生從透明的算法中受益,增強對人工智能系統的信任。
需要指出的是,可解釋的智能教育系統不是一個單純的技術問題,更是一個教育理論和教學原理問題。在可解釋的人工智能教育的研究中,要充分利用不同學科的知識和經驗,共同研究、開發和應用人們可以理解的智能教育系統。
在此基礎上,需要提高教師和學生的人工智能素養。它要求將人工智能知識、技能和倫理方面的教育納入各級各類學科的教學中,以便教師和學生能夠了解和掌握與人工智能系統進行互動的知識和技能,理解人工智能的算法和模型,并做出明智的決定和行動。一方面,智能教育系統的實際效用取決于機器是否能夠被充分理解,并向管理者、教師、學生解釋其特定決策和行動的理由;另一方面,教師和學生的人工智能素養直接決定他們是否能夠理解智能系統給出的建議和結果,進而優化教學和學習過程。
因此,可解釋的人工智能是打開智能教育“黑箱”的前提,而人工智能素養是確保智能技術在教學過程和教育評價中有效應用,以及教育系統決策可理解、可信任、可管理的基礎。
本期專欄刊登托雷·霍爾(Tore Hoel)教授等人撰寫的《可解釋人工智能的教育視角:基于倫理和素養的思考》(AI Explicability from an Educational Perspective: Rethinking Ethics and Literacy)一文,探討人工智能可解釋性在不同層面的應用以及未來人工智能給教育可能帶來的機會和挑戰。文章介紹了機器學習等技術以及可解釋人工智能的工作原理,并從教育視角提出為了實現人工智能的可解釋性,還需要普及人工智能教育,通過系統的人工智能課程來提高人們的人工智能素養;強調人工智能首先需要被理解,人們才可能建立對人工智能的信任。因此,加強人工智能素養教育,特別是人工智能倫理方面的培訓,是教育在促進未來社會發展中所擔負的重要責任和義務。