2024年7月8日,美國教育部教育技術辦公室發布《利用人工智能設計教育:開發人員必備指南》(Designing for Education with Artificial Intelligence: An Essential Guide for Developers)。
該指南指出,現在和將來,越來越多的AI模型和功能將被納入專門服務于教育環境的產品中。美國教育部致力于鼓勵教育技術的創新進步,改善全國教育系統的教學和學習,并支持開發人員使用AI為教育市場創建產品和服務。
該指南以美國教育部之前的報告《》為基礎,旨在為產品負責人及其創新團隊、設計師、開發人員、面向客戶的員工和法律團隊提供信息,幫助他們在創建用于教育的AI產品和服務時,努力實現安全性、可靠性和信任。這個領域比構建大型語言模型或部署聊天機器人的范圍更廣泛,它包括現有和新興的AI功能,可以用來進一步實現共同的教育目標。
具體而言,該指南提出了5個建議:
建議一:為教學和學習而設計。
這一建議要求開發人員應該從理解特定于教育的價值開始。在許多例子中,教育部看到教育工作者正在加緊闡明價值觀,例如以人為中心,并關注閱讀、科學、數學和計算機科學教育等優先教育挑戰。此外,教育工作者和學生的反饋應納入產品開發、測試和改進的各個方面,以確保學生的需求得到充分滿足。
為此,開發人員應:
熟悉表達教育愿景和策略的相關資源,包括在國家、州、地方以及國際層面上可用的資源;;
加深對不同學生群體在學習機會和學習成果方面的歷史差異的理解,以及他們的產品如何為所有學生的公平做出貢獻;
有意識地在整個產品生命周期中加強他們與教育用戶社區的反饋循環,從定義產品的用途到改進其操作方式;
聘請道德專家來指導他們的工作,并在開發、部署和持續改進產品的日常工作中,建立團隊對道德問題的理解;
讓教育工作者和年輕人參與整個產品開發過程,不僅要包括那些有權勢的人,還要包括那些最受產品或服務設計選擇影響的人;
探索人類判斷的障礙(例如,傾向于聽從來自技術的建議),誤解基于人工智能推理的局限性,或者低估一旦人工智能部署在教育環境中可能出現的更多風險,并擴大他們對人為因素的理解,以涵蓋人工智能系統可能支持或阻礙健全的教學和教育決策的所有方式。
建議二:提供理由和影響的證據。
提供理由和影響的證據對于決定采用或購買哪種教育科技產品非常重要,特別是當產品的目標是提高學生的成績時?!?965年中小學教育法》和教育決策者都呼吁開發人員提供證據,證明產品或服務能改善學生的學習成績。例如,在采購方面,教育機構明確要求提供所需的證據。
為此,開發人員應:
詢問潛在客戶他們在決策過程中如何使用特定類型的證據,以及“成功是什么樣子”,這將超越要求潛在客戶列出相關的地方、州或其他采購需求;
在設計工作的早期就尋求與研究人員建立伙伴關系,以便最大限度地利用現代學習原則;
尋求與教育工作者和用戶建立伙伴關系,以便在其產品的整個生命周期中進行現場測試;
讓那些受產品影響最大的人參與收集和解釋證據;
不僅應該收集有效性的證據,還應該收集與安全、保障、信任和其他問題相關的證據;
將上述工作流程整理成有說服力的、生動的文檔,并定期更新和公開地放在網上,以提高透明度。
建議三:促進公平和保護公民權利。
促進公平和保護公民權利是教育部和行政部門的一項重要承諾,也是開發人員和教育工作者在公眾聽證會上關注的核心問題。例如,開發人員應警惕數據集中的代表性和偏見問題、系統中的算法歧視問題以及確保殘疾人士的可訪問性。
為此,開發人員應:
從用于訓練算法的底層數據集到UI/UX選擇將公平和民權優先事項融入其組織文化中;
建立或改進新平臺、增強和/或擴展審查流程/清單,以確保解決方案具有廣泛的代表性;
與組織建立反饋循環機制,并與專家實踐者建立關系,以實現公平的學習體驗設計。
努力與主流和教育技術標準機構以及他們正在進行的工作保持同步,以解決人工智能產品和服務中的種族主義和其他形式的算法歧視問題;
參與定期的第三方審查過程,以消除來自底層數據庫、算法甚至UI/UX設計元素的偏見,這些元素可能會導致某些群體無法獲得公平的使用體驗。
建議四:確保安全。
確保安全在人工智能行政命令和相關的行政指導中得到了強調。在人工智能時代,教育決策者正在清晰地闡明他們的數據隱私和安全要求,并詳細闡述諸如公民自由之類的額外要求。為了負責任地參與生態系統,開發人員需要詳細說明他們將采取的行動,以確保人工智能用戶的安全。
為此,開發人員應:
起草清晰易懂的語言,說明組織如何保護學生數據安全和隱私;
通過審計或其他檢查和測試保護的程序來加強問責工作,并從最終用戶那里獲得風險反饋,特別關注脆弱和服務不足的人群。
跨產品線或與其他公司合作,闡明共享的標準或方法,以解決包含人工智能的教育產品和服務中的風險,創建不僅在組織內而且在上游供應商和下游消費者中解決風險問題的方法;
培養公眾、用戶和監管機構如何看待與人工智能教育產品和服務相關的風險水平的意識,并在產品中出現值得注意的風險時做出反應;
優先考慮在聯邦政府、州和地方政府中與AI相關的快速發展的立法和其他治理活動;
考慮解決州和聯邦政策之間的相互作用。
建議五:促進透明度和贏得信任。
促進透明度和贏得信任是一個重要的總體目標。贏得信任需要關注上述所有價值觀,此外,它還具有超越產出的重要溝通維度。例如,信任需要透明度和其他公共承諾,以在技術供應者和用戶之間建立相互信任。開發人員、教育工作者和其他人員協作定義和行動可以建立信任。
為此,開發人員應:
努力提高透明度??梢酝ㄟ^強調責任和創新的雙重作用來證明其在營銷中可以得到解決的承諾;
更公開地分享書面承諾和披露,但也應該強調在產品開發和改進過程中與教育工作者的雙向溝通和合作;
支持在生態系統中培養人工智能素養的努力;
考慮如何公開描述在其產品和服務中實現的可信系統架構的特征。一些特征,如可解釋性,可能很難在短期內實現,但相關的概念,如可解釋性,現在可能是可能的,而研究和開發仍在繼續。
該指南還包括每一個建議需要思考的問題和相應的資源。最后并且指出,開發人員應該采取預防措施,設計基于人工智能的安全教育系統,并贏得公眾的信任,就像騎手期望電動自行車開發人員確保他們的騎手的安全和保障,并贏得公眾的信任一樣。
資料來源:
U.S. Department of Education, Office of Educational Technology, Designing for Education with Artificial Intelligence: An Essential Guide for Developers, https://tech.ed.gov/files/2024/07/Designing-for-Education-with-Artificial-Intelligence-An-Essential-Guide-for-Developers.pdf
[本文為近期擬將推送的“教育國際前沿2024年第7期”之一內容,由“教育國際前沿課題組”(IFRGE)成員整理,課題組負責人張永軍,編輯劉強。點擊左下角“閱讀原文”可從官網下載該報告]
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.