英特爾稱其檢測學生情緒的AI為教學工具其他人則認為“在道德上應受譴責”
據Protocol報導,當大學教師Angela Dancey想要解讀她的大一英語學生是否理解她在課堂上想要表達的內容時,他們的面部表情和肢體語言並沒有透露出太多信息。“即使在面對面的課堂上,學生也很難讀懂。”伊利諾伊大學芝加哥分校的高級講師Dancey說:“通常情況下,本科生不會通過他們的臉來傳達什麼,尤其是缺乏理解。”
Dancey使用了一些方法,例如要求學生在講座或討論後找出他們的“最難懂的問題”–她說學生仍然在為一個概念或想法而掙扎。她說:“我要求他們把它寫下來,分享給大家,然後我們在課堂上解決這個問題,讓大家受益。”
但英特爾和銷售虛擬學校軟件Class的Classroom Technologies公司認為可能有更好的方法。這兩家公司已經合作,將英特爾開發的基於人工智能的技術與運行在Zoom之上的Class整合起來。英特爾聲稱,其係統可以通過評估學生的面部表情以及他們與教育內容的互動方式,檢測出學生是否感到無聊、分心或迷惑。
“我們可以給老師提供額外的見解,讓他們更好地溝通,”教室技術公司的聯合創始人兼首席執行官Michael Chasen說,在整個大流行中,教師在虛擬教室環境中與學生接觸時遇到了困難。
他的公司計劃測試英特爾的學生參與分析技術,該技術通過計算機攝像頭和計算機視覺技術捕捉學生的面部圖像,並將其與學生當時正在進行的工作的背景信息相結合,以評估學生的理解狀態。幫助開發該技術的英特爾研究科學家Sinem Aslan說,英特爾希望將該技術轉化為它可以更廣泛地分發的產品。
Aslan說:“我們正在努力實現大規模的一對一輔導,”他補充說,該系統旨在幫助教師識別學生何時需要幫助,並告知他們如何根據學生與教育內容的互動情況改變教育材料。Aslan說:“高度的無聊感將導致(學生)完全脫離教育內容。”
但批評者認為,不可能根據一個人的面部表情或其他外部信號來準確判斷他是否感到無聊、困惑、快樂或悲傷。
一些研究人員發現,由於人們通過幾十或幾百個微妙而復雜的面部表情、身體姿態或生理信號來表達自己,用一個單一的標籤來分類他們的狀態是一種不適合的方法。其他研究表明,人們溝通情緒的方式,如憤怒、恐懼和驚訝,在不同的文化和情況下是不同的,而且他們表達情緒的方式在個人層面上會有波動。
“學生有不同的方式來呈現他們內心的想法,”長期從事教育工作的托德-里奇蒙德說,他是技術和敘事實驗室的主任,也是帕爾迪-蘭德研究生院的教授。他說:“那個學生在那一刻心不在焉,可能是他們在生活中那一刻的適當和必要的狀態。”例如,如果他們正在處理個人問題。
有爭議的情感人工智能滲入日常科技領域
課堂只是有爭議的”情感人工智能”進入日常科技產品並引起投資者興趣的一個領域。它也正在滲入送貨和客運車輛以及虛擬銷售和客戶服務軟件。在Protocol上週關於在銷售電話中使用這種技術的報告之後, Fight for the Future 發起了一場運動,敦促Zoom公司不要在其幾乎無處不在的視頻會議軟件中採用這種技術。
Chasen說,在目前的早期階段,還不清楚英特爾的技術將如何與班級軟件整合,他說他預計公司將與已經合作的學院之一合作,評估英特爾的系統。Chasen告訴Protocol,Classroom Technologies 公司並沒有付錢給英特爾來測試這項技術。Classroom Technologies 公司得到了投資者的支持,包括美國橄欖球聯盟四分衛湯姆-布雷迪、美國在線聯合創始人史蒂夫-凱斯和Salesforce Ventures。
英特爾已經建立了夥伴關係,以幫助分發它所建立的其他新生形式的人工智能。例如,為了實現一個系統的產品化,將顯示關節和骨骼運動的數據轉化為監測和改善運動表現的分析,該公司已經與普渡大學和足球球探應用程序AiScout合作。
教育工作者和宣傳團體已經就學校為識別和安全目的而部署的面部識別系統對學生的過度監視和隱私侵犯發出了警報。這些擔憂已經加速,因為基於人工智能的軟件在大流行期間比以往任何時候都更頻繁地使用,包括監測學生行為的技術,希望在虛擬測試期間防止作弊,以及跟踪學生在筆記本電腦上查看的內容,努力檢測他們是否有自我傷害的風險的系統。
課堂已經跟踪了學生在課程中舉手的頻率,並提供了一個”監考人查看”的功能,如果學生同意與教員分享他們的桌面屏幕,教師就可以監控學生在他們的電腦上看什麼。
Chasen說:“我認為我們必須對人們的個人權利非常敏感,並且不能對這些系統進行過度的干涉。”
在過去幾年裡,隨著虛擬課堂成為常態,教育工作者之間出現了一場關於是否要求學生在上課時打開相機的辯論。今天,在Dancey的英語課程中,攝像頭是可選的,部分原因是在虛擬環境中,學生可以通過麥克風或通過聊天與教師交流。
但為了捕捉學生的面部表情,英特爾的技術需要打開這些攝像頭。
“關於打開攝像頭的事情,它幾乎成了一個社會公正的問題,”Dancey說。她說,不僅一些學生擔心別人看到他們的住處或生活方式,而且啟用攝像頭會耗費電力,這對使用移動熱點連接上課的學生來說是個問題。
“這是一種對隱私的侵犯,而且還有可訪問性問題,因為打開你的攝像頭會消耗大量的帶寬。這實際上可能會讓他們花錢去做這件事,”Dancey說。
《消費者報告》的政策分析師Nandita Sampath說:“學生不應該對他們在課堂上的樣子進行監督。”她說,她想知道,如果英特爾的系統導致負面後果,學生是否有能力對不准確的結果提出異議。她說:“這些公司聲稱他們能夠評估或預測什麼認知和情緒狀態,問責制是什麼?”
Aslan說,英特爾技術的目標不是監視或懲罰學生,而是指導教師並提供額外的信息,以便他們能夠更好地了解學生何時需要幫助。”我們並沒有把這項技術作為一個監視系統來啟動。事實上,我們不希望這項技術成為一個監視系統,”Aslan說。
Sampath說,英特爾的技術可能被用來判斷或懲罰學生,即使這不是他們的本意。她說:“也許他們可能不打算讓這個成為最終的決策者,但這並不意味著教師或管理者不能以這種方式使用它。”
Dancey說,教師也擔心監控被用來對付他們。她說:“通常情況下,監視被用來對付教員,這真的很不公平。我不認為這是偏執的說法,特別是如果它要衡量’學生參與’–TM,引號–如果我升職或任期,這將是我評價的一部分?他們會不會說,’某某的理解力商數很低’?”
當英特爾在物理教室環境中測試該系統時,一些參與研究的教師認為它提供了有用的信息。根據英特爾提供的一份文件,一位教師說:“我能夠見證我如何抓住學生的一些情緒挑戰,這是我[之前]無法預見的。”
但是,儘管一些教師可能發現它很有幫助,Dancey說她不想使用英特爾的系統。”我認為大多數教師,尤其是大學級別的教師,會發現這種技術在道德上應受到譴責,就像panopticon。坦率地說,如果我的機構提供給我,我會拒絕它,如果我們被要求使用它,我會對繼續在這里工作三思而行,”她說。
心理學家的AI數據預處理
Aslan說,在這個早期階段,英特爾的目標是找到實施該技術的最佳方法,以便它對教師最有用。”我們如何使它與教師的日常工作相一致?”
英特爾開發了其自適應學習分析系統,將學生在真實的課堂上使用帶有3D攝像頭的筆記本電腦收集的數據納入其中。為了標記用於訓練其算法模型的基礎真實數據,研究人員聘請了心理學家,他們觀看了學生的視頻,並對他們在表情中檢測到的情緒進行了分類。
“我們不希望以任何假設開始。”英特爾公司的機器學習研究員Nese Alyuz Civitci說:“這就是為什麼我們聘請了主題專家來標記數據。研究人員只在三個標籤者中至少有兩個同意應該如何對學生的表情進行分類時才使用數據。”
“看到這些情緒真的很有趣–這些狀態真的很微妙,它們是非常微小的差異,”Civitci說。“對我來說,識別這些差異真的很困難。”
Aslan說,研究人員不是根據英特爾的人工智能模型是否準確反映了學生的實際情緒來評估它們,而是“將其定位為教師能在多大程度上信任這些模型的工具性或程度”。
“我不認為這是尚未完全達到成熟的技術,”Chasen說,關於英特爾的系統。“我們需要看看結果是否與學生的表現有關,看看我們是否不能從中獲得對教員有用的數據。這就是我們正在測試找出的結果。”
他說,最終,英特爾系統將提供一個數據,課堂技術公司及其客戶將把這個數據與其他信號結合起來,形成對學生的整體評估。
他說:“從來沒有一個數據。”他還建議,英特爾技術所揭示的信息不應該在沒有背景的情況下單獨用於判斷學生的表現,例如,“如果人工智能說他們不注意,而他們的成績都是A。”