国产精品久久国产_特级无码一区二区三区毛片视频_在线观看亚洲最大黄色网站_亚洲 中文 自拍_中文无码电影2020_成人片黄网站色大片免费西瓜影院_日本精品在线二区_北京老熟妇偷人偷拍_羞羞色院91精品永久站_欧美日韩国产不卡

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

人工智能被用來統(tǒng)計(jì)分析學(xué)生課堂行為,并對(duì)異常行為實(shí)時(shí)反饋

時(shí)間:2018-05-24 16:10:10點(diǎn)擊:524次

人工智能會(huì)成為推動(dòng)人類未來發(fā)展的水和電,當(dāng)它在迅速改變?nèi)祟惿瞽h(huán)境的同時(shí),也在模糊著物理世界和個(gè)人的界限,延伸出復(fù)雜的道德倫理問題。

5 月 18 日,一則杭州某中學(xué)引入“智慧課堂行為管理系統(tǒng)”的新聞在微博上引發(fā)大量轉(zhuǎn)發(fā),就技術(shù)的不正當(dāng)應(yīng)用引起了網(wǎng)友討伐。背后具體的技術(shù)應(yīng)用正是人臉識(shí)別,一方面是通過實(shí)現(xiàn)“刷臉”完成實(shí)時(shí)考勤...這一場(chǎng)景的技術(shù)應(yīng)用已經(jīng)比較完備了,但在最多三四十的教室里,這樣做是不是大材小用了?

但讓網(wǎng)友們?nèi)浩鸸舻囊稽c(diǎn)是,人工智能被用來統(tǒng)計(jì)分析學(xué)生課堂行為,并對(duì)異常行為實(shí)時(shí)反饋。據(jù)校方負(fù)責(zé)人介紹,系統(tǒng)每隔 30 秒會(huì)進(jìn)行一次掃描,針對(duì)學(xué)生們閱讀、舉手、書寫、起立、聽講、趴桌子等 6 種行為,再結(jié)合面部表情是高興、傷心,還是憤怒、反感,分析出學(xué)生們?cè)谡n堂上的狀態(tài)。

為了讓技術(shù)用來促進(jìn)教學(xué)管理,他們欲借助科技幫助老師分析學(xué)生的行為數(shù)據(jù)來得到課堂質(zhì)量的反饋,以及在后續(xù)的教學(xué)上做出調(diào)整。

校方所要達(dá)成的目標(biāo)也許是好的,但問題是,在教室走廊、學(xué)校公開場(chǎng)所以安全之名安裝攝像頭的監(jiān)控行為還算有其合理之處的話,那在較為封閉的教室里監(jiān)控個(gè)人行為,是否存在技術(shù)被濫用的嫌疑?當(dāng)然校方聲稱他們考慮到了個(gè)人隱私問題,說系統(tǒng)只是對(duì)整個(gè)班級(jí)的行為管理進(jìn)行大數(shù)據(jù)分析,但這至少是否要經(jīng)過學(xué)生的同意?(當(dāng)然,最后一個(gè)問句在中國(guó)學(xué)校管理中基本就是奢望。)

其次,收集面部信息作為教學(xué)質(zhì)量反饋看上去雞肋程度大于實(shí)用性。校方稱,現(xiàn)在獲取的數(shù)據(jù)僅為片段性,也沒有形成大數(shù)據(jù)來支撐對(duì)學(xué)生行為的判斷。所以可以得出通過上述 6 種行為分析本來就沒有多大意義,因?yàn)閷W(xué)生個(gè)體的動(dòng)作表情很難用正負(fù)面二分法做出判定,比如有很多人的喜怒哀樂很少通過面部表情表現(xiàn),這種大數(shù)據(jù)判斷的誤差以及參考價(jià)值有多大可想而知。

校方也回應(yīng)稱,現(xiàn)在也不會(huì)將具體的某一個(gè)行為作為決定性因素,而人們擔(dān)心的恰恰就是你用 AI 技術(shù)給出整齊劃一的“標(biāo)準(zhǔn)答案”。

那在促進(jìn)教學(xué)質(zhì)量又不傷害學(xué)生個(gè)人隱私的情況下,能不能更好的將人工智能技術(shù)應(yīng)用其中?

當(dāng)然有,有網(wǎng)友說, 如果換成系統(tǒng)能語(yǔ)音識(shí)別老師所講的內(nèi)容,然后自動(dòng)搜索相關(guān)圖片、知識(shí)點(diǎn)展現(xiàn)在課堂上作為教師的助教。如果不考慮語(yǔ)音技術(shù)目前的挑戰(zhàn),類似的技術(shù)應(yīng)用思路自然可行。教育領(lǐng)域作為人工智能技術(shù)大有大為的落地場(chǎng)景,近年來,無論是像新東方或者滬江這樣傳統(tǒng)的線上教育公司或者 AI 教育的初創(chuàng)公司都在不斷做出探索,但所有的前提是 AI 技術(shù)發(fā)揮的作用必須是正向的。

人工智能的倫理道德問題不僅僅體現(xiàn)在教育領(lǐng)域,還有人工智能歧視問題,這體現(xiàn)在數(shù)據(jù)選擇和算法上。有科學(xué)家研究,通過使用機(jī)器學(xué)習(xí)算法幫助銀行提供接受還是拒絕房貸的建議,但在審查神經(jīng)網(wǎng)絡(luò)決策制定流程的結(jié)果時(shí),發(fā)現(xiàn)黑人申請(qǐng)的批準(zhǔn)率大大低于白人申請(qǐng)的批準(zhǔn)率。這被視為人工智能“黑箱”處理導(dǎo)致的不透明性。

再比如人工智能技術(shù)用于軍事用途。韓國(guó)科學(xué)技術(shù)高級(jí)研究院 KAIST 由于涉及開發(fā)“殺人機(jī)器人”項(xiàng)目遭到 Hinton、周志華等 50 余名全球 AI 專家的聯(lián)合抵制,最后項(xiàng)目叫停;Google 利用AI 技術(shù)幫助美國(guó)國(guó)防部分析無人機(jī)拍攝的視頻遭到 3000 名員工聯(lián)名反對(duì),近期事件發(fā)酵后有多位員工憤然離職;Uber 等采用自動(dòng)駕駛技術(shù)的汽車公司由于車禍?zhǔn)录?受到媒體和公眾的重點(diǎn)盯防......

還有 AI 技術(shù)應(yīng)用在道德倫理這一步的審查是模糊的。

上周,Google 在其語(yǔ)音助手中加入了 Duplex 人工智能語(yǔ)音技術(shù),它能模仿真人的語(yǔ)氣進(jìn)行對(duì)話,幫助用戶完成電話預(yù)訂美發(fā)沙龍和餐館等操作。隨后谷歌母公司 Alphabet 董事長(zhǎng) John Hennessy 聲稱它已經(jīng)部分通過了圖靈測(cè)試,但由于它與人類溝通時(shí)并未告知自己機(jī)器人的身份,因此人們擔(dān)憂它是否會(huì)被用來欺詐他人。

我們要防止人工智能“觸電”人類道德倫理,但在相應(yīng)倫理道德框架和機(jī)制建立上還處于黎明前的暗夜里。

國(guó)外有諸多大公司相繼已建立了相關(guān)組織來討論 AI 的道德倫理問題。2016 年 9 月,Facebook、Google 以及亞馬遜除了內(nèi)部制定防止技術(shù)濫用的機(jī)制之外,它們也成立了聯(lián)合組織,目標(biāo)是尋找應(yīng)對(duì) AI 帶來的安全與隱私威脅的解決方案,OpenAI 也是類似的組織。

我國(guó)的《新一代人工智能發(fā)展規(guī)劃》也專門提出人工智能倫理與法律的三步走規(guī)劃,但將倫理與法律要求嵌入到 AI 系統(tǒng)仍是世界性難題。即便如此,逐步制定行業(yè)標(biāo)準(zhǔn)和道德標(biāo)準(zhǔn),了解 AI 存在的風(fēng)險(xiǎn)刻不容緩。否則,將 AI 用來“監(jiān)控”學(xué)生個(gè)人喜怒哀樂這樣的技術(shù)應(yīng)用會(huì)不斷涌現(xiàn)。

原文標(biāo)題:當(dāng)AI用來“窺伺”學(xué)生喜怒哀樂,倫理邊界在哪兒?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):AI科技大本營(yíng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

  • 標(biāo)簽: