據(jù)外媒報(bào)道,Axon近日推出了一個(gè)全新的AI倫理委員會(huì)以此來為公司的AI技術(shù)使用提供指導(dǎo)。委員會(huì)未來每年將舉行兩場(chǎng)會(huì)議,他們將就即將到來的Axon產(chǎn)品的道德問題特別是它們的使用可能對(duì)社區(qū)治安帶來的影響展開討論。
對(duì)此,隱私倡導(dǎo)機(jī)構(gòu)敦促該委員會(huì)密切關(guān)注Axon的人臉識(shí)別技術(shù)開發(fā)。
Axon發(fā)言人Steve Tuttle告訴外媒The Verge:“他們可以讓我們對(duì)公眾負(fù)責(zé),并幫助我們?yōu)閳?zhí)法行動(dòng)制定一套AI倫理準(zhǔn)則?!?
雖然這家公司目前還沒有開發(fā)出專門針對(duì)執(zhí)法部門的實(shí)時(shí)人臉識(shí)別技術(shù),但CEO Rick Smith曾表示,這種技術(shù)對(duì)于解決兒童誘拐或恐怖分子搜捕等極端案件非常有用。
直到去年,Axon的名字還叫Taser InternaTIonal,新名字則來自其云平臺(tái)。這個(gè)平臺(tái)擁有20多億字節(jié)的數(shù)據(jù),Axon表示這使公司成為了美國甚至可能是全球最大的公共安全數(shù)據(jù)保管平臺(tái)。
由41個(gè)公民權(quán)利組織組成的團(tuán)隊(duì)對(duì)這個(gè)新委員會(huì)做出回應(yīng),他們希望Axon能將像實(shí)時(shí)人臉識(shí)別等技術(shù)產(chǎn)品定義為不道德行為。該團(tuán)隊(duì)在寫給Axon中的信件中說道:“沒有任何政策或保障能夠充分地緩解存在于實(shí)時(shí)人臉識(shí)別的風(fēng)險(xiǎn)?!?
據(jù)了解,面部識(shí)別算法在處理種族和性別偏見問題時(shí)面臨困難,女性和非白人的錯(cuò)誤率更高。雖然一些產(chǎn)品展現(xiàn)了不錯(cuò)的錯(cuò)誤率,但許多算法仍舊在這個(gè)問題上苦苦掙扎。MIT今年的一項(xiàng)研究就發(fā)現(xiàn),IBM、微軟等提供的人臉識(shí)別算法在種族上就存在明顯差異。而如果在執(zhí)法環(huán)境下,這些錯(cuò)誤率將引發(fā)更多的人力成本。
Tuttle在接受采訪時(shí)特別強(qiáng)調(diào),公司希望對(duì)AI的關(guān)注能夠領(lǐng)先于公眾。另外他還表示委員會(huì)和Axon將會(huì)進(jìn)行溝通交流,這不僅包括上面提到的兩份年度報(bào)告還包括了電話、郵件等所有類型的交流途徑。