人工智能安全系統:一把效能與倫理的雙刃劍

2017年12月28日08:22  來源:環球網
 
原標題:人工智能安全系統 一把效能與倫理的雙刃劍

  隨著科學技術的進步,國家執法部門和安全部門也在不斷引入新的智能技術,以更好的抵制不斷演變的恐怖主義威脅和高科技犯罪威脅。

  支持智能技術的大數據分析和人工智能(AI)的全部潛力被合理利用是由兩個關鍵考慮因素決定的。首先,社會研究表明,全新的技術被採納不僅是為了更有效地繼續當前的業務實踐。更重要的是,它還需要不斷的重新評估這些實踐結果,以便在不斷變化的需求面前保持彈性。其次,是否採納一項全新的技術,不僅僅需要從業務決策和技術需求層面考慮,還需要從倫理道德層面分析思考,這是一個多方面的過程。

  支持執法的私人保安部門採用智能技術(如閉路電視巡邏系統和無人駕駛飛機),以保護公共場所和大型活動。通過自動化來克服巡邏中的人為限制,以便更好地發現潛在威脅。技術引進的第一步是通過成本和生產力改進,使當前的業務實踐更有效率。

  相關執法部門採用最新的智能技術,如閉路電視巡邏系統或無人機技術,以保障公共場所安全,維持大型活動秩序,通過自動化技術來克服巡邏中的人為限制,以便更好地發現潛在威脅。新技術的引入首先能降低成本、改進生產力,從而進一步提高業務實踐的效率。

  為此,相關執法部門將隨著智能技術的發展發揮更多的能力,在恐怖襲擊發生前迅速獲取相關信息,及時進行情報分析,減少監控盲點,加強跨部門信息共享,全面降低違法行為風險。目前,各大商場正在逐步引進與公安系統聯網的安全系統產品。

  然而,這一安全系統引發了重要的倫理問題:這一系統主要是利用人工智能進行威脅預測和可以分析,這將會引起所謂的“自動歧視”,即採寫、收錄相關基礎大數據的工作人員的主觀偏見,這可能會引起社會某些階層的關注。

  “自動歧視”是新生的詞匯,需要加以正面的引導。隨著閉路電視巡邏系統的增加普及,這一問題的重要性將會增長。它可能會引起人們對守法人士的錯誤目標的恐懼,從而影響公眾對執法部門和國家的信任和信任。這不僅僅是一個政策挑戰,它與算法和大數據中的非預期偏差的技術問題相交叉,可能導致人工智能系統產生的分析偏斜。算法是計算機程序,它精確地告訴計算機要採取什麼步驟來解決某些問題。

  受限於編寫此人工智能算法的程序員主觀反映,人工智能算法偏差問題可能會導致人工智能監視系統發布諸多虛假警報的風險,甚至因此誤導了執法部門的情報分析,錯誤的逮捕了不應被警方關注的人。例如,有媒體報道了由廣州雲從科技研發的一款人工智能系統,根據計算一個人的臉部特征和行為舉止,來判斷此人是否具有社會威脅性,進一步提示警方採取先發制人的行動,組織犯罪行為的發生。這一系統受到大量道德層面的譴責,部分人士認為,緊靠面部特征來判斷一個人是否有犯罪傾向,是非常不合倫理的,它可能在不知不覺間含有人類對種族、地域的倫理偏見。此前便有人工智能分析系統向芝加哥警方發布帶有種族歧視色彩的預警報告的案例。

  從本質上說,有研究表明,人工智能系統既是復雜的算法,也僅僅是系統訓練和工作數據的簡單收集。因此,這些系統可能產生更多帶有“自動歧視”色彩的分析結果,並將這一類數據訓練不斷加強深化,從而導致在某些地域產生警民關系緊張的結果。

  總之,新興的人工智能技術在增加監控的前提下能夠有效的收集情報,並將其充分分析,更好的阻止安全威脅事件的發生,但也可能因此產生嚴重的“自動歧視”的倫理問題。為了使人工智能安全系統發揮應有的作用,加強監視和構建倫理之間必須有一個可以被廣泛接受的平衡。如果在採用人工智能技術的過程中包含了日后數據收集訓練的方向,那麼可能會減少假警報的風險,也可以在人工智能驅動的決策中的充分體現其公平性,以最大幅度減少其可能對社會產生的負面影響。(記者 龍殤)

(責編:高黎明、張希)