首頁 PCM PCM 專欄 AI 中立不中立

AI 中立不中立

AI 中立不中立

科技是工具,永遠站在中立的位置,是好是壞在於最終目的。正如遙距控制技術,IT 或服務供應商用來協助企業管理,加快支援及修復故障,以提升安全及使用體驗。相反落在黑客手中,就是最好的入侵工具,繼而盜取裝置內的資料。

但人臉識別技術是否中立,就成了新的爭論點。原本這技術用在開啟個人電腦、智能電話、大門等看來沒有不妥,但自從 Facebook 引入技術供用戶標籤朋友後,就開始出現私隱問題。更甚者,技術被更多執法部門使用,以至濫用而遭群起反對。

香港反對聲音最嚴重的一次,一定是智能燈柱。市民擔心智能燈柱具備攝影機及人臉識別系統,在去年8月份的一次遊行示威中把燈柱拉下,喚醒各界關注。最終政府訊科技總監辦公室以光學雷達( LiDAR )、熱能探測技術等取代攝影機和藍牙探測器,藉此釋除市民疑慮,以便繼續推行智能燈柱試驗計畫。

巨人停售人臉識別

外國亦對人臉識別技術有所保留,美國是最著緊的一個國家,加上非裔男子 George Floyd 被警方壓頸致死的事件引發全美多個城市市民上街抗議,在強烈要求種族平等的聲音下,提供人臉識別技術的龍頭科技公司 IBM 率先表明,暫不再研發、販賣及使用有關技術。今年科4月上任的行政總裁 Arvind Krishna 撰寫公開信指出,IBM 堅決反對將任何技術用於大規模監控、侵犯人權與自由、種族歧視或不符合 IBM 《信任與透明度準則》的行為。

IBM表示暫時不再研發、販賣及使用人臉識別技術。

緊接亞馬遜( Amazon )亦表示,暫停讓警方使用其 Rekognition 人臉識別系統一年。然後再有微軟表態,該公司總裁 Brad Smith 接受傳媒訪問時透露,微軟將不再出售人臉辨識相關技術或服務予警察部門,直到美國國會制訂相關技術的使用規範。該公司同時設立審查機制,審視客戶對人臉辨識技術的部署不會危害人權。

人臉識別技術的底盤是人工智能,人工智能要靠大量資料訓練模型,一旦在輸入資料時有偏差,誤判就會愈來愈嚴重。亞馬遜曾利用人工智能系統篩選及招聘管理層級的招聘,結果出現歧視女性的問題,最終要停用系統。該公司的 Rekognition 系統也誤把28位美國國會議員識別成被逮捕的罪犯。例子反映,最原本用作訓練的數據成為系統是否中立、不偏不倚的重要關鍵。如何決定這些數據中立?業界現在仍努力研究及討論中。對於有機會侵犯私隱的人臉識別系統,暫緩使用更是必要。

Exit mobile version