WEBVTT 1 00:00:00.400 --> 00:00:03.400 AI 有助於打擊犯罪 聽起來很棒 對吧 2 00:00:03.920 --> 00:00:06.360 臉部辨識可以 更快抓到罪犯 3 00:00:07.240 --> 00:00:10.240 「預測性警務」甚至可能在 犯罪發生之前阻止它們 4 00:00:10.920 --> 00:00:13.080 但事情并非如此簡單 5 00:00:13.080 --> 00:00:16.080 更安全還是給 隱私帶來威脅 6 00:00:16.080 --> 00:00:18.760 讓我們來看看人工智慧 在治安上的利弊 7 00:00:19.680 --> 00:00:27.160 一項最近發佈的研究發現 75% 的歐洲公民 支持警方和軍隊使用 AI 進行監控 8 00:00:28.200 --> 00:00:32.280 這令人驚訝 畢竟有那麼多無辜的 公民因故障的AI系統受到傷害 9 00:00:33.120 --> 00:00:37.720 不要誤會我的意思 AI 的確能快速處理大量資訊 10 00:00:37.720 --> 00:00:40.720 例如通緝犯資料庫或 犯罪統計數字 11 00:00:41.120 --> 00:00:44.120 它得出結論的速度能 比任何警員都要快 12 00:00:44.360 --> 00:00:50.760 但 AI 也會犯錯 且可能會被濫用 例如臉部辨識系統 13 00:00:51.880 --> 00:00:56.240 阿根廷首都布宜諾斯艾利斯有 75% 的區域都處於視訊監控之下 14 00:00:57.680 --> 00:01:00.680 該市在 2019 年推出了 大規模臉部辨識計畫 15 00:01:01.560 --> 00:01:05.520 幾個月內政府宣稱 已抓獲了近 1700 名通緝犯 16 00:01:06.000 --> 00:01:08.520 但同一時期 系統 也出現了數十次錯誤 17 00:01:08.520 --> 00:01:11.640 導致警方進行不合理檢查 甚至無辜者被逮捕 18 00:01:12.360 --> 00:01:16.320 Guillermo Ibarrola 就因此 被錯誤地拘留了六天 19 00:01:17.080 --> 00:01:21.960 個資保護活動人士起訴了市政府 系統因此於 2022 年關閉 20 00:01:21.960 --> 00:01:25.520 自此之後它一直 處於擱置狀態 21 00:01:26.240 --> 00:01:30.200 活動人士與市政府代表 正就法律架構進行辯論 22 00:01:30.920 --> 00:01:34.600 因為還有更多擔憂和疑慮 調查發現 系統不僅收集了罪犯的資訊 23 00:01:34.600 --> 00:01:37.720 也收集了政治人物 活動人士和記者的資訊 24 00:01:38.480 --> 00:01:41.200 警方利用系統 非法追蹤人們嗎 25 00:01:41.880 --> 00:01:45.000 人們更擔心 面部識別可能被基於種族 對人群進行分類和監控 26 00:01:45.960 --> 00:01:49.640 中國已利用這項技術監控 並拘留維吾爾族人 27 00:01:50.720 --> 00:01:53.440 此外面部識別技術 也存在一個普遍缺陷 28 00:01:54.120 --> 00:01:56.320 它並非對所有人 都同樣有效 29 00:01:56.320 --> 00:02:00.600 研究顯示 它辨識有色人種 女性和第三性別者的準確度最低 30 00:02:01.400 --> 00:02:05.200 因此要讓AI能無偏差地運作 還有很多工作要做 31 00:02:06.120 --> 00:02:09.240 預測性警務 32 00:02:10.800 --> 00:02:13.920 如果犯罪可以在發生之前 就能預防 那會怎樣 33 00:02:13.920 --> 00:02:17.040 這就是預測性警務的理念 34 00:02:17.520 --> 00:02:21.800 藉助 AI 分析大量數據資料 從而發現人類可能忽略的模式和趨勢 35 00:02:22.760 --> 00:02:26.960 理論上這可以讓警方的工作更高率 並減少決策上的人為錯誤 36 00:02:27.560 --> 00:02:33.560 但這些模型的準確性和公平性取決於 其接受訓練的資料的品質和多樣性 37 00:02:34.360 --> 00:02:37.480 風險在于模型可能會 加劇現有的偏見 38 00:02:37.960 --> 00:02:42.800 當 AI 基於有偏見的犯罪資料進行訓練時 可能會強化這些偏見 39 00:02:44.240 --> 00:02:48.320 警力過多的少數族裔社區 可能顯得犯罪率較高 40 00:02:49.280 --> 00:02:53.360 因此預測性治安工具可能會不公平地 針對這些社區 從而加劇不平等 41 00:02:54.480 --> 00:02:58.560 儘管如此預測模型已在 某些領域得到應用 42 00:02:59.040 --> 00:03:03.120 例如在足球比賽等 大型活動中評估風險 43 00:03:03.600 --> 00:03:08.440 這可讓警方專注於最可能 發生問題的區域 如打架 44 00:03:09.200 --> 00:03:11.600 AI 與警察 能行得通嗎 45 00:03:12.440 --> 00:03:15.800 AI 可以為員警節省時間 例如在未來自動生成案件記錄 46 00:03:17.080 --> 00:03:19.880 它可以確保警力在正確的時間 出現在正確的地點 47 00:03:20.440 --> 00:03:24.520 它甚至可以消除人為偏見 幫助做出更公平的決策 48 00:03:25.280 --> 00:03:28.480 但要實現這個目標 仍需要克服一些障礙 49 00:03:29.400 --> 00:03:34.440 首先資料庫須具有真正的代表性和多樣性 以確保公平對待每個人 50 00:03:34.960 --> 00:03:39.040 其次 須有明確的法律架構 規定當局可以存取哪些資訊 51 00:03:39.040 --> 00:03:42.960 濫用這項技術可能會威脅到 我們的隱私權和公民權利 52 00:03:43.680 --> 00:03:45.520 您對 AI在治安方面的應用 有什麼看法 告訴我們!