發現薇趨勢/別讓 AI 成濫權的遮羞布
西班牙近期推出《人工智慧良善使用與治理法》草案,引發社會強烈反彈。該草案延續歐盟AI法規,對企業使用高風險或禁用技術祭出重罰,但對政府部門的違規行為,僅以「警告」與「紀律處分」帶過,形同免責。此種制度設計讓人質疑:當AI成為國家治理工具,誰來監控擁有監控權力的機構?
電影《全民公敵》的經典台詞道出這層困境:「我們知道監視敵人是必要之惡,但我們也必須監督那些監視者。」問題在於,一旦政府既是規則的制定者,也是技術的使用者,制度還有能力制衡權力嗎?
AI監控系統的潛在風險不在於技術本身,而在於運用技術者的角色與權力。如果企業違規,會面臨罰款與監管;而當政府濫用AI,卻僅受象徵性的處置,這不只是無視法律,更是無視寶貴的民主制度。
以「效率」或「國安」為由規避透明審查,只會讓AI成為濫權的遮羞布。
類似的盲點並不限於歐洲,台灣監督AI應用的制度同樣尚未健全。例如AI學生輔導系統、治安影像分析工具,雖然標榜提升效能,卻缺乏資料用途公開、風險評估與民主審議。當公部門不受相同的標準檢驗,演算法容易演變為無效的治理。
這不禁令人聯想到美國總統川普的治理風格。川普在其企業帝國中習慣於拍板定案,一呼百應;進入政壇後,同樣以行政命令主導重大科技政策,從封殺TikTok、限制AI晶片出口、干預社群平台內容審查,到不斷微調細目、具高度策略性的關稅政策,無不展現科技與權力結合後的巨大破壞力。這些決策多半繞過國會與專業機構的審議,而以總統之名直接落實,反映出制度制衡的失靈與治理程序的空洞化。
然而,比起這種高調且可見的權力濫用,AI帶來的更大隱憂在於「靜默滲透」。AI不需要鎮壓,不必命令,只靠日常操作的默許與依賴,便能在悄無聲息中蒐集資訊、建構模型、推動行為。
如今,還是有部分App在用戶毫無選擇餘地的情況下,要求分享位置、通訊錄甚至行為紀錄,否則即無法繼續使用服務。這種「交換隱私以獲得功能」的模式,表面是使用條款,實際卻是資訊主權的讓渡,且背後接收這些資料的第三方,多數處於無人監管的死角。
值得注意的是,其他國家也正面臨類似的監管挑戰。澳洲參議院近期的一份報告指出,科技巨頭如Amazon、Google與Meta在未經充分告知與同意下,利用澳洲用戶資料訓練AI模型,威脅了當地的文化與創意產業。報告建議將OpenAI、Meta與Google等開發的通用AI系統列為「高風險模型」,並強化演算法透明與問責義務。
同時,此報告也呼籲盡快制定專屬的AI立法,以保障公民權益,並制衡技術濫用。這樣的建議反映出另一種思路:AI治理不能只是數據保護問題,而是涉及文化主權與公民自由的根本辯證。
當AI成為治理的利器,真正的危險從不是技術失控,而是制度默許濫權。若國家在缺乏審查與懲罰下部署高風險技術,法治將淪為廢墟。AI治理,不能只約束企業,卻放過掌權者。正如張載所言:「於不疑處有疑,方是進矣。」在數位時代,懷疑本身,就是守護最基本的自由。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言