人工智慧是一種透過計算機系統模擬人類推理思維的技術,比如能夠透過使用者提示生成獨特答案的ChatGPT即是生成式人工智慧的一種;此外,人工智慧也能夠分析大型數據,並利用數據自動執行過去許多須由人工進行的工作。然而隨著人工智慧的應用愈趨廣泛,人們也開始為其功能及使用倫理而感到擔憂。
2024年初,美國司法部開始調查賓州一項有關於人工智慧使用不當的案例。該人工智慧模型旨在用以協助改善兒童福利,然而卻因系統錯誤判定而導致身障父母最終失去了對其子女的監護權。德州大學奧斯汀分校助理教授Samantha Shorey說:「若賦予人工智慧政策決策權,將有可能複製並加劇社會的不平等。人們應對引入人工智慧參與決策過程的行為更加謹慎,因為這有關乎誰能擁有獲取社會福利的資格、或者犯罪者假釋時間的判定。」
布朗大學技術責任中心主任Suresh Venkatasubramanian也說:「人工智慧將有可能因為其模型訓練的數據,對特定性別、宗教、種族產生歧視。此外,大量蒐集數據也可能引起隱私外洩問題,隨著人工智慧技術愈趨複雜,人們將更難理解這些系統是如何運作的,以及它們如何做出決策。」
華盛頓特區AI政策中心執行董事Jason Green-Lowe則認為:「如果技術加速發展卻又缺乏監督,未來我們將有可能活在一個由人工智慧控制、並以其利益而非人類利益為主的世界。」目前,AI政策中心持續推動並遊說華盛頓特區為人工智慧安全設立更嚴格的標準。
不過,支持者卻對人工智慧在政府機構中逐漸佔據更多主導地位抱持樂觀態度,他們認為政府將因人工智慧帶來的自動化運作而得益,比如加速管理社會服務案件、針對冗長的政策分析做出及時摘要,或簡化雇員的招聘培訓流程等。德州大學奧斯汀分校電機工程和計算機科學教授Alex Dimakis表示:「人們不能躲在人工智慧的背後,人工智慧系統應是透明且須接受獨立評估的,即所謂的『紅隊演練』(red teaming,註1)。在這個過程中,該技術的基礎數據和決策過程將被多名專家審查,以確保是否需要更強大的安全措施。此外,當技術觸法時,州政府應強制執行現行法規,不應被人工智慧所迷惑。」
Larry Temple是德州勞動委員會(Texas Workforce Commission)為因應龐大的失業申請案件而於2020年3月啟用的聊天機器人。其名來自該機構的前任主管,主要被用來協助德州民眾申請失業救濟金,並回覆待業中用戶所提出的相關問題。透過人工智慧語言設定,Larry能從預設答案中篩選出符合民眾詢問的解答方案,截至2023年3月Larry2.0啟用前,已回答了超過2,100萬個問題,而它僅只是政府機構運用人工智慧協助處理公務的其中一個例子。
近年來,德州政府在人工智慧應用的技術上有所突破,卻也引起外界對於其造成之偏見、隱私外洩或技術失控等各種意外的擔憂。德州訊息資源部門於2020年啟動「AI卓越中心」( AI Center for Excellence),協助州政府機構更廣泛地運用人工智慧技術。根據該部門2022年的報告,已有超過三分之一的德州政府機構將人工智慧實際運用於辦公作業中,除了勞動委員會的Larry外,許多機構都利用人工智慧進行翻譯工作或將語音轉換為文字訊息、追蹤預算開支和發票,甚至用於增強網路安全和詐欺偵測。
為因應目前趨勢,德州議會承諾要更積極地監控政府如何使用人工智慧。該州南湖市共和黨眾議員Giovanni Capriglione在2023年起草了一項旨在幫助州政府能更加妥善運用人工智慧技術的法案(House Bill 2060);同年6月,法案由德州州長Greg Abbott簽署通過,內容包括建立人工智慧諮詢委員會,以研究與盤點州政府機構如何運用人工智慧,並評估是否有制定人工智慧道德準則之必要,該委員會將由1名州眾議員、1名州參議員、1名執行董事,以及4名由州長任命之在人工智慧倫理、法規等方面具備專業知識的成員所組成。此外,法案也要求所有州政府機構須在2024年7 月前向人工智慧諮詢委員會提供其所使用之人工智慧技術是否符合德州州法設立的安全要求之相關資訊。
Capriglione表示:「這將徹底改變政府運作的方式。我們希望政府機關能夠發揮創意,找出更多超越聊天機器人的人工智慧應用案例,但也必須為此設定一些規則,避免劣質的數據阻礙政府系統正常運作」。
註1:紅隊演練(red teaming):指在軍事或網路安全演習中,由「紅隊」與「藍隊」分別扮演敵方角色和己方角色,扮演紅隊者須以敵方立場進行思考作戰,以驗證藍隊之偵測防守能力。
提供單位:駐休士頓教育組
資料來源:
https://www.texastribune.org/2024/01/02/texas-government-artificial-intelligence/