
在一臺筆記本電腦屏幕上顯示美國人工智慧研究組織OpenAI開發的ChatGPT應用程序的徽標,在智能手機屏幕上顯示了字母AI。(圖片來源:KIRILL KUDRYAVTSEV/AFP via Getty Images)
【看中國2026年4月22日訊】(看中國記者田淨心編譯/綜合報導)美國佛羅里達州針對人工智慧可能涉及刑事責任的問題,正式進入實物調查階段。佛州總檢察長詹姆斯.尤斯邁爾宣布,針對大約2025年發生在佛羅里達州立大學的校園槍擊案,州政府已對OpenAI展開刑事調查,併發出相關通報,要求提供對話記錄和技術資料。
該案源於2025年4月一宗重大校園槍擊事件,造成2人死亡、6人受傷。調查顯示,嫌犯在案發前曾多次使用ChatGPT查詢與槍械及行動相關信息。
據路透社報導,檢方認為該AI系統曾提供關於ChatGPT曾對槍手提供極為具體的犯罪建議,內容涵蓋應使用的槍枝型號、配套彈藥規格,甚至分析特定武器在短距離射擊的殺傷力等具體內容,這引發了是否構成「AI構成犯罪援助」的關鍵法律爭議。
詹姆斯.尤斯邁爾(James Uthmeier)在記者會上表態強硬,稱如果這些建議來自真人,可能會被謀殺罪起訴,並強調調查重點在於表明人工智慧開發公司是否需要承擔刑事責任。報導指出,嫌犯在案發前與ChatGPT存在「間歇互動」,甚至涉及攻擊時間、地點等策略性問題,使案件性質更加複雜。
對此,OpenAI回應稱,該事件「令人悲痛」,但公司不應承擔責任。公司強調,其系統僅提供公開獲得的信息,主動鼓勵或推動任何違法行為,同時已主動向執法部門提供相關賬號數據。
這是美國首次嘗試從「刑事層面」追究AI公司責任,可能成為未來監管的重要分水嶺。
分析人士認為,該案不僅涉及部分責任,更影響人工智慧時代的核心問題:
--AI是否只是工具
--企業是否需對「可預見風險」負責
--技術邊界應如何指南
此外,類似爭議並非孤立。近年來,多起涉及人工智慧與極端行為、暴力事件的案件,已促使美國多個州討論更嚴格的監管措施,甚至推動建立統一的聯邦人工智慧法律框架。
目前,佛州方面已收集證據與技術資料,是否對OpenAI提起正式刑事指控,擬進一步審查。案件發展已引發全美法律界、科技界與政策制定者的高度關注。