現在“人工智慧+”早就不是啥新鮮詞了,不管是手機裡的智慧推薦、商場裡的人臉識別,還是工廠裡的智慧機器人,到處都能看到它的影子。但就像咱們用新家電得先搞懂安全按鈕一樣,“人工智慧+”用得越廣,背後藏著的風險和倫理問題就越不能忽視。接下來咱們就用大白話,把這些事兒拆解開說清楚,讓大家一看就明白。
一、技術風險:AI也會“掉鏈子”,這三種問題最常見
咱們總覺得AI特別厲害,能算複雜資料、能寫文案還能畫畫,但實際上它也會“犯迷糊”“帶偏見”,甚至關鍵時刻“掉鏈子”。這部分說的技術風險,就是AI在技術層面容易出的岔子,其中最典型的就是演算法偏見、模型幻覺和系統可靠性問題。
1.1 演算法偏見:AI也會“看人下菜碟”,不是它故意的,是“學歪了”
先說說“演算法偏見”,聽著挺專業,其實就是AI在做判斷的時候,會不自覺地偏向某一類人,或者對某一類人不友好。比如咱們平時,有些公司會用AI篩選簡歷,如果一開始給AI“喂”的簡歷裡,大部分都是男性的優秀簡歷,AI就會誤以為“男性更符合崗位要求”,之後再看到女性簡歷,可能就會不自覺地打低分——這就是典型的演算法偏見。
為啥會這樣?不是AI有“性別歧視”,而是它學習的“素材”有問題。AI就像個小學生,老師教啥它學啥,如果老師給的教材裡本身就有偏向性,那學生學出來肯定也帶偏。再,有些AI評估使用者信用時,會參考使用者的居住地,如果某個區域之前有過較多逾期記錄,AI可能就會直接給這個區域的使用者打低信用分,哪怕有些使用者本身信用特別好,也會被“連累”。
這種偏見帶來的麻煩可不小。找工作的女性可能因為AI偏見錯失機會,信用好的人可能因為AI偏見貸不到款,甚至在司法領域,如果用AI輔助判斷案件,偏見還可能影響判決公平性。所以演算法偏見不是小事,得提前發現、提前改。
1.2 模型幻覺:AI會“瞎編亂造”,還說得有模有樣
再說說“模型幻覺”,這個更有意思,簡單說就是AI會“一本正經地胡說八道”。比如你問AI“某本不存在的書的作者是誰”,它不會說“我不知道”,反而會編一個名字,還會瞎編這本書的出版時間、主要內容,甚至引用裡面的“名言”,讓你誤以為真有這本書。
為啥會出現幻覺?因為AI的核心是“預測下一個字/詞該放啥”,它不關心內容是不是真的。比如你讓AI寫一篇關於“古代某座虛構城市的歷史”,AI會把它學過的所有“古代城市”“歷史事件”的資訊拼在一起,湊出一篇邏輯通順但完全虛構的內容。就像咱們做夢的時候,會把現實裡的片段拼在一起,形成一個假的場景,AI的幻覺差不多就是這個意思。
這種幻覺的危害也挺大。如果醫生用AI查醫學資料,AI編一個假的治療方案,可能會耽誤病人;如果學生用AI寫論文,AI編一些假的引用文獻,論文就會出大問題。所以現在用AI查資訊,尤其是重要資訊,一定要多核對,不能全信。
1.3 系統可靠性:AI也會“宕機”“出錯”,關鍵時刻靠不住
最後是“系統可靠性”問題,簡單說就是AI系統可能會突然出故障,或者在複雜場景下出錯。比如自動駕駛汽車,平時在空曠的馬路上跑得挺好,但遇到暴雨、大霧天氣,或者路上突然出現一個塑膠袋、一隻小動物,AI可能就會判斷失誤,要麼突然剎車,要麼沒及時避讓,容易引發事故。
再比如銀行的AI轉賬系統,如果突然遇到網路波動,或者系統裡的某個程式出了bug,可能會出現“轉賬成功但對方沒收到”“重複轉賬”等問題,給使用者帶來損失。還有咱們用的智慧客服,平時能解答一些簡單問題,但遇到複雜的投訴、諮詢,比如“賬戶被盜了該怎麼辦”“訂單丟了怎麼找回”,AI可能就會“答非所問”,或者直接把問題推給人工,要是人工客服又忙不過來,使用者就會特別著急。
為啥AI系統會不可靠?一方面是技術本身的問題,比如AI對複雜環境的適應能力還不夠強,遇到沒見過的場景就容易“懵”;另一方面是人為因素,比如程式設計師在寫程式碼的時候出了錯,或者系統維護不到位,沒有及時更新、修復漏洞。所以不管是用AI開車,還是用AI處理金融業務,都得留好“後手”,比如自動駕駛得有人類駕駛員隨時接管,AI轉賬得有人工稽核環節,不能完全依賴AI。
二、倫理挑戰:AI不能只講“技術”,還得講“規矩”
除了技術層面的風險,“人工智慧+”還會遇到一些倫理問題——簡單說就是“AI該怎麼做才對”“哪些事AI不能做”。比如AI能不能隨便收集人的人臉資訊?AI推薦內容的時候能不能只推使用者喜歡的,讓使用者看不到其他資訊?這些問題都沒有絕對的答案,但需要咱們一起商量出“規矩”,不然就容易出亂子。這部分主要說三個核心倫理挑戰:公平性、透明度和社會責任。
2.1 公平性:AI不能“欺負人”,得給所有人平等的機會
先說說“公平性”,其實和前面說的“演算法偏見”有點像,但範圍更廣——不只是AI判斷的時候不能有偏見,還要保證所有人都能平等地享受AI帶來的好處,不能因為性別、年齡、膚色、收入、地區等因素,被AI“區別對待”。
比如現在很多地方用AI做教育輔導,發達地區的孩子能用到先進的AI學習系統,有個性化的學習計劃、優質的課程資源;但偏遠地區的孩子可能連基本的電腦、網路都沒有,更別說用AI輔導學習了——這就是“AI教育公平”問題,相當於發達地區的孩子在學習上多了一個“幫手”,而偏遠地區的孩子沒有,差距可能會越來越大。
再比如AI醫療,大城市的醫院能用AI輔助診斷癌症、糖尿病,透過分析CT影像、血液資料,更早發現病情;但小城市、農村的醫院可能沒有這樣的AI系統,醫生只能靠經驗診斷,有些早期疾病可能就會被漏診、誤診——這就是“AI醫療公平”問題,相當於大城市的人能更早得到治療,而小城市、農村的人可能會耽誤病情。
還有AI就業,現在很多行業用AI替代人工,比如工廠裡的流水線工人、超市裡的收銀員、銀行裡的櫃員,這些崗位越來越少,很多人會失業。但這些失業的人裡,很多都是學歷不高、沒有其他技能的人,他們很難再找到新工作;而懂AI、會操作AI的人,卻能找到高薪工作——這就是“AI就業公平”問題,AI讓一部分人更吃香,卻讓另一部分人沒了飯碗。
所以AI的公平性不是小事,不能讓AI只服務於少數人,得想辦法讓所有人都能用上AI、受益於AI。比如政府可以給偏遠地區捐AI學習裝置、建網路,讓農村孩子也能用上AI輔導;醫院可以推廣AI診斷系統,讓小城市的醫生也能借助AI看病;企業可以給失業的人做AI技能培訓,幫他們找到新工作。
2.2 透明度:AI做決定得“說清楚”,不能“暗箱操作”
再說說“透明度”,簡單說就是“AI為啥做這個決定,得讓人看明白”。比如你申請貸款,AI說“你不符合條件,拒絕貸款”,你肯定想知道“為啥拒絕我?是因為我收入低,還是因為我有過逾期記錄?”如果AI不告訴你原因,只給一個結果,你就會覺得不公平,甚至懷疑AI是不是有問題——這就是透明度不夠的問題。
再比如你用AI推薦影片,AI總給你推同一類內容,比如你看了一個搞笑影片,之後全是搞笑影片,你想知道“AI為啥只給我推這個?能不能給我推點別的?”如果AI不解釋推薦邏輯,你就會覺得被“困住”了,看不到其他型別的內容——這也是透明度不夠的問題。
還有司法領域,如果AI輔助法官判案,比如給某個案件的被告人打分,判斷他“再犯罪的可能性”,如果AI說“可能性很高,建議重判”,法官和被告人都得知道“AI是怎麼算出來的?參考了哪些因素?是被告人的年齡、學歷,還是之前的犯罪記錄?”如果AI不說明白,這個判決就很難讓人信服。
為啥AI的透明度這麼難實現?因為很多AI模型是“黑箱”——就像一個魔術盒,你把資料放進去,它就會輸出結果,但你不知道盒子裡到底發生了甚麼。比如ChatGPT這樣的大模型,它的計算過程非常複雜,就算是開發它的程式設計師,也未必能說清楚它為啥會生成某一句話。
但透明度又很重要,不然大家就會不信任AI。所以現在很多國家都在要求AI企業“開啟黑箱”,比如貸款AI得告訴使用者拒絕貸款的具體原因,推薦AI得讓使用者知道推薦邏輯,司法AI得說明判斷依據。雖然很難完全做到,但至少得往這個方向努力。
2.3 社會責任:AI不能只“賺錢”,還得“擔責任”
最後是“社會責任”,簡單說就是AI企業不能只想著用AI賺錢,還得考慮AI對社會的影響,比如AI會不會危害隱私、會不會破壞環境、會不會影響社會穩定。
先說說隱私問題,這是大家最關心的。現在很多AI產品都要收集使用者資料,比如人臉識別需要收集人臉資訊,智慧手錶需要收集健康資料,AI推薦需要收集瀏覽記錄。如果企業把這些資料隨便存著、或者賣給其他公司,使用者的隱私就會被洩露。比如有人用AI攝像頭偷偷拍別人的人臉,然後做成“人臉庫”賣給詐騙分子;有人把使用者的健康資料賣給保險公司,保險公司就會拒絕給身體不好的人投保——這些都是AI企業沒盡到社會責任,只想著賺錢,不管使用者的隱私安全。
再說說環境問題,AI其實是“耗電大戶”。訓練一個大模型,比如GPT-3,需要用到很多伺服器,這些伺服器24小時運轉,消耗的電量相當於幾百戶家庭一年的用電量,還會排放大量二氧化碳,汙染環境。如果AI企業只想著把模型做得更大、更厲害,不考慮節能減排,就會給環境帶來很大壓力——這也是社會責任的一部分,AI發展不能以破壞環境為代價。
還有社會穩定問題,比如AI能生成“深度偽造”內容,就是用AI做假影片、假音訊,比如把某個人的臉換到另一個人身上,製作出“假新聞”“假緋聞”。如果有人用這個技術造謠、誹謗,比如偽造某個明星的負面影片,或者偽造某個官員的不當言論,很容易引發社會恐慌、破壞社會信任——這時候AI企業就得擔起責任,比如開發識別“深度偽造”的技術,阻止假內容傳播,而不是放任不管。
所以AI不是“法外之地”,企業用AI賺錢的同時,必須承擔起社會責任,比如保護使用者隱私、節能減排、阻止AI被用來做壞事。如果企業只講利益、不講責任,AI早晚都會被大家反感、抵制。
三、全球倫理治理:各國對AI的“規矩”不一樣,得慢慢商量著來
“人工智慧+”是全球性的技術,比如你用的AI軟體可能是美國公司開發的,你買的AI裝置可能是日本生產的,你刷的AI影片可能是印度網友上傳的。但不同國家的文化、法律、社會情況不一樣,對AI的“規矩”也不一樣——比如有的國家允許用AI做自動駕駛,有的國家不允許;有的國家嚴格限制AI收集人臉資訊,有的國家則比較寬鬆。這就需要各國一起商量,搞“全球倫理治理”,既要尊重各國的差異,又要達成一些共同的“底線”,不然AI在全球範圍內用起來就會亂套。這部分主要說兩個點:國際共識和區域監管政策的差異。
3.1 國際共識:各國都同意的“AI規矩”,比如不能用AI殺人
雖然各國對AI的監管不一樣,但在一些關鍵問題上,大家還是能達成共識的——簡單說就是“有些事AI絕對不能做”,不管哪個國家都得遵守。
最典型的就是“AI不能用於軍事危害人類”。比如不能開發“自主殺人機器人”——就是不需要人類控制,自己就能識別目標、開槍殺人的機器人。如果這種AI被用於戰爭,後果不堪設想,可能會造成大量無辜平民死亡,甚至引發世界大戰。所以現在聯合國和很多國家都在呼籲“禁止開發自主殺人機器人”,這就是一個重要的國際共識。
再比如“AI不能歧視人類”。不管是哪個國家,都不能用AI搞種族歧視、性別歧視、宗教歧視。比如不能開發“只服務於白人”的AI,不能開發“歧視女性就業”的AI,這也是各國都認可的共識。因為歧視會引發社會矛盾,不管在哪個國家,都不利於社會穩定。
還有“AI要保護使用者隱私”。雖然各國對隱私保護的嚴格程度不一樣,但都同意“AI不能隨便收集、洩露使用者隱私”。比如不能用AI偷偷拍別人的隱私影片,不能把使用者的身份證號、銀行卡號隨便賣給別人,這也是一個基本共識。因為隱私是人類的基本權利,不管在哪個國家,大家都不希望自己的隱私被洩露。
另外,“AI要保證安全可靠”也是一個共識。不管是用AI開車、用AI做手術,還是用AI處理金融業務,都得保證AI不會出故障、不會出錯,不然會給人類帶來損失。比如自動駕駛汽車必須經過嚴格的安全測試才能上路,AI手術機器人必須有備用系統,防止突然出故障——這些都是各國都認可的安全底線。
這些國際共識就像“全球通用的AI交通規則”,不管你是哪個國家的AI產品,都得遵守這些規則,不然就會被全世界抵制。現在聯合國、歐盟、美國、中國等都在積極參與國際共識的制定,就是為了讓AI在全球範圍內安全、有序地發展。
3.2 區域監管政策的差異:有的國家管得嚴,有的國家管得松,各有各的考慮
雖然有國際共識,但不同區域、不同國家的AI監管政策還是有很大差異——這不是因為有的國家“不講理”,而是因為各國的情況不一樣,比如文化傳統、法律體系、技術發展水平都不同,所以對AI的監管重點也不一樣。咱們主要說說幾個有代表性的區域:歐盟、美國、中國,看看它們的監管政策有啥不一樣。
3.2.1 歐盟:管得最嚴,把“倫理”放在第一位
歐盟對AI的監管是出了名的嚴格,核心思路是“先定規矩,再讓AI發展”,尤其看重AI的倫理和安全。2024年歐盟出臺了《人工智慧法案》,這是全球第一個全面的AI監管法律,裡面把AI分成了“四個風險等級”,不同等級的AI管得不一樣:
- 最高風險的AI:直接禁止,比如“自主殺人機器人”“用AI操縱人的行為”(比如用AI搞政治洗腦)“用AI歧視特定人群”(比如用AI篩選租客時歧視外國人),這些AI不管有多厲害,都不能在歐盟用。
- 高風險的AI:必須經過嚴格稽核才能用,比如AI醫療裝置(比如AI手術機器人)、AI教育軟體(比如給學生打分的AI)、AI招聘系統、自動駕駛汽車。這些AI在上市前,必須證明自己“安全、公平、透明”,還要有專門的機構稽核,稽核透過了才能用。
- 中風險的AI:需要披露資訊,比如AI推薦系統(的推薦AI)、AI聊天機器人(比如ChatGPT)。這些AI不需要稽核,但必須告訴使用者“我是AI”,還要說明推薦邏輯、生成內容的依據,不能讓使用者誤以為是人類做的。
- 低風險的AI:基本不管,比如手機裡的智慧鬧鐘、智慧計算器,這些AI對人類沒甚麼危害,所以歐盟不怎麼管。
歐盟為啥管這麼嚴?因為歐盟特別看重“人權”和“社會公平”,擔心AI會侵犯人權(比如隱私、平等權),破壞社會公平。比如之前有歐盟國家發現,有些AI招聘系統歧視女性,所以歐盟就規定AI招聘系統必須經過公平性稽核才能用。雖然嚴,但能最大程度保護使用者的權益,不過也有一些AI企業覺得“太麻煩”,不願意在歐盟開展業務——這就是嚴監管的兩面性。
3.2.2 美國:管得“靈活”,既想保護創新,又想控制風險
美國對AI的監管和歐盟不一樣,核心思路是“先讓AI發展起來,再根據問題定規矩”,既不想因為監管太嚴耽誤AI創新(畢竟美國有很多大AI公司,比如谷歌、微軟、OpenAI),又不想讓AI出大問題。
美國沒有像歐盟那樣出臺統一的AI法律,而是讓不同的部門根據自己的領域制定監管規則。比如:
- 醫療領域:美國食品藥品監督管理局(FDA)會監管AI醫療裝置,比如AI診斷軟體必須證明自己有效、安全才能上市,和歐盟的高風險AI監管有點像。
- 金融領域:美國證券交易委員會(SEC)會監管AI金融產品,比如AI炒股軟體、AI貸款系統,防止這些AI誤導使用者、引發金融風險。
- 隱私領域:美國各州有自己的隱私法,比如加州的《消費者隱私法案》,規定AI企業收集使用者資料必須經過使用者同意,不能隨便洩露。
另外,美國特別看重“AI的國家安全”,比如禁止美國的AI公司把先進的AI技術賣給其他國家(尤其是可能威脅美國安全的國家),防止這些技術被用來製造武器、破壞美國的網路安全。比如美國之前就對OpenAI、谷歌等AI巨頭提出要求,不許向中國等國家出口能用於軍事、高階製造的AI模型和技術,擔心這些技術被“濫用”。
美國這種“靈活監管”的好處是,AI企業有更多創新空間,不用被太多規則束縛,能快速推出新的AI產品——比如ChatGPT、GPT-4這些爆款AI,都是美國公司先做出來的。但壞處也很明顯,因為沒有統一的規則,不同部門的監管標準不一樣,AI企業可能會“鑽空子”,比如在醫療領域遵守FDA的規則,但在其他領域就放鬆要求,容易出現風險。而且美國對AI倫理的監管相對寬鬆,比如AI歧視、AI隱私洩露等問題,處理起來沒有歐盟那麼嚴格,使用者權益可能得不到充分保護。
3.2.3 中國:監管“務實”,既要安全,又要促發展
咱們中國對AI的監管,走的是“務實路線”——既不像歐盟那麼“嚴”到可能限制創新,也不像美國那麼“散”到容易出漏洞,核心是“在安全的前提下,推動AI發展”,讓AI能真正服務於經濟、社會和民生。
這些年中國出臺了不少AI監管政策,而且針對性很強,都是圍繞大家最關心的領域來定規矩:
- 先說說AI安全,這是中國監管的重點。2024年中國出臺了《生成式人工智慧服務管理暫行辦法》,明確要求生成式AI(比如ChatGPT、文心一言這種能寫文案、畫畫的AI)不能生成“違法違規內容”,比如不能生成謠言、暴力、色情內容,也不能生成危害國家安全的內容。而且AI企業在上線產品前,必須對生成的內容進行稽核,要是出了問題,企業得擔責任。比如之前有個AI聊天機器人,使用者問它“怎麼製造危險物品”,它竟然給出了步驟,後來這個AI就被下架整改了——這就是中國對AI安全的嚴格把控。
- 再說說隱私保護,這也是中國監管的核心。2021年中國出臺了《個人資訊保護法》,明確規定AI企業收集使用者資料必須“合法、正當、必要”,不能隨便收集。比如人臉識別AI,只能在需要的場景下用(比如火車站安檢、小區門禁),不能在商場、超市等地方隨便裝人臉識別攝像頭;而且收集人臉資訊前,必須明確告訴使用者“要收集你的人臉,用來做甚麼”,還要得到使用者同意。如果企業偷偷收集人臉資訊,會被重罰——之前就有一家連鎖超市,在門店裝了人臉識別攝像頭,沒告訴使用者,被罰款了50萬元。
- 還有AI賦能實體經濟,中國監管不僅“管風險”,還“促發展”。比如政府鼓勵AI企業把技術用到製造業、農業、醫療、教育等領域,比如用AI最佳化工廠生產線,提高生產效率;用AI監測農田的病蟲害,幫助農民增產;用AI輔助醫生診斷,讓偏遠地區的人也能看上“好醫生”。為了支援這些方向,政府還會給AI企業提供補貼、稅收優惠,比如有些地方對AI醫療企業,會減免3年的企業所得稅,鼓勵它們研發更多好產品。
中國這種“務實監管”的好處很明顯:一方面,能守住安全底線,防止AI出現違法違規、洩露隱私等問題,保護使用者和社會的利益;另一方面,能給AI企業足夠的發展空間,讓AI技術真正落地到實體經濟中,而不是“只停留在實驗室裡”。比如現在中國的AI製造業、AI醫療都發展得很快,既帶動了經濟,又給老百姓帶來了實惠。
3.3 全球倫理治理的難點:差異難統一,但合作是趨勢
雖然各國都在推進AI監管,但全球倫理治理還是有很多難點——最核心的就是“差異難統一”。比如歐盟覺得“AI倫理比創新重要”,美國覺得“創新比倫理監管重要”,中國覺得“安全和發展要平衡”,大家的優先順序不一樣,想制定一套“全球通用的AI規則”特別難。
再比如,有些發展中國家的AI技術還很落後,它們更關心“怎麼用AI發展經濟、改善民生”,比如用AI解決貧困、疾病問題,對“AI倫理監管”的需求沒那麼迫切;而發達國家的AI技術已經很先進,它們更關心“怎麼防止AI濫用、保護人權”,比如防止AI歧視、洩露隱私。雙方的訴求不一樣,很難達成一致。
還有,AI涉及“國家利益”,比如AI技術能用於軍事、高階製造、網路安全,這些都是關係到國家競爭力的領域。有些國家擔心,要是同意了統一的全球規則,可能會限制自己的AI發展,影響國家利益,所以不願意輕易妥協。比如美國就不願意接受歐盟那種嚴格的監管規則,擔心會影響美國AI企業的競爭力。
但即便有這麼多難點,“全球合作”還是大趨勢。因為AI的風險是全球性的——比如AI生成的假新聞,能透過網際網路快速傳到全世界,引發全球恐慌;AI網路攻擊,能攻擊其他國家的電網、銀行系統,影響全球安全。這些問題靠一個國家根本解決不了,必須各國一起合作。
比如現在聯合國已經成立了“人工智慧諮詢機構”,讓各國專家一起討論AI倫理問題;中國、美國、歐盟也經常召開AI對話會議,交流監管經驗;還有一些國際組織,比如國際標準化組織(ISO),正在制定AI安全、AI公平性的國際標準,讓各國的AI產品能“互聯互通、互相認可”。
雖然這個過程會很慢,但只要各國都願意放下部分分歧,朝著“安全、公平、負責任的AI發展”這個目標努力,早晚能形成一套大家都能接受的全球倫理治理體系。
四、總結:AI是“工具”,用好它的關鍵在“人”
說了這麼多“人工智慧+”的風險和倫理問題,可能有人會問:“AI這麼多問題,是不是不用最好?”其實不是這樣的——AI本身是個好工具,就像汽車一樣,汽車會有交通事故風險,但我們不會因為有風險就不用汽車,而是會制定交通規則、安裝安全帶、完善道路設施,讓汽車更安全、更有用。AI也是一樣,我們不用害怕它的風險,而是要透過“風險管控”和“倫理規範”,讓它朝著好的方向發展。
簡單來說,要做好這三件事:
第一,技術層面要“補漏洞”:針對演算法偏見,要給AI“喂”更公平的資料,比如招聘AI的訓練資料裡,要包含足夠多的女性簡歷、不同學歷的簡歷;針對模型幻覺,要開發“事實核查”技術,讓AI生成內容前先核對真假;針對系統可靠性,要多做測試,比如自動駕駛汽車要在暴雨、大霧等複雜場景下反覆測試,確保不會出故障。
第二,倫理層面要“定規矩”:企業要承擔起責任,比如不隨便收集使用者隱私、不開發危害社會的AI產品;政府要出臺明確的規則,比如哪些AI能做、哪些不能做,出了問題怎麼罰;我們每個人也要有“AI倫理意識”,比如不濫用AI生成假內容、不隨便洩露自己的個人資訊給AI產品。
第三,全球層面要“多合作”:各國要多交流、多商量,比如分享AI監管經驗、一起制定國際標準;發達國家要幫助發展中國家發展AI技術,比如給它們提供AI裝置、培訓AI人才,讓所有人都能享受AI帶來的好處,而不是隻有少數國家受益。
最後想說的是,AI的未來不是由技術決定的,而是由我們人類決定的。如果我們能做好風險管控和倫理規範,AI就能成為我們的“好幫手”——幫我們看病、幫我們學習、幫我們工作,讓生活更美好;但如果我們不管不顧,任由AI的風險和倫理問題發展,AI可能會給我們帶來麻煩。所以,不管是AI企業、政府,還是我們每個人,都有責任把AI用好,讓它真正服務於人類,而不是反過來危害人類。