咱們平時聊起AI,最關心的倆問題肯定是:這東西以後能更“靈光”不?啥時候能跟人一樣會思考、懂變通啊?今天就用大白話把這事兒掰開揉碎了說,不用整那些聽不懂的技術詞,保證大家都能看明白。
一、先給結論:AI肯定會更“聰明”,但短期內成不了“人精”
首先得明確一點,未來的AI絕對會比現在好用得多、能幹得多,也就是咱們說的“更聰明”。但要是說它能達到人類那種“上知天文下知地理,還能察言觀色、靈活變通”的智力水平,短期內肯定沒戲。這裡的“短期內”,保守估計至少是幾十年,甚至可能更久,不是說三五年就能實現的。
可能有人會問,“更聰明”具體是啥樣啊?其實就是AI在咱們生活、工作裡能做的事兒越來越精準,效率也越來越高。比如現在AI幫醫生看CT片,可能還會漏診一些早期的小病灶,以後它就能看得更細,準確率比現在高一大截;再比如現在用AI寫個文案,有時候還得人改半天,以後它可能一寫就符合咱們想要的風格,不用怎麼調整。這些都是“更聰明”的表現,而且肯定會慢慢實現。
但“達到人類智力水平”就不一樣了。人類的智力不光是會做題、會幹活,還包括能理解感情、能自主感情、能應對突發狀況。比如你跟朋友聊天,對方說“今天天氣真差”,你能聽出他可能因為天氣不好心情不好,還能安慰他;但AI現在只能識別“天氣差”這個資訊,沒法體會背後的情緒,更不會主動安慰人。這種差距,不是簡單提升技術就能補上的。
二、為啥說AI會更“聰明”?技術在不斷突破
AI能變“聰明”,核心是背後的技術一直在升級,就像給AI不斷“充電”“升級裝備”一樣。現在有幾個關鍵技術方向,都在幫AI變得更強。
第一個是“物理資訊神經網路”。聽著挺玄乎,其實就是讓AI能更好地理解現實世界的規律。以前AI處理資料,大多是“死記硬背”,比如看了一萬張貓的圖片,就知道“長這樣的是貓”,但它不知道貓會跑、會跳,不知道貓的身體結構為啥能支援這些動作。而物理資訊神經網路,能把物理定律(比如力學、光學原理)融入到AI的“學習過程”裡。比如訓練AI識別車禍現場,它不光能看到“車撞在一起了”,還能根據物理規律判斷“撞擊力度大概有多大,可能會造成哪些損傷”,這樣它給出的分析結果就更貼合現實,不會犯“常識性錯誤”。
第二個是“因果模型”。咱們人類做事,很擅長找“因果關係”,比如“因為沒帶傘,所以淋雨了”“因為努力學習,所以成績提高了”。但以前的AI,只會找“相關性”,比如它發現“冰淇淋銷量高的時候,溺水事故也多”,就可能誤以為“吃冰淇淋導致溺水”,卻不知道其實是“天氣熱,大家既愛吃冰淇淋又愛去游泳”。而因果模型就是教AI分清“相關”和“因果”,讓它思考問題更有邏輯。比如用在醫療領域,AI不光能發現“某類人群發病率高”,還能分析出“是因為飲食習慣,還是遺傳因素,或者是環境影響”,這樣給出的健康建議才更靠譜。
有了這些技術,AI在專業領域的能力肯定會越來越強。比如在金融領域,以後AI能更準確地預測股市波動,不是靠瞎猜,而是靠分析經濟資料、政策變化之間的因果關係;在教育領域,AI能更精準地找到學生的知識漏洞,不是簡單地多做題,而是分析“為啥這個知識點沒學會,是理解錯了概念,還是沒掌握解題方法”。這些都是AI變“聰明”的具體體現,而且會實實在在地幫咱們解決問題。
三、為啥說短期內AI達不到人類智力水平?三大瓶頸繞不開
雖然AI會變“聰明”,但要達到人類的智力水平,還有三個大難題沒解決,這些難題不是靠“堆資料”“堆算力”就能搞定的,得有本質性的理論突破才行。
第一個瓶頸:AI本質是“模式匹配”,不是真“理解”
現在的AI,不管是ChatGPT,還是能畫畫的Midjourney,核心邏輯都是“模式匹配”。簡單說,就是AI在海量資料裡找規律,然後根據規律生成答案。比如你讓AI寫一篇關於“春天”的作文,它其實是把以前看過的幾百萬篇“春天”的文章拆成片段,再重新組合起來;你讓AI看一張X光片,它也是對比以前看過的幾十萬張X光片,找“哪塊陰影跟癌症的特徵最像”。
但這不是真的“理解”。人類看到“春天”,會想到小時候在春天放風箏的回憶,會聞到春天裡花香的味道,會感受到天氣變暖的舒服;而AI不知道“春天”是甚麼感覺,它只知道“春天”這個詞常和“花開”“燕子”“溫暖”這些詞放在一起。再比如,你問AI“為甚麼水結冰會膨脹”,它能說出“因為水分子結冰後形成晶體結構,間隙變大”,但它沒法像人類一樣,透過“冬天凍住的水管會裂開”這個生活經驗,真正理解“膨脹”的含義。
這種“不理解”,導致AI在面對複雜、突發的情況時很容易“翻車”。比如你問AI“如果把大象放進冰箱需要幾步”,它可能會按“把長頸鹿放進冰箱”的段子邏輯回答,但如果再追問“大象放進冰箱後,動物園裡的其他動物會有甚麼反應”,它就可能胡編亂造,因為它沒法像人類一樣,結合“動物園的生態、動物的習性”這些常識去思考。
第二個瓶頸:通用人工智慧(AGI)缺“核心能力”
咱們常說的“達到人類智力水平”,其實指的是“通用人工智慧(AGI)”——就是AI能像人一樣,在任何領域都能靈活應對,比如既能幫醫生看病,又能跟孩子玩遊戲,還能自己學開車、寫小說。但現在的AI都是“專用AI”,只能在一個領域幹活,換個領域就不行了。
比如能看CT片的AI,讓它寫個文案就一塌糊塗;能寫程式碼的AI,讓它教孩子彈鋼琴也啥都不會。這是因為AI缺乏人類的“核心能力”:一是“遷移學習”能力,人類學會了騎腳踏車,再學騎電動車就很容易,因為能把“保持平衡”的能力遷移過去,但AI學會了看CT片,再學看X光片,還得重新訓練,沒法直接“遷移”能力;二是“常識推理”能力,人類知道“人不能在水裡呼吸”“石頭不會自己飛起來”,這些常識不用特意學,但AI沒有這些常識,得把每一條常識都寫成規則餵給它,可世界上的常識無窮無盡,根本喂不完。
舉個例子,你跟AI說“我今天吃了一碗麵,味道不錯,就是有點鹹”,人類能聽出你是在分享生活,可能還會接一句“下次可以讓老闆少放鹽”;但AI可能會回覆“麵條的主要成分是碳水化合物,過量攝入鹽會增加高血壓風險”,它沒法理解你是在“分享感受”,而不是在“問營養知識”。這就是因為AI沒有“社交常識”,不知道日常聊天的重點是“情感交流”,不是“傳遞資訊”。
第三個瓶頸:資料和能源“不夠用”,超規模擴充套件不現實
要讓AI達到人類智力水平,得讓它學的東西跟人類一樣多。人類從出生開始,每天都會接觸新的事物,比如看到新的風景、聽到新的故事、經歷新的事情,這些都是“學習資料”。而且人類的學習很高效,比如看一次“火會燙手”,就再也不會去摸;但AI得看幾千次、幾萬次“火燙手”的影片,才能記住“火會傷人”。
如果要讓AI學完人類所有的知識和經驗,需要的資料量是天文數字。現在AI訓練一次,已經要用到幾十TB的資料(1TB等於1000GB),要是想達到人類的學習量,可能需要幾百萬TB的資料,而且很多資料是沒法收集的,比如每個人的私人回憶、沒記錄下來的生活經驗。
除了資料,能源也是個大問題。AI訓練需要大量的算力,而算力靠電力支撐。現在訓練一個大模型,一次就要消耗幾萬度電,相當於一個普通家庭十幾年的用電量。要是想訓練出能達到人類智力水平的AI,需要的能源可能會超出現在全球的電力供應能力。而且這種“高能耗”不環保,也不符合未來的發展趨勢,所以單從能源角度看,短期內也沒法實現。
四、總結:AI會越來越好用,但成不了“人”
最後咱們總結一下:未來的AI,肯定會在專業領域越來越“聰明”,能幫咱們幹更多活、幹更好的活。比如以後去醫院,AI能更快更準地幫醫生診斷疾病;以後上班,AI能自動處理報表、寫初稿,讓咱們有更多時間做更重要的事;以後生活裡,AI能幫老人提醒吃藥、幫孩子輔導作業,讓生活更方便。
但咱們不用指望AI短期內能像人一樣“思考”“感受”“創造”。它不會有喜怒哀樂,不會有自己的想法,更不會取代人類。它本質上還是一個超級好用的工具,就像以前的電腦、手機一樣,能幫咱們提高效率、解決問題,但最終還是得靠人類來主導——比如用AI輔助研發新藥,但判斷新藥是否安全,還得靠科學家;用AI寫文案,但決定文案的核心創意,還得靠策劃師。
所以咱們對AI的態度,應該是“期待但不盲從”:期待它能帶來更多便利,也清楚它的侷限,知道哪些事可以交給AI,哪些事還得靠自己。這樣既能享受AI的好處,又不會被AI“帶偏”,這才是跟AI相處的最好方式。