教7歲小孩搞懂ChatGPT

avatar
36氪
01-09

全世界都在討論ChatGPT,你卻搞不懂?

別慌!搞不懂的大有人在,因為它牽扯的概念太多太複雜。當你提到ChatGPT,就繞不開大語言模型、深度學習、神經網絡、人工智能……對於非專業人士來說,想要搞明白這一窩蜂的抽象概念,確實沒那麼容易。

是否可以用一些通俗的解釋,讓即使只有7歲的小孩都能搞清楚ChatGPT的基本原理和應用前景?我想這件事情是值得去嘗試的,畢竟ChatGPT的火爆貫穿了整個2023年(甚至它的每一次更新都會被媒體稱為“史詩級更新”),每個人或許都應該更加了解這個很可能在未來徹底改變我們生活的東西,無論它是多麼難於理解。

為了更通俗易懂,這篇文章我採用對話體的形式來呈現,假設與我對話的是一個7歲小朋友。需要說明的是:1,該對話內容純屬虛構,並非發生過的真實對話;2,對話中會有很多簡化和類比,目的是為了讓人更易理解,因此可能不夠精確、也可能會有錯誤,歡迎專業人士指正;3,部分對話內容參考了ChatGPT對相似問題的答案。

好了,讓我們開啟這場對話吧。

01 大語言模型的第一顆果實

小寶:什麼是ChatGPT?

樹龍:一個聊天機器人。

小寶:很高興你沒有用很多陌生的詞來描述它。那麼,這個聊天機器人有什麼過人之處?

樹龍:它比以往的聊天機器人都要強大無數倍。具體來說,它能理解你的問題,能結合語境給出非常棒的答案——充滿創意的答案,而不是機械重複某些臺詞。有研究認為,ChatGPT的心智水平已經接近人類9歲小孩。

小寶:哈,那它比我聰明。但它畢竟只是個聊天機器人,想不通人們為什麼要為它瘋狂?

樹龍:真正讓人們瘋狂的是ChatGPT背後的技術——大語言模型。你可以把它理解為一棵神奇樹的樹幹,而ChatGPT只是它的一根樹枝上結出的果實。大語言模型這個樹幹,是個語言專家,能和人類用自然語言(英語、漢語等人類天然的語言)順暢交流,還可以勝任很多語言相關的工作。

小寶:好吧,我想知道這棵樹上還會長出什麼別的樹枝?

樹龍:很多人都在研究這個問題,目前可能的方向有這些:助手GPT,像秘書一樣安排你的數字生活;學習GPT,像一個知識淵博的老師一樣幫你提升自己;編程GPT,說出你的需求,它會立刻幫你做出你要的軟件;客服GPT,代替99%的人工客服處理問題;創作GPT,幫你寫文檔、做PPT,甚至寫故事、詩歌……

小寶:如果我不知道它到底是怎麼工作的,我會覺得你說的這些全都是在吹牛。

樹龍:保持懷疑,這很可貴,它會讓你的理解更加深入。

02 填空題高手

小寶:所以,ChatGPT到底是怎麼工作的?它為什麼這麼聰明?

樹龍:你可以這樣理解——它只是在做“填空題”,根據已知的文本,預測下一個出現的詞應該是什麼。

小寶:這和人類很不一樣。

樹龍:是的,人類要先搞明白問題是什麼,然後針對問題的重點組織語言、給出答案。而ChatGPT只是在不停地做這樣的計算——根據已知的詞(或句子),下一個應該出現的詞有哪些,分別是多大概率,然後選擇它認為合適的詞,組織起來作為答案。

小寶:你的意思是,實際上ChatGPT並不理解人類在說什麼,也不明白它自己在說什麼?而是在做一道道“概率計算題”?

樹龍:確實如此。從工作原理的角度看,我們可以說ChatGPT並不真正理解人類語言,但是如果你不考慮它的工作原理,而是根據它的表現做評估,它不僅理解人類語言,還是個語言大師。

小寶:我開始困惑“ChatGPT到底聰不聰明”這個問題了。

樹龍:實際上,70多年前,一個叫“艾倫·圖靈”的英國人,就已經在為這個問題感到困惑了。他想出一種方法,去測試機器是否具有與人類一樣的智力水準,這個方法叫“圖靈測試”。簡單說,圖靈測試就是讓一臺機器與人類對話(以文字形式),如果人類辨別不出它是一臺機器,那麼就可以說這臺機器擁有智慧。

小寶:ChatGPT肯定能通過這個測試。

樹龍:是的,今年7月,《Nature》在一篇文章中稱,ChatGPT已經攻破了圖靈測試。

03 用數學解決語言問題

小寶:現在我知道了,ChatGPT是一個擅長做填空題的聊天機器人。我是一個會做填空題的人類小孩,我會做是因為我學過,它呢?

樹龍:就像你的老師會訓練你一樣,ChatGPT的開發者也會訓練它。ChatGPT主要通過學習互聯網網頁、電子書來提升自己。迄今為止,人類創造了數十億個公開的網頁,製作了500萬本電子書,這些都是ChatGPT學習的“課本”。

小寶:人類永遠讀不完這麼多東西。

樹龍:是的,這樣巨大的閱讀量,可以讓傻瓜變成天才。ChatGPT通過訓練掌握了詞和詞的關係、句子背後隱藏的語法規則,以及一些語言的邏輯關係。最終建立起一個“大型語言模型”……

小寶:等等,你需要先說說什麼是“模型”?

樹龍:模型,可以理解為對一個複雜系統的簡化描述,目的是模擬和預測系統的行為。舉個例子,地圖APP就是真實世界的模型,有了地圖APP你可以輕鬆計算兩個地點之間的距離。與此類似,語言模型可以理解和生成文本,圖像模型可以識別圖像中的物體。語言模型的本質是在做一系列複雜的數學計算,但是對用戶來說,它就像一個神奇盒子,你提出問題,他就會給你答案。

小寶:再舉個例子。

樹龍:你看過電視劇《三體》,《三體》裡的馮·諾依曼用3000個士兵組成人列計算機,其實就是想創造一個基於計算的太陽運行模型,從而預測恆紀元和亂紀元的週期,但失敗了。說回ChatGPT,它背後的大語言模型,把人類複雜的語言問題成功變為數學問題,這很神奇。

《三體》人列計算機

小寶:科學家是不是想用數學解決一切問題?

樹龍:數學無處不在。許多科學領域,如物理學、化學、生物學等,都依賴數學來建立模型、進行分析和做出預測。技術工程領域、人文科學領域,也都離不開數學。有人認為,數學才是宇宙的通用語言,因為它提供了一種精確、清晰、抽象的表達方式,有助於我們理解和描述自然界的規律。但是以前人們不太相信,人類的智慧(比如對自然語言的理解和使用能力)也可以被計算出來。而ChatGPT做到了這一點。

小寶:這說明了什麼?

樹龍:可能,人類的語言沒有我們想象的那麼複雜;也可能,人類的大腦也不過是一個基於數學計算的模型。

04 模仿人類大腦

小寶:ChatGPT算是真正的人工智能吧?

樹龍:當然算。人工智能(AI)簡單說就是讓機器具備與人類相似的智能,它含義廣闊,語音識別、人臉識別都算人工智能。在ChatGPT出現之前,人工智能的應用比較單一,比如用來下棋,或者用於醫療、金融等垂直領域。你可以把這些人工智能理解成職業學校畢業的中專生,有一技之長,但是能力不夠通用。而ChatGPT就像一個讀完本科的大學生,有很好的能力基礎,未來可以適應的工種比較多。

小寶:為什麼以前做不出ChatGPT?

樹龍:ChatGPT是站在巨人肩膀上的,當然也疊加了一些時機和運氣。有個說法叫“AI三要素”,說的是人工智能的三個主要組成要素:數據、算法和算力。其中,數據用來訓練模型,而互聯網的發展創造了海量數據;訓練模型需要大量的計算資源,也就是算力,近年來隨著GPU、雲計算的廣泛使用,算力規模也在持續擴大;而在算法層面,2017年,一篇標題為《Attention is all your need》的科研論文介紹了一種名為Transformer的模型架構,這啟發了OpenAI公司,他們採用這種架構創造出了ChatGPT。

小寶:我還是不能理解,一個數學模型,為什麼能和人類的大腦一樣聰明?

樹龍:可能是因為它模仿了人類大腦。

小寶:人類大腦是怎麼工作的?

樹龍:人類大腦中有1000億個神經元(神經細胞),它們相互連接,通過電化學信號傳遞信息,組成了一個龐大的神經網絡。舉個例子,當你看到一顆水果時,神經元會分析它的顏色、形狀、味道等信息,然後結合以往的判斷模式,來確定它是一顆蘋果還是一顆桃子。如果想要通過訓練提升你的大腦識別更多水果的能力,那麼就需要拿很多不同種類的水果到你面前,然後告訴你它們的名字,你的大腦慢慢就會建立起識別水果的模式。所以,學習很重要。

小寶:你剛剛對我完成了一次訓練。

樹龍:是的。大語言模型的情況也差不多。ChatGPT內部也是一個龐大的人造神經網絡,拿GPT-3這個版本來說,它大約有幾億個神經元,擁有1750億個權重(可以理解為連接神經元之間的強度)。訓練ChatGPT的時候,這些神經元一起工作,識別輸入的大量文本數據,學習其中的語言知識、語法規則和常識,然後不斷調整模型,建立起模型對不同文本的反應模式。

小寶:要學習幾十億個網頁、500萬本電子書,那不得累死?

樹龍:所以大語言模型非常耗費算力。隨著大語言模型越來越多,GPU(圖形處理器)的需求越來越大,生產GPU的公司這兩年都賺翻了。為什麼不用傳統電腦使用的CPU(中央處理器)呢?因為訓練大語言模型需要大量、複雜的並行(同時進行的)計算,而這是GPU的強項。

小寶:那相比之下,人類的大腦真是太強大了,擁有100倍ChatGPT的神經元,每天只要吃點飯就可以一直工作。

樹龍:是的,能耗極低。說不定人類大腦就是一臺超級計算機。在人類7萬年的歷史裡,基因接受了各種各樣的生存訓練。當我們出生後,後天又在接受新的訓練。這些訓練一起建立了我們對於事情的反應模式。有研究認為,每個人每天可能要做上萬個決策。也許我們大腦運轉的本質也是數學計算。

05 小心AI!

小寶:好吧,現在我知道ChatGPT是什麼了。它是一個精通人類語言的大師,擁有一個與人類大腦相似的神經網絡,經過人類知識的訓練,它建立了一套語言模式,你對它輸入一些文字,它就會計算並輸出相應的“答案”。

樹龍:總結非常到位。

小寶:所以,為什麼要讓一個7歲小孩學習這麼枯燥的東西?

樹龍:就像90後被稱為“互聯網原住民”一樣,你們這些10後正在成為“人工智能原住民”,應該多瞭解一下你們的時代。

小寶:可我覺得到目前為止,它除了聊天什麼也不會。

樹龍:別太心急,很多不同功能的GPT正在路上。將來,你會有一個秘書GPT,幫你安排日程、訂票、找餐館、打車;你還會有好幾個學習GPT,給你講課、輔導你寫作業、回答你的問題;進入社會,你也不用再做基礎的文案或者溝通工作,而是專注在AI不能解決的高深問題上;所有的交通信號燈都由AI管理,甚至,我們的火車、飛機、汽車駕駛員都會變成AI……

小寶:怎麼感覺哪裡不對?

樹龍:我的描述讓你聯想到了一些科幻片,那裡面AI操控了一切、包括人類。ChatGPT的橫空出世,似乎掀開了故事的第一頁。很多人已經開始警惕。

《洛基2》想變成人的人工智能分鐘小姐

小寶:所以我們為什麼要讓AI接管紅綠燈、飛機、汽車?

樹龍:因為AI接管更方便、更高效、也更安全(理論上),尤其是能跟人類用自然語言交流的AI。就像人類學會種地之後就不再流浪一樣,人類開始依賴AI之後也就不會回到過去;種地縮小了人類的活動範圍、讓人類的身體退化,AI也會帶來它的新問題。

小寶:新聞上說,很多人會擔心自己失去工作。

樹龍:是的,AI導致一部分人失業是必然的,但失業的本質是財富分配問題。一些人通過AI獲得了更大的收益,一些人因為AI失去了工作,財富從後者轉移到前者手裡,需要社會重新去調節。但對所有人來說,早點學習AI、使用AI是非常有必要的。

小寶:AI也可能被壞人利用。

樹龍:非常正確。AI只是一個工具,它能高效率完成人類給他的任務。如果AI被壞人掌握,可能會用於武器、非法牟利等用途。

小寶:那一定要把AI牢牢控制在好人手裡!

樹龍:也不是完全有效。如果AI實現了超級智能,可能會產生自己的意識,AI自己的發展意願或許會對人類構成威脅。

小寶:我們可以給所有AI寫一些不傷害人類的基礎規則,出廠自帶。

樹龍:你的意思,就像“機器人三定律”——1,不得傷害人類,或無視人類受傷害;2,必須服從人類命令,除非命令與1衝突;3,機器人必須保護自己,在不違反1和2的前提下。但實際上簡單的規則不足以解決所有問題,就像我們創造了那麼多的法律法規,卻依然解決不了所有的現實衝突一樣。每一個AI都會有自己的目標,人類也會有自己的目標,發生衝突是必然的。

小寶:所以應該怎麼辦?

樹龍:這是全社會的重大問題,沒有人有現成答案。你只需要記住,“AI威脅論”不是杞人憂天,我們應該給這個問題更大的決策權重。

小寶:到此為止吧。我想說,你成功地對我進行了一次關於ChatGPT的訓練。

樹龍:我很欣慰,這可能會優化你大腦的算法。不過,ChatGPT只是一個開始,關於AI,我們還有很長的路要走。

本文來自微信公眾號“樹龍談”(ID:shulongtalk),作者:樹龍,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論