乍一看,溫哥華不列顛哥倫比亞大學一家著名人工智能實驗室最近發表的一批研究論文似乎並不引人注目。這些論文對現有算法和想法進行了漸進式改進,讀起來就像是中等人工智能會議或期刊的內容。
但這項研究確實非常了不起。因為它完全是 UBC 實驗室的一位“人工智能科學家”與牛津大學和一家名為Sakana AI 的初創公司的研究人員共同開發的成果。
該項目展示了可能成為革命性技巧的早期步驟:讓人工智能通過發明和探索新想法來學習。目前它們還不算超級新穎。幾篇論文描述了改進圖像生成技術(稱為擴散建模)的調整;另一篇論文概述了一種加速深度神經網絡學習的方法。
“這些想法並不具有突破性。它們並不具有極大的創造性,”UBC 實驗室負責人Jeff Clune教授承認道。“但它們看起來很酷,值得一試。”
儘管當今的人工智能程序非常出色,但它們受限於需要使用人類生成的訓練數據。如果人工智能程序能夠以開放式的方式學習,通過實驗和探索“有趣”的想法,它們可能會解鎖超出人類所展示的任何能力。
Clune 的實驗室之前曾開發過旨在以這種方式學習的 AI 程序。例如,一個名為 Omni 的程序試圖在幾個類似視頻遊戲的環境中生成虛擬角色的行為,將那些看起來有趣的行為歸檔,然後用新的設計對其進行迭代。這些程序以前需要手工編碼指令來定義有趣性。然而,大型語言模型提供了一種讓這些程序識別最有趣的內容的方法。Clune 實驗室最近的另一個項目使用這種方法讓 AI 程序構思出允許虛擬角色在類似 Roblox 的世界中做各種事情的代碼。
這位人工智能科學家是 Clune 實驗室探索各種可能性的一個例子。該程序會進行機器學習實驗,在法學碩士的幫助下確定最有希望的方案,然後編寫並運行必要的代碼——反覆進行。儘管結果不盡如人意,但 Clune 表示,隨著計算機能力的提升,開放式學習程序(就像語言模型一樣)可能會變得更加強大。
“感覺就像探索新大陸或新星球,”克魯恩談到法學碩士所解鎖的可能性時說道。“我們不知道會發現什麼,但無論我們走到哪裡,都會有新的東西。”
耶路撒冷希伯來大學助理教授、艾倫人工智能研究所 (AI2) 研究科學家湯姆·霍普 (Tom Hope ) 表示,人工智能科學家就像法學碩士一樣,似乎具有高度衍生性,不能被視為可靠。“現在沒有一個組成部分是值得信賴的,”他說。
Hope 指出,實現科學發現要素自動化的努力可以追溯到幾十年前,人工智能先驅Allen Newell和Herbert Simon在 20 世紀 70 年代的工作,以及後來Pat
蘭利在學習與專業知識研究所工作。他還指出,包括 AI2 團隊在內的其他幾個研究小組最近也利用 LLM 來幫助生成假設、撰寫論文和審查研究。“他們抓住了時代精神,”霍普談到 UBC 團隊時說道。“當然,這個方向非常有價值。”
基於法學碩士的體系是否能提出真正新穎或突破性的想法仍不清楚。“這是一個價值萬億美元的問題,”克魯恩說。
即使沒有科學突破,開放式學習對於開發更強大、更有用的人工智能系統來說也至關重要。投資公司 Air Street Capital 本月發佈的一份報告強調了 Clune 的工作在開發更強大、更可靠的人工智能代理(即在計算機上自主執行有用任務的程序)方面的潛力。大型人工智能公司似乎都將代理視為下一個大熱門。
本週,Clune 的實驗室公佈了其最新的開放式學習項目:一個發明和構建人工智能代理的人工智能程序。人工智能設計的代理在某些任務上的表現優於人類設計的代理,例如數學和閱讀理解。下一步將是設計方法,以防止此類系統生成行為不當的代理。“這具有潛在的危險性,”Clune 談到這項工作時說。“我們需要做好這件事,但我認為這是可能的。”




