作者:elizeliu
原創:R3PO
近期,AI 領域掀起了一股投資收購熱潮。全球知名企業 Salesforce 向 Anthropic 注資4.5億美元,而 Runway 則成功籌集到了1.41億美元的資金。此外,雪花公司也宣佈完成了對 Neeva 的收購,而中國國內巨頭美團則以20.65億收購了 AI 公司光年之外。
然而,最引人矚目的交易無疑是初創公司 MosaicML 的收購案。據瞭解,MosaicML 以約13億美元的價格被大資料巨頭 Databricks 收購,其估值在本次交易中翻了六倍,成為了今年上半年最大的收購案。僅成立2年時間,擁有60多名員工,是什麼撐起了MosaicML的高估值?
Databricks 收購 MosaicML,加速生成式 AI 技術民主化
Databricks 近期正式宣佈,以約13億美元(約93億元人民幣)收購生成式人工智慧初創公司 MosaicML,以提供為企業構建類 ChatGPT 工具的服務。
該收購之後,MosaicML 將成為 Databricks Lakehouse 平臺的一部分,MosaicML 的整個團隊和技術都將納入Databricks旗下,為企業提供統一的平臺來管理資料資產,並且能夠使用自己的專有資料來構建、擁有和保護自己的生成式 AI 模型。
MosaicML是一家非常年輕的生成式 AI 公司,它於2021年成立於舊金山,目前只公開披露過一輪融資,員工僅62人。在上一輪的融資中,其估值為2.2億美元,也就是說,此次收購 MosaicML 的估值直接躍升了6倍。此筆交易是截至目前今年生成式AI領域內所公佈的最大一筆收購案。就在不久前,雲端計算巨頭Snowflake剛剛宣佈收購了另一家生成式 AI 公司 Neeva。在經歷了幾個月的投資熱之後,大型企業對生成式AI初創公司的大規模併購潮似乎正在開啟。
Databricks 起源於 UC 伯克利,曾參與 Apache Spark 項目開發。作為資料儲存和分析巨頭,截至2022年估值310億美元,幫助 AT&T、殼牌、Walgreens 等大型公司處理資料。前段時間,剛開源了自己大模型Dolly,旨在以更少引數實現與ChatGPT類似的效果。而在雲端計算更加普及後,Spark 提出的“湖倉一體”理念,深深影響了一批大資料初創企業。自2013年成立後,Databricks火速成長為全球最火的 Data Infra 公司。去年,Databricks 公佈的年收入超過10億美元,而在2021年8月完成最新一輪融資後,其最新估值達到380億美金。
MosaicML MPT 系列模型的優勢
MosaicML 的MPT系列模型是從 HuggingFace PretrainedModel 基類中子類化的,與 HuggingFace 生態系統完全相容。MPT-7B模型是 MosaicML 最受歡迎的模型之一,擁有數十億個引數,可以處理超過2,000種自然語言處理任務。其中,MPT-7B 的優化層包括 FlashAttention 和低精度層範數等,可以讓該模型比傳統訓練方法快2-7倍,資源的近線性可伸縮性確保了具有數十億引數的模型可以在幾小時內訓練,而不是過去的幾天。MosaicML 還發布了新的可商用的開源大語言模型MPT-30B,擁有300億引數,並且效能優於 GPT-3。
資料來源:MT-Bench對MosaicML主流模型進行的評估
MPT 系列模型的優勢在於它們的高效性和低成本。使用大量資料進行“訓練”的人工智慧模型的複雜度急劇上升,訓練一個模型現在至少要花費數百萬美元,除了大公司之外,其他中小型企業普遍都無法承受。而 MosaicML 的 MPT 系列模型可以讓企業以更低的成本和更高的效率訓練自己的語言模型,從而可以更輕鬆地應用生成式 AI 技術,實現更好的業務表現。大多數開源語言模型只能處理最多具有幾千個 tokens 的序列(參見圖 1)。但是,藉助 MosaicML 平臺和 8xA100-40GB 的單個節點,使用者可以輕鬆微調 MPT-7B 以處理高達 65k 的上下文長度。處理這種極端上下文長度適應的能力來自ALiBi,這是MPT-7B中的關鍵架構選擇之一。
例如,《了不起的蓋茨比》的全文不到68k個 Token。在一個測試中,模型 StoryWriter 閱讀了《了不起的蓋茨比》並生成了一個尾聲。模型生成的尾聲之一如圖 2 所示。StoryWriter 在大約20秒內(每分鐘約15萬字)讀完了《了不起的蓋茨比》。由於序列長度較長,其“打字”速度比其他 MPT-7B 型號慢,每分鐘約105個單詞。儘管 StoryWriter 的上下文長度為 65k 進行了微調,但 ALiBi 使模型能夠推斷出比訓練更長的輸入:在《了不起的蓋茨比》的情況下為 68k 個 Token,在測試中高達 84k 個標記。
圖2:MPT-7B-StoryWriter-65k+ 為《了不起的蓋茨比》寫了尾聲。尾聲的結果是提供《了不起的蓋茨比》的全文(大約 68k 個Token)作為模型的輸入,後跟“尾聲”一詞,並允許模型繼續生成。
生成式AI技術的普及
生成式AI技術是人工智慧的一種分支,它利用大量的資料和深度學習演算法,能夠自動生成原始文字、影象和計算機程式碼等內容。這種技術的出現,讓人們可以更加便捷地處理資料、分析資料,更好地服務於人類的需求。隨著大資料和人工智慧技術的快速發展,生成式 AI 技術已經被廣泛應用於自然語言處理、影象識別和虛擬現實等領域。例如,在自然語言處理領域中,GPT-4 已經成為了最受歡迎的生成式AI模型之一,可以用於生成文章、翻譯語言和回答問題等任務。在影象識別領域,StyleGAN2 能夠生成高質量的影象,可以用於遊戲開發、影視製作和虛擬現實等領域。
MosaicML 的 CEO Naveen Rao 此前曾表示,自 2018 年以來,使用大量資料進行“訓練”的人工智慧模型的複雜度急劇上升,訓練一個模型現在至少要花費數百萬美元,除了大公司之外,其他中小型企業普遍都無法承受。而此次收購之後,Databricks 的 Lakehouse 平臺和 MosaicML 技術的聯合產品將能夠讓企業可以使用自己的專有資料來簡單、快速、低成本進行生成式AI模型的訓練和構建,在讓使用者擁有資料的控制權和所有權的情況下,可以進行自定義 AI 模型開發。根據 Databricks 的相關說法,在 Databricks 和 MosaicML 的平臺和技術支援下,企業訓練和使用 LLMs 的成本將顯著降低,預計可以降至數千美元左右。這為生成式 AI 的普及提供了便利。
Databricks 收購 MosaicML 的意義
Databricks 收購 MosaicML 的主要目的是加速生成式AI技術的發展和民主化。通過將兩家公司的技術和資源整合起來,Databricks可以更好地滿足客戶的需求,提供更高效、更便捷的解決方案。具體而言,該收購將帶來以下幾個方面的改變:
1. 更高效的大語言模型
Databricks 收購 MosaicML 後,可以將 MPT 系列模型整合到其 Lakehouse 平臺中,為客戶提供更高效、更低成本的大語言模型。這將有助於企業更好地處理自然語言處理任務,提高業務效率和準確性。
2.更快的模型訓練速度
MosaicML 的 MPT 系列模型具有快速訓練的特點,這將有助於 Databricks 提供更快速的模型訓練服務。這對於需要快速響應市場需求的企業來說尤為重要,可以幫助他們更好地滿足客戶的需求。
3. 更高的民主化程度
Databricks 收購 MosaicML 也意味著生成式 AI 技術的民主化程度將會進一步提高。MosaicML 的 MPT 系列模型可以讓中小型企業更輕鬆地訓練自己的語言模型,從而可以更好地應用生成式AI技術,實現更好的業務表現。這將有助於推動生成式AI技術的發展和應用,促進人工智慧技術的普及和發展。
總結
生成式人工智慧應用程式旨在根據使用者的自然語言提示生成原始文字、影象和計算機程式碼。自去年11月人工智慧初創公司 OpenAI 推出線上生成AI聊天機器人 ChatGPT 以來,人們對這項技術的興趣激增。“每個組織都應該能夠從人工智慧革命中受益,並對其資料的使用方式有更多的控制。Databricks 和 MosaicML 有一個難以置信的機會來實現人工智慧的民主化,並使 Lakehouse 成為構建生成式人工智慧的最佳場所。”Databricks 聯合創始人兼執行長 Ali Ghodsi表示。
Databricks 收購 MosaicML 的意義不僅在於加速生成式 AI 技術的發展和民主化,更在於將兩家公司的技術和資源整合起來,為客戶提供更高效、更便捷的解決方案。隨著人工智慧技術的快速發展和應用,生成式AI技術將扮演著越來越重要的角色,Databricks 收購 MosaicML 的舉動也體現了各企業對於這個方向的重視和投資。像 Anthropic 和 OpenAI 這樣的公司將現成的語言模型授權給企業,然後企業在其上構建生成 AI 應用程式。在對這些模型的強勁商業需求的推動下,為像 MosaicML 這樣的初創公司創造了機會。從 Snowflake 和 Databricks 接連的收購步伐中我們可以看到,大型科技公司對於生成式 AI 技術正在從自主研發、戰略投資逐步邁向兼併收購階段。
參考來源:
https://www.databricks.com/company/newsroom/press-releases/databricks-signs-definitive-agreement-acquire-mosaicml-leading-generative-ai-platform
https://mattturck.com/mosaic/
https://twitter.com/lmsysorg/status/1672077353533730817/photo/1
https://www.mosaicml.com/blog/mpt-7b#appendix-eval
https://www.mosaicml.com/blog/mpt-30b
原文來源:https://mp.weixin.qq.com/s/WG1zoLeROkrfD1jT2CZyIA



