0

作者丨何思思
編輯丨林覺民
“公司在用最高戰略的方式做這件事,”談到大模型時云從科技副總裁姜迅如是說。
2015年成立之時,云從科技就定調自己是一家AI平臺公司, 雖然云從科技是“四小龍”中成立最晚的一家,但是其在AI方面的表現并不遜色。
自成立之初,云從科技就將發展方向定位在人機協同操作系統,一方面,包括根據不同應用場景客戶需求提供的多種人機協同應用產品和整體操作系統,服務于客戶單點業務效能提升和整體業務升級;另一方面也包括通用服務平臺“輕舟平臺”,能開放引入生態伙伴共同開發AI應用及配套SaaS服務。
此外,在人工智能基礎上,云從科技還增加了對機器人、物聯網等技術研究投入,試圖構建更為標準化的AI產品。借助底層操作系統這一統一入口,提供人機協同相關算力、算法、數據管理能力和應用接口,從而構建自己的生態閉環。
如今,人機協同操作系統的定位也一直延續到了大模型時代。姜迅表示,雖然公司內部沒有明確的‘最高戰略’的提法,但對這件事情的重視度已經非常高了,我們不用‘最’這個詞,用優先級來說,它確實是一個非常高的優先級。
反觀國內大模型的發展,大部分企業仍停留在追熱點階段,并沒有實質性進展。那云從是否也在追熱點?姜迅給出了否定的答案。他表示,我們還在研究我們的人機協同操作系統,在GPT技術之上,人機協同操作系統的智商會越來越高,它不僅會增加其上限,還能降低成本,這能在很大程度上讓該系統更好地服務客戶,競爭優勢也會增加。
雷峰網了解到,云從科技日前已經推出了自研“從容”大模型。據姜迅介紹,除自研模型外,云從已經聯合不同領域的不同企業推出了7款行業大模型,諸如游戲行業、金融行業、交通行業、醫療行業等。
并且他還坦言,C端、B端、G端都會做,我們肯定會結合自身的行業優勢,選擇最值得深耕的一些特定的行業,而不是全行業的拓展,一定是要有重點的。
以下是雷峰網和姜迅的對話:
關注的不是BERT或GPT,而是整個大模型技術的演進
雷峰網:什么時候開始關注大模型的?
姜迅:其實關注很長時間了,2022年Google的LaMDA出來后,他們的研究員被強制休假了,那時就已經意識到這個事情要發生了。要說關注因為要做人機協同操作系統,我們有個產品叫知識服務—knowledge as service,這個應該更早一點,對自然語言處理的技術進展一直是和行業前沿保持同步的。
從產品邏輯上,2019年底2020年初就提出了五大模塊,包括AI數據湖、智能業務流、算法工廠、人機交互和知識服務,只是GPT出來后,從系統架構的視角看,知識服務從傳統的NLP以及知識圖譜等技術升級為大模型這個能力更強的引擎。但我們的整體系統架構一直穩定的,只是說我們現在在用一種更新的技術來解決問題,所以不是突然之間,是很早就在做了。
雷峰網:為什么很早就提出了五大模塊?
姜迅:是這樣的,周曦老師一直強調要有更好的系統架構設計官,所以設計出了五大模塊。他一直強調要把大的系統模塊設置好,要定義好模塊之間的交互的語言,那在這個過程中模塊之間的技術是不斷迭代更新的。比如之前用機器學習,后來用深度學習,再到現在的大模型,可能再過一兩年又有新的技術了,就是在系統的大模塊保持架構穩定,單點技術的進步會增強各自模塊的能力,這樣在保證系統的完整性的同時,可以穩定的增強系統的競爭力。
雷峰網:與之前技術棧相比,大模型帶來了哪些變化?
姜迅:大模型帶來的是范式的變化,過去每一個任務都需要做單獨訓練,盡管能看到各行各業對于AI技術旺盛的需求,有時候會有一些非常細碎的場景,比如檢驗螺絲釘有沒有裂紋等等,由于這些場景對于單個用戶在前期階段很難覆蓋研發成本,這導致這些場景想要建立正向的商業循環是比較困難的。有些同行的朋友比喻為“為了喝一口水,挖了一口井”。
預訓練大模型其實很好地解決了這個問題,預訓練模型在大規模無標簽數據上進行一次訓練后,可以在多個具體任務上進行指令微調。這使得預訓練模型能夠在不同領域和任務中實現迅速的遷移和泛化,減少了在小樣本數據下過擬合的風險。
我們確定了基礎模型以后,只需要在這個基礎上加入新的知識,原有投入訓練成本得到了保護,對于整個社會的算力資源也是一種保護。
雷峰網:保護投資的意思是,這次訓練的算力下次還能用?
姜迅:我們是把一些通識能力放到大模型中然后再不斷累加,也就是說在現有能力之上,通過追加新的數據增強模型的能力,這樣就可以把模型的智商從 80 提到 90、100 ,隨著更多的數據和知識通過預訓練的方式加入模型,模型的智商會越來越高。
其實我們可以把預訓基礎模型比作一個人,它現在相當于一個高中生,學會了基礎加減乘除等基礎的運算邏輯,然后再不斷提升它的智商。這個過程不需要重新開始,而是在上一個能力的基礎上做疊加,這就是對投資的保護,之后的訓練工作量變少了,但是能力卻變的更強了。
當一個新技術出來后,你要做得是先去了解他,然后去擁抱他。
雷峰網:目前云從對大模型的定位是什么樣的?是在追熱點嗎?
姜迅:我們是在用最高戰略的方式做這件事情,而不是追熱點。因為大模型技術已經相對成熟了,它不僅會增加人機協同操作系統的上限,還能降低成本,這能在很大程度上讓我們的人機協同操作系統更好地服務客戶,競爭優勢也會增加。
這是我們對這個事情的認知,不是說我們要去蹭這個熱點,我們還在研發人機協同操作系統。
雷峰網:也就是說最終交付的還是人機協同操作系統?
姜迅:對,只是依托GPT這個引擎,人機協同操作系統的智商更高了。原來我們用傳統機器學習、知識圖譜的方式,它也是一個有智商的智能體系,只是它的智商相對低,處理的任務也相對有限。
雷峰網:大模型具體怎么和人機協同操作系統結合?
姜迅:大家首先感知到的是交互方式的變化,從原來的點擊鼠標變成人機交互,其次就是它一定會對每個行業的行業知識有更深刻的理解。
降本增效是必然,還會帶來洞察業務的價值
雷峰網(公眾號:雷峰網):訓練出一個相對成熟的大模型要多久?
姜迅:我們做這件事情有兩個步驟:第一步先完成高中教育,這個過程我們對它沒有盈利的目標。就是先做技術項目,這也是基礎模型要做的事情。
第二步把行業知識灌給他,這樣就可以培養出不同領域的專家,然后給不同領域的客戶服務。但前提是我要有一個智商比較高的基礎模型,這樣才能保證他能做你要求他做的事情。
雷峰網:現在有沒有具體的場景應用案例了?
姜迅:比如用大模型做數據分析,一是人力開發會被大大降低,原來的模式可能需要五六個研發,現在不需要了,開發人數減少也意味著效率會增加;二是時間變短了,原來可能需要一到兩周甚至一到兩個月的時間,現在可能一兩分鐘就解決了,這兩點是效率提升上的價值的。
除此之外,還有一個非常重要的影響是,大模型通過讓業務人員直接操作數據,和系統、數據的距離更近了。還是上面數據分析的例子,銷售主管想要分析最近的銷售趨勢,從匯總的數字上看,銷售的數據沒有明顯的波動和變化。技術人員在開發功能的時候,可能看到了在A區域有明顯的上漲,在B區域有明顯的下跌,技術人員如果沒有業務敏感性的話,這些異常的數據波動被當做數據噪音處理掉了,最終的報表體現為沒有波動;這種距離的拉近,不僅僅是節省了幾個開發人員,還有可能帶來業務的數據洞察,從而帶來巨大的商業價值。
雷峰網:其實除了降本增效外,還要解決胡說八道的問題?
姜迅:有時候胡說八道并不是一件壞事,比如文娛行業,有時候可以利用它胡說八道的特性來設計一些比較搞笑的場景,做一些開放性的回答也是有價值的。
那在比較嚴肅的行業里,確實不能胡說八道,針對這個問題我們有幾種不同的方式解決或者緩解這個問題。比較通用的方法是用embedding的方式解決,對此我們有一個專門的產品——書語,你給我一個企業的知識,可以是操作手冊,用戶的文檔,用戶回答問題的數據,只要你給我一個行業里的可信的數據源就可以,基于這些數據我們可以約束生成的答案,這個過程我們不用大模型生成答案,而是讓他在你給定的文檔范圍內生成答案。
我們的產品可以做多文檔輸出,不局限于單個文檔,就是可以對多個文檔的內容理解后給出你想要的答案,甚至可以理解文檔中圖片的內容再做輸出。其實new bing也是類似的邏輯,他不是讓GPT直接生成答案,而是先從可信的信源內搜索答案,然后大模型把這幾個文檔的內容理解了,再輸出結果。這時問題的答案才更全面、更可靠。
書語的邏輯就是讓這本書會說話,那這本書是個泛化的書,它可以是一本書,也可以是一個手冊、一個規章制度、一個法律條文等,從另外一個角度,比如在文娛行業,它相當于一個可以和人溝通的智能體,這個產品的設計思想就是幫助行業解決落地問題。
雷峰網:未來有沒有側重點,比如聚焦哪些行業?
姜迅:C端、B端、G端都在做,我們發布的模型中大概有7個行業大模型,這些都是我們重點拓展的領域,我們肯定會結合自身的行業優勢,選擇我們最值得深耕的一些特定的行業,而不是做全行業的拓展,一定要有重點。
未來大模型可能是人類命運共同體的鑰匙
雷峰網:您怎么看待國內大模型的發展?
姜迅:國內大模型發展的速度還是很快的,現在OpenAI已經告訴你了,沿著這個路線走一定能看到創新,目前國內的大模型肯定是沒辦法上線的,但業內從業人員對這件事情的認知被高度統一了,這是特別重要的一個點。
之前大家的狀態是:你有你的方法,我有我的方法,可能在這個任務上你的領先一點,在那個任務上他的領先一點。但ChatGPT出來后大家對這件事情的認知空前統一,已經變成了全行業統一要做的事情。
關于大模型,我有一個越來越強烈的感覺,它會超越公司與公司之間,國家與國家的競爭,可能會是人類命運共同的鑰匙。手持這把鑰匙,我們可能正在跨越人類歷史上最重要的一個門檻,進入AGI(通用人工智能)。
現在大家都認為GPT的迭代遠超過之前任何一項技術,所以不管是付費的、開源的還是免費的都不重要,都愿意加入進去,參與到全球化的競爭中去,為這場技術競爭貢獻自己的力量,這樣就形成了一個合力,這是發展快的一個非常重要的原因。
雷峰網:您認為國內和國外的大模型的差距還有多大?
姜迅:之前大家說差2年甚至更久,但從現在的發展來看,追趕速度非常快,遠比預期快。
第一,業內從業者對這個事情的認知被統一了,形成了合力,全社會的力量總比一個單獨的商用公司往前走的力量大,所以趕超速度是非常驚人的;現在國內很多模型已經能夠在某些任務上追上3.5的水平了,這是一個非常明確的趨勢;
第二,OpenAI處在一個開放性的工作環境中,他已經告訴你這個路徑是正確的,這時我再去追趕遠比一個開創者消耗的資源要少。其實做研究最怕前面的路是黑的,我不知道什么時候往前走,往前走一步兩步還是三步,是繼續沿著這個方向走,還是換個方向走,這是非常迷茫的,消耗的資源也是最大的。一旦有人告訴你朝著前面的燈走就可以,你就不會猶豫了。
第三,對算力的需求已經沒有大家想象的那么高的,OpenAI 原來的論文提到訓練GPT3一次要1200萬美金,現在隨著算法和數據質量的不斷提升,訓練GPT4一次的成本已經從6300萬美金被快速降低到2500萬美金,后續這個趨勢應該還會更加加速。
實際上數據質量對訓練的效率有很大的影響,越臟的數據訓練的時間越長,甚至會把模型訓歪掉。相反高質量的數據,不僅能加速訓練時間還能降低對算力的要求。包括OpenAI的論文提到原始數據是40T,最后應用到訓練的數據大概有個570G,99%的數據被清洗了,所以高質量的數據對大模型的訓練至關重要。
雷峰網:所以美國的算力封鎖對中國也造不成很大的影響?
姜迅:對,訓練一次也就一兩千張卡,三四個月的時間。最關鍵是的整個過程它對資源是保護的,就是當我訓完一次之后,后面再做增量訓練不用重新開始,只需要在原有的投資上做二次訓練就可以了,所以真的沒有大家想象的那么高,至少在推理方面已經不需要A100了,用 T4 的卡就能做推理,很快大量的國產硬件也都能做推理了。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。