能取代90%人工作的ChatGPT到底牛在哪里
人工智能研究實(shí)驗(yàn)室OpenAI在2022年11月30日發(fā)布了自然語(yǔ)言生成模型ChatGPT,上線(xiàn)兩個(gè)月就已經(jīng)超過(guò)一億用戶(hù),成為了人工智能界當(dāng)之無(wú)愧的超級(jí)大網(wǎng)紅。ChatGPT憑借著自身強(qiáng)大的擬人化及時(shí)應(yīng)答能力迅速破圈,引起了各行各業(yè)的熱烈討論。簡(jiǎn)單來(lái)說(shuō)ChatGPT就是可以基于用戶(hù)文本輸入自動(dòng)生成回答的人工智能聊天機(jī)器人。那肯定會(huì)有人說(shuō)這不就是Siri嘛,雖然都是交互機(jī)器人但是兩者的差別可老大了。那么ChatGPT在人機(jī)交互時(shí)為什么會(huì)有這么出色的表現(xiàn)?它到底會(huì)不會(huì)取代搜索引擎?90%的人真的會(huì)因?yàn)镃hatGPT的出現(xiàn)而面臨失業(yè)的危險(xiǎn)嗎?帶著這些疑問(wèn)我們一起來(lái)看看ChatGPT到底有哪些過(guò)人之處以及未來(lái)會(huì)給行業(yè)帶來(lái)怎樣的變革。
ChatGPT到底是個(gè)啥
誰(shuí)搞出來(lái)的ChatGPT
OpenAI的創(chuàng)始人Sam Altman是一個(gè)8歲就會(huì)編程的天才,在2015年他聯(lián)合特斯拉老板馬斯克、天使投資人彼得·泰爾等一眾硅谷大佬創(chuàng)辦了OpenAI,這是一家人工智能研究實(shí)驗(yàn)室,主要由盈利組織 OpenAI LP 與母公司非盈利組織 OpenAI Inc 所組成,目的是促進(jìn)和發(fā)展友好的人工智能,避免人工智能脫離人類(lèi)控制。OpenAI重點(diǎn)研究開(kāi)發(fā)尖端的人工智能技術(shù),其中包括機(jī)器學(xué)習(xí)算法、強(qiáng)化學(xué)習(xí)以及自然語(yǔ)言處理等。OpenAI在2022年11月30日發(fā)布了ChatGPT,正式向外提供實(shí)時(shí)的在線(xiàn)問(wèn)答對(duì)話(huà)服務(wù)。
ChatGPT是什么
《知識(shí)的邊界》一書(shū)中有這樣一段話(huà):
當(dāng)知識(shí)變得網(wǎng)絡(luò)化之后,房間里最聰明的那個(gè),已經(jīng)不是站在屋子前頭給我們上課的那個(gè),也不是房間里所有人的群體智慧。房間里最聰明的人,是房間本身:是容納了其中所有的人與思想,并把他們與外界相連的這個(gè)網(wǎng)。
我對(duì)這句話(huà)的理解就是,互聯(lián)網(wǎng)上擁有全人類(lèi)的知識(shí)以及經(jīng)驗(yàn),為人工智能提供了海量的學(xué)習(xí)數(shù)據(jù),當(dāng)這些知識(shí)和經(jīng)驗(yàn)被有序的進(jìn)行組織之后,也同時(shí)為為訓(xùn)練一個(gè)“懂王”人工智能應(yīng)用提供了豐沛的數(shù)據(jù)土壤。而ChatGPT就是被互聯(lián)網(wǎng)海量的文本數(shù)據(jù)以及語(yǔ)言資料庫(kù)數(shù)據(jù)喂養(yǎng)訓(xùn)練之后,它就可以根據(jù)你輸入文字的內(nèi)容來(lái)生成對(duì)應(yīng)的回答,就好像兩個(gè)人在一問(wèn)一答的聊天。它除了可以和你無(wú)障礙的進(jìn)行溝通,甚至讓你感覺(jué)你對(duì)話(huà)的不是一個(gè)聊天機(jī)器人而是一個(gè)學(xué)識(shí)淵博又有點(diǎn)風(fēng)趣的真實(shí)的人,回答出來(lái)的答案甚至帶有人類(lèi)的某種語(yǔ)氣,這在以往的聊天機(jī)器人中是不敢想象的。
這里稍微說(shuō)明下ChatGPT的字面含義,它是一款通用自然語(yǔ)言生成模型,Chat是對(duì)話(huà)的意思,而所謂GPT就是Genarative Pre-trained Transformer,意思就是生成型預(yù)訓(xùn)練轉(zhuǎn)換模型,聽(tīng)上去是不是有點(diǎn)不明覺(jué)厲的感覺(jué)。
除此之外,你還可以讓他幫你完成一些實(shí)際的工作,比如寫(xiě)文案、寫(xiě)劇本甚至可以幫你直接寫(xiě)代碼出來(lái)還可以幫你找到代碼的bug,這是程序員要把自己飯碗給砸碎而且是稀碎的節(jié)奏啊,在文字以及代碼層面可以說(shuō)是無(wú)所不能。這種輸入問(wèn)題立馬給答案的交互方式,遠(yuǎn)勝于傳統(tǒng)搜索引擎在海量數(shù)據(jù)中查找自己需要內(nèi)容的使用感受,因此可以預(yù)見(jiàn)在不久的將來(lái)ChatGPT將會(huì)顛覆傳統(tǒng)的搜索引擎,徹底改變信息檢索的使用方式。
另外ChatGPT還可以在上下文語(yǔ)境下回答問(wèn)題、同時(shí)能夠主動(dòng)承認(rèn)自己的不足以及挑戰(zhàn)問(wèn)題的合理性。以下就是ChatGPT在否定我提出來(lái)的問(wèn)題。
PS:幫大家問(wèn)了ChatGPT如何成為世界首富,秘訣在下面。
正因?yàn)镃hartGPT具備這樣強(qiáng)大的理解能力、學(xué)習(xí)能力以及創(chuàng)作能力,促使它成為AI人工智能誕生以來(lái),面向C端用戶(hù)增長(zhǎng)最快的智能應(yīng)用產(chǎn)品。在以前,人工智能C端產(chǎn)品總是被認(rèn)為不夠智能甚至被嘲笑是“人工智障”,即便在B端也只是某些場(chǎng)景下使用,普通人根本感受不到AI人工智能的威力,但是ChatGPT的出現(xiàn)可能預(yù)示著未來(lái)人工智能將融入到普通人的生活當(dāng)中。
PS:我真怕他回答有。
ChatGPT為什么這么強(qiáng)?
雖然ChatGPT是一夜爆紅,但是其背后的技術(shù)發(fā)展卻并不是一蹴而就的。因此如果我們要想搞清楚ChatGPT為什么如此強(qiáng)悍,我們就得弄明白其背后實(shí)現(xiàn)的技術(shù)原理到底是怎樣的。
語(yǔ)言模型迭代
我們都知道自然語(yǔ)言是人類(lèi)進(jìn)行交流溝通的最重要的工具,因此如何讓機(jī)器可以和人通過(guò)自然語(yǔ)言進(jìn)行無(wú)障礙的溝通交流一直是人工智能領(lǐng)域孜孜不倦追求的目標(biāo)。而NLP(Natural Language Processing,自然語(yǔ)言處理)就是計(jì)算機(jī)科學(xué)領(lǐng)域和人工智能領(lǐng)域?qū)iT(mén)研究讓機(jī)器可以理解自然語(yǔ)言同時(shí)在此基礎(chǔ)上進(jìn)行響應(yīng)的重要研究方向。那么要想讓計(jì)算機(jī)可以識(shí)別自然語(yǔ)言,那么需要對(duì)應(yīng)的語(yǔ)言模型來(lái)對(duì)文本進(jìn)行分析處理。而語(yǔ)言模型的大致原理就是對(duì)語(yǔ)言文本進(jìn)行概率建模,通過(guò)模型來(lái)預(yù)測(cè)下一段輸出內(nèi)容的概率。大致的過(guò)程如下所示,通過(guò)語(yǔ)言模型將一段話(huà)后面的出現(xiàn)概率最高的語(yǔ)句進(jìn)行輸出。
語(yǔ)言模型可以分為統(tǒng)計(jì)語(yǔ)言模型以及神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型。而ChatGPT就屬于神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型,它在經(jīng)過(guò)多個(gè)版本的迭代優(yōu)化后才有了今天震驚四座的優(yōu)秀表現(xiàn)。我們可以簡(jiǎn)單梳理下LM(Language Model,語(yǔ)言模型)的發(fā)展脈絡(luò),看看語(yǔ)言模型是怎么一步步進(jìn)行進(jìn)化的,這對(duì)我們理解ChatGPT背后的技術(shù)原理非常有幫助。
RNN
RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))在NPL領(lǐng)域有著廣泛的應(yīng)用。上文我們提到的NLP要解決的是讓機(jī)器理解自然語(yǔ)言的問(wèn)題,因此如果讓機(jī)器理解一句話(huà)的含義,肯定不能只理解這句話(huà)中每個(gè)單詞是什么意思,而應(yīng)該處理這句話(huà)連起來(lái)之后的序列所表達(dá)的的含義是什么,而RNN解決的是就是樣本數(shù)據(jù)為序列的建模問(wèn)題。
但是RNN存在效率問(wèn)題,在處理語(yǔ)言序列的時(shí)候是通過(guò)串行化的方式來(lái)進(jìn)行的,也就是說(shuō)后一個(gè)單詞的的處理需要等到前一個(gè)單詞的狀態(tài)輸出后才能進(jìn)行,另外還有梯度爆炸和遺忘等問(wèn)題。因此人工智能專(zhuān)家們不斷在此基礎(chǔ)上進(jìn)行模型優(yōu)化。
Transformer
Google Brain 2017年在《Attention Is All You Need》論文提出了Transformer模型,這是一個(gè)基于自注意力機(jī)制的深度學(xué)習(xí)模型,主要針對(duì)RNN的問(wèn)題進(jìn)行了優(yōu)化設(shè)計(jì)。特別是串行化出列文本序列的問(wèn)題,Transformer模型可以同時(shí)處理文本序列中所有的單詞,同時(shí)序列中任意單詞的距離都為1,避免了RNN模型中因?yàn)樾蛄羞^(guò)長(zhǎng)到導(dǎo)致的距離過(guò)長(zhǎng)問(wèn)題。Transformer模型的提出可以說(shuō)是NLP領(lǐng)域跨越式發(fā)展的重要標(biāo)志,因?yàn)楹罄m(xù)著名的BERT模型以及GPT模型都是基于Transformer模型演化而來(lái)的。下圖為T(mén)ransformer模型結(jié)構(gòu)。
編
GPT、GPT-2
無(wú)論是原始的GPT模型還是最新的ChatGPT模型其實(shí)都是以Transformer模型為核心結(jié)構(gòu)的語(yǔ)言模型。GPT使用的是Transformer模型的Decoder組件,比較適合根據(jù)上文回答下文的場(chǎng)景。
為了提高訓(xùn)練的精準(zhǔn)度,很多機(jī)器學(xué)習(xí)的訓(xùn)練任務(wù)都是采用標(biāo)記的dataset來(lái)完成,但是實(shí)際上標(biāo)注數(shù)據(jù)是一個(gè)工作量很大的事情會(huì)耗費(fèi)大量的人力和時(shí)間。因此隨著算力的不斷增強(qiáng),實(shí)際上我們需要對(duì)更多的未進(jìn)行人工標(biāo)記的數(shù)據(jù)進(jìn)行訓(xùn)練。因此GPT提出了新的自然語(yǔ)言訓(xùn)練范式就是通過(guò)海量的文本數(shù)據(jù)來(lái)進(jìn)行無(wú)監(jiān)督學(xué)習(xí)從而能實(shí)現(xiàn)模型訓(xùn)練。這也是GPT采用了Pre-training + Fine-tuning的訓(xùn)練模式的原因。GPT的模型結(jié)構(gòu)如下,它的訓(xùn)練目標(biāo)就是根據(jù)上文來(lái)預(yù)測(cè)下文。
而GPT-2實(shí)際在模型結(jié)構(gòu)上并沒(méi)有大的改變,只是進(jìn)行了簡(jiǎn)單的調(diào)整,主要是GPT-2使用了更多的模型參數(shù)以及更多的訓(xùn)練數(shù)據(jù)。它的目標(biāo)就是訓(xùn)練出一個(gè)泛化能力更強(qiáng)的語(yǔ)言模型,所謂泛化就是應(yīng)對(duì)沒(méi)有遇到過(guò)的問(wèn)題的能力。
GPT-3
2020年OpenAI在論文《Language Models are Few-Shot Learners》中提出了GPT-3模型,它使用的模型參數(shù)兩以及訓(xùn)練數(shù)據(jù)量都非常大。它主要提出了LLM的上下文學(xué)習(xí)的能力。
編輯搜圖
GPT-3探討了模型在Zero-shot、One-shot、Few-shot三種不同輸入形式下的效果。它主要考慮如何讓通過(guò)已有問(wèn)題預(yù)測(cè)可能的回答,這里稍微解釋下Zero-shot、One-shot、Few-shot,Zero-shot意味著只給提示,One-shot會(huì)給一個(gè)范例,F(xiàn)ew-shot意味著給多個(gè)范例。但是它是沒(méi)有考慮回答的內(nèi)容是不是符合人類(lèi)的預(yù)期的,這也是后期InstructGTP最主要的優(yōu)化方向。
編輯搜圖
通過(guò)下表可以看的出來(lái)GPT訓(xùn)練的參數(shù)量級(jí)以及數(shù)據(jù)量級(jí)爆發(fā)性增長(zhǎng),當(dāng)模型迭代到GPT-3的時(shí)候,參數(shù)量已經(jīng)過(guò)千億,預(yù)訓(xùn)練數(shù)據(jù)量達(dá)到45TB,可以說(shuō)是一個(gè)實(shí)打?qū)嵉某?jí)LLM模型了。巨大的模型參數(shù)量以及預(yù)訓(xùn)練數(shù)據(jù)量也帶來(lái)了訓(xùn)練成本的不斷攀升,GPT-3的訓(xùn)練成本高達(dá)1200美元。
編輯搜圖
目前OpenAI還尚未就ChatGPT公開(kāi)對(duì)應(yīng)的論文,但是實(shí)際上的它的核心思想和OpenAI在2022年發(fā)表的論文《Training language models to follow instructions with human feedback》基本是一致的,InstructGPT最重要的優(yōu)化就是引入了RLHF(Reinforcement Learning from Human Feedback,基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí) )技術(shù)。通過(guò)讓模型學(xué)習(xí)人類(lèi)對(duì)話(huà)的過(guò)程以及讓人類(lèi)標(biāo)注評(píng)價(jià)排序模型回答的結(jié)果來(lái)微調(diào)原始模型,使得收斂后的模型在回答問(wèn)題的時(shí)候能夠更加符合人類(lèi)的意圖。
另外這篇論文中提出來(lái)的InstructGPT訓(xùn)練方法實(shí)際和ChatGPT也基本是一樣的,只是在獲取數(shù)據(jù)的方式上稍有差別,因此InstructGPT可以說(shuō)和ChatGPT是一對(duì)兄弟模型。我們具體來(lái)看下ChatGPT是怎么被訓(xùn)練出來(lái)的,以及ChatGPT如何解決讓模型回答的答案更加符合人類(lèi)的意圖或者說(shuō)偏好。
編輯搜圖
上面的訓(xùn)練過(guò)程可能看起來(lái)有點(diǎn)復(fù)雜,經(jīng)過(guò)簡(jiǎn)化之后如下圖所示,這樣應(yīng)該更加便于同學(xué)理解ChatGPT模型是怎么被訓(xùn)練出來(lái)的。根據(jù)官網(wǎng)給出的步驟,它的核心訓(xùn)練思想就是收集反饋數(shù)據(jù)-》訓(xùn)練獎(jiǎng)勵(lì)模型-》PPO強(qiáng)化學(xué)習(xí)。
編輯搜圖
ChatGPT訓(xùn)練過(guò)程主要分為三個(gè)階段:
其實(shí)對(duì)于LLM(Large Language Model,大語(yǔ)言模型)來(lái)說(shuō),并不是說(shuō)訓(xùn)練的樣本數(shù)據(jù)越多越好,為什么這么說(shuō)呢?因?yàn)橄馛hatGPT這種大語(yǔ)言預(yù)訓(xùn)練模型都是在超大參數(shù)以及海量數(shù)據(jù)中被訓(xùn)練出來(lái)的,這些海量樣本數(shù)據(jù)實(shí)際上對(duì)于人工智能專(zhuān)家來(lái)說(shuō)時(shí)透明的,也是無(wú)法控制的。因此如果樣本數(shù)據(jù)中帶有一些種族歧視、暴力等不良的數(shù)據(jù)的時(shí)候,可能預(yù)訓(xùn)練出來(lái)的模型就會(huì)帶有這些不好的內(nèi)容屬性。但是對(duì)于人工智能專(zhuān)家來(lái)說(shuō),必須要保證人工智能的客觀(guān)公正不帶有任何的偏見(jiàn),而ChatGPT也正是朝著這個(gè)方面來(lái)進(jìn)行訓(xùn)練。
因此ChatGPT通過(guò)監(jiān)督學(xué)習(xí)的方式來(lái)進(jìn)行模型訓(xùn)練,所謂監(jiān)督學(xué)習(xí)就是要在“有答案”的dataset上進(jìn)行學(xué)習(xí)。為此,OpenAI雇傭了40家承包商來(lái)進(jìn)行數(shù)據(jù)標(biāo)記工作,首先讓這些標(biāo)記人員模擬人機(jī)交互進(jìn)行多輪的語(yǔ)言交互,在這個(gè)過(guò)程中會(huì)產(chǎn)生對(duì)應(yīng)的人工精標(biāo)數(shù)據(jù),這些精標(biāo)數(shù)據(jù)用來(lái)對(duì)GPT-3.5模型來(lái)進(jìn)行微調(diào)以便于獲得SFT(Supervised Fine-Tuning)模型。
隨機(jī)抽取一批prompt數(shù)據(jù)后,使用第一階段微調(diào)后的模型進(jìn)行不同問(wèn)題的自動(dòng)回復(fù),然后讓標(biāo)記人員對(duì)回答出來(lái)的結(jié)果進(jìn)行從好到壞排序,排序出來(lái)的結(jié)果數(shù)據(jù)用來(lái)訓(xùn)練Reward Model,在此過(guò)程中,對(duì)排序的結(jié)果繼續(xù)進(jìn)行兩兩組合形成排序訓(xùn)練數(shù)據(jù)對(duì),Reward Model接受數(shù)據(jù)對(duì)輸入來(lái)給出回答質(zhì)量的分?jǐn)?shù)。這個(gè)Reward Model從本質(zhì)上來(lái)講就是抽象出來(lái)的人類(lèi)真實(shí)意圖。因?yàn)橛辛诉@關(guān)鍵的一步,Reward Model可以不斷引導(dǎo)模型朝著符合人類(lèi)意圖的方向去產(chǎn)生對(duì)應(yīng)的回答結(jié)果。
編輯搜圖
PPO 是一種信賴(lài)域優(yōu)化算法,它使用梯度約束來(lái)確保更新步驟不會(huì)破壞學(xué)習(xí)過(guò)程的穩(wěn)定性。在這個(gè)階段繼續(xù)抽取一批prompt數(shù)據(jù)之后,使用階段二構(gòu)造出來(lái)的Reward Model來(lái)對(duì)微調(diào)后的訓(xùn)練模型的回答進(jìn)行打分來(lái)更新預(yù)訓(xùn)練的參數(shù)。通過(guò)Reward Model對(duì)產(chǎn)生高分回答進(jìn)行獎(jiǎng)勵(lì),由此產(chǎn)生的策略梯度可以更新PPO模型參數(shù)。不斷循環(huán)迭代直至最終收斂模型。
編輯搜圖
可以看的出來(lái)實(shí)際上ChatGPT訓(xùn)練的過(guò)程實(shí)際就監(jiān)督學(xué)習(xí)結(jié)合RLHF技術(shù)應(yīng)用落地的過(guò)程,ChatGPT實(shí)際上就是靠RLHF技術(shù)來(lái)實(shí)現(xiàn)生成一個(gè)比較符合人類(lèi)預(yù)期的回答。
編輯搜圖
通過(guò)上面的模型訓(xùn)練過(guò)程,我們總結(jié)下來(lái)ChatGPT之所以具備強(qiáng)大的上下文理解能力,主要得益于三個(gè)方面的關(guān)鍵能力,分別是強(qiáng)大的基礎(chǔ)模型、高質(zhì)量的樣本數(shù)據(jù)以及基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)。
編輯搜圖
最核心的還是RLHF技術(shù),通過(guò)訓(xùn)練來(lái)找到最能解釋人類(lèi)判斷的reward函數(shù),然后不斷訓(xùn)練進(jìn)行強(qiáng)化認(rèn)知。
編輯搜圖
當(dāng)前的搜索引擎只能根據(jù)我們搜索的關(guān)鍵字,在搜索引擎的數(shù)據(jù)庫(kù)中匹配索引對(duì)應(yīng)的網(wǎng)頁(yè)進(jìn)行結(jié)果反饋,像百度這樣的搜索引擎還動(dòng)不動(dòng)給你塞點(diǎn)廣告。用戶(hù)仍然需要在返回的信息中找到自己最想要的。但是ChatGPT則不同,所答就是所問(wèn),省去了用戶(hù)大量自己過(guò)濾無(wú)效搜索結(jié)果的時(shí)間和精力。ChatGPT能夠非常準(zhǔn)確的把握用戶(hù)實(shí)際意圖的理解,而傳統(tǒng)的搜索引擎還是關(guān)鍵字匹配的搜索方式,實(shí)際上并不理解用戶(hù)輸入搜索語(yǔ)句的真實(shí)含義,但是ChatGPT做到可以理解用戶(hù)輸入的真實(shí)意圖。另外他還會(huì)創(chuàng)造性地回答,幫助用戶(hù)從繁雜的工作中解脫出來(lái)。
PS:微軟的Bing搜索引擎開(kāi)始接入ChatGPT。
編輯搜圖
現(xiàn)在所謂的智能客服不過(guò)是預(yù)設(shè)了一些常見(jiàn)的問(wèn)題進(jìn)行自動(dòng)回答,遠(yuǎn)遠(yuǎn)稱(chēng)不上所謂的智能的程度,但是在一定程度上可以降低公司在客服人員方面的投入成本。但是如果有了ChatGPT之后,由于它可以理解用戶(hù)的真實(shí)意圖,而不是機(jī)械地回答預(yù)設(shè)問(wèn)題,因此更能夠幫助用戶(hù)解決實(shí)際客服問(wèn)題,最大程度將客服人工成本降到最低。
ChatGPT不僅可以回答問(wèn)題,它還可以進(jìn)行內(nèi)容創(chuàng)作,比如寫(xiě)一首歌,作一首詩(shī)以及寫(xiě)一篇活動(dòng)策劃等等。所以很多關(guān)于文字內(nèi)容創(chuàng)作的從業(yè)同學(xué)都感覺(jué)到了深深的危機(jī),以前一直覺(jué)得機(jī)器人最先取代的應(yīng)該是體力勞動(dòng)工作者,但是誰(shuí)能想到ChatGPT的出現(xiàn)直接把很多腦力工作者的工作干沒(méi)了。
編輯搜圖
ChatGPT的訓(xùn)練數(shù)據(jù)是基于互聯(lián)網(wǎng)世界海量文本數(shù)據(jù)的,如果這些文本數(shù)據(jù)本身不準(zhǔn)確或者帶有某種偏見(jiàn),目前的ChatGPT是無(wú)法進(jìn)行分辨的,因此在回答問(wèn)題的時(shí)候會(huì)不可避免的將這種不準(zhǔn)確以及偏見(jiàn)傳遞出來(lái)。
目前ChatGPT主要可以處理自然語(yǔ)言方面的問(wèn)答以及任務(wù),在其他領(lǐng)域比如圖像識(shí)別、語(yǔ)音識(shí)別等還不局必然相應(yīng)的處理能力,但是相信在不遠(yuǎn)的將來(lái)可能會(huì)有VoiceGPT、ViewGPT,大家拭目以待。
ChatGPT屬于NPL領(lǐng)域中的非常大的深度學(xué)習(xí)模型,其訓(xùn)練參數(shù)以及訓(xùn)練數(shù)據(jù)都非常巨大,因此如果想訓(xùn)練ChatGPT就需要使用大型數(shù)據(jù)中心以及云計(jì)算資源,以及大量的算力和存儲(chǔ)空間來(lái)處理海量的訓(xùn)練數(shù)據(jù),簡(jiǎn)單來(lái)說(shuō)訓(xùn)練和使用ChatGPT的成本還是非常高的。
AI人工智能已經(jīng)說(shuō)了很多年了,一直處于發(fā)展階段,在一些特定領(lǐng)域已經(jīng)取得應(yīng)用成果。但是面對(duì)C端用戶(hù),基本沒(méi)有可以拿得出手的真真意義上的人工智能應(yīng)用產(chǎn)品。但是這次ChatGPT的發(fā)布卻是一個(gè)里程碑式的節(jié)點(diǎn)事件,因?yàn)閷?duì)于普通人來(lái)說(shuō)AI人工智能不再是遙不可及的技術(shù)名詞,而是觸手可及實(shí)實(shí)在在的智能應(yīng)用工具,可以讓普通人真切地感受到AI人工智能的威力。另外我想說(shuō)的是也許ChatGPT只是個(gè)開(kāi)始,目前它只是按照人類(lèi)的指令去完成對(duì)應(yīng)的任務(wù),但是在未來(lái)隨著人工智能自我學(xué)習(xí)的不斷迭代,可能會(huì)有意識(shí),可能會(huì)自主的去做事情,到那個(gè)時(shí)候人類(lèi)面對(duì)的到底是一個(gè)無(wú)所不能的好幫手還是無(wú)法控制的惡龍就不得而知了。
ChatGPT關(guān)鍵能力
階段一:通過(guò)監(jiān)督學(xué)習(xí),微調(diào)GPT-3.5初始模型
階段二:構(gòu)建Reward Model
階段三:PPO(Proximal Policy Optimization,近端策略?xún)?yōu)化)強(qiáng)化學(xué)習(xí)微調(diào)模型
ChatGPT帶來(lái)哪些變革
取代搜索引擎
取代人工客服
取代內(nèi)容創(chuàng)作
ChatGPT局限性
訓(xùn)練數(shù)據(jù)偏差
適用場(chǎng)景有限
高昂訓(xùn)練成本
總結(jié)