国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請入駐

初學(xué)者怎么入門大語言模型(LLM)?

0
分享至

最近發(fā)現(xiàn)一個(gè)非常好的學(xué)習(xí)資料,可以一次性的掌握從理論到從頭創(chuàng)建一個(gè)大模型,再到預(yù)訓(xùn)練,SFT(有監(jiān)督微調(diào)),甚至到最后還有RAG以及Agent的搭建方式,非常的齊全。

就是這個(gè)Happy-LLM,Github將近10000星了,上升勢頭非常快。


由于下個(gè)學(xué)期可能需要講一些類似的內(nèi)容,所以自己過了一遍,教程一共有7章,我把它分成了三個(gè)部分:1-4理論部分, 5-6大模型創(chuàng)建和訓(xùn)練實(shí)踐,7大模型擴(kuò)展應(yīng)用。


學(xué)習(xí)過程中我總結(jié)出這么幾點(diǎn)學(xué)習(xí)經(jīng)驗(yàn):

  • 如果你是科班生,自學(xué)過NLP(自然語言處理)的相關(guān)內(nèi)容,你可以跳過第一章,只是一些基礎(chǔ)概念知識(shí);

  • 如果你還在讀研或者以后想要搞大模型相關(guān)的科研,建議多花點(diǎn)時(shí)間讀2,3章,因?yàn)檫@里面會(huì)有大量的數(shù)學(xué)公式以及模型介紹,非常的細(xì),可以拿筆和本出來跟著算(模型魔改的Idea就從這里出了)

  • 如果你想了解LLM大模型訓(xùn)練背后的流程,那么第四章一定要好好看

  • (有卡再看)第五章講的是如何用代碼搭一個(gè)Llama2出來,以及如何訓(xùn)練,但即使是很小的模型,作者在8張Nvidia 4090的前提下,都花了46個(gè)小時(shí)。

  • (沒卡也能看)第六章適合窮人玩,從頭訓(xùn)練一個(gè)大模型對于個(gè)人來說沒有特別大的意義,用已有的開源大模型做繼續(xù)訓(xùn)練會(huì)更加適合普通人,這里面用的是Qwen的1.5B模型,對于一般的筆記本來說都沒什么問題,所以強(qiáng)推!

  • (第七章選讀)RAG,Agent的構(gòu)建其實(shí)有更方便的手段,比如LLM框架LangChain,LazyLLM等。

所以總結(jié)下,要搞科研的,2,3,5必看,可以深入到算法層次;長見識(shí)的第四章看完足夠了;有錢有卡的大佬,可以著重看第五章,從頭訓(xùn)練一個(gè)大模型,看著進(jìn)度條一點(diǎn)點(diǎn)走,Loss一點(diǎn)點(diǎn)降是非常有成就感的。

話不多說,我來帶大家過一遍這個(gè)教程的核心內(nèi)容。

第一章NLP基礎(chǔ)概念

大模型的最前身其實(shí)來自于NLP,現(xiàn)在大模型的很多任務(wù),比如翻譯,回答,詞性分析啥的,最開始都是NLP的工作,并且這些工作單個(gè)拿出來都是NLP的細(xì)分研究方向。


這一章就是給歷史源頭講起,感興趣的同學(xué)可以看看,就當(dāng)看歷史書了,可以對大模型能做的事情有一個(gè)理論性的認(rèn)識(shí)。

第二章 Transformer 架構(gòu)

這一章我上面提到了,如果有意向在這個(gè)方向搞科研的,一定得仔細(xì)看,因?yàn)椴还茉趺礃樱琓ransformer這個(gè)東西你怎么都繞不過去,這里不學(xué)也得在別的地方學(xué)。


2.1部分會(huì)詳細(xì)的講注意力機(jī)制,特別是它的由來,從前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network,F(xiàn)NN)到卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),再到循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),最后再分析他們各自的缺點(diǎn)。

也就是第一沒辦法捕獲長序列的相關(guān)關(guān)系以及第二限制并行計(jì)算能力


這個(gè)部分的偽代碼建議仔細(xì)看看,講的很細(xì)致,還是那句話,你繞不開這塊的。


剩下的部分更多的是代碼實(shí)現(xiàn),就是一步步的教用代碼實(shí)現(xiàn)下面這個(gè)經(jīng)典的Transformer模型。


每一塊都會(huì)細(xì)致的講解以及附有代碼,所以多看幾次肯定能看懂的。

第三章 預(yù)訓(xùn)練語言模型

這一章的內(nèi)容非常有意義,因?yàn)樗v了為什么ChatGPT以前的同類產(chǎn)品為什么沒有獲得如此大的影響,其實(shí)在ChatGPT之前還有Bert這個(gè)非常有名的模型,是Google做的,也是基于Transformer結(jié)構(gòu)的(畢竟先Google發(fā)明了Transformer)。

并且將主流的結(jié)構(gòu)分為了三種,并且列舉了對應(yīng)的代表模型。


從表中可以看到,GPT用的是Decoder-only流派,也就是它的核心是“一邊讀一邊寫,專注于生成”,這也是GPT中G代表的Generative生成式的來源,所以也對應(yīng)了GPT擅長的領(lǐng)域:續(xù)寫預(yù)測、長文本創(chuàng)作、對話等。

這一章也很推薦,畢竟流行趨勢這種東西輪流換,說不定過幾年其他流派又會(huì)興盛,徹底搞懂最好。

第四章 大語言模型

這一章再經(jīng)過1-3章的鋪墊,其實(shí)就很容易了,如果你已經(jīng)有基礎(chǔ),其實(shí)可以直接從這張開始看。

它講的東西結(jié)構(gòu)很清晰,主要分為了四部分:

4.1 LLM是什么

超大規(guī)模:參數(shù)≥數(shù)十億,在數(shù) T token上預(yù)訓(xùn)練(GPT-3 175 B≈開端)。

與傳統(tǒng)PLM差異:同架構(gòu)同任務(wù),但規(guī)模引發(fā)“量變→質(zhì)變”,呈現(xiàn)全新能力。

4.2 LLM的四大“看家本領(lǐng)”

  • 涌現(xiàn)(Emergence):模型越大,突然解鎖復(fù)雜技能。

  • 上下文學(xué)習(xí)(In-context Learning):用幾句話示范即可完成新任務(wù),幾乎不用再微調(diào)。

  • 指令遵循(Instruction Following):理解自然語言指令,像 ChatGPT 那樣“一句喚醒,多步完成”。

  • 逐步推理(Step-by-Step Reasoning):能寫“思維鏈”,解決多步邏輯、數(shù)學(xué)與編碼問題。

4.3講了它的額外特性以及4.4從理論上講了大模型訓(xùn)練的三個(gè)主要步驟,也就是下面的Pretrain,SFT和RLHF。


總結(jié)成表格就是下面的內(nèi)容,這部分需要理解下,理解了之后就能搞懂為什么現(xiàn)在都說搞底模很吃虧,而是搞post-training+RL的路子見效最快這種說法。


第五章 動(dòng)手搭建大模型

這章我之前提過,比較適合有卡有錢的玩家,因?yàn)槲抑苯影堰@一章最后一部分內(nèi)容給你拿出來。

你看作者在8張4090的前提下,還花了將近2天時(shí)間,后面的SFT階段又得24天,你要有卡我不攔著,你要是租我不建議。


所以這一章內(nèi)容寫的非常詳細(xì),但是并不適合大多數(shù)人,看看即可,不用細(xì)追究。

第六章 大模型訓(xùn)練流程實(shí)踐

反而我建議大多數(shù)同學(xué)可以試試第六章,因?yàn)樗侵饕v“預(yù)訓(xùn)練”模型的,也就是在已有的模型基礎(chǔ)上再訓(xùn)練。


它里面會(huì)講到大模型時(shí)代非常重要的網(wǎng)站Huggingface以及它開發(fā)的一個(gè)庫Transformers。你只要會(huì)用這個(gè)庫,就可以基于全世界那些非常強(qiáng)的開源模型再創(chuàng)作,比如阿里的Qwen系列,甚至以后資源豐富了DeepSeek滿血版也不是不能自己去微調(diào)。


Happy-LLM就是用的Qwen2.5的1.5B版本做的微調(diào)


很詳細(xì)的教你怎么加載模型,查看模型結(jié)構(gòu)等,都非常的實(shí)用。


接著還會(huì)講的SFT,也是現(xiàn)在小成本創(chuàng)新的主要渠道。


最后一部分完美收尾,用高效微調(diào)的方法收尾。


這一章非常的干貨,直接把微調(diào)的內(nèi)容都放一起講了。

第七章 大模型應(yīng)用

這一章簡要的講了下大模型的測評和基于它的RAG和Agent應(yīng)用。


測評部分就當(dāng)課外知識(shí)了解下即可。

RAG和Agent部分也是看看就行,因?yàn)橛泻芏嗫梢詫?shí)現(xiàn)這種效果的框架,要更簡單,更好用。

比如LangChain


再比如LazyLLM,有中文文檔,支持幾行代碼就能構(gòu)建一個(gè)常見的LLM應(yīng)用。


最后總結(jié),再重復(fù)下我的建議,要搞科研的,2,3,5必看,可以深入到算法層次;長見識(shí)的第四章看完足夠了;有錢有卡的大佬,可以著重看第五章,從頭訓(xùn)練一個(gè)大模型,看著進(jìn)度條一點(diǎn)點(diǎn)走,Loss一點(diǎn)點(diǎn)降是非常有成就感的;沒卡的也不用灰心,可以看看第六章,有很多的平臺(tái)都是支持你薅羊毛的,比如colab,微調(diào)個(gè)1.5B模型還是不在話下的,一般的筆記本本身也能跑。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
小米也漲價(jià)了!內(nèi)存壓力傳導(dǎo)至手機(jī)廠商,業(yè)界稱終端再不漲明年必定虧損

小米也漲價(jià)了!內(nèi)存壓力傳導(dǎo)至手機(jī)廠商,業(yè)界稱終端再不漲明年必定虧損

澎湃新聞
2025-12-26 20:22:27
3-0,40歲C羅騰空轉(zhuǎn)體180度:雙響+無敵腳后跟破門+率隊(duì)10連勝領(lǐng)跑

3-0,40歲C羅騰空轉(zhuǎn)體180度:雙響+無敵腳后跟破門+率隊(duì)10連勝領(lǐng)跑

側(cè)身凌空斬
2025-12-28 00:46:09
利物浦淚奔!1.36億水貨斬首球+獲MVP 炸裂7次過人 3送妙傳遭吐餅

利物浦淚奔!1.36億水貨斬首球+獲MVP 炸裂7次過人 3送妙傳遭吐餅

我愛英超
2025-12-28 01:25:30
中山大學(xué)教授太不要臉了!高中生兒子發(fā)表3篇SCI論文,被質(zhì)疑學(xué)術(shù)造假

中山大學(xué)教授太不要臉了!高中生兒子發(fā)表3篇SCI論文,被質(zhì)疑學(xué)術(shù)造假

回旋鏢
2025-12-27 19:14:15
貝克漢姆26歲長子跟富豪岳父拍全家福,抱嬌妻很滿足,與父母斷聯(lián)

貝克漢姆26歲長子跟富豪岳父拍全家福,抱嬌妻很滿足,與父母斷聯(lián)

譯言
2025-12-27 09:33:47
比韓建林還硬!徐湖平大靠山,竟是江蘇“一把手”,父親的老戰(zhàn)友

比韓建林還硬!徐湖平大靠山,竟是江蘇“一把手”,父親的老戰(zhàn)友

阿天愛旅行
2025-12-28 00:49:02
一新能源汽車高速上電量耗盡,2人慢車道上推車被撞身亡,距服務(wù)區(qū)約500米

一新能源汽車高速上電量耗盡,2人慢車道上推車被撞身亡,距服務(wù)區(qū)約500米

臺(tái)州交通廣播
2025-12-27 09:15:55
律師全部失業(yè)!佛山一律所被吊銷執(zhí)照,起因是非法“購買案源”…

律師全部失業(yè)!佛山一律所被吊銷執(zhí)照,起因是非法“購買案源”…

火山詩話
2025-12-27 14:50:55
金燦榮與“聽風(fēng)的蠶”首次同框,開聊中美關(guān)系

金燦榮與“聽風(fēng)的蠶”首次同框,開聊中美關(guān)系

大象新聞
2025-12-26 12:41:08
終于明白了!為啥農(nóng)民寧愿斷繳醫(yī)保,也不愿再掏這400塊錢?

終于明白了!為啥農(nóng)民寧愿斷繳醫(yī)保,也不愿再掏這400塊錢?

復(fù)轉(zhuǎn)這些年
2025-12-25 23:30:29
他們吸過毒,曾經(jīng)是“爛人”,想要個(gè)機(jī)會(huì)

他們吸過毒,曾經(jīng)是“爛人”,想要個(gè)機(jī)會(huì)

大風(fēng)新聞
2025-12-27 15:04:03
全線暴漲、斷貨限購!有人一覺醒來賺18萬,有人后悔搶少了!史詩級(jí)行情來了?

全線暴漲、斷貨限購!有人一覺醒來賺18萬,有人后悔搶少了!史詩級(jí)行情來了?

新民晚報(bào)
2025-12-27 21:53:15
銀行女經(jīng)理挪用12個(gè)儲(chǔ)戶3000萬,事發(fā)后與丈夫雙雙自盡,儲(chǔ)戶天塌了

銀行女經(jīng)理挪用12個(gè)儲(chǔ)戶3000萬,事發(fā)后與丈夫雙雙自盡,儲(chǔ)戶天塌了

觀世記
2025-12-27 15:02:35
中新網(wǎng)報(bào)道:中國赴柬埔寨游客增長43.5%,你會(huì)去俄、柬旅游嗎?

中新網(wǎng)報(bào)道:中國赴柬埔寨游客增長43.5%,你會(huì)去俄、柬旅游嗎?

名人茍或
2025-12-27 06:04:21
“萬稅之國”加拿大被冤枉了?實(shí)際稅負(fù)比例竟然比中國還要低

“萬稅之國”加拿大被冤枉了?實(shí)際稅負(fù)比例竟然比中國還要低

回旋鏢
2025-12-27 13:46:40
老人被城管推翻后續(xù)!老人去世,其單位受牽連,警方通報(bào): 已刑拘

老人被城管推翻后續(xù)!老人去世,其單位受牽連,警方通報(bào): 已刑拘

社會(huì)日日鮮
2025-12-27 05:29:43
交警私下透露:車險(xiǎn)別買全險(xiǎn),只買這2樣,每年白省2000塊

交警私下透露:車險(xiǎn)別買全險(xiǎn),只買這2樣,每年白省2000塊

老特有話說
2025-12-27 14:45:28
林強(qiáng)涉案989億被抓!生活奢華超過中東富豪,超5萬百姓血本無歸

林強(qiáng)涉案989億被抓!生活奢華超過中東富豪,超5萬百姓血本無歸

千言娛樂記
2025-12-27 20:07:06
南博前院長被帶走不到12小時(shí),令人"厭惡"的事發(fā)生了,不止一件

南博前院長被帶走不到12小時(shí),令人"厭惡"的事發(fā)生了,不止一件

社會(huì)日日鮮
2025-12-26 11:09:21
我發(fā)現(xiàn),80%的中產(chǎn)還沒意識(shí)到降息的嚴(yán)重性。

我發(fā)現(xiàn),80%的中產(chǎn)還沒意識(shí)到降息的嚴(yán)重性。

流蘇晚晴
2025-12-27 17:34:29
2025-12-28 07:48:49
平凡AI incentive-icons
平凡AI
高校AI從業(yè)者
54文章數(shù) 23關(guān)注度
往期回顧 全部

科技要聞

小米也漲價(jià)了!業(yè)界稱終端再不漲明年必虧

頭條要聞

山西大同一小區(qū)物業(yè)禁止新能源車進(jìn)入地庫:擔(dān)心自燃

頭條要聞

山西大同一小區(qū)物業(yè)禁止新能源車進(jìn)入地庫:擔(dān)心自燃

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

張昊唯逃稅涉黃風(fēng)波落幕:法院認(rèn)定朋友造謠

財(cái)經(jīng)要聞

注意,開始拉物價(jià)了!

汽車要聞

好音響比大屏更重要?車企開始“聽”用戶的

態(tài)度原創(chuàng)

時(shí)尚
藝術(shù)
數(shù)碼
教育
手機(jī)

穿好雪地靴的4個(gè)訣竅,還挺有效!

藝術(shù)要聞

手串種類大盤點(diǎn),全見過的算得上是文玩老手了!

數(shù)碼要聞

2025全球智能手表出貨量預(yù)計(jì)回暖 重回增長軌道

教育要聞

劉嘉教授:教貧窮的人有自尊會(huì)刺傷對方

手機(jī)要聞

榮耀WIN系列全球首發(fā)10000mAh電池:友商短時(shí)間內(nèi)很難超越

無障礙瀏覽 進(jìn)入關(guān)懷版