在人工智能迅猛發(fā)展的今天,掌握大模型技術已經成為技術人員和未來職場人士的必備技能。隨著AI大模型在各個領域的廣泛應用,學習這些前沿技術不僅是提升個人競爭力的關鍵,更是搶占技術高地的必要途徑。為了幫您緊跟時伐,提升個人技能,中國人工智能培訓網(http://www.chinaai.org.cn)、北京龍騰亞太教育咨詢有限公司、北京龍騰智元信息技術有限公司特舉辦新質技術之第十期“生成式AI、大模型、多模態(tài)技術開發(fā)與應用研修班”。
時間安排
《新質技術之第十期生成式AI、大模型、多模態(tài)技術開發(fā)與應用研修班》
2025年1月16日—2025年1月20日 昆明(同時轉線上直播)
(第一天報到發(fā)放上課材料,授課四天)
課程大綱
第一天
第一章
生成式AI技術發(fā)展概述
一、AI:從判別決策到創(chuàng)造生成
1.從經典機器學習到深度學習
上午
9:00-12:00
2.從Transformer到生成模型
二、生成式人工智能模型
1.生成對抗網絡GAN
2.可變分自編碼器VAE
3.自回歸模型Auto-regressive Model
4.擴散模型Diffusion Model
三、AIGC技術及進展
1.AIGC的定義和發(fā)展
2.AIGC技術的分類
3.AIGC技術框架
四、大模型
1.從ChatGPT到Sora的技術演進
2.大語言模型
3.視覺大模型
4.多模態(tài)大模型
下午14:00-17:00
第二章AIGC技術在多模態(tài)領域的應用
一、AIGC在自然語言處理領域的應用
1.語義理解
2.內容生成
a公文輔助寫作 b政策分析 c研報生成 d風控輿情
3.多輪會話 4.邏輯推理
二、AIGC在視頻領域的應用
1.圖像識別、檢測與生成
2.視頻理解與生成
3.3D生成
三、AIGC在視覺與音頻生成領域的應用
1.圖像生成 2.電影配音
3.智能客服 4.各類場景語音生成
第二天
上午
9:00-12:00下午
14:00-17:00
第三章 Transformer
一、Transformer模型的基本架構
二、Self-Attention機制的原理與計算過程
三、Multi-Head Attention 的設計與作用
四、Positional Encoding的實現(xiàn)方法
五、Rotary Positional Embedding
六、Transformer中的Feed-Forward Networks
七、Layer Normalization的原理
八、Transformer模型中的殘差連接
九、Teacher Forcing技術
十、編碼器與解碼器的結構差異
十一、視覺Transformer
第四章
大語言模型微調與量化
一、模型微調
1.全量微調FFT 2.部分參數(shù)微調PEFT
3.Prompt微調 4.Prefix微調
5.LoRA等微調方法 6.大語言模型微調開發(fā)
二、模型量化
1.線性量化 2.非線性量化
3.飽合量化 4.非飽合量化
5.大語言模型微調量化開發(fā)
三、實例開發(fā)
1.大語言模型微調框架
2.大語言模型微調實例
第五章AIGC技術
一、大語言模型技術原理
1.生成模型(擴散模型) 2.深度學習常用算法
3.人類反饋強化學習RLHF 4.典型大語言模型
二、提示工程
1.提示詞的基礎知識
2.思維鏈
3.提示詞實操:明確具體任務、利用上下文、使用不同的語氣、角色扮演、zero shot, one shot, few shot、零樣本思維鏈提示、生成知識提示
三、AIGC的安全
1.內容安全 2.模型安全 3.用戶信息安全
四、AIGC技術評價
1.AIGC標準體系2.AIGC應用層標準3.AICG模型層標準
第三天
上午
9:00-12:00下午
14:00-17:00
第六章 AIGC技術的記憶模塊(向量數(shù)據(jù)庫)
一、向量數(shù)據(jù)庫概述
1.AIGC技術的記憶模塊的功能和作用
2.向量數(shù)據(jù)庫的功能與發(fā)展歷程
3.各種向量數(shù)據(jù)庫的對比
4.向量數(shù)據(jù)庫發(fā)展展望
二、向量數(shù)據(jù)庫技術
1.向量數(shù)據(jù)庫原理2.向量檢索算法3.向量數(shù)據(jù)庫實操
第七章 大語言模型 Agent
一、大語言模型開發(fā)框架
1.大語言模型開發(fā)框架的原理與工作流程
2.大語言模型開發(fā)框架的分層結構
3.大語言模型開發(fā)框架的模塊與庫函數(shù)
二、Agent
1.Agent工作原理
2.Agent模式
3.Agent開發(fā)步驟與工作流程
三、大語言模型Agent開發(fā)
1.大語言模型與Agent結合開發(fā)方式
2.大語言模型Agent開發(fā)實例
3.構建一個智能體
第四天
上午
9:00-12:00下午
14:00-17:00
第八章 擴散模型
一、前向擴散過程
二、反向生成過程
三、網絡架構
四、參數(shù)化
五、采樣方法
六、Stable Diffusion模型
七、Diffusion Transformer模型
第九章 CLIP
一、CLIP架構
二、對比預訓練
三、數(shù)據(jù)集分類器創(chuàng)建
四、Zero-shot 推理
五、提示詞工程與集成
第十章 VAE
一、Autoencoder
二、VAE模型原理
三、重參化
四、VAE與AE的區(qū)別
五、Spacetime Latent Representation
第十一章 Sora訓練
一、Sora訓練流程
二、patchify—視頻數(shù)據(jù)轉換為圖像塊
三、Scaling Transformer生成
四、Latent轉換為視頻向量
開發(fā)環(huán)境
1.操作系統(tǒng):Ubuntu
2.開發(fā)語言:Python
3.深度學習框架:Pytorch
4.大語言模型:幾種國產開源大語言模型
5.大語言模型開源微調、Agent開源框架
注:整個環(huán)境可在局域網內部署,學員連接云服務器(GPU 80G顯存)實操。
培訓專家
北京理工大學教授,國家自然基金委項目函審專家、國家重點研發(fā)計劃評審專家、科技部項目評審專家、北京市自然科學基金/重點基金評審專家、博士點基金/博士后基金評審專家,國際期刊NLPR主編,以及其它期刊編委。目前主要從事自然語言處理、機器學習、模式識別、生成式AI、大模型、多模態(tài)方面研究。
培訓目標
1.了解AIGC發(fā)展現(xiàn)狀與核心技術。
2.掌握Transformer核心開發(fā)技術。
3.掌握向量數(shù)據(jù)庫的工作原理、檢索算法、主要開源數(shù)據(jù)庫。
4.掌握大模型調用、微調方法。
5.掌握以GPT大語言模型為基礎的工作原理。
6.掌握AIGC技術在跨模態(tài)領域的應用技術。
7.了解GPT提示工程和AIGC的安全標準。
8.掌握基于大模型的編程開發(fā)技術。
9.掌握擴散模型核心技術。
10.掌握Agent構建技術。
頒發(fā)證書
A類、參加相關培訓并通過考核的學員,由北京龍騰亞太教育咨詢有限公司頒發(fā)《生成式AI、大模型、多模態(tài)技術》培訓結業(yè)證書。
B類、參加相關培訓并通過考核的學員,由工業(yè)和信息化部教育與考試中心頒發(fā)《人工智能機器視覺應用》(高級)職業(yè)技能證書,可通過工業(yè)和信息化部教育與考試中心官方網站查詢,并納入工信部教育與考試中心人才庫,該證書可作為有關單位職稱評定、專業(yè)技術人員能力評價、考核和任職的重要依據(jù)。
注:報到時請?zhí)峤浑娮影娌收眨ù笥?0KB,紅藍底皆可)、身份證復印件和學歷證明復印件各一份
費用標準
A類、5980元/人(含培訓費、資料費、場地費、平臺使用費、午餐費、A類證書費)。
B類、8980元/人(含報名費、培訓費、資料費、場地費、平臺使用費、考試費、午餐費、A類B類證書費)
注:住宿可統(tǒng)一安排,食宿費用自理
1、培訓費由組織培訓班的施教機構負責收取并提供培訓發(fā)票。
2、5人以上9折優(yōu)惠,8人以上8.8折優(yōu)惠。
3、B類證書費不享受優(yōu)惠。
4、參加線上、線下培訓學員均可享受視頻錄播回放權益,及本人再次免費參加線下同主題課程學習權益。
生成式AI大模型技術已經成為了AI時代的技術高地。學習大模型,不僅是提升個人技能的必要途徑,更是搶占技術高地的關鍵。
【咨詢報名】
聯(lián)系人:王老師
聯(lián)系電話:13718491258
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.