一、培训目的
本次培训旨在通过理论与实践相结合的方式,使学员全面掌握大型预训练模型的工作原理、优化技巧以及在各种业务场景下的应用策略。培训致力于培养能够独立构建、优化和部署大模型解决方案的专家型人才。
二、培训要点
1、大模型的理论框架与技术背景。
2、高效的数据处理与模型微调技术。
3、大模型在自然语言处理、计算机视觉、语音识别等领域的具体应用实例。
4、如何评估模型性能并解决常见问题。
5、大模型前沿技术。
6、最佳实践分享与行业趋势解读。
一、培训对象
1、有意将AI技术融入业务的企业领导者和技术决策者,意在推动组织的技术革新和智能转型;
2、希望提升技能的软件工程师和数据科学家,寻求提升技能和项目实战经验;
3、对人工智能充满热情的学习者,希望快速学习大模型应用。
培训内容
本课程分2天时间讲授。
第一讲 人工智能技术发展概览
AI大模型技术发展与演进
人工智能四轮技术特点
从ChatGPT到Deepseek
AI技术浪潮与企业成就
大模型应用技术总览
提示词(Prompt)工程
AI智能体概览
大模型微调技术路线全览
预训练技术与三种网络架构
第二讲 大模型演化之路-以DeepSeek为例
基于Transformer的大语言模型
Transformer详解
编解码架构与注意力机制
BERT与GPT模型
Deepseek-v1与llama
Deepseek-v2的改进
Multi-head Latent Attention
DeepSeekMoE
DeepSeek V3的改进
Auxiliary-Loss-Free Load Balancing
Multi-Token Prediction
DeepSeek R1的改进
深度强化学习改进
基于强化学习的冷启动
模型蒸馏
第三讲 Deepseek模型应用技术
Deepseek的本地化部署方案
蒸馏方法与量化方法
多机多卡并行方案
Deepseek与本地知识库
大模型应用技术架构
Prompt
Agent + Function Calling
RAG = Embeddings + 向量数据库
Fine-tuning
如何选择技术路线
如何选择基础模型
第四讲 提示词工程
提示工程的价值和发展趋势
Prompt 典型构成
指令调优方法论
角色定义的原理
限制输出格式
NLU 和 NLG
Few-shot
思维链和思维树
Prompt 攻击和防范
Deepseek API 总结
用 prompt 调优 prompt
GPTs、Coze、Prompt tune
案例 1: 客服对话机器人
案例 2: 客服对话质检
案例 3: 指标解读+项目推荐
第五讲 大模型编程
大模型连接真实世界的方法
用 GPTs Actions 对接高德地图
GPTs 的平替:Coze、Dify
大模型结构化输出技术
Function Calling
从自然语言生成 SQL 语句(NL2SQL)
流式调用
Function Calling 带来的产品想象空间
Copilot 原理
Cursor 功能和原理
有效性度量
Ollama + Continue
开源编程大模型 Code Llama、 DeepSeek-Coder、Google CodeGemma
AI 能力定律和提效定律
第六讲 大模型微调技术
大模型微调之PEFT
Adapter核心技术
Prefix Tuning核心技术
P-Tuning v1与 v2
大模型微调之LoRA
LoRA 核心技术
LoRA对比Adapter与Soft Prompts
AdaLoRA与QLoRA
大模型高效微调PEFT
PEFT技术分类
大模型微调发展趋势
汇款、微信转帐
汇款信息:
单位名称:北京市海淀区中科院计算所职业技能培训学校
开户行:工行海淀西区支行
账号:0200 0045 1920 0043 667
开户银行代码:1021 0000 0458
微信转账:
步骤一:打开微信,扫描二微码付款时,点击打开微信右下角里的“发现”,在列表界面有一个“扫一扫”选项,点击打开“扫一扫”(如下图):
步骤二:点击打开“扫一扫”后,会出现一个扫描框,将中科院计算所培训中心二维码/条码放入框内,即可自动扫描,并显示支付信息,输入付款金额。
(中科院计算所培训中心二维码)
步骤三:点击 “添加付款备注”,填写付款人姓名和单位全称,所有信息核对无误后,点击“确认付款”,完成支付。