聚客AI学院大模型应用开发微调项目实践课程
返回首页
目录
搜索
Conda 使用指南
1. Conda 基本介绍
1.1 什么是Conda、MiniConda、Anaconda
1.2 Anaconda 和 Miniconda 区别?
1.3 为什么要使用 Conda?
2.Conda 安装
2.1 Miniconda 下载安装
2.2 使用 Anaconda Powershell Prompt 终端
3. Conda 常用命令
3.1 基本命令
3.2 环境管理
3.3 包管理
3.4 使用通道
3.5 设置镜像
3.6 环境导入与导出
4.Mamba 使用
Mamba 使用
5. Jupyter Lab 使用
5.1 Jupyter 介绍
5.2 Jupyter 安装使用
6. PyCharm 中使用 Conda 环境
6. PyCharm 中使用 Conda 环境
大模型智能体(LLM Agent)基础入门
1、什么是大模型?
2、什么是智能体?
3、智能体架构
4、提示词工程
5、智能体相关技术
6、单智能体和多智能体
7、智能体开发技术框架
8、大模型厂商的智能体平台
大模型(LLM)四阶段技术
阶段一:Prompt Engineering
阶段二:AI Agent
阶段三:Fine-tuning
阶段四:Pre-training
最新版AI大模型面试八股文
1、主流的开源大模型体系有哪些,并简要介绍它们的特点?
2、解释 prefix LM 和 causal LM 的区别,并给出实际应用案例。
3、如何定义和理解大模型中的“涌现能力”,并举例说明?
4、简述 GPT 和BERT 模型的主要区别,以及它们各自的优势。
5、描述生成式语言模型的工作原理,并解释它如何不同于判别式模型
6、大模型训练中如何应对“灾难性遗忘”问题?
7、哪些因素可能导致大模型(LLMs)出现偏见,如何减轻这种偏见?
8、解释并比较 AE、VAE、GAN的工作机制及其差异
9、在微调大模型时,选择合适的数据集和微调策略至关重要,请阐述其考虑因素
10、如何评价大模型的性能指标,除了准确率之外,还有哪些关键指标?
11、目前主流的大模型体系有哪些?
12、涌现能力是啥原因?
13、解释Transformer 架构,并说明为什么它在大模型中如此重要
14、模型的“预训练+微调”范式是什么意思?
15、如何在大模型训练中解决计算资源和成本问题?
16、解释过拟合和欠拟合,以及在大模型训练中如何避免这些问题
17、如何评估大模型的生成质量?
18、解释“注意力机制”及其在大模型中的应用
19、如何在大模型中实现公平性和可解释性?
20、微调大模型时,如何选择合适的数据集和调整策略?
21、如何处理大模型中的“长尾分布”问题?
22、在大模型开发中,如何监控和调试模型性能?
23、大模型如何选型?如何基于场景选用 ChatGLM、LlaMa、 Bert 类大模型?
24、各个专业领域是否需要专用的大模型来服务?
25、解释一下“大模型”的概念,并列举几个知名的大模型
26、在训练大模型时,如何有效地管理内存?
27、如何评估大模型的泛化能力?
28、解释一下“Prompt Engineering”在大模型中的作用
29、大模型在处理多语言任务时面临哪些挑战?
30、解释“嵌入(Embedding)”在大模型中的作用
OpenAI-HK 操作指南
1、登录控制台
2、获取Key
3、连接 url
4、配置Windows环境变量
5、测试
搜索
A
A
Conda 使用指南
1. Conda 基本介绍
1.1 什么是Conda、MiniConda、Anaconda
1.2 Anaconda 和 Miniconda 区别?
1.3 为什么要使用 Conda?
2.Conda 安装
2.1 Miniconda 下载安装
2.2 使用 Anaconda Powershell Prompt 终端
3. Conda 常用命令
3.1 基本命令
3.2 环境管理
3.3 包管理
3.4 使用通道
3.5 设置镜像
3.6 环境导入与导出
4.Mamba 使用
Mamba 使用
5. Jupyter Lab 使用
5.1 Jupyter 介绍
5.2 Jupyter 安装使用
6. PyCharm 中使用 Conda 环境
6. PyCharm 中使用 Conda 环境
大模型智能体(LLM Agent)基础入门
1、什么是大模型?
2、什么是智能体?
3、智能体架构
4、提示词工程
5、智能体相关技术
6、单智能体和多智能体
7、智能体开发技术框架
8、大模型厂商的智能体平台
大模型(LLM)四阶段技术
阶段一:Prompt Engineering
阶段二:AI Agent
阶段三:Fine-tuning
阶段四:Pre-training
最新版AI大模型面试八股文
1、主流的开源大模型体系有哪些,并简要介绍它们的特点?
2、解释 prefix LM 和 causal LM 的区别,并给出实际应用案例。
3、如何定义和理解大模型中的“涌现能力”,并举例说明?
4、简述 GPT 和BERT 模型的主要区别,以及它们各自的优势。
5、描述生成式语言模型的工作原理,并解释它如何不同于判别式模型
6、大模型训练中如何应对“灾难性遗忘”问题?
7、哪些因素可能导致大模型(LLMs)出现偏见,如何减轻这种偏见?
8、解释并比较 AE、VAE、GAN的工作机制及其差异
9、在微调大模型时,选择合适的数据集和微调策略至关重要,请阐述其考虑因素
10、如何评价大模型的性能指标,除了准确率之外,还有哪些关键指标?
11、目前主流的大模型体系有哪些?
12、涌现能力是啥原因?
13、解释Transformer 架构,并说明为什么它在大模型中如此重要
14、模型的“预训练+微调”范式是什么意思?
15、如何在大模型训练中解决计算资源和成本问题?
16、解释过拟合和欠拟合,以及在大模型训练中如何避免这些问题
17、如何评估大模型的生成质量?
18、解释“注意力机制”及其在大模型中的应用
19、如何在大模型中实现公平性和可解释性?
20、微调大模型时,如何选择合适的数据集和调整策略?
21、如何处理大模型中的“长尾分布”问题?
22、在大模型开发中,如何监控和调试模型性能?
23、大模型如何选型?如何基于场景选用 ChatGLM、LlaMa、 Bert 类大模型?
24、各个专业领域是否需要专用的大模型来服务?
25、解释一下“大模型”的概念,并列举几个知名的大模型
26、在训练大模型时,如何有效地管理内存?
27、如何评估大模型的泛化能力?
28、解释一下“Prompt Engineering”在大模型中的作用
29、大模型在处理多语言任务时面临哪些挑战?
30、解释“嵌入(Embedding)”在大模型中的作用
OpenAI-HK 操作指南
1、登录控制台
2、获取Key
3、连接 url
4、配置Windows环境变量
5、测试