开发爱好者
首页
AI导航
在线工具
技术教程
教学课程
关于我们
登录
首页
AI导航
在线工具
技术教程
教学课程
关于我们
登录
流式输出(Streaming)与上下文管理
课程名称:Ollama 从入门到精通
更新日期:2025-12-03
0
0
×
提供反馈意见
刷新
提交反馈
Ollama 从入门到精通
1. 基础篇:认识与入门Ollama
1.1. 初识Ollama:本地大模型运行平台的革命
1.2. 环境搭建:跨平台安装与基础配置
1.3. 第一个模型:运行、交互与基础命令
2. 核心篇:模型管理与运行原理
2.1. 模型全生命周期管理(Pull, List, Run, RM)
2.2. 深入Modelfile:创建与定制专属模型
2.3. Ollama架构解析:从请求到响应的技术栈
3. 开发篇:API集成与应用开发
3.1. REST API详解:Generate, Chat, Embeddings端点
3.2. 流式输出(Streaming)与上下文管理
3.3. 集成实践:在Python、JavaScript及LangChain中使用
4. 高级篇:性能优化与生产部署
4.1. 性能调优:量化、GPU层数与批处理
4.2. 参数解析:Temperature, Top-p, Seed等推理控制
4.3. 安全与运维:访问控制、监控与故障排查
5. 专题篇:前沿功能与生态拓展
5.1. 多模态与视觉模型(如Qwen3-VL)
5.2. 高级功能:文件上传、思考等级与Agent工作流
5.3. 企业级方案:容器化、集群化与高可用部署