新書推薦:
《
江淮方言精汇
》
售價:NT$
500.0
《
历史动力学:帝国的兴衰密码
》
售價:NT$
500.0
《
广岛 普利策奖得主首次揭示原子弹爆炸真相 20世纪美国百佳新闻作品TOP1
》
售價:NT$
296.0
《
全生命周期动作发展 第7版
》
售價:NT$
1265.0
《
广西常用动物类中药
》
售價:NT$
500.0
《
清末民初的“问题”与“主义”
》
售價:NT$
485.0
《
新中式服装设计、制板与裁剪
》
售價:NT$
449.0
《
诗经译注(彩图珍藏本)
》
售價:NT$
1010.0
編輯推薦:
专门探讨LLM在网络运维中应用的图书
它让LLM不再是遥不可及的“黑科技”
而是可以立即提升效率的强大工具
主要亮点包括:
LangChain实战,深入解析LangChain各模块,教你如何高效集成LLM,构建智能运维工具链;
在线LLM与离线LLM相结合,既涵盖基于ChatGPT的云端AI应用,也详细讲解如何在本地部署LLaMA 3.2等开源模型,还探讨DeepSeek、Qwen等国产LLM,满足不同的安全与性能需求;
RAG技术,利用外部知识库提升LLM的准确性,从而在网络运维中提供更精准、高效的解决方案;
MCP策略,通过任务分解与多模型协作,优化复杂网络问题的处理流程;
真实案例驱动,涵盖网络配置生成、日志分析、故障诊断等典型场景,提供可复现的代码示例。
內容簡介:
这是一本专为网络工程师、运维开发人员及AI技术爱好者打造的实战指南,旨在帮助其掌握如何利用大语言模型(LLM)提升网络运维的智能化水平。本书以LangChain这一强大的Python框架为核心,结合在线LLM(如ChatGPT)和离线LLM(如LLaMA 3.2),详细讲解AI在网络配置、故障排查、自动化运维等场景中的落地应用,同时兼顾国产网络设备厂商及国产LLM(如DeepSeek、Qwen)的迁移和拓展。
本书亮点:LangChain实战,深入解析LangChain各模块,教你如何高效集成LLM,构建智能运维工具链;在线LLM与离线LLM相结合,既涵盖基于ChatGPT的云端AI应用,也详细讲解如何在本地部署LLaMA 3.2等开源模型,还探讨DeepSeek、Qwen等国产LLM,满足不同的安全与性能需求;RAG技术,利用外部知识库提升LLM的准确性,从而在网络运维中提供更精准、高效的解决方案;MCP策略,通过任务分解与多模型协作,优化复杂网络问题的处理流程;真实案例驱动,涵盖网络配置生成、日志分析、故障诊断等典型场景,提供可复现的代码示例。
无论你是希望提升运维效率的网络工程师,还是渴望探索“AI 网络跨界应用”的运维开发人员或AI技术爱好者,本书都将为你打开一扇通往AIOps的大门,并通过理论与实践的结合,让你快速掌握LLM技术,将其转化为实际生产力!
關於作者:
王印《网络工程师的Python之路》联合作者,知乎专栏“网路行者”作家,知乎ID:弈心,沙特阿卜杜拉国王科技大学(King Abdullah University of Science and Technology,KAUST)高级网络工程师,16年海外从业经验,CCIE#40245。2009年起在新加坡先后任职于美国电信运营商AT&T、美国数据中心公司Equinix、新加坡陆路交通管理局(LTA)、新加坡石林IT咨询公司(SFIT)、美国苹果公司、苏格兰皇家银行(RBS),对大型园区、金融行业的网络设计与运维具有丰富的实战经验。朱嘉盛《网络工程师的Python之路》联合作者,知乎专栏“网工手艺”知识博主。2010年毕业于华南理工大学,做网络工程师15载,长期扎根网络运维第一线。通信网从2G到5G,互联网从几乎空白建设和运维到百万级用户规模,现已转战大型数据中心从事云网运维,在各个网络相关领域均具备丰富的实战经验。工作之余热爱阅读与写作,善于梳理技术知识,乐于分享和帮助新手。
目錄 :
第1章 LLM和ChatGPT
1.1 LLM的历史
1.2 什么是LLM
1.3 在线LLM与离线LLM
1.4 ChatGPT
1.4.1 获取OpenAI API Key
1.4.2 OpenAI API的资费
1.4.3 为OpenAI API账号充值
第2章 LangChain
2.1 安装LangChain
2.2 LangChain的核心模块
2.3 PromptTemplate和LLM
2.3.1 什么是Prompt
2.3.2 什么是PromptTemplate
2.3.3 SystemMessage和HumanMessage
2.3.4 LangChain支持的LLM
2.3.5 实验1:PromptTemplate和LLM应用示例
2.3.6 实验2:SystemMessage和HumanMessage应用示例
2.4 Chains和Runnable
2.4.1 Chains的基本应用
2.4.2 输出解析
2.4.3 什么是Runnable
2.4.4 Runnable的用法
2.5 Memory
2.5.1 LLM的上下文记忆机制
2.5.2 Memory的上下文记忆机制
2.5.3 Memory的应用
2.6 Tools
2.6.1 使用Tools集成的搜索工具
2.6.2 使用Tools集成的搜索工具配合LLM
第3章 AI在计算机网络运维中的应用(在线LLM)
3.1 实验1:使用ChatGPT登录交换机并执行单个show命令
3.2 实验2:使用ChatGPT登录交换机并执行多个show命令
3.3 实验3:让ChatGPT自行决定输入命令
3.4 实验4:辅助ChatGPT完成特定任务
3.5 实验5:使用ChatGPT分析交换机日志并给出建议
3.6 实验6:使用ChatGPT登录多台设备并执行show命令
3.7 实验7:使用ChatGPT配置设备(LLM生成配置命令)
3.8 实验8:使用ChatGPT配置设备(手动辅助)
第4章 AI在计算机网络运维中的应用(离线LLM)
4.1 LLaMA
4.2 本机安装、运行和使用LLaMA 3.2
4.2.1 通过Ollama在本机安装和使用LLaMA 3.2
4.2.2 通过API与本机部署的LLaMA 3.2交互
4.3 本地使用LLaMA 3.2
4.3.1 部署API Token
4.3.2 服务器端脚本
4.3.3 客户端脚本
4.4 RAG(检索增强生成)
4.4.1 什么是RAG
4.4.2 RAG的工作原理
4.4.3 RAG在LangChain中的应用
4.4.4 Agent(智能体)
第5章 MCP
5.1 什么是MCP
5.2 MCP怎么工作
5.3 MCP实战应用
5.3.1 实验准备
5.3.2 实验1:访问本地文件和文件夹
5.3.3 实验2:访问互联网资源
5.4 开发网络工程师自己的MCP Server
5.4.1 实验准备
5.4.2 实验目的及实验代码
5.4.3 使用自定义的MCP Server
5.5 MCP的局限性
第6章 国产AI大模型在国产网络设备中的使用
6.1 国产AI大模型在网络运维中的应用
6.1.1 国产AI大模型简介
6.1.2 DeepSeek/Qwen
6.1.3 网络模拟环境
6.1.4 实验:从信息解析切入
6.2 Python联动在线版DeepSeek
6.2.1 在线LLM开放平台API的获取
6.2.2 实验1:Python OpenAI库联动在线版DeepSeek
6.2.3 实验2:Python Requests库联动在线版DeepSeek
6.3 Python联动离线版DeepSeek
6.3.1 在Ollama内网部署离线LLM
6.3.2 实验1:Python OpenAI库联动离线版DeepSeek
6.3.3 实验2:Python Requests库联动离线版DeepSeek
6.4 AI大模型联动国产网络设备
6.4.1 实验1:使用ChatGPT登录华为交换机并执行单个display命令
6.4.2 实验2:LangChain框架搭载DeepSeek
6.4.3 实验3:使用DeepSeek-V3登录华为交换机并执行单个display
命令
6.4.4 实验4:使用DeepSeek-R1登录华为交换机并执行单个display命令
6.5 本章总结