登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2024年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2025年08月出版新書

2025年07月出版新書

2025年06月出版新書

2025年05月出版新書

2025年04月出版新書

2025年03月出版新書

2025年02月出版新書

2025年01月出版新書

2024年12月出版新書

2024年11月出版新書

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

『簡體書』深度剖析ChatGLM:原理、训练、微调与实战 李明华 冯洋

書城自編碼: 4127217
分類: 簡體書→大陸圖書→計算機/網絡人工智能
作者: 李明华 冯洋
國際書號(ISBN): 9787111783824
出版社: 机械工业出版社
出版日期: 2024-12-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:NT$ 505

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
大学问·中国城市史研究系列 茶馆 天津工人 晚清中国城市的水与电 亦官亦商(套装共4册)
《 大学问·中国城市史研究系列 茶馆 天津工人 晚清中国城市的水与电 亦官亦商(套装共4册) 》

售價:NT$ 1805.0
索恩丛书·信仰与权力:阿拉伯世界的裂变与重生
《 索恩丛书·信仰与权力:阿拉伯世界的裂变与重生 》

售價:NT$ 658.0
哲学之旅(第8版):一种互动性探究(最新完整版,2025中国-东盟影响力图书)
《 哲学之旅(第8版):一种互动性探究(最新完整版,2025中国-东盟影响力图书) 》

售價:NT$ 764.0
何以为帝:雍正继位新探(清史泰斗冯尔康,从继位疑案读懂中国封建皇权,看清人性与制度的极致博弈)
《 何以为帝:雍正继位新探(清史泰斗冯尔康,从继位疑案读懂中国封建皇权,看清人性与制度的极致博弈) 》

售價:NT$ 347.0
元照英美法词典(简装学生版)
《 元照英美法词典(简装学生版) 》

售價:NT$ 505.0
防患于未“燃”:故宫历史上的火灾与消防(在故宫) 探秘故宫防火智慧 解码古建营造技艺
《 防患于未“燃”:故宫历史上的火灾与消防(在故宫) 探秘故宫防火智慧 解码古建营造技艺 》

售價:NT$ 403.0
从家族企业到商业世家:创业家族世代繁荣的路线图
《 从家族企业到商业世家:创业家族世代繁荣的路线图 》

售價:NT$ 403.0
敦煌石窟乐舞图像研究
《 敦煌石窟乐舞图像研究 》

售價:NT$ 857.0

編輯推薦:
展示双语模型原理与技术路径
构建预训练微调部署完整流程
覆盖中英对话系统开发与优化
收录多行业场景落地应用案例
华为、百度、阿里巴巴、AMD、商汤科技、脑机接口社区等多位专家联合推荐
內容簡介:
近年来,随着大语言模型技术的迅猛发展,人工智能领域迎来了新的变革浪潮。ChatGLM作为一款双语大语言模型,凭借其在多语言生成、精准对话理解和高效推理上的良好表现,成为了自然语言处理领域的重要代表。
本书以ChatGLM模型为核心,系统性地介绍了其从原理、训练、微调到实际应用的全流程,全面解析了大语言模型的实现方法与优化策略。全书共分为12章,从基础原理切入,涵盖模型架构解析、训练与微调实现、推理优化、部署集成与性能调优等关键技术,同时深入探讨数据处理、多任务学习与迁移学习,以及API开发、Web应用搭建与云端部署的完整方案。本书特别关注ChatGLM在客服、金融、医疗、教育等领域的创新应用,展现了其多样化的适用能力,并以双语对话系统为实战案例,总结了从数据处理到系统部署的完整开发流程。
本书的特色在于理论与实践并重,注重案例引导与操作指导,特别适合AI初学者、希望深入了解ChatGLM的工程师和研究者,以及希望学习大语言模型的高校师生使用。随书附赠案例代码、教学视频及授课用PPT等海量学习资源,希望通过立体化的学习方式帮助广大读者从中获得系统的知识与启发。
關於作者:
李明华:曾就职于某知名科技公司,长期从事自然语言处理、机器学习及深度学习等技术的研发与应用,特别是在大语言模型的微调与优化技术方面具有深厚的学术积淀和实践经验。参与并主导了多个企业级AI产品的开发,涵盖智能客服、编程辅助、智能检索和硬件工程等应用场景。对大语言模型的原理、优化技术以及工程实践有着深入的理解。
冯洋:南京大学计算机学院副教授,主要研究方向为复杂软件系统质量保障、大语言模型研究和应用开发,研究课题包括复杂软件系统的质量保障技术、大语言模型的微调与优化技术等。近年来发表包括ICSE、FSE、ASE、ISSTA、TSE、TOSEM等CCF-A类期刊与会议学术论文30余篇,并在2022年ASE、2023年FSE、2023年Internetware等大会获杰出论文奖及华为火花奖等奖项。
目錄
前言
第1部分ChatGLM的概述与基础原理
第1章 ChatGLM概述与原理详解
1.1ChatGLM的发展与应用背景
1.1.1ChatGLM简介与具体应用
1.1.2对比传统NLP模型与ChatGLM的优势
1.2基于Transformer架构的自注意力机制
1.2.1Transformer简介
1.2.2详解Transformer编码器解码器架构
1.2.3详解ChatGLM中的自注意力机制
1.2.4Transformer中的多头注意力机制
1.3ChatGLM的架构分析
1.3.1ChatGLM模型的结构设计
1.3.2ChatGLM与GPT、BERT模型的异同
1.4ChatGLM的应用场景与技术优势
1.4.1ChatGLM在对话系统中的具体应用
1.4.2ChatGLM对自然语言理解与生成的影响
第2章 ChatGLM模型的训练流程与技术要点
2.1训练数据的采集与清洗
2.1.1语料库的选择与构建方法
2.1.2数据清洗与标准化技术
2.1.3噪声数据与异常值处理
2.2训练任务的设定与损失函数
2.2.1回归与分类任务的设计
2.2.2适配性损失函数的选择与实现
2.3模型训练的实现流程
2.3.1PyTorch与TensorFlow简介
2.3.2PyTorch与TensorFlow训练框架的选择与搭建
2.3.3模型初始化与优化器的选择
2.4分布式训练与高效计算
2.4.1数据并行与模型并行的实现细节
2.4.2混合精度训练(FP16)的应用与性能提升
第3章 ChatGLM的硬件环境与训练加速
3.1高效硬件配置与训练需求
3.1.1推荐的GPU与TPU硬件配置
3.1.2内存与存储的优化技巧
3.2分布式训练框架:Horovod与DeepSpeed
3.2.1分布式训练框架简介
3.2.2Horovod的使用与优化方法
3.2.3DeepSpeed对大语言模型的优化
3.3训练监控与调优工具
3.3.1训练监控的目的
3.3.2使用TensorBoard进行训练监控
3.3.3Hyperparameter优化工具与技术
第2部分ChatGLM的优化与高级技术
第4章 ChatGLM的微调策略与方法
4.1微调的基本原理与应用场景
4.1.1预训练与微调的区别
4.1.2微调的核心目标与技术要点
4.2领域适应微调技术
4.2.1针对特定领域的数据集微调
4.2.2领域特定嵌入与调优策略
4.3ChatGLM的自适应微调方法
4.3.1动态学习率与早停策略的使用
4.3.2负样本生成与调整
4.4微调的常见问题与调优技巧
4.4.1微调过程中的过拟合问题
4.4.2针对微调任务的优化技巧
第5章 ChatGLM的生成任务优化与文本生成
5.1生成式任务与非生成式任务的区别
5.1.1生成式任务与分类任务的关键差异
5.1.2Text to Text生成与Seq2Seq架构
5.2ChatGLM在文本生成中的应用
5.2.1自回归与自编码生成模型的优缺点
5.2.2基于自注意力的生成优化策略
5.3Beam Search与Top k采样的优化
5.3.1Beam Search与Top k采样任务简介
5.3.2生成过程中的采样方法与性能
5.3.3控制生成内容的多样性与连贯性
5.4生成式模型调优与文本质量提升
5.4.1提高文本生成的质量与准确度
5.4.2避免模型生成偏见信息的方法
第6章 ChatGLM的优化与性能提升技术
6.1模型压缩与蒸馏技术
6.1.1模型压缩与蒸馏技术简介
6.1.2参数剪枝与低秩分解的实现
6.1.3知识蒸馏方法与应用实例
6.2动态计算图与推理优化
6.2.1计算图简介与初步实现
6.2.2动态计算图与静态计算图的对比
6.2.3ChatGLM推理中的性能瓶颈分析与优化
6.3TensorRT与ONNX的推理加速
6.3.1什么是推理加速
6.3.2ChatGLM模型的ONNX转换与优化
6.3.3使用TensorRT进行推理加速与量化
6.4节省内存与计算资源的策略
6.4.1分层微调与多任务学习的内存优化
6.4.2通过混合精度训练减少内存消耗
第7章 ChatGLM的多任务学习与迁移学习
7.1多任务学习的基本原理与应用
7.1.1如何设计多任务学习模型
7.1.2ChatGLM如何在多任务中共享学习
7.2迁移学习在ChatGLM中的应用
7.2.1微调预训练模型与领域特定任务
7.2.2迁移已有知识进行新任务学习的方法
7.3多模态学习:图像与文本融合
7.3.1融合视觉信息与文本信息的技术
7.3.2多模态对话系统的应用
7.4ChatGLM与跨领域任务的适配
7.4.1领域转移学习的挑战与解决方案
7.4.2使用少量标注数据进行跨领域迁移学习
第8章 ChatGLM的调优与故障排除
8.1调优原则与技巧
8.1.1如何选择合适的优化器与学习率
8.1.2调整批量大小与训练轮数的策略
8.2常见训练问题的诊断与解决方法
8.2.1模型收敛慢的原因与解决方法
8.2.2模型训练过程中的梯度消失与爆炸问题
8.3过拟合与欠拟合问题的应对策略
8.3.1过拟合的识别与解决方法
8.3.2欠拟合的原因与优化技巧
第3部分ChatGLM的部署与行业实践
第9章 ChatGLM的部署与集成
9.1部署架构设计与模型服务化
9.1.1模型服务化的架构与流程设计
9.1.2RESTful API与gRPC的选择与应用
9.2使用Docker与Kubernetes进行部署
9.2.1使用Docker容器化部署ChatGLM
9.2.2Kubernetes集群中的模型管理与扩展
9.3在线推理与批量推理的实现与优化
9.3.1实时推理与批量推理架构的选择
9.3.2批量推理中的性能优化技术
9.4部署中的监控与故障恢复
9.4.1日志记录与错误跟踪
9.4.2自动化恢复与容错机制
第10章 AI前沿:ChatGLM的伦理与安全性
10.1AI伦理:ChatGLM面临的挑战与风险
10.1.1偏见与公平性问题
10.1.2数据隐私与信息安全的风险
10.2偏见检测与消除策略
10.2.1偏见的检测方法与评估标准
10.2.2如何在训练数据中消除偏见
10.3模型的透明性与可解释性
10.3.1可解释AI与黑箱问题
10.3.2解释性技术
10.4数据隐私保护技术
10.4.1GDPR与数据隐私合规性
10.4.2同态加密与差分隐私技术
第11章 ChatGLM在行业中的应用案例
11.1ChatGLM在客服系统中的应用
11.1.1电子商务与企业级客服系统的对接
11.1.2自动化问答与多轮对话的实现
11.2ChatGLM在金融领域的应用
11.2.1金融数据处理与自动化咨询服务
11.2.2风险预测与欺诈检测
11.3ChatGLM在医疗领域的应用
11.3.1医疗知识图谱与智能问答系统
11.3.2疾病预测与个性化健康咨询
11.4ChatGLM在教育领域的应用
11.4.1智能教育助手与个性化学习
11.4.2基于ChatGLM的在线教育平台
第12章 ChatGLM实战:双语智能对话系统
12.1项目背景与目标设定
12.1.1项目背景:构建双语智能对话系统
12.1.2项目目标设定与技术要求
12.1.3需求分析:双语对话系统的具体需求
12.2数据收集与预处理
12.2.1双语数据集的收集与构建
12.2.2数据清洗与格式化处理
12.2.3数据增强与多轮对话处理
12.3模型训练与微调实现
12.3.1训练双语模型的架构与流程
12.3.2双语数据微调
12.3.3模型训练的优化与技巧
12.4模型部署与性能评估
12.4.1模型部署架构与设计
12.4.2模型实时推理与批量推理的实现
12.4.3模型性能评估与优化
12.5API接口开发
12.5.1API开发概述与需求分析
12.5.2基于Flask/Django框架搭建API服务
12.5.3应用程序云端部署
12.5.4Web端应用程序部署
內容試閱
近年来,大语言模型(Large Language Model, 简称LLM)的迅速崛起,深刻改变了自然语言处理(NLP)的技术格局。这种模型基于大规模数据和深度学习技术,展现了强大的语言生成与理解能力,在翻译、摘要、问答、文本生成等任务中均取得了突破性进展。
大语言模型的核心优势在于适应性和通用性。这种模型不仅支持多语言处理,还能通过微调或少量样本学习(Fewshot Learning)快速适配不同领域的具体任务。然而,随着模型规模的持续扩大,大语言模型也面临着计算资源需求高、推理效率低,以及安全性和伦理挑战等问题。因此,如何在提升性能的同时实现高效训练与优化部署,成为了这一领域技术发展的重要方向。
在此背景下,ChatGLM作为一款专注于中英双语对话的大语言模型,在性能和应用层面均展现了显著的优势。该模型基于Transformer架构,通过自注意力机制和大规模预训练数据,显著提升了其在多语言语境下的生成与理解能力。
凭借其开源特性,ChatGLM在学术研究与工业实践中也备受关注,同时针对中英双语场景的优化设计,在教育、医疗、客服等多个领域都展现了广泛的应用潜力。从流畅的自然语言交互到特定任务的适配能力,ChatGLM都表现出了良好的性能,成为双语对话领域大语言模型的重要代表之一。
本书分为三部分,共12章,从理论基础到实际应用,层层深入,系统地解析了ChatGLM模型的核心技术与应用实践。
其中,第1~3章为基础部分,聚焦于ChatGLM的原理与架构解析。该部分涵盖大语言模型的基础理论、多层Transformer架构、训练数据的准备与清洗,以及模型的初步微调实现等知识,为后续深度开发奠定理论和实践基础。特别是在数据预处理部分,结合ChatGLM的双语对话需求,详细讲解了双语数据的收集、清洗与格式化方法,帮助读者理解高质量数据对模型性能的关键影响。
第4~8章为进阶部分,专注于模型优化与高级应用,包括多任务学习、迁移学习、推理优化以及调优策略。这部分内容不仅从理论上深入分析了ChatGLM在复杂任务中的表现,还通过多个案例展示了模型参数调整、梯度优化、多模态融合等关键技术。其中,第6章详细解读了模型压缩、知识蒸馏与混合精度训练等方法,为降低计算资源需求提供了解决方案;第8章系统梳理了训练过程中的常见问题及其解决策略,如梯度消失与爆炸、过拟合与欠拟合等,帮助开发者提高模型的稳定性与性能。
第9~12章为实践部分,展示了ChatGLM在多个行业中的应用实例,并以双语智能对话系统为核心案例,完整呈现了从需求分析、数据处理到系统部署的全流程。其中,第9章重点讲解了模型部署与集成技术,包括RESTful API开发、Docker与Kubernetes的应用;第12章则围绕双语智能对话系统的构建,结合云端与本地部署策略,全面展示了模型在实际场景中的实现。这部分内容不仅实用性强,还为读者拓展了模型在不同行业中的应用视野。
深度剖析ChatGLM:原理、训练、微调与实战书中给出的部分示例采用了智谱近期发布的ChatGLM4模型,相较于国外的GPT、Claude等大语言模型,ChatGLM4在中文语义理解方面尤为出色,读者可以根据书中给出的示例进行二次开发。
说明:本书涉及的模型包括ChatGLM6B全系列及近期发布的ChatGLM4,读者可以根据具体的项目需求选择合适的模型及分词器,并将示例中的模型与分词器云端加载路径修改为对应的模型版本。
本书注重理论与实践的紧密结合,每一章节均配备了详细的代码示例与运行结果,确保技术实现的可操作性。同时,本书通过引入ChatGLM在金融、医疗、教育等领域的多个实际应用案例,充分展示了大语言模型的跨领域适用性。无论是对理论原理的系统解析,还是对开发与优化方法的实操指导,都旨在帮助读者全面掌握大语言模型的核心技术和应用方法。本书是学习大语言模型技术的优秀参考,也是企业开发人员开发与部署大语言模型的实用指南。
我们希望本书不仅能够帮助读者从理论的高度理解大语言模型的设计与实现原理,更能通过实践引导,使其掌握在实际项目中开发与优化大语言模型的关键技术。无论读者是对人工智能技术有教学需求或充满兴趣的在校师生,还是希望将大语言模型引入企业项目的开发人员,都能从本书中找到启发与指导。愿本书能成为读者探索大语言模型技术世界的一座桥梁,助读者在这一领域创造更多可能性。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2025 (香港)大書城有限公司 All Rights Reserved.