新書推薦:
《
东野圭吾:变身(来一场真正的烧脑 如果移植了别人的脑子,那是否还是我自己)
》
售價:NT$
295.0
《
严复与福泽谕吉启蒙思想比较(王中江著作系列)
》
售價:NT$
750.0
《
甘于平凡的勇气
》
售價:NT$
225.0
《
存在与结构:精神分析的法国转向——以拉康与萨特为中心
》
售價:NT$
240.0
《
生成式人工智能:AIGC与多模态技术应用实践指南
》
售價:NT$
495.0
《
石油帝国的兴衰:英国的工业化与去工业化
》
售價:NT$
445.0
《
古典的回響:溪客舊廬藏明清文人繪畫
》
售價:NT$
1990.0
《
根源、制度和秩序:从老子到黄老学(王中江著作系列)
》
售價:NT$
550.0
|
內容簡介: |
大模型是近年来引人注目的热点之一。大模型蓬勃发展的基础,是针对其需求设计的算力及基础架构。本书针对如何为大模型构建基础架构进行深入讲解,并基于TOGAF方法论,剖析业界知名案例的设计方案。 全书总计13章。第1章讲解AI与大模型时代对基础架构的需求;第2章讲解软件程序与专用硬件的结合,涉及GPU并行运算库、机器学习程序的开发框架和分布式AI训练;第3章剖析GPU的硬件架构,涉及GPU的总体设计、Nvidia GH100芯片架构和拥有其他Hopper架构的GPU;第4章讲解GPU服务器的设计与实现;第5章讲解机器学习所依托的I/O框架体系;第6章讲解GPU集群的网络设计与实现;第7章讲解GPU板卡算力调度技术;第8章讲解GPU虚拟化调度方案;第9章讲解GPU集群的网络虚拟化设计与实现;第10章讲解GPU集群的存储设计与实现;第11章讲解如何基于云原生技术为机器学习应用设计与实现更好的开发和运行平台;第12章讲解基于云平台的GPU集群的管理与运营,涉及云运维平台、云运营平台和云审计平台;第13章基于一个服务机器学习的GPU计算平台落地案例,展示如何针对机器学习应用进行需求分析、设计与实现。 无论是高等院校计算机与人工智能等相关专业的本科生或研究生,还是对并行计算技术、云计算技术、高性能存储及高性能网络技术感兴趣的研究人员或工程技术人员,都可以参考和阅读本书。
|
關於作者: |
方天戟腾讯专有云与智算平台shou席架构师,本科毕业于北京航空航天大学自动控制专业,硕士研究生毕业于中国科学院研究生院计算机科学与技术专业。从业近20年,从事过硬件开发、内核与驱动开发、协议栈开发、网络与云计算解决方案设计等工作,曾在华为、新华三、Juniper等企业任职,为航天科技、中国建筑、BMW及环球影城等国内外知名客户设计且落地过云计算与网络解决方案。“云鉴”丛书编写组核心成员。微信公众号:帅云霓的技术小屋
|
目錄:
|
第1章 AI与大模型时代对基础架构的需求
1.1 我们在谈论AI时,到底在谈论什么
1.2 机器学习算法初窥
1.3 一元线性回归算法剖析
1.4 机器学习算法对计算机硬件的特殊需求
1.4.1 机器学习算法的核心运算特征
1.4.2 使用CPU实现机器学习算法和并行加速
1.4.3 机器学习算法的主力引擎——GPU
1.4.4 机器学习算法的新引擎——TPU和NPU
1.5 本章小结
第2章 软件程序与专用硬件的结合
2.1 GPU并行运算库
2.2 机器学习程序的开发框架
2.3 分布式AI训练
2.4 本章小结
第3章 GPU硬件架构剖析
3.1 GPU的总体设计
3.2 Nvidia GH100芯片架构剖析
3.3 其他Hopper架构的GPU
3.4 本章小结
第4章 GPU服务器的设计与实现
4.1 初识Nvidia DGX
4.2 Nvidia DGX A100的总体设计
4.3 Nvidia DGX A100 CPU与内存子系统的设计
4.4 Nvidia DGX A100 PCI-E子系统的设计
4.5 Nvidia DGX A100 NVLink子系统的设计
4.6 其他辅助子系统的设计
4.7 本章小结
第5章 机器学习所依托的I/O框架体系
5.1 Magnum IO的需求来源
5.2 Magnum IO的核心组件
5.3 服务器内部的GPU互通
5.4 跨服务器节点的GPU通信
5.5 RDMA的两种实现
5.6 GPU对存储的访问
5.7 Magnum IO所依赖的其他支撑技术
5.7.1 DPDK( Data Plane Development Kit,数据平面开发套件)
5.7.2 DPU(Data Processing Unit,数据处理器)
5.7.3 MPI Tag Matching
5.8 本章小结
第6章 GPU集群的网络设计与实现
6.1 GPU集群中RoCE计算网络的设计与实现
6.2 GPU集群中存储与业务网络的设计与实现
6.3 GPU集群中带外管理监控网络的设计与实现
6.4 GPU集群中网络边界的设计与实现
6.5 本章小结
第7章 GPU板卡级算力调度技术
7.1 基于虚拟化技术的GPU调度
7.2 基于容器技术的GPU调度
7.3 本章小结
第8章 GPU虚拟化调度方案
8.1 Nvidia的GPU虚拟化调度方案
8.1.1 API Remoting与vCUDA
8.1.2 GRID vGPU
8.1.3 Nvidia MIG
8.2 其他硬件厂商的GPU虚拟化调度方案
8.2.1 AMD的SRIOV方案
8.2.2 Intel的GVT-G方案
8.3 云厂商与开源社区基于容器的GPU虚拟化调度方案
8.3.1 TKE vCUDA+GPU Manager
8.3.2 阿里云的cGPU
8.3.3 腾讯云的qGPU
8.4 本章小结
第9章 GPU集群的网络虚拟化设计与实现
9.1 基于SDN的VPC技术:网络虚拟化技术的基石
9.2 云负载均衡:机器学习网络的中流砥柱
9.3 专线接入、对等连接与VPC网关
9.4 SDN NFV网关的实现与部署
9.4.1 基于virtio-net/vhost的虚拟机部署NFV
9.4.2 基于SRIOV的虚拟机部署NFV
9.4.3 使用DPDK技术对NFV加速
9.5 本章小结
第10章 GPU集群的存储设计与实现
10.1 程序与系统存储——分布式块存储
10.1.1 块存储的业务需求
10.1.2 集中式块存储与分布式块存储
10.1.3 分布式块存储的故障恢复
10.1.4 分布式块存储的性能优化
10.1.5 分布式块存储的快照与回滚
10.2 海量非结构化数据存储——分布式对象存储
10.2.1 入门级对象存储的首选:Ceph
10.2.2 开源海量对象存储:Swift
10.2.3 商业化对象存储:大型公有云对象存储私有化
10.2.4 未来之星:Minio
10.3 AI训练素材存储——分布式并发高性能存储
10.3.1 开源大数据存储鼻祖:HDFS
10.3.2 业界对HDFS的改进
10.3.3 长青松柏:Lustre
10.4 本章小结
第11章 机器学习应用开发与运行平台的设计与实现
11.1 微服务平台
11.1.1 Kubernetes:微服务基础能力平台
11.1.2 Spring Cloud:Java系专属微服务平台
11.1.3 Istio:不挑开发语言,只挑部署架构
11.1.4 商业化微服务平台:兼顾各类需求的选择
11.2 中间件服务
11.2.1 消息中间件
11.2.2 缓存中间件
11.2.3 数据库(数据中间件)
11.3 应用日志服务
11.4 本章小结
第12章 基于云平台的GPU集群的管理与运营
12.1 云运维平台
12.1.1 硬件基础设施管理
12.1.2 系统监控与告警平台
12.1.3 CMDB
12.2 云运营平台
12.3 云审计平台
12.4 本章小结
第13章 服务机器学习的GPU计算平台落地案例
13.1 需求来源:自动驾驶模型训练
13.2 总体设计——基于云原生的高性能计算
13.3 计算需求分析与设计实现
13.4 存储需求分析与设计实现
13.5 网络需求分析与设计实现
13.6 本章小结
后记
|
|