登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2024年11月出版新書

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

『簡體書』实战Python网络爬虫

書城自編碼: 3359805
分類: 簡體書→大陸圖書→計算機/網絡程序設計
作 者: 黄永祥
國際書號(ISBN): 9787302524892
出版社: 清华大学出版社
出版日期: 2019-05-01


書度/開本: 16开 釘裝: 平装

售價:NT$ 624

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
台北故宫博物院典藏大系·绘画卷(全十册)
《 台北故宫博物院典藏大系·绘画卷(全十册) 》

售價:NT$ 47400.0
姑苏繁华图
《 姑苏繁华图 》

售價:NT$ 3190.0
人的消逝:从原子弹、互联网到人工智能
《 人的消逝:从原子弹、互联网到人工智能 》

售價:NT$ 484.0
想象的共同体--民族主义的起源与散布(增订版)
《 想象的共同体--民族主义的起源与散布(增订版) 》

售價:NT$ 352.0
医学图形图像处理基于Python VTK的实现
《 医学图形图像处理基于Python VTK的实现 》

售價:NT$ 760.0
山家清供:小楷插图珍藏本 谦德国学文库系列
《 山家清供:小楷插图珍藏本 谦德国学文库系列 》

售價:NT$ 653.0
政略与战略论
《 政略与战略论 》

售價:NT$ 638.0
百年词史-(1900-2000(全二册))
《 百年词史-(1900-2000(全二册)) 》

售價:NT$ 1520.0

建議一齊購買:

+

NT$ 579
《 Python从小白到大牛 》
+

NT$ 435
《 Python自动化开发实战 》
+

NT$ 644
《 Python基础教程(第3版) 》
+

NT$ 498
《 Python 网络爬虫从入门到精通 》
+

NT$ 449
《 玩转Django 2.0 》
編輯推薦:
从爬虫软件开发到自己动手开发爬虫框架
从原理到实践,深入浅出,热门爬虫核心技术全掌握
涵盖丰富的爬虫工具、库、框架,十余个实战项目
资深爬虫工程师倾力奉献,入门、进阶、求职必备
內容簡介:
本书从原理到实践,循序渐进地讲述了使用Python开发网络爬虫的核心技术。全书从逻辑上可分为基础篇、实战篇和爬虫框架篇三部分。基础篇主要介绍了编写网络爬虫所需的基础知识,包括网站分析、数据抓取、数据清洗和数据入库。网站分析讲述如何使用Chrome和Fiddler抓包工具对网站做全面分析;数据抓取介绍了Python爬虫模块Urllib和Requests的基础知识;数据清洗主要介绍字符串操作、正则和BeautifulSoup的使用;数据入库讲述了MySQL和MongoDB的操作,通过ORM框架SQLAlchemy实现数据持久化,进行企业级开发。实战篇深入讲解了分布式爬虫、爬虫软件的开发、12306抢票程序和微博爬取等。框架篇主要讲述流行的爬虫框架Scrapy,并以Scrapy与Selenium、Splash、Redis结合的项目案例,让读者深层次了解Scrapy的使用。此外,本书还介绍了爬虫的上线部署、如何自己动手开发一款爬虫框架、反爬虫技术的解决方案等内容。
本书使用Python 3.X编写,技术先进,项目丰富,适合欲从事爬虫工程师和数据分析师岗位的初学者、大学生和研究生使用,也很适合有一些网络爬虫编写经验,但希望更加全面、深入理解Python爬虫的开发人员使用。
關於作者:
黄永祥,CSDN博客专家和签约讲师,多年软件研发经验,主要从事机器人流程系统研发、大数据系统研发、网络爬虫研发以及自动化运维系统研发。擅长使用Python编写高质量代码,对Python有深入研究,热爱分享和新技术的探索。
目錄
目 录
第1章 理解网络爬虫 1
1.1 爬虫的定义 1
1.2 爬虫的类型 2
1.3 爬虫的原理 2
1.4 爬虫的搜索策略 4
1.5 爬虫的合法性与开发流程 5
1.6 本章小结 6
第2章 爬虫开发基础 7
2.1 HTTP与HTTPS 7
2.2 请求头 9
2.3 Cookies 10
2.4 HTML 11
2.5 JavaScript 12
2.6 JSON 14
2.7 Ajax 14
2.8 本章小结 15
第3章 Chrome分析网站 16
3.1 Chrome开发工具 16
3.2 Elements标签 17
3.3 Network标签 18
3.4 分析QQ音乐 20
3.5 本章小结 23
第4章 Fiddler抓包 24
4.1 Fiddler介绍 24
4.2 Fiddler安装配置 24
4.3 Fiddler抓取手机应用 26
4.4 Toolbar工具栏 29
4.5 Web Session列表 30
4.6 View选项视图 32
4.7 Quickexec命令行 33
4.8 本章小结 34
第5章 爬虫库Urllib 35
5.1 Urllib简介 35
5.2 发送请求 36
5.3 复杂的请求 37
5.4 代理IP 38
5.5 使用Cookies 39
5.6 证书验证 40
5.7 数据处理 41
5.8 本章小结 42
第6章 爬虫库Requests 43
6.1 Requests简介及安装 43
6.2 请求方式 44
6.3 复杂的请求方式 45
6.4 下载与上传 47
6.5 本章小结 49
第7章 Requests-Cache爬虫缓存 50
7.1 简介及安装 50
7.2 在Requests中使用缓存 50
7.3 缓存的存储机制 53
7.4 本章小结 54
第8章 爬虫库Requests-HTML 55
8.1 简介及安装 55
8.2 请求方式 56
8.3 数据清洗 56
8.4 Ajax动态数据抓取 59
8.5 本章小结 61
第9章 网页操控与数据爬取 62
9.1 了解Selenium 62
9.2 安装Selenium 63
9.3 网页元素定位 66
9.4 网页元素操控 70
9.5 常用功能 73
9.6 实战:百度自动答题 80
9.7 本章小结 85
第10章 手机App数据爬取 86
10.1 Appium简介及原理 86
10.2 搭建开发环境 87
10.3 连接Android系统 92
10.4 App的元素定位 97
10.5 App的元素操控 99
10.6 实战:淘宝商品采集 102
10.7 本章小结 107
第11章 Splash、Mitmproxy与Aiohttp 109
11.1 Splash动态数据抓取 109
11.1.1 简介及安装 109
11.1.2 使用Splash的API接口 112
11.2 Mitmproxy抓包 116
11.2.1 简介及安装 116
11.2.2 用Mitmdump抓取爱奇艺视频 116
11.3 Aiohttp高并发抓取 119
11.3.1 简介及使用 119
11.3.2 Aiohttp异步爬取小说排行榜 123
11.4 本章小结 126
第12章 验证码识别 128
12.1 验证码的类型 128
12.2 OCR技术 129
12.3 第三方平台 131
12.4 本章小结 134
第13章 数据清洗 136
13.1 字符串操作 136
13.1.1 截取 136
13.1.2 替换 137
13.1.3 查找 137
13.1.4 分割 138
13.2 正则表达式 139
13.2.1 正则语法 140
13.2.2 正则处理函数 141
13.3 BeautifulSoup数据清洗 144
13.3.1 BeautifulSoup介绍与安装 144
13.3.2 BeautifulSoup的使用示例 146
13.4 本章小结 149
第14章 文档数据存储 150
14.1 CSV数据的写入和读取 150
14.2 Excel数据的写入和读取 151
14.3 Word数据的写入和读取 154
14.4 本章小结 156
第15章 ORM框架 158
15.1 SQLAlchemy介绍与安装 158
15.1.1 操作数据库的方法 158
15.1.2 SQLAlchemy框架介绍 158
15.1.3 SQLAlchemy的安装 159
15.2 连接数据库 160
15.3 创建数据表 162
15.4 添加数据 164
15.5 更新数据 165
15.6 查询数据 166
15.7 本章小结 168
第16章 MongoDB数据库操作 169
16.1 MongoDB介绍 169
16.2 MogoDB的安装及使用 170
16.2.1 MongoDB的安装与配置 170
16.2.2 MongoDB可视化工具 172
16.2.3 PyMongo的安装 173
16.3 连接MongoDB数据库 173
16.4 添加文档 174
16.5 更新文档 175
16.6 查询文档 176
16.7 本章小结 178
第17章 实战:爬取51Job招聘信息 180
17.1 项目分析 180
17.2 获取城市编号 180
17.3 获取招聘职位总页数 182
17.4 爬取每个职位信息 184
17.5 数据存储 188
17.6 爬虫配置文件 190
17.7 本章小结 191
第18章 实战:分布式爬虫QQ音乐 193
18.1 项目分析 193
18.2 歌曲下载 194
18.3 歌手的歌曲信息 198
18.4 分类歌手列表 201
18.5 全站歌手列表 203
18.6 数据存储 204
18.7 分布式爬虫 205
18.7.1 分布式概念 205
18.7.2 并发库concurrent.futures 206
18.7.3 分布式策略 207
18.8 本章小结 209
第19章 实战:12306抢票爬虫 211
19.1 项目分析 211
19.2 验证码验证 211
19.3 用户登录与验证 214
19.4 查询车次 219
19.5 预订车票 225
19.6 提交订单 227
19.7 生成订单 233
19.8 本章小结 236
第20章 实战:玩转微博 244
20.1 项目分析 244
20.2 用户登录 244
20.3 用户登录(带验证码) 253
20.4 关键词搜索热门微博 259
20.5 发布微博 264
20.6 关注用户 268
20.7 点赞和转发评论 271
20.8 本章小结 277
第21章 实战:微博爬虫软件开发 278
21.1 GUI库及PyQt5的安装与配置 278
21.1.1 GUI库 278
21.1.2 PyQt5安装及环境搭建 279
21.2 项目分析 281
21.3 软件主界面 284
21.4 相关服务界面 288
21.5 微博采集界面 292
21.6 微博发布界面 297
21.7 微博爬虫功能 308
21.8 本章小结 315
第22章 Scrapy爬虫开发 317
22.1 认识与安装Scrapy 317
22.1.1 常见爬虫框架介绍 317
22.1.2 Scrapy的运行机制 318
22.1.3 安装Scrapy 319
22.2 Scrapy爬虫开发示例 320
22.3 Spider的编写 326
22.4 Items的编写 329
22.5 Item Pipeline的编写 330
22.5.1 用MongoDB实现数据入库 330
22.5.2 用SQLAlchemy实现数据入库 332
22.6 Selectors的编写 333
22.7 文件下载 336
22.8 本章小结 339
第23章 Scrapy扩展开发 341
23.1 剖析Scrapy中间件 341
23.1.1 SpiderMiddleware中间件 342
23.1.2 DownloaderMiddleware中间件 344
23.2 自定义中间件 347
23.2.1 设置代理IP服务 347
23.2.2 动态设置请求头 350
23.2.3 设置随机Cookies 353
23.3 实战:Scrapy Selenium爬取豆瓣电影评论 355
23.3.1 网站分析 355
23.3.2 项目设计与实现 357
23.3.3 定义Selenium中间件 359
23.3.4 开发Spider程序 360
23.4 实战:Scrapy Splash爬取B站动漫信息 362
23.4.1 Scrapy_Splash实现原理 363
23.4.2 网站分析 363
23.4.3 项目设计与实现 365
23.4.4 开发Spider程序 367
23.5 实战:Scrapy Redis分布式爬取猫眼排行榜 369
23.5.1 Scrapy_Redis实现原理 369
23.5.2 安装Redis数据库 371
23.5.3 网站分析 372
23.5.4 项目设计与实现 373
23.5.5 开发Spider程序 375
23.6 分布式爬虫与增量式爬虫 377
23.6.1 基于管道实现增量式 378
23.6.2 基于中间件实现增量式 381
23.7 本章小结 384
第24章 实战:爬取链家楼盘信息 386
24.1 项目分析 386
24.2 创建项目 389
24.3 项目配置 389
24.4 定义存储字段 391
24.5 定义管道类 392
24.6 编写爬虫规则 396
24.7 本章小结 400
第25章 实战:QQ音乐全站爬取 402
25.1 项目分析 402
25.2 项目创建与配置 403
25.2.1 项目创建 403
25.2.2 项目配置 403
25.3 定义存储字段和管道类 405
25.3.1 定义存储字段 405
25.3.2 定义管道类 405
25.4 编写爬虫规则 408
25.5 本章小结 413
第26章 爬虫的上线部署 415
26.1 非框架式爬虫部署 415
26.1.1 创建可执行程序 415
26.1.2 制定任务计划程序 417
26.1.3 创建服务程序 421
26.2 框架式爬虫部署 424
26.2.1 Scrapyd部署爬虫服务 424
26.2.2 Gerapy爬虫管理框架 429
26.3 本章小结 434
第27章 反爬虫的解决方案 435
27.1 常见的反爬虫技术 435
27.2 基于验证码的反爬虫 436
27.2.1 验证码出现的情况 437
27.2.2 解决方案 438
27.3 基于请求参数的反爬虫 439
27.3.1 请求参数的数据来源 439
27.3.2 请求参数的查找 440
27.4 基于请求头的反爬虫 441
27.5 基于Cookies的反爬虫 443
27.6 本章小结 447
第28章 自己动手开发爬虫框架 449
28.1 框架设计说明 449
28.2 异步爬取方式 450
28.3 数据清洗机制 455
28.4 数据存储机制 457
28.5 实战:用自制框架爬取豆瓣电影 463
28.6 本章小结 468
內容試閱
前 言
随着大数据和人工智能的普及,Python的地位也变得水涨船高,许多技术人员投身于Python开发,其中网络爬虫是Python最为热门的应用领域之一。在爬虫领域,Python可以说是处于霸主地位,Python能解决爬虫开发过程中所遇到的难题,开发速度快且支持异步编程,大大缩短了开发周期。此外,从事数据分析的工程师,为获取数据,很多时候也会用到网络爬虫的相关技术,因此,Python爬虫编程已成为爬虫工程师和数据分析师的必备技能。
本书结构
本书共分28章,各章内容概述如下:
第1章介绍什么是网络爬虫、爬虫的类型和原理、爬虫搜索策略和爬虫的合法性及开发流程。
第2章讲解爬虫开发的基础知识,包括HTTP协议、请求头和Cookies的作用、HTML的布局结构、JavaScript的介绍、JSON的数据格式和Ajax的原理。
第3章介绍使用Chrome开发工具分析爬取网站,重点介绍开发工具的Elements和Network标签的功能和使用方式,并通过开发工具分析QQ网站。
第4章主要介绍Fiddler抓包工具的原理和安装配置,Fiddler用户界面的各个功能及使用方法。
第5章讲述了Urllib在Python 2和Python 3的变化及使用,包括发送请求、使用代理IP、Cookies的读写、HTTP证书验收和数据处理。
第6章~第8章介绍Python第三方库Requests、Requests-Cache爬虫缓存和Requests-HTML,包括发送请求、使用代理IP、Cookies的读写、HTTP证书验收和文件下载与上传、复杂的请求方式、缓存的存储机制、数据清洗以及Ajax动态数据爬取等内容。
第9章介绍网页操控和数据爬取,重点讲解Selenium的安装与使用,并通过实战项目百度自动答题,讲解了Selenium的使用。
第10章介绍手机App数据爬取,包括Appium的原理与开发环境搭建、连接Android系统,并通过实战项目淘宝商品采集,介绍了App数据的爬取技巧。
第11章介绍Splash、Mitmproxy与Aiohttp的安装和使用,包括Splash动态数据抓取、Mitmproxy抓包和Aiohttp高并发抓取。
第12章介绍验证码的种类和识别方法,包括OCR的安装和使用、验证码图片处理和使用第三方平台识别验证码。
第13章讲述数据清洗的三种方法,包括字符串操作(截取、查找、分割和替换)、正则表达式的使用和第三方库BeautifulSoup的安装以及使用。
第14章讲述如何将数据存储到文件,包括CSV、Excel和Word文件的读取和写入方法。
第15章介绍ORM框架SQLAlchemy的安装及使用,实现关系型数据库持久化存储数据。
第16章讲述非关系型数据库MongoDB的操作,包括MongoDB的安装、原理和Python实现MongoDB的读写。
第17章至第21章介绍了5个实战项目,分别是:爬取51Job招聘信息、分布式爬虫QQ音乐、12306抢票爬虫、微博爬取和微博爬虫软件的开发。
第22章至第25章介绍了Scrapy爬虫框架,包括Scrapy的运行机制、项目创建、各个组件的编写(Setting、Items、Item Pipelines和Spider)和文件下载及Scrapy中间件,并通过实战项目Scrapy Selenium爬取豆瓣电影评论、Scrapy Splash爬取B站动漫信息和Scrapy Redis分布式爬取猫眼排行榜、爬取链家楼盘信息和QQ音乐全站爬取,深入讲解了Scrapy的应用和分布式爬虫的编写技巧。
第26章介绍爬虫的上线部署,包括非框架式爬虫和框架式爬虫的部署技巧。
第27章介绍常见的反爬虫技术,并给出了可行的反爬虫解决方案。
第28章介绍爬虫框架的编写,学习如何自己动手编写一款爬虫框架,以满足特定业务场景的需求。
本书特色
循序渐进,涉及面广:本书站在初学者的角度,循序渐进地介绍了使用Python开发网络爬虫的各种知识,内容由浅入深,几乎涵盖了目前网络爬虫开发的各种热门工具和前瞻性技术。
实战项目丰富,扩展性强:本书采用大量的实战项目进行讲解,力求通过实际应用使读者更容易地掌握爬虫开发技术,以应对业务需求。本书项目经过编者精心设计和挑选,根据实际开发经验总结而来,涵盖了在实际开发中所遇到的各种问题。对于精选项目,尽可能做到步骤详尽、结构清晰、分析深入浅出,而且案例的扩展性强,读者可根据实际需求扩展开发。
从理论到实践,注重培养爬虫开发思维:在讲解过程中,不仅介绍理论知识,注重培养读者的爬虫开发思维,而且安排了综合应用实例或小型应用程序,使读者能顺利地将理论应用到实践中。
特色干货,倾情分享:本书大部分内容都来自作者多年来的编程实践,操作性很强。值得关注的是,本书还介绍了爬虫软件和爬虫框架的开发,供学有余力的读者扩展知识结构,提升开发技能。
源代码下载
本书所有程序代码均在Python 3.6下调试通过,源代码Github下载地址:
https:github.comxyjwpython-Reptile
你也可以扫描下面的二维码下载。
如果你在下载过程中遇到问题,可发送邮件至554301449@qq.com获得帮助,邮件标题为实战Python网络爬虫下载资源。
技术服务
读者在学习或者工作的过程中,如果遇到实际问题,可以加入QQ群93314951与笔者联系,笔者会在第一时间给予回复。
读者对象
本书主要适合以下读者阅读:
? Python网络爬虫初学者及在校学生。
? Python初级爬虫工程师。
? 从事数据抓取和分析的技术人员。
? 学习Python程序设计的开发人员。
虽然笔者力求本书更臻完美,但由于水平所限,难免会出现错误,特别是实例中爬取的网站可能随时更新,导致源码在运行过程中出现问题,欢迎广大读者和高手专家给予指正,笔者将十分感谢。
黄永祥
2019年1月

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.