成功加入购物车

去购物车结算 X
365书库
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
图文详情
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战
  • Python网络爬虫技术与实战

Python网络爬虫技术与实战

举报

闪电发货·正版保障·假一赔十·电子发票·七天退换无忧

  • 出版时间: 
  • 装帧:    平装
  • 开本:    16开
  • ISBN:  9787111674115
  • 出版时间: 
  • 装帧:  平装
  • 开本:  16开

售价 66.75 7.5折

定价 ¥89.00 

品相 全新

优惠 满减券
    发货
    承诺48小时内发货
    运费
    本店暂时无法向该地区发货

    延迟发货说明

    时间:
    说明:

    上书时间2025-11-29

    数量
    仅1件在售,欲购从速
    微信扫描下方二维码
    微信扫描打开成功后,点击右上角”...“进行转发

    卖家超过10天未登录

    九年老店
    店铺等级
    拍卖等级
    资质认证
    90天平均
    成功完成
    83.02% (604笔)
    好评率
    100%
    发货时间
    14.34小时
    地址
    山西省太原市其他区
    电话
    • 商品详情
    • 店铺评价
    立即购买 加入购物车 收藏
    手机购买
    微信扫码访问
    • 商品分类:
      童书
      货号:
      31082129
      商品描述:
      作者简介
      赵国生,哈尔滨师范大学教授,工学博士,硕士生导师,黑龙江省网络安全技术领域特殊人才。

      目录
      前言<br/>第1章 Python环境搭建及基础学习1<br/>1.1 Python 3.6的安装与配置1<br/>1.1.1 Windows下的安装1<br/>1.1.2 Linux下的安装5<br/>1.1.3 macOS下的安装6<br/>1.2 IDE工具:PyCharm的安装7<br/>1.3 基础语法11<br/>1.3.1 第一个Python程序11<br/>1.3.2 Python命名规范13<br/>1.3.3 行和缩进15<br/>1.3.4 注释和续行15<br/>1.3.5 Python输出16<br/>1.4 字符串18<br/>1.4.1 字符串运算符18<br/>1.4.2 字符串内置函数19<br/>1.5 数据结构22<br/>1.5.1 列表22<br/>1.5.2 元组25<br/>1.5.3 集合27<br/>1.5.4 字典29<br/>1.6 控制语句31<br/>1.6.1 条件表达式31<br/>1.6.2 选择结构32<br/>1.6.3 循环结构33<br/>1.7 函数、模块和包36<br/>1.7.1 函数36<br/>1.7.2 模块40<br/>1.7.3 包42<br/>1.8 文件的读写操作 45<br/>1.8.1 文件读写步骤与打开模式46<br/>1.8.2 文件的基本操作48<br/>1.8.3 文件写入操作52<br/>1.9 面向对象53<br/>1.9.1 类和对象54<br/>1.9.2 封装性58<br/>1.9.3 继承性59<br/>1.9.4 多态性60<br/>1.10 本章小结61<br/>练习题61<br/>第2章 爬虫原理和网络基础62<br/>2.1 爬虫是什么62<br/>2.2 爬虫的意义62<br/>2.3 爬虫的原理64<br/>2.4 爬虫技术的类型66<br/>2.4.1 聚焦爬虫技术66<br/>2.4.2 通用爬虫技术67<br/>2.4.3 增量爬虫技术69<br/>2.4.4 深层网络爬虫技术70<br/>2.5 爬虫抓取策略71<br/>2.5.1 深度优先遍历策略 71<br/>2.5.2 广度优先遍历策略71<br/>2.5.3 Partial PageRank策略72<br/>2.5.4 大站优先策略72<br/>2.5.5 反向链接数策略73<br/>2.5.6 OPIC策略 73<br/>2.6 反爬虫和反反爬虫73<br/>2.6.1 反爬虫73<br/>2.6.2 反反爬虫77<br/>2.7 网络基础79<br/>2.7.1 网络体系结构79<br/>2.7.2 网络协议79<br/>2.7.3 Socket编程86<br/>2.8 本章小结88<br/>练习题88<br/>第3章 Python常用库89<br/>3.1 Python库的介绍89<br/>3.1.1 常用标准库89<br/>3.1.2 安装使用第三方库91<br/>3.2 urllib库92<br/>3.2.1 urlopen()函数用法93<br/>3.2.2 urlretrieve()函数用法95<br/>3.2.3 URL编码和URL解码96<br/>3.2.4 urlparse()和urlsplit()函数用法97<br/>3.3 request库99<br/>3.3.1 request库的基本使用99<br/>3.3.2 request库的高级用法109<br/>3.4 lxml库113<br/>3.4.1 lxml库的安装和使用113<br/>3.4.2 XPath介绍114<br/>3.4.3 XPath语法116<br/>3.4.4 lxml和XPath的结合使用119<br/>3.5 Beautiful Soup库122<br/>3.5.1 Beautiful Soup库的安装和使用123<br/>3.5.2 提取数据125<br/>3.5.3 CSS选择器131<br/>3.6 实战案例134<br/>3.6.1 使用Beautiful Soup解析网页134<br/>3.6.2 微信公众号爬虫135<br/>3.6.3 爬取豆瓣读书TOP500136<br/>3.6.4 使用urllib库爬取百度贴吧137<br/>3.7 本章小结139<br/>练习题139<br/>第4章 正则表达式140<br/>4.1 概念介绍140<br/>4.2 正则表达式语法141<br/>4.2.1 正则模式的字符141<br/>4.2.2 运算符优先级142<br/>4.3 匹配规则143<br/>4.3.1 单字符匹配规则143<br/>4.3.2 多字符匹配规则144<br/>4.3.3 边界匹配146<br/>4.3.4 分组匹配147<br/>4.4 re模块常用函数150<br/>4.4.1 re.match函数150<br/>4.4.2 re.search函数152<br/>4.4.3 re.compile函数153<br/>4.4.4 re.sub函数155<br/>4.4.5 re.findall函数156<br/>4.4.6 re.finditer函数157<br/>4.4.7 re.split函数157<br/>4.5 本章小结158<br/>练习题158<br/>第5章 验证码159<br/>5.1 PIL库159<br/>5.1.1 PIL库的安装159<br/>5.1.2 PIL库的常用函数160<br/>5.1.3 PIL库的应用163<br/>5.1.4 应用PIL到实际开发169<br/>5.2 Tesseract库172<br/>5.2.1 Tesseract库的安装172<br/>5.2.2 Tesseract库的使用174<br/>5.2.3 Tesseract库的识别训练174<br/>5.3 TensorFlow库180<br/>5.3.1 TensorFlow库的安装180<br/>5.3.2 TensorFlow基本操作184<br/>5.3.3 TensorFlow基础架构186<br/>5.3.4 TensorFlow创建线性回归模型189<br/>5.3.5 TensorFlow识别知乎验证码190<br/>5.4 4种验证码的解决思路191<br/>5.5 OCR处理验证码194<br/>5.6 实战案例195<br/>5.7 本章小结199<br/>练习题199<br/>第6章 抓包利器Fiddler200<br/>6.1 Fiddler简介200<br/>6.2 Fiddler的安装和配置200<br/>6.2.1 Fiddler的安装201<br/>6.2.2 Fiddler的配置202<br/>6.3 Fiddler捕获会话205<br/>6.4 QuickExec命令行的使用207<br/>6.5 Fiddler断点功能209<br/>6.6 Fiddler的实用工具210<br/>6.7 实战案例212<br/>6.7.1 使用Fiddler抓取数据并分析212<br/>6.7.2 使用Fiddler抓取HTTPS流量214<br/>6.7.3 使用Fiddler抓取手机应用215<br/>6.8 本章小结219<br/>练习题219<br/>第7章 数据存储220<br/>7.1 数据的基本存储220<br/>7.1.1 数据存储至TXT220<br/>7.1.2 数据存储至CSV222<br/>7.1.3 数据存储至JSON223<br/>7.2 数据存储至MySQL数据库227<br/>7.2.1 配置MySQL服务227<br/>7.2.2 安装PyMySQL228<br/>7.2.3 创建示例项目230<br/>7.2.4 PyMySQL基本操作231<br/>7.3 数据存储至MongoDB数据库231<br/>7.4 数据存储至XML234<br/>7.5 常见数据存储方式的比较235<br/>7.6 本章小结237<br/>练习题237<br/>第8章 Scrapy爬虫框架238<br/>8.1 Scrapy框架介绍238<br/>8.2 Scrapy框架详解239<br/>8.2.1 框架内组件及作用239<br/>8.2.2 Scrapy运行流程240<br/>8.2.3 数据流向240<br/>8.3 Scrapy框架中的Selector240<br/>8.4 Beautiful Soup库的使用246<br/>8.4.1 简单示例246<br/>8.4.2 四大对象种类247<br/>8.4.3 遍历文档树249<br/>8.4.4 搜索文档树249<br/>8.4.5 CSS选择器253<br/>8.5 CrawlSpider的使用254<br/>8.5.1 Spider的简单用法254<br/>8.5.2 CrawlSpider概述254<br/>8.5.3 使用CrawlSpider获取rules256<br/>8.5.4 使用CrawlSpider进行模拟登录257<br/>8.6 Scrapy Shell的使用257<br/>8.6.1 启动Scrapy Shell258<br/>8.6.2 功能函数258<br/>8.6.3 Scrapy对象258<br/>8.6.4 Scrapy Shell示例258<br/>8.7 Scrapyrt的使用259<br/>8.7.1 GET请求259<br/>8.7.2 POST请求261<br/>8.8 Scrapy对接Selenium262<br/>8.9 实战案例264<br/>8.9.1 Scrapy知乎信息爬取264<br/>8.9.2 Scrapy微博信息爬取268<br/>8.9.3 Scrapy机票信息爬取272<br/>8.10 本章小结274<br/>练习题274<br/>第9章 多线程爬虫275<br/>9.1 多线程和Threading模块275<br/>9.1.1 多线程定义和特点275<br/>9.1.2 Threading模块276<br/>9.2 使用Thread类创建实例277<br/>9.2.1 可传递函数的Thread类实例277<br/>9.2.2 可调用的Thread类实例278<br/>9.2.3 派生Thread子类279<br/>9.3 多线程方法的使用280<br/>9.3.1 多线程创建280<br/>9.3.2 多线程冲突及解决283<br/>9.3.3 使用Semaphore调度线程285<br/>9.3.4 生产者-消费者模式286<br/>9.3.5 共享全局变量及锁机制288<br/>9.4 Queue线程安全队列289<br/>9.5 实战案例291<br/>9.5.1 多线程爬取糗事百科292<br/>9.5.2 多线程爬取网站图片296<br/>9.6 本章小结298<br/>练习题298<br/>第10章 动态网页爬虫299<br/>10.1 浏览器开发者工具299<br/>10.1.1 调试工具的介绍299<br/>10.1.2 调试工具的使用示例306<br/>10.2 异步加载技术309<br/>10.2.1 异步加载技术介绍309<br/>10.2.2 AJAX数据爬取310<br/>10.3 表单交互与模拟登录314<br/>10.3.1 表单交互314<br/>10.3.2 模拟登录315<br/>10.4 Selenium模拟浏览器316<br/>10.4.1 Selenium操作浏览器316<br/>10.4.2 Selenium和ChromeDriver的配合使用332<br/>10.5 实战案例337<br/>10.5.1 Selenium职位信息爬取338<br/>10.5.2 Selenium直播平台数据爬取339<br/>10.6 本章小结341<br/>练习题341<br/>第11章 分布式爬虫342<br/>11.1 分布式爬虫概述342<br/>11.1.1 主从分布式爬虫343<br/>11.1.2 对等分布式爬虫343<br/>11.2 Scrapy-redis分布式组件345<br/>11.2.1 Scrapy-redis简介346<br/>11.2.2 Scrapy-redis工作机制348<br/>11.2.3 Scrapy-redis安装配置349<br/>11.2.4 Scrapy-redis常用配置356<br/>11.2.5 Scrapy-redis键名介绍357<br/>11.2.6 Scrapy-redis简单示例357<br/>11.3 redis数据库358<br/>11.4 Scrapy-redis源码分析364<br/>11.5 通过scrapy_redis实现分布式爬虫369<br/>11.6 实战案例371<br/>11.7 本章小结376<br/>练习题377<br/>第12章 电商网站商品信息爬虫项目378<br/>12.1 商品信息爬虫功能分析378<br/>12.1.1 商品信息爬虫接口分析378<br/>12.1.2 商品信息爬虫页面分析380<br/>12.2 商品信息爬虫实现思路380<br/>12.2.1 Selenium环境配置380<br/>12.2.2 pyquery环境配置381<br/>12.3 电商网站商品信息编写实战381<br/>12.3.1 获取电商网站商品信息列表381<br/>12.3.2 电商网站商品信息列表解析383<br/>12.3.3 保存爬取的商品信息385<br/>12.3.4 电商网站商品信息的页码遍历386<br/>12.4 pyquery解析电商网站商品信息388<br/>12.4.1 pyquery调用CSS选择器389<br/>12.4.2 pyquery使用parent()获取父节点391<br/>12.4.3 pyquery遍历商品信息393<br/>12.4.4 pyquery获取商品信息内部文本395<br/>12.4.5 CSS选择器398<br/>12.5 运行代码399<br/>12.5.1 爬虫的Chrome Headless模式400<br/>12.5.2 爬虫对接Firefox400<br/>12.5.3 爬虫对接PhantomJS400<br/>12.6 本章小结401<br/>练习题401<br/>第13章 生活娱乐点评类信息爬虫项目402<br/>13.1 功能分析402<br/>13.1.1 项目描述402<br/>13.1.2 静态网页抓取402<br/>13.1.3 动态网页抓取404<br/>13.2 请求-响应关系410<br/>13.2.1 请求对象410<br/>13.2.2 请求方法410<br/>13.3 请求头和请求体411<br/>13.3.1 请求头412<br/>13.3.2 响应412<br/>13.3.3 保存响应结果412<br/>13.4 通过Selenium模拟浏览器抓取413<br/>13.4.1 Selenium的安装413<br/>13.4.2 Selenium的实践案例414<br/>13.4.3 Selenium获取文章的所有评论414<br/>13.5 实战演练Scrapy框架实例415<br/>13.5.1 编写spider416<br/>13.5.2 编写item.py417<br/>13.5.3 为items对象赋值417<br/>13.5.4 编写piplines.py418<br/>13.5.5 配置setting.py418<br/>13.5.6 完整代码及结果419<br/>13.6 调试与运行421<br/>13.7 本章小结422<br/>练习题422<br/>第14章 图片信息类爬虫项目423<br/>14.1 功能分析423<br/>14.2 实现思路423<br/>14.2.1 urllib模块的使用424<br/>14.2.2 Scrapy框架的使用426<br/>14.3 程序执行429<br/>14.4 实战演练图片验证码429<br/>14.4.1 开发环境与工具429<br/>14.4.2 Anaconda3的安装430<br/>14.4.3

      配送说明

      ...

      相似商品

      为你推荐

    孔网啦啦啦啦啦纺织女工火锅店第三课

    开播时间:09月02日 10:30

    即将开播,去预约
    直播中,去观看