成功加入购物车

去购物车结算 X
學源图书专营店
  • Python网络爬虫实战(清华科技大讲堂) 普通图书/教材教辅///考研 吕云翔 张扬 清华大学出版社 9787302515920
图文详情

Python网络爬虫实战(清华科技大讲堂) 普通图书/教材教辅///考研 吕云翔 张扬 清华大学出版社 9787302515920

举报

新华书店全新正版书籍图书 保证_可开发票_极速发货支持7天无理由

  • 出版时间: 
  • 装帧:    平装
  • 开本:    16开
  • ISBN:  9787302515920
  • 出版时间: 
  • 装帧:  平装
  • 开本:  16开

售价 60.60 7.6折

定价 ¥79.80 

品相 全新

优惠 满包邮

优惠 满减券
    运费
    本店暂时无法向该地区发货

    延迟发货说明

    时间:
    说明:

    上书时间2023-06-21

    数量
    仅1件在售,欲购从速
    微信扫描下方二维码
    微信扫描打开成功后,点击右上角”...“进行转发

    卖家超过10天未登录

    店铺等级
    资质认证
    90天平均
    成功完成
    92.31% (3002笔)
    好评率
    99.82%
    发货时间
    8.73小时
    地址
    浙江省杭州市其他区
    • 商品详情
    • 店铺评价
    立即购买 加入购物车 收藏
    手机购买
    微信扫码访问
    • 货号:
      30616743
      商品描述:
      目录
      基础篇
        第1章  Python与网络爬虫
          1.1  Python语言
            1.1.1  什么是Python
            1.1.2  Python的应用现状
          1.2  Python的安装与开发环境配置
            1.2.1  在Windows上安装
            1.2.2  在Ubuntu和Mac OS上安装
            1.2.3  PyCharm的使用
            1.2.4  Jupyter Notebook
          1.3  Python的基本语法
            1.3.1  数据类型
            1.3.2  逻辑语句
            1.3.3  Python中的函数与类
            1.3.4  如何学习Python
          1.4  互联网、HTTP与HTML
            1.4.1  互联网与HTTP协议
            1.4.2  HTML
          1.5  HelloSpider
            1.5.1  第一个爬虫程序
            1.5.2  对爬虫程序的思考
          1.6  调研网站
            1.6.1  网站的robots.txt与Sitemap
            1.6.2  查看网站所用的技术
            1.6.3  查看网站所有者的信息
            1.6.4  使用开发者工具检查网页
          1.7  本章小结
        第2章  数据的采集
          2.1  从抓取开始
          2.2  正则表达式
            2.2.1  初识正则表达式
            2.2.2  正则表达式的简单使用
          2.3  BeautifulSoup
            2.3.1  BeautifulSoup的安装与特点
            2.3.2  BeautifulSoup的基本使用
          2.4  XPath与lxml
            2.4.1  XPath
            2.4.2  lxml与XPath的使用
          2.5  遍历页面
            2.5.1  抓取下一个页面
            2.5.2  完成爬虫程序
          2.6  使用API
            2.6.1  API简介
            2.6.2  API使用示例
          2.7  本章小结
        第3章  文件与数据的存储
          3.1  Python中的文件
            3.1.1  基本的文件读写
            3.1.2  序列化
          3.2  字符串
          3.3  Python与图片
            3.3.1  PIL与Pillow
            3.3.2  Python与OpenCV简介
          ……
      进阶篇
        第4章  JavaScript与动态内容
        第5章  表单与模拟登录
        第6章  数据的进一步处理
      高级篇
        第7章  更灵活和更多样的爬虫
        第8章  浏览器模拟与网站测试
        第9章  更强大的爬虫
      实践篇
        第10章  爬虫实践: 下载网页中的小说和购物评论
        第11章  爬虫实践: 保存感兴趣的图片
        第12章  爬虫实践: 网上影评分析
        第13章  爬虫实践: 使用爬虫下载网页
        第14章  爬虫实践: 使用爬虫框架
      附录A
      参考文献


      内容摘要
      本书介绍如何利用Python进行网络爬虫程序的开发,从Python语言的基本特性入手,详细介绍了Python爬虫开发的相关知识,涉及HTTP、HTML、JavaScript、正则表达式、自然语言处理、数据科学等内容。全书共分为14章,包括Python基础知识、网站分析、网页解析、Python文件的读写、Python与数据库、AJAX技术、模拟登录、文本与数据分析、网站测试、Scrapy爬虫框架、爬虫性能等多个主题,内容覆盖网络抓取与爬虫编程中的主要知识和技术,在重视理论基础的前提下从实用性和丰富度出发,结合实例演示了编写爬虫程序的核心流程。
      本书适合Python语言初学者、网络爬虫技术爱好者、数据分析从业人员以及高等院校计算机科学、软件工程等相关专业的师生阅读。

      精彩内容
      第3章文件与数据的存储Python以简洁见长,在其他语言中比较复杂的文件读写和数据IO,在Python中由于比较简单的语法和丰富的类库而显得尤为方便。本章将从最简单的文本文件的读写出发,重点介绍CSV文件的读写和操作数据库,同时介绍一些其他形式的数据的存储方式。
      3.1Python中的文件3.1.1基本的文件读写谈到Python中的文件读写,总会使人想到“open”关键字,其最基本的操作如下面的示例:#最朴素的open()方法f=open(''filename.text'',''r'')#做点事情f.close()#使用with,在语句块结束时会自动关闭withopen(''t1.text'',''rt'')asf:#r代表read,t代表text,一般“t”为默认,可省略content=f.read()withopen(''t1.txt'',''rt'')asf:forlineinf:print(line)withopen(''t2.txt'',''wt'')asf:f.write(content)#写入append_str=''append''withopen(''t2.text'',''at'')asf:#在已有内容上追加写入,如果使用“w”,则已有内容会被清除f.write(append_str)#文件的读写操作默认使用系统编码,一般为utf8#使用encoding设置编码方式withopen(''t2.txt'',''wt'',encoding=''ascii'')asf:f.write(content)#编码错误总是很烦人,如果用户觉得有必要暂时忽略,可以如下withopen(''t2.txt'',''wt'',errors=''ignore'')asf:#忽略错误的字符f.write(content)#写入withopen(''t2.txt'',''wt'',errors=''replace'')asf:#替换错误的字符f.write(content)#写入#重定向print()函数的输出withopen(''redirect.txt'',''wt'')asf:print(''yourtext'',file=f)#读写字节数据,例如图片、音频withopen(''filename.bin'',''rb'')asf:data=f.read()withopen(''filename.bin'',''wb'')asf:f.write(b''HelloWorld'')#从字节数据中读写文本(字符串),需要使用编码

      配送说明

      ...

      相似商品

      为你推荐

    孔网啦啦啦啦啦纺织女工火锅店第三课

    开播时间:09月02日 10:30

    即将开播,去预约
    直播中,去观看