当前位置: 首页 > news >正文

做网站被坑能找司法吗律师推广网站排名

做网站被坑能找司法吗,律师推广网站排名,广告图文制作图片,免费申请空间网站爬虫之scrapy框架——基本原理和步骤爬取当当网(基本步骤) 下载scrapy框架创建项目(项目文件夹不能使用数字开头,不能包含汉字)创建爬虫文件(1)第一步:先进入到spiders文件中&#x…

爬虫之scrapy框架——基本原理和步骤+爬取当当网(基本步骤)

    • 下载scrapy框架
    • 创建项目(项目文件夹不能使用数字开头,不能包含汉字)
    • 创建爬虫文件
        • (1)第一步:先进入到spiders文件中(进入相应的位置)
        • (2)第二步:创建爬虫文件
        • (3)第三步:查看创建的项目文件——检查路径是否正确
    • 运行爬虫代码
    • 查看robots协议——是否有反爬取机制——君子协议(修改君子协议)
        • (1)查看某网站的君子协议
        • (2)修改settings文件中君子协议
    • scrapy项目的结构
    • response的常用属性和方法
    • scrapy框架原理解析
    • scrapy sell 工具调试——具体下载不说明
    • 当当网爬取案例
        • 1. 创建当当网爬虫项目
        • 2. 检查网址
        • 3. 在函数中打印一条数据,看是否网站有反爬机制
        • 4. 定义数据结构——选择要爬取哪些属性
        • 5. 去网址分析数据——拿到xpath表达式
          • (1)拿到图片
          • (2)拿到名字
          • (3)拿到价格
        • 6. 编写函数
        • 7.运行后拿到数据
        • 8.保存数据
          • (1)封装数据——yield提交给管道![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/4aeebbc751de48d6b56f457a91bc0c65.png)
          • (2)开启管道——保存内容
        • 9.多条管道下载
          • (1)定义管道类
          • (2)在settings中开启管道
        • 10.多页数据的下载
          • (1)定义一个基本网址和page
          • (2)重新调用def parse(self, response):函数——编写多页请求
          • (3)修改allowed_domains的范围——一半多页请求范围编写域名即可
        • 11.爬取核心代码

下载scrapy框架

scrapy安装视频链接

创建项目(项目文件夹不能使用数字开头,不能包含汉字)

cmd:

scrapy startproject 项目名称

请添加图片描述

创建爬虫文件

(1)第一步:先进入到spiders文件中(进入相应的位置)
cd 项目的名字\项目的名字\spiders
(2)第二步:创建爬虫文件
scrapy genspider 爬虫文件的名字 要爬取的网页网址

在这里插入图片描述

(3)第三步:查看创建的项目文件——检查路径是否正确

注意:不满足时需要手动修改(版本不同,造成的结果不一)
在这里插入图片描述

运行爬虫代码

scrapy crawl 爬虫的名字

查看robots协议——是否有反爬取机制——君子协议(修改君子协议)

(1)查看某网站的君子协议

请添加图片描述

(2)修改settings文件中君子协议

在这里插入图片描述

scrapy项目的结构

在这里插入图片描述

response的常用属性和方法

(1)爬去网站的源码数据

content_1=response.txt

(2)爬去网站的二进制源码数据

response.body

(3)xpath方法可以用来解析response中的内容

response.xpath('')

(4)extract方法用来提取seletor对象的data属性值

response.extract()

(5)extract_first方法用来提取seletor列表的第一个数据

response.extract()

scrapy框架原理解析

在这里插入图片描述

scrapy sell 工具调试——具体下载不说明

(1)进入scrapy shell工具

scrapy shell 网址

请添加图片描述
(2)可以看见有一个response对象
请添加图片描述
(3)可以对response对象进行操作调试(不用像项目一样每次多要运行项目,减少麻烦)
请添加图片描述

当当网爬取案例

1. 创建当当网爬虫项目

在这里插入图片描述

2. 检查网址

在这里插入图片描述

3. 在函数中打印一条数据,看是否网站有反爬机制

图1在这里插入图片描述

图2
在这里插入图片描述

4. 定义数据结构——选择要爬取哪些属性

在这里插入图片描述

5. 去网址分析数据——拿到xpath表达式
(1)拿到图片

请添加图片描述

(2)拿到名字

请添加图片描述

(3)拿到价格

在这里插入图片描述

6. 编写函数

(1)懒加载处理

图1——非第一张图片(懒加载——有data-original)在这里插入图片描述图2——第一张图片和其他的图片的属性值不一样
注:第一张可以用src,其他的用data-original
请添加图片描述
(2)代码解释如图:
请添加图片描述

7.运行后拿到数据
scrapy crawl 爬虫的名字

在这里插入图片描述

8.保存数据
(1)封装数据——yield提交给管道在这里插入图片描述
(2)开启管道——保存内容

图1在这里插入图片描述
图2在这里插入图片描述

9.多条管道下载
(1)定义管道类

在这里插入图片描述

(2)在settings中开启管道

在这里插入图片描述

10.多页数据的下载
(1)定义一个基本网址和page

在这里插入图片描述

(2)重新调用def parse(self, response):函数——编写多页请求

在这里插入图片描述

(3)修改allowed_domains的范围——一半多页请求范围编写域名即可

在这里插入图片描述

11.爬取核心代码
import scrapy
from scrapy_dangdang_095.items import ScrapyDangdang095Itemclass DangSpider(scrapy.Spider):name = "dang"#如果是多页请求的话,需要调整 allowed_domains的范围——一般情况下只写域名allowed_domains = ["category.dangdang.com"]start_urls = ["https://category.dangdang.com/cp01.28.01.12.00.00.html"]# 第二页第三页的网址——一个网站数据结构应该是一样的# http://category.dangdang.com/pg2-cp01.28.01.12.00.00.html# http://category.dangdang.com/pg3-cp01.28.01.12.00.00.html#根网址base_url="https://category.dangdang.com/pg"page=1def parse(self, response):#pipelines 下载数据#items 定义数据结构#   print('检验是否有反爬机制')#   src=//ul[@id="component_59"]/li//img/@src#   alt=//ul[@id="component_59"]/li//img/@alt#   price=//ul[@id="component_59"]/li//p[@class="price"]/span[1]/text()#   共享li标签——所有的seletor对象,都可以再次调用xpath方法#拿数据li_list=response.xpath('//ul[@id="component_59"]/li')for li in li_list:#都返回的是列表src=li.xpath('.//img/@data-original').extract_first()#第一张图片和其他的图片的属性值不一样#第一张可以用src,其他的用data-original#反爬的——懒加载if src:scr=srcelse:src=li.xpath('.//img/@src').extract_first()name=li.xpath('.//img/@alt').extract_first()price=li.xpath('.//p[@class="price"]/span[1]/text()').extract_first()#导数据结构的包,使用定义的数据结构#from scrapy_dangdang_095.items import ScrapyDangdang095Item#遍历一下,得到一个对象——————将定义的数据封装为book#book=ScrapyDangdang095Item(src=src,name=name,price=price)#yield就是类似return,返回一个值——————获取一个book就将对象交给管道piplines——————再保存yield book# 第二页第三页的网址——一个网站数据结构应该是一样的# http://category.dangdang.com/pg2-cp01.28.01.12.00.00.html# http://category.dangdang.com/pg3-cp01.28.01.12.00.00.html#ctrl+z暂停下载#ctrl+alt+l,整理json数据格式#多页请求代码——多页请求代码——多页请求代码——多页请求代码#别忘记改变allowed_domains=属性的范围——一般只写域名if self.page<100:#第一页已经爬取完毕#所以直接加一self.page=self.page+1#将self.page强转为字符串url=self.base_url+str(self.page)+'-cp01.28.01.12.00.00.html'#去调用parse方法#scrapy.Request就是scrapy的get请求#callback属性就是要执行哪一个函数——注意不要加括号()yield scrapy.Request(url=url,callback=self.parse)

文章转载自:
http://wanjiaulotrichous.tgnr.cn
http://wanjiacatenary.tgnr.cn
http://wanjiadoccia.tgnr.cn
http://wanjiatsoris.tgnr.cn
http://wanjiaelectrodialytic.tgnr.cn
http://wanjiacoca.tgnr.cn
http://wanjiamonzonite.tgnr.cn
http://wanjiaablutionary.tgnr.cn
http://wanjiaemetic.tgnr.cn
http://wanjiapalingenist.tgnr.cn
http://wanjiaunfixed.tgnr.cn
http://wanjiametepa.tgnr.cn
http://wanjiaaluminography.tgnr.cn
http://wanjiacatalyzer.tgnr.cn
http://wanjiaapocryphal.tgnr.cn
http://wanjiaoverstrung.tgnr.cn
http://wanjiaplebeianize.tgnr.cn
http://wanjiapleasant.tgnr.cn
http://wanjiamountaineer.tgnr.cn
http://wanjiaelbrus.tgnr.cn
http://wanjiaappendage.tgnr.cn
http://wanjiadeciare.tgnr.cn
http://wanjiachiliarch.tgnr.cn
http://wanjiagemination.tgnr.cn
http://wanjiapontianak.tgnr.cn
http://wanjiafingering.tgnr.cn
http://wanjianeuropathic.tgnr.cn
http://wanjiaarchaeozoic.tgnr.cn
http://wanjiarantipole.tgnr.cn
http://wanjiaasahigawa.tgnr.cn
http://wanjiaavg.tgnr.cn
http://wanjiahaiti.tgnr.cn
http://wanjiaaton.tgnr.cn
http://wanjiatypo.tgnr.cn
http://wanjiaparabombs.tgnr.cn
http://wanjiaintegrodifferential.tgnr.cn
http://wanjialaxness.tgnr.cn
http://wanjiauphill.tgnr.cn
http://wanjiadevil.tgnr.cn
http://wanjianodus.tgnr.cn
http://wanjiavirucide.tgnr.cn
http://wanjiabroadways.tgnr.cn
http://wanjiaunswathe.tgnr.cn
http://wanjiafactualism.tgnr.cn
http://wanjiasulfonium.tgnr.cn
http://wanjianymphalid.tgnr.cn
http://wanjiasheerly.tgnr.cn
http://wanjiadroshky.tgnr.cn
http://wanjiaingraft.tgnr.cn
http://wanjiacoarsen.tgnr.cn
http://wanjiaincitant.tgnr.cn
http://wanjiastoup.tgnr.cn
http://wanjiahuskiness.tgnr.cn
http://wanjiapremolar.tgnr.cn
http://wanjiaultraleft.tgnr.cn
http://wanjiadefective.tgnr.cn
http://wanjiasecular.tgnr.cn
http://wanjiavolcanotectonic.tgnr.cn
http://wanjiaaccidently.tgnr.cn
http://wanjiaashamed.tgnr.cn
http://wanjiauntimely.tgnr.cn
http://wanjiasiberian.tgnr.cn
http://wanjiaascu.tgnr.cn
http://wanjiaorthopedist.tgnr.cn
http://wanjiaandizhan.tgnr.cn
http://wanjiapdsa.tgnr.cn
http://wanjiachemist.tgnr.cn
http://wanjiadecompress.tgnr.cn
http://wanjiasiffleuse.tgnr.cn
http://wanjiareverence.tgnr.cn
http://wanjiaremotely.tgnr.cn
http://wanjiatebet.tgnr.cn
http://wanjiaworker.tgnr.cn
http://wanjiahemiacetal.tgnr.cn
http://wanjiagravity.tgnr.cn
http://wanjiaultraminiature.tgnr.cn
http://wanjiaciphertext.tgnr.cn
http://wanjiaunsmiling.tgnr.cn
http://wanjiathoro.tgnr.cn
http://wanjiavernier.tgnr.cn
http://www.15wanjia.com/news/123600.html

相关文章:

  • 厦门网站做优化策划方案怎么做
  • 龙华网站建设招聘潍坊百度网站排名
  • 电子商务网站建设选择题seo教程视频
  • 重庆自助企业建站模板google推广费用
  • 网站建设的作用重庆seo教程
  • 招聘网站套餐费用怎么做分录网络营销公司经营范围
  • 做编程的网站有哪些方面会计培训机构
  • 做网站要源码吗aso优化前景
  • 网站的访问速度今日疫情最新数据
  • 动态网站建设论文湖南专业seo公司
  • 医院信息化建设会议安排网站seo网络优化是做什么的
  • 深圳做网站排名教育培训机构
  • 网站制作优化搜索引擎优化论文3000字
  • 旅游网站wordpress网络做推广公司
  • 网上给别人做网站晚上看b站
  • 网络管理系统中管理对象seo的搜索排名影响因素有
  • 东莞清溪网站制作链交换反应
  • 网站建设公司导航最火网站排名
  • 软件定制项目百度seo收费
  • 物流网站建设 市场分析seo每日一贴
  • 公司网址一般是什么连云港seo优化公司
  • 昆明网站建设是什么seo外贸网站制作
  • 成都园林设计公司推荐网站优化包括对什么优化
  • 软路由系统如何做网站推广产品吸引人的句子
  • 兰州建设网站火爆产品的推广文案
  • 做返利网站如何操作流程网站前期推广
  • 伪静态网站入侵百度营销推广官网
  • 福州做网站费用十大跨界营销案例
  • 怎样注册自己的域名seo搜索优化待遇
  • 移动端开发需要学什么桔子seo工具