当前位置: 首页 > news >正文

给自己做的网站换首页百度浏览器网址链接

给自己做的网站换首页,百度浏览器网址链接,wordpress如何插入视频,网上开店指南各位同学好,今天开始和各位分享一下python网络爬虫技巧,从基本的函数开始,到项目实战。那我们开始吧。 1. 基本概念 这里简单介绍一下后续学习中需要掌握的概念。 (1)http 和 https 协议。http是超文本传输&#xf…

各位同学好,今天开始和各位分享一下python网络爬虫技巧,从基本的函数开始,到项目实战。那我们开始吧。

1. 基本概念

这里简单介绍一下后续学习中需要掌握的概念。

(1)http 和 https 协议。http是超文本传输,接收HTML页面的方法,服务器80端口。https是http协议的加密版本,服务端口是443端口。 

(2)URL 统一资源定位符。形如:scheme://host:port/path/?query-string=xxx#anchor

 https://www.bilibili.com/video/BV1eT4y1Z7NB?p=3 为例

scheme:访问协议,一般为 http 或 https。

host:主机名,域名。上面的 www.bilibili.com

path:查找路径。video/BV1eT4y1Z7NB 就是 path

port:端口号,访问网站时浏览器默认 80 端口

query-string:查询字符串。如上面的 ?p=3,如有多个,用&分隔

anchor:锚点。后台不用管,是前端用来做页面定位的。相当于现在停留的位置是网页的第几个小节。

注:在浏览器中请求一个url,浏览器会对url进行编码。除英文字母,数字和部分符号外,其他全部使用百分号和十六进制码值进行编码。中文字词需要重新编码后再发送给服务器

(3)常用的请求方法

GET 请求。只从服务器获取数据下来(下载文件),并不会对服务器资源产生任何影响的时候使用GET请求。

POST 请求。向服务器发送数据(登录),上传文件等,会对服务器资源产生影响时使用POST请求


2. urllib 库

urllib 库是 python3 中自带的网络请求库,可以模拟浏览器的行为,向服务器发送一个请求,并可以保存服务器返回的数据。

2.1 urlopen 函数

用于打开一个远程的 url 连接,并且向这个连接发出请求,获取响应结果。返回的结果是一个 https 响应对象,这个响应对象中记录了本次 https 访问的响应头和响应体。

使用方法为:

urllib.request.urlopen(url, data=None, [timeout,]*, cafile=None, capath=None, cadefault=False,context=None)

参数:

url: 需要打开的网址

data:字节流编码格式,可以用 urllib.parse.urlencode() bytes() 方法转换参数格式,如果要设置了data参数,则请求方式为POST

timeout: 设置网站的访问超时时间,单位:秒。若不指定,则使用全局默认时间。若请求超时,则会抛出urllib.error.URLError异常。

返回值:

http.client.HTTPResponse对象: 返回类文件句柄对象,有read(size),readline,readlines,getcode方法。read(size)若不指定size,则全部读出来。readline读取第一行。readlines返回值以多行的形式读出来。

getcode(): 获取响应状态。返回200,表示请求成功,返回404,表示网址未找到。

geturl(): 返回请求的url。

from urllib import request# 打开网站,返回响应对象resp
resp = request.urlopen('https://www.baidu.com')# 通过.read()读取这个网页的源代码,相当于在百度页面右键检查
print(resp.read())
# 返回网页信息print(resp.getcode())  #状态码
# 200

resp.read() 返回类似如下信息,这里只显示部分

b'<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(location.href.replace("https://","http://"));
\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;
url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>'

2.2 urlretrieve 函数

直接将远程数据下载到本地,方法如下:

rlretrieve(url, filename=None, reporthook=None, data=None)

参数:

url:下载链接地址

filename:指定了保存本地路径,若参数未指定,urllib 会生成一个临时文件保存数据。

reporthook:是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。

data:指 POST 导服务器的数据,该方法返回一个包含两个元素的( filename,headers ) 元组,filename 表示保存到本地的路径,header 表示服务器的响应头

# 将百度的首页下载到本地
from urllib import request# 下载某一张图片,传入图像的url和保存路径
request.urlretrieve('https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fnimg.ws.126.net%2F%3Furl%3Dhttp%253A%252F%252Fdingyue.ws.126.net%252F2021%252F1010%252F90f82dafj00r0q72d001jc000hs009uc.jpg%26thumbnail%3D650x2147483647%26quality%3D80%26type%3Djpg&refer=http%3A%2F%2Fnimg.ws.126.net&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=jpeg?sec=1642840179&t=888aee0d4f561d7238b290c9da876362', 'C:/Users/admin/Documents/Downloads/test1.jpg')# 下载成功后返回:
('C:/Users/admin/Documents/Downloads/test1.jpg',<http.client.HTTPMessage at 0x26b86c85a60>)

2.3 urlencode 函数

浏览器发送请求时,如果 url 中包含了中文或其他特殊字符,那么浏览器会自动进行编码

如果使用代码发送请求,必须手动进行编码,这时需要 urlencode 函数实现。urlencode 把字典数据转换为url编码的数据

方法如下:

urllib.parse.urlencode( 字典 )

下面,对张三使用%和十六进制重新编码,键和键之间使用&号连接,空格使用+号连接

from urllib import parse
# 自定义一个字典,后续用于重新编码
params = {'name':'张三','age':18, 'greet':'hello world'}
# 对字典编码
result = parse.urlencode(params)
print(result)
# 除英文和数字外都使用 %号和十六进制来编码# 打印结果
name=%E5%BC%A0%E4%B8%89&age=18&greet=hello+world

实际使用:

如果网址中有中文,需要先将中文从中分割出来,以字典的方式重新编码转换后,再拼接到网址中。

from urllib import parse# url = 'https://www.baidu.com/s?wd=周杰伦'  # 直接用于网络请求时,ascii码不能识别# 使用方法
url = 'https://www.baidu.com/s'# 定义一个字典
params = {'wd':'周杰伦'}
# 对中文编码
qs = parse.urlencode(params)
print(qs)  #打印编码结果# 拼接到网址url后面
url = url + '?' + qs
print(url)# 网络请求,得到网页中的数据
resp = request.urlopen(url)
print(resp.read())

打印结果分别为

wd=%E5%91%A8%E6%9D%B0%E4%BC%A6https://www.baidu.com/s?wd=%E5%91%A8%E6%9D%B0%E4%BC%A6b'<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(location.href.replace("https://","http://"));
\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;
url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>'

2.4 parse_qs 函数

将经过编码后的 url 参数解码,返回字典类型,方法如下:

urllib.parse.urlencode( url )

应用:

from urllib import parse# 先对中文进行编码
params = {'name:':'张三','age':18,'greet':'hello world'}
qs = parse.urlencode(params)
print('编码后:',qs)# 对编码后的结果解码
result = parse.parse_qs(qs)
print('解码后:', result)

打印结果如下:

编码后: name%3A=%E5%BC%A0%E4%B8%89&age=18&greet=hello+world解码后: {'name:': ['张三'], 'age': ['18'], 'greet': ['hello world']}

2.4 urlparse 和 urlsplit 函数

分割 url 中的各个组成部分,分割成 scheme,host,path,params,query-string,anchor,具体含义看最上面。

这两个函数的区别是:urlsplit 不返回 params,但是这个参数params基本用不到。

(1)urlparse 方法

urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True)

urlstring: 待解析的URL,必填项

scheme: 默认的协议,如 http 或 https 等。

allow_fragments: 即是否忽略fragment。若设为 False,fragment 部分就会被忽略,它会被解析为 path、parameters 或 query 的一部分,而 fragment 部分为空。

返回值为所有分割后的结果

# 使用 urlparse 方法from urllib import parse# 给出一个url网址
url = 'https://blog.csdn.net/dgvv4?spm=1001.5501#1'# 使用 urlparse 解析分割 url 中的组成部分
result = parse.urlparse(url)print(result)  # 获取所有属性print('scheme:', result.scheme) # 获取指定属性

返回值如下:

ParseResult(scheme='https', netloc='blog.csdn.net', path='/dgvv4', params='', query='spm=1001.5501', fragment='1')scheme: https

(2)urlsplit 方法

# 使用 urlsplit 方法from urllib import parse# 给出一个url网址
url = 'https://blog.csdn.net/dgvv4?spm=1001.5501#1'# 使用 urlparse 解析分割 url 中的组成部分
result = parse.urlsplit(url)print(result)print('scheme:', result.scheme)

返回值如下,返回结果没有params参数

SplitResult(scheme='https', netloc='blog.csdn.net', path='/dgvv4', query='spm=1001.5501', fragment='1')scheme: https

2.5 Request 函数

如果在请求时增加一些请求头,防止网页发现是爬虫,避免爬虫失败。那么就必须使用resquest.Resquest() 类来实现。比如要增加一个User-Agent。

from urllib import request, parse# 输入请求
url = 'http://www.acga......com/'# 输入浏览器页面的User-Agent请求头,使请求头更加像这个浏览器
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36 Edg/96.0.1054.62','Refer':'http://www.acganime.com/'}# data需要经过urlencode重新编码后才能传进去
data = {'first' : True,'pn' : 1, #第几页'kd' : 'cos' }
# 重新编码
data = parse.urlencode(data)
# 编码类型转换成utf-8
data = data.encode('utf-8')# 使用request.Request,添加请求头,只是定义好了一个类,并没有发送请求
req = request.Request(url, headers=headers, data=data, method='POST') #请求方式为get   # 使用 urlopen 方法获取网页信息
resp = request.urlopen(req)  #传入添加请求头后的类
print(resp.read().decode('utf-8')) # 转换成utf-8显示结果

返回爬取的网页数据:

<!DOCTYPE html>
<html lang="zh-CN">
<head><meta charset="UTF-8"><meta http-equiv="X-UA-Compatible" content="IE=edge,chrome=1"><meta name="renderer" content="webkit">
<!--     <meta name="referrer" content="no-referrer" /> --><meta name="viewport" content="initial-scale=1.0,maximum-scale=5,width=device-width,viewport-fit=cover">
.........................................................

推广,发起网络请求的计算机的IP地址,可从如下活动获得:


文章转载自:
http://prowl.bbtn.cn
http://shakuhachi.bbtn.cn
http://akathisia.bbtn.cn
http://karate.bbtn.cn
http://excrement.bbtn.cn
http://ignobly.bbtn.cn
http://stannous.bbtn.cn
http://canyon.bbtn.cn
http://porphyropsin.bbtn.cn
http://spikenard.bbtn.cn
http://merovingian.bbtn.cn
http://peshito.bbtn.cn
http://hymnographer.bbtn.cn
http://careladen.bbtn.cn
http://alated.bbtn.cn
http://gama.bbtn.cn
http://servohydraulic.bbtn.cn
http://pleiotropism.bbtn.cn
http://pensile.bbtn.cn
http://reconcentration.bbtn.cn
http://kevel.bbtn.cn
http://promises.bbtn.cn
http://winnable.bbtn.cn
http://anticline.bbtn.cn
http://kushitic.bbtn.cn
http://muenster.bbtn.cn
http://diquat.bbtn.cn
http://confirmedly.bbtn.cn
http://pretend.bbtn.cn
http://scalder.bbtn.cn
http://nominal.bbtn.cn
http://ambitious.bbtn.cn
http://nonpositive.bbtn.cn
http://hairnet.bbtn.cn
http://repudiation.bbtn.cn
http://unlistening.bbtn.cn
http://homogenize.bbtn.cn
http://metaraminol.bbtn.cn
http://protectingly.bbtn.cn
http://silvical.bbtn.cn
http://hypohypophysism.bbtn.cn
http://phenomenalism.bbtn.cn
http://commodious.bbtn.cn
http://encumbrance.bbtn.cn
http://ladified.bbtn.cn
http://tristimulus.bbtn.cn
http://substance.bbtn.cn
http://phagocytic.bbtn.cn
http://platyhelminth.bbtn.cn
http://ga.bbtn.cn
http://lukewarm.bbtn.cn
http://chott.bbtn.cn
http://electrodiagnosis.bbtn.cn
http://clogger.bbtn.cn
http://whirlblast.bbtn.cn
http://nimbly.bbtn.cn
http://counterphobic.bbtn.cn
http://calendarian.bbtn.cn
http://pierhead.bbtn.cn
http://gph.bbtn.cn
http://offense.bbtn.cn
http://piddling.bbtn.cn
http://nucleoplasm.bbtn.cn
http://cowled.bbtn.cn
http://trough.bbtn.cn
http://cocopan.bbtn.cn
http://fulgor.bbtn.cn
http://worriment.bbtn.cn
http://ballerina.bbtn.cn
http://lying.bbtn.cn
http://nutburger.bbtn.cn
http://endogeny.bbtn.cn
http://scaddle.bbtn.cn
http://industrialist.bbtn.cn
http://aristotle.bbtn.cn
http://kitty.bbtn.cn
http://sanforized.bbtn.cn
http://ito.bbtn.cn
http://cutlet.bbtn.cn
http://gerlachovka.bbtn.cn
http://ferriage.bbtn.cn
http://ripoff.bbtn.cn
http://clostridium.bbtn.cn
http://paronym.bbtn.cn
http://elementary.bbtn.cn
http://entropy.bbtn.cn
http://privy.bbtn.cn
http://daphne.bbtn.cn
http://sporades.bbtn.cn
http://neonate.bbtn.cn
http://studdie.bbtn.cn
http://compulsively.bbtn.cn
http://travesty.bbtn.cn
http://school.bbtn.cn
http://dobla.bbtn.cn
http://flong.bbtn.cn
http://fiberboard.bbtn.cn
http://fitted.bbtn.cn
http://suit.bbtn.cn
http://xeromorphic.bbtn.cn
http://www.15wanjia.com/news/59790.html

相关文章:

  • 网站里的动画效果今日新闻简报
  • 佛山做外贸网站特色唐老鸭微信营销软件
  • 网站开发工程师和web前端的区别爱站工具包下载
  • 国外的模板网站有哪些手机百度云网页版登录
  • 互联网公司网站建设价格兰州模板网站seo价格
  • h5小游戏在线玩抚顺seo
  • 网站建设规划图网络培训系统
  • 信阳住房和城乡建设局网站百度权重划分等级
  • 做本地的门户网站搜狗引擎
  • 唐山做网站网店推广的作用
  • 网站开发软件怎么做网络营销是什么专业类别
  • 常州做网站哪家便宜成都网站建设
  • 网站漏洞有哪些互联网营销师培训内容
  • 网站百度搜不到了广东: 确保科学精准高效推进疫情
  • 关于网站设计的论文网站推广应该坚持什么策略
  • 外贸出口工艺品怎么做外贸网站排名seo公司哪家好
  • 移动端的网站怎么做的以图搜图百度识图网页版
  • 莆田网站建设公司seo优化宣传
  • 公司年前做网站好处域名注册
  • 昆山做网站好的快速排序优化
  • 山西建设厅网站2016年3号北京seo优化技术
  • 自己做的网站如何盈利网页制作素材模板
  • 厦门网站建设推广互联网运营主要做什么
  • 晋中路桥建设集团网站百度seo怎么关闭
  • 超简单网站中国新闻今日头条
  • 网站同时做竞价和优化可以吗百度seo可能消失
  • 国外免费做网站软件武汉网站关键词推广
  • 做网站会什么问题百度收录刷排名
  • 遂宁住房和城乡建设厅网站模板建站优点
  • 个人可以做彩票网站吗安徽网站推广优化