其实,自动只需掌握我们有专门的评论爬虫网络库进行直接的网络请求与处理,它就是何须requests库。在我们开始讲解与使用之前,学完需要通过如下命令进行安装:
pip install requests首先,库即我们先来看看requests库可以进行哪些操作:
1.发送HTTP请求2.上传文件3.处理Cookie4.支持Session会话5.使用代理6.身份验证7.打包请求8.SSL证书验证
下面,自动只需掌握我们来一一介绍这些操作具体是评论爬虫如何实现的。
与urllib与urllib3一样,何须HTTP请求常用的学完是GET请求与POST请求。
其中,库即GET请求使用的自动只需掌握方式是requests.get()。它可以设置参数params,评论爬虫也可以设置超时timeout,何须同时也可以设置请求头headers。学完
示例如下:
import requests url = "https://www.csdn.net/" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,库即 like Gecko) Chrome/91.0.4472.124 Safari/537.36 } result = requests.get(url=url, timeout=1, headers=headers) #打印网页源代码 print(result.text) #打印响应状态码 print(result.status_code) #打印Cookie print(result.cookies) #打印result类型 print(type(result))运行之后,输出如下:
接着,我们来介绍POST请求。这里,我们同样使用测试网站http://httpbin.org/post,向它发送一些数据。示例如下:
import requests url = "http://httpbin.org/post" data = { "name": "liyuanjing", "age": "29" } headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 } result = requests.post(url=url, timeout=1, headers=headers, data=data) # 打印网页源代码 print(result.text) # 将其转换为json print(result.json())运行之后,效果如下:
对于文本文件的获取,我们很简单地通过text进行处理分析。但是网站模板假如我们是获取的一张图片显然text是无法还原真实内容。
不仅如此,图片的text是乱码。所以,我们需要将获取到的图片二进制数据通过相应的API保存为文件。示例代码如下:
import requests url = "https://img1.baidu.com/it/u=954496120,1621506021&fm=26&fmt=auto&gp=0.jpg" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 } result = requests.get(url=url, timeout=1, headers=headers) with open(requests.png, wb) as f: f.write(result.content)运行之后,就会在程序目录的统计目录下生成一张图片,当然图片链接读者可以自己去找。这里的链接暂时有效。
需要注意的是,response.text是Unicode编码,而response.content是原始二进制字节流,这一点要额外注意,如果网页出现乱码,可以使用response.encoding=”gbk”进行设置解析。
与讲解urllib3一样,我们这里上传文件的服务器端口,由flask编写。我们先来看看服务器端的高防服务器代码:
import flask import os UPLOAD_FILE = uploads app = flask.Flask(__name__) @app.route(/, methods=[POST]) def upload_file(): file = flask.request.files[file] if file: file.save(os.path.join(UPLOAD_FILE, os.path.basename(file.filename))) return 文件上传成功 else: return 文件上传失败 if __name__ == __main__: app.run()运行此段代码,默认会一直运行等待下去。
而使用requests进行文件的上传,也非常的简单,因为文件上传是Post请求,我们只需要设置file参数。示例如下:
import requests url = "http://127.0.0.1:5000" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 } files = { "file": open(123.png, rb) } result = requests.post(url=url, files=files) print(result.text)运行之后,会在项目文件uploads文件夹下多一个123.png图片,当然123上传时的文件必须存在。同时也要事先创建uploads文件夹。
一般来说,爬虫分为2个部分:首先是登录,然后才是爬取。而在登录时,我们一般使用selenium,进行cookie的返回。
接着使用requests进行爬取网页的源代码,因为selenium是一个专门的库,后面我们会介绍,这里我们先假设我们获取到了cookie。
为了更有意思,我们在chrome按F12之后,用浏览器评论一个CSDN帖子,云服务器提供商会捕捉到如下图所示的请求数据:
这里,我们可以复制cookie数据到我们的headers之中。
同时下面有一个提交表单,其中,content是我们评论CSDN的内容,articleId是我们评论CSDN的帖子,读者可以自己看看CSDN帖子是否有一串数字。
那么,我们可以仿照这个请求连接,通过requests完成CSDN的评论操作,示例代码如下所示:
import requests url = "https://blog.csdn.net/phoenix/web/v1/comment/submit" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36, cookie: CSDN登录后返回的cookie, } data = { "commentId": "", "content": "最近正在学习刚好能用上", "articleId": "118750834", } result = requests.post(url=url, data=data, headers=headers) print(result.status_code)运行之后,控制台会输出200,同时评论帖子下面会多出一条评论数据,如下图所示:
除了通过请求头设置Cookie进行访问之外,其实我们的post()方法还有一个专门的cookies参数,它用于接收RequestsCookieJar对象。
示例如下:
import requests url = "https://blog.csdn.net/phoenix/web/v1/comment/submit" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36, } cookieStr = CSDN登录后返回的cookie data = { "commentId": "", "content": "最近正在学习刚好能用上", "articleId": "118517922", } jar = requests.cookies.RequestsCookieJar() for cookie in cookieStr.split(";"): key, value = cookie.split(=, 1) jar.set(key, value) result = requests.post(url=url, data=data, headers=headers, cookies=jar) print(result.status_code)这段代码与前文运行效果一样,这里不再输出运行结果,仅仅只是cookie使用方式的不同形式。
cookie数据保存在客户端,session数据保存在服务器端,一个Session代表一个特定的客户端。那么如何在特定的客户端与服务器端的Session对象之间建立联系呢?
通常就是不断在客户端与服务器端之间来回传递一个ID,通过这个ID,客户端就能在服务器端找到对应的Session对象。
在实际的爬虫项目中,有时候需要使用同一个客户端来多次抓取页面,就可以用到Session。示例代码如下:
result = requests.post(url=url, data=data, headers=headers, cookies=jar) session = requests.Session() r2 = session.post(url=url, data=data, headers=headers, cookies=jar) print(r2.status_code)这里,我们将上面的Cookie代码改一改即可。
对于requests库来说,使用代理非常简单,因为get与post函数都有一个proxies参数,用于设置代理即可。示例如下:
import requests url = "https://www.csdn.net/" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36, } proxies = { http: http://183.47.138.80:8888, http: http://125.78.226.217:8888 } result = requests.post(url=url, proxies=proxies)需要注意的是,这里的代理IP博主测试的时候是有效的,但读者可能读到的时候已经失效,读者可以自己去网络搜寻免费的代理测试。
除了基本的HTTP代理,Request还支持SOCKS协议的代理。这是一个可选的功能,若要使用,需要使用下面的命令安装第三方库。
pip install requests[socks]安装完成之后,替换proxies即可。
proxies = { http: socks5://user:pass@host:port, https: socks5://user:pass@host:port }requests库还提供了身份验证功能,其中,get与post方法有一个auth参数专门用于身份验证,传入的参数是HTTPBasicAuth,示例代码如下:
import requests from requests.auth import HTTPBasicAuth url = "https://www.csdn.net/" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36, } result = requests.post(url=url, auth=HTTPBasicAuth(name, password)) print(result.status_code)这里,只是给读者展示如何通过代码进行身份验证,如果你自己编写服务器,可以通过如上代码进行操作,这里就不编写了。
不管是上面的get请求还是post请求,我们都是通过requests.get或者requests.post进行操作的,但其实我们可以将请求参数单独列出来打包。
也就是,俗称的封装。示例代码如下所示:
import requests url = "https://www.csdn.net/" headers = { user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36, } req = requests.Request(get, url=url, headers=headers) session = requests.Session() prepared = session.prepare_request(req) result = session.send(prepared) print(result.text)这里,通过Request进行封装请求数据,然后调用Session的prepare_request方法处理Request对象,并返回一个requests.models.Response对象。
最后,通过Session.send方法发送Response对象。
在requests请求中,有一个verify的参数。访问HTTPS时,如果需要验证SSL证书,可以不设置该数据,它默认为True表示验证证书。
如果不需要验证证书,可以设置verify等于False,那么就不会进行验证。验证的代码很简单,就是什么也不用做即可,代码如下:
import requests try: url = "https://www.csdn.net/" result = requests.get(url) print(result.status_code) except requests.exceptions.SSLError as e: print(e.args[0])如果你的网站没有SLL证书,或者证书未经过权威机构认证,则会抛出SSLError异常。
如果你的网站有SLL证书,且经过了权威的认证,那么就不会抛出异常。
而如果你不想验证证书的话,可以将代码修改为如下代码:
import requests try: urllib3.disable_warnings() url = "https://www.csdn.net/" result = requests.get(url, verify=False) print(result.status_code) except requests.exceptions.SSLError as e: print(e.args[0])不过,它会报InsecureRequestWarning警告信息,如果需要禁止输出警告信息,可以使用urllib3.disable_warnings()进行屏蔽。