会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 Python 爬虫!
当前位置:首页 >IT科技类资讯 >Python 爬虫 正文

Python 爬虫

时间:2025-11-05 06:42:31 来源:益强数据堂 作者:人工智能 阅读:408次

--安装爬虫需要的爬虫库

C:\python37>pip install requests

Python 爬虫

Collecting requests

  Downloading https://files.pythonhosted.org/packages/7d/e3/20f...84b/requests-2.21.0-py2.py3-none-any.whl (57kB)

    100% |████████████████████████████████| 61kB 225kB/s

Collecting urllib3<1.25,>=1.21.1 (from requests)

  Downloading https://files.pythonhosted.org/packages/62/00/ee1...79e/urllib3-1.24.1-py2.py3-none-any.whl (118kB)

    100% |████████████████████████████████| 122kB 585kB/s

Collecting idna<2.9,>=2.5 (from requests)

  Downloading https://files.pythonhosted.org/packages/14/2c/cd55...4c9/idna-2.8-py2.py3-none-any.whl (58kB)

    100% |████████████████████████████████| 61kB 1.3MB/s

Collecting chardet<3.1.0,>=3.0.2 (from requests)

  Downloading https://files.pythonhosted.org/packages/bc/a9/01ffe...b8/chardet-3.0.4-py2.py3-none-any.whl (133kB)

    100% |████████████████████████████████| 143kB 267kB/s

Collecting certifi>=2017.4.17 (from requests)

  Downloading https://files.pythonhosted.org/packages/9f/e0/ac...e8a/certifi-2018.11.29-py2.py3-none-any.whl (154kB)

    100% |████████████████████████████████| 163kB 273kB/s

Installing collected packages: urllib3, idna, chardet, certifi, requests

Successfully installed certifi-2018.11.29 chardet-3.0.4 idna-2.8 requests-2.21.0 urllib3-1.24.1

什么是Urllib

Python内置的Http请求库

urllib.request 请求模块    模拟浏览器

urllib.error 异常处理模块

urllib.parse url解析模块    工具模块,如:拆分、爬虫合并

urllib.robotparser robots.txt    解析模块 

urllib是爬虫Python自带的b2b信息网标准库,无需安装,爬虫直接可以用。爬虫

提供了如下功能:

    网页请求

    响应获取

    代理和cookie设置

    异常处理

    URL解析

爬虫所需要的爬虫功能,基本上在urllib中都能找到,服务器租用爬虫学习这个标准库,爬虫可以更加深入的爬虫理解后面更加便利的requests库。

2和3的爬虫区别

Python2

import urllib2

response = urllib2.urlopen(http://www.baidu.com);

Python3

import urllib.request

response =urllib.request.urlopen(http://www.baidu.com);

用法:

urlOpen 发送请求给服务器。云服务器提供商

urllib.request.urlopen(url,爬虫data=None[参数],[timeout,]*,cafile=None,capath=None,cadefault=false,context=None)

例子:

import urllib.requests

response=urllib.reqeust.urlopen(http://www.baidu.com)

print(response.read().decode(utf-8))

(责任编辑:应用开发)

推荐内容
  • JSQ20-10ET10(JSQ20-10ET10)
  • 使用VMControl实现服务器池Workload的管理和监控
  • ArkTS元服务与关系型数据库—计步卡片
  • Linux下Sybase数据库安装注意的问题
  • 以5c升级iOS10.2的完美解决方案(轻松畅享最新iOS10.2版本,让您的5c焕然一新)
  • 美国成携带僵尸网络服务器最多的国家