如何使用代理ip
方法如下:
一、直接通过调用API接口获取IP使用
从代理IP服务商那里购买IP池,登录后台管理,可以生成API接口,将API接口对接到程序代码中,通过调用API接口获取代理IP来使用。不过API接口一般都有最小调用频率,比如10秒一次,1秒1次,1秒10次等,在调用API接口的时候,需要遵守这个规则。
二、浏览器设置代理使用
若是使用浏览器浏览网站,可以在浏览器设置上直接设置代理服务器,然后输入代理ip地址就可以切换了。
三、第三方软件使用代理
第三方软件或者用代理ip公司的提供的软件,可以设置代理IP使用,有的可以批量导入代理IP,一键使用,有的是只能一次复制一个IP来使用,还有的软件可以自动调用API获取IP使用。
怎么使用ip池导用爬小说
1、利用IP代理池技术,每次从IP代理池中随机选择一个IP代理来爬取数据。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
import urllib.request
import random
#构建IP代理池
ip_pool = [
\'58.221.55.58:808\',
\'120.198.248.26:8088\',
\'221.229.166.55:8080\',
\'139.196.214.67:8080\'
]
def ip(ip_pool, url):
#从IP代理池中随机选一个IP代理
ip = random.choice(ip_pool)
print(ip)
#格式化IP代理格
proxy = urllib.request.ProxyHandler({\'http\': ip})
#装入IP代理
opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
return urllib.request.urlopen(url).read().decode(\'utf-8\', \'ignore\')
data = ip(ip_pool, \';ch=15\')
print(data)
2、使用IP代理池和用户代理的组合来增加访问量,更安全。利用ip代理的动态ip构建自己的代理ip池,可以保证ip的质量。
因为ip代理的ip资源是独立有效的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
import urllib.request
import random
import urllib.error
#自定义UA_IP类,用来随机得到
def UA_IP(thisUrl):
#构建用户代理池
ua_pool = [
\'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.89 Safari/537.36\',
\'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201\',
\'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)\',
\'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0\'
]
#构建ip代理池
ip_pool = [
\'139.196.196.74\',
\'112.124.47.21\',
\'61.129.70.109\',
\'221.229.166.55\'
]
thisUA = random.choice(ua_pool) #从用户代理池中随机选择一个用户代理
thisIP = random.choice(ip_pool) #从IP代理池中随机选择一个IP代理
headers = (\'User-Agent\', thisUA) #构造报头
#将IP格式化
proxy = urllib.request.ProxyHandler({\'http\': thisIP})
#装入IP代理
opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
#装入代理
opener.addheaders = [headers]
#将opener设置为全局
urllib.request.install_opener(opener)
#从网页爬取信息
data = urllib.request.urlopen(thisUrl).read().decode(\'utf-8\', \'gnore\')
return data
#网页池,后面从网页池中选择一个进行该网页信息的爬取
urls = [
\'\',
\'\',
\'\',
\'\'
]
#爬取1000次
for i in range(0, 1000):
try:
thisUrl = random.choice(urls)
data = UA_IP(thisUrl)
print(len(data))
except urllib.error.HTTPError as e:
if hasattr(e, \'code\'):
print(e.code)
if hasattr(e, \'reason\'):
print(e.reason)
以上就是爬虫使用ip代理池的方法,推荐大家使用品易http代理ip,千万ip资源百兆带宽,保证爬虫数据传输安全。提供高匿稳定代理ip服务,方便快捷获取网站数据,流量免费测试正在进行!
如何使用设置代理IP地址的方法?
1,打开,浏览器,单击左上角的用户图标,在弹出菜单中点击“设置”。
2,跳出设置窗口,选择左侧菜单项中的“代理服务器”
3,在 “代理服务器设置” 中选择 “使用自定义代理”,点击添加。
4,在跳出窗口填写代理服务器信息,如图所示,填完然后单击确定。注意:14.29.117.37:80@HTTP 这是演示用的代理IP,其中14.29.117.37即为地址,80为端口,HTTP为类型,其中用户名和密码不用填。
5,添加成功,由于代理服务器里面只有这一个,所以被默认使用。如果含有多个代理服务器,则需要先选中要使用的服务器,再单击默认。
6,接下来就是测试是否成功啦。百度“ip”,在搜索结果中可以看到,本地ip已经变成了代理服务器ip。
7,设置代理成功。