Python爬虫系列,Python爬虫代理设置方法

您所在的位置:网站首页 python代理ip怎么用 Python爬虫系列,Python爬虫代理设置方法

Python爬虫系列,Python爬虫代理设置方法

#Python爬虫系列,Python爬虫代理设置方法| 来源: 网络整理| 查看: 265

HTTP代理

获取代理IP

首先需要获取一个可用代理IP和端口,可以从以下网站获取IP:

Python爬虫系列,Python爬虫代理设置方法

西刺:https://www.xicidaili.com快代理:https://www.kuaidaili.com/free站大爷:http://ip.zdaye.com/dayProxy.html

当然,你也可以从其他网站购买更稳定的代理IP。

Urllib

从上述网站获取代理IP, 这里我获取到IP:116.209.59.41,端口:9999

我们从基础的 Urllib 开始学习,来看一下代理的设置方法:

from urllib.error import URLError

from urllib.request import ProxyHandler, build_opener

def http_proxy(ip, port):

proxy = ip + ':' + port

proxy_handler = ProxyHandler({

'http': 'https://' + proxy,

'https': 'https://' + proxy

})

opener = build_opener(proxy_handler)

return opener

if __name__ == '__main__':

opener = http_proxy('116.209.59.41', '9999')

try:

response = opener.open('https://httpbin.org/get')

print(response.read().decode('utf-8'))

except URLError as e:

print(e.reason)

运行结果如下:

{

'args': {},

'headers': {

'Accept-Encoding': 'identity',

'Connection': 'close',

'Host': 'httpbin.org',

'User-Agent': 'Python-urllib/3.6'

},

'origin': '116.209.59.41',

'url': 'https://httpbin.org/get'

}

返回结果是 Json,字段 origin标明了你现在的 IP。正好为代理 IP,不是真实的 IP,这样我们就成功设置好代理,可以使用opener打开任意网址。

Requests

Requests 代理设置代码如下:

import requests

if __name__ == '__main__':

ip = '116.209.59.41'

port = '9999'

proxy = ip + ':' + port

proxies = {

'http': 'https://' + proxy,

'https': 'https://' + proxy,

}

try:

response = requests.get('https://httpbin.org/get', proxies=proxies)

print(response.text)

except requests.exceptions.ConnectionError as e:

print('Error', e.args)

运行结果:

{

'args': {},

'headers': {

'Accept': '*/*',

'Accept-Encoding': 'gzip, deflate',

'Connection': 'close',

'Host': 'httpbin.org',

'User-Agent': 'python-requests/2.18.1'

},

'origin': '106.185.45.153',

'url': 'https://httpbin.org/get'

}

Selenium

Selenium 同样可以设置代理。

elenium 设置代理的代码如下:

from selenium import webdriver

def get_driver_with_proxy(ip, port):

proxy = ip + ':' + port

chrome_options = webdriver.ChromeOptions()

chrome_options.add_argument('--proxy-server=https://' + proxy)

browser = webdriver.Chrome(chrome_options=chrome_options)\

return browser

if __name__ == '__main__':

browser = get_driver_with_proxy('106.185.45.153', '9999')

browser.get('https://httpbin.org/get')

这样我们只需要调用browser就可以使用代理IP访问任意网站了。

{

'args': {},

'headers': {

'Accept': '*/*',

'Accept-Encoding': 'gzip, deflate',

'Connection': 'close',

'Host': 'httpbin.org',

'User-Agent': 'python-requests/2.18.1'

},

'origin': '106.185.45.153',

'url': 'https://httpbin.org/get'

}

可以看到代理设置成功。

PhantomJS

对于 PhantomJS代理设置代码如下:

from selenium import webdriver

def get_PhantomJS_driver(ip, port):

proxy = ip + ':' + port

args = [

f'--proxy={proxy}',

'--proxy-type=http'

]

browser = webdriver.PhantomJS(service_args=args)

return browser

if __name__ == '__main__':

browser = get_PhantomJS_driver('106.185.45.153', '9999')

browser.get('https://httpbin.org/get')

print(browser.page_source)

通过使用 args 参数进行代理IP设置。

运行结果:

{

'args': {},

'headers': {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',

'Accept-Encoding': 'gzip, deflate',

'Accept-Language': 'zh-CN,en,*',

'Connection': 'close',

'Host': 'httpbin.org',

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X) AppleWebKit/538.1 (KHTML, like Gecko) PhantomJS/2.1.0 Safari/538.1'

},

'origin': '106.185.45.153',

'url': 'https://httpbin.org/get'

}

运行结果的 origin 同样为代理的 IP,设置代理成功。

以上就是简单的一个Pytho的IP代理设置方法。我们只需要结合爬虫,爬取免费代理IP网站上面的IP构建自己的IP池,便可以轻松切换IP进行各种爬虫。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3