python学习-Selenium爬虫之使用代理ip的方法

今天给大家分享的是如何在爬取数据的时候防止 IP被封,今天给大家分享两种方法,希望大家可以认真学习,再也不用担心被封IP啦。

十年的正蓝网站建设经验,针对设计、前端、开发、售后、文案、推广等六对一服务,响应快,48小时及时工作处理。营销型网站建设的优势是能够根据用户设备显示端的尺寸不同,自动调整正蓝建站的显示方式,使网站能够适用不同显示终端,在浏览器中调整网站的宽度,无论在任何一种浏览器上浏览网站,都能展现优雅布局与设计,从而大程度地提升浏览体验。创新互联从事“正蓝网站设计”,“正蓝网站推广”以来,每个客户项目都认真落实执行。

第一种:

降低访问速度,我们可以使用 time模块中的sleep,使程序每运行一次后就睡眠1s,这样的话就可以大大的减少ip被封的几率

第二种:

为了提高效率,我们可以使用代理 ip来解决,ip是亿牛云的动态转发代理,以下是代理配置过程的示例

Selenium

     from   selenium   import  webdriver

     import   string

     import   zipfile

 

     # 代理服务器

    proxyHost = "t.16yun.cn"

    proxyPort = "31111"

 

     # 代理隧道验证信息

    proxyUser = "username"

    proxyPass = "password"

 

     def   create_proxy_auth_extension (proxy_host, proxy_port,

                                   proxy_username, proxy_password,

                                   scheme= 'http' , plugin_path= None ):

         if  plugin_path is None :

            plugin_path = r 'C:/{}_{}@t.16yun.zip' .format(proxy_username, proxy_password)

 

        manifest_json = """        {            "version": "1.0.0",            "manifest_version": 2,            "name": "16YUN Proxy",            "permissions": [                "proxy",                "tabs",                "unlimitedStorage",                "storage",                "",                "webRequest",                "webRequestBlocking"            ],            "background": {                "scripts": ["background.js"]            },            "minimum_chrome_version":"22.0.0"        }        """

 

        background_js = string.Template(

             """            var config = {                mode: "fixed_servers",                rules: {                    singleProxy: {                        scheme: "${scheme}",                        host: "${host}",                        port: parseInt(${port})                    },                    bypassList: ["foobar.com"]                }              };

            chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

            function callbackFn(details) {                return {                    authCredentials: {                        username: "${username}",                        password: "${password}"                    }                };            }

            chrome.webRequest.onAuthRequired.addListener(                callbackFn,                {urls: [""]},                ['blocking']            );            """

        ).substitute(

            host=proxy_host,

            port=proxy_port,

            username=proxy_username,

            password=proxy_password,

            scheme=scheme,

        )

 

         with  zipfile.ZipFile(plugin_path, 'w' ) as  zp:

            zp.writestr( "manifest.json" , manifest_json)

            zp.writestr( "background.js" , background_js)

 

         return  plugin_path

 

    proxy_auth_plugin_path = create_proxy_auth_extension(

        proxy_host=proxyHost,

        proxy_port=proxyPort,

        proxy_username=proxyUser,

        proxy_password=proxyPass)

 

    option = webdriver.ChromeOptions()

 

    option.add_argument( "--start-maximized" )

     # 如报错 chrome-extensions

     # option.add_argument("--disable-extensions")

    option.add_extension(proxy_auth_plugin_path)

 

    driver = webdriver.Chrome(chrome_options=option)

 

    driver.get( "http://httpbin.org/ip" )

好 了,今天关于 python学习的分享就到这里,上边的那段代码可以直接使用,但是里边的代理应该已经过期,大家在使用的时候可能需要联系代理商开通服务,最后呢希望大家能够收藏起来,要记得做笔记哦。好记性不如烂笔头。


网页标题:python学习-Selenium爬虫之使用代理ip的方法
转载注明:http://bzwzjz.com/article/jgjhep.html

其他资讯

Copyright © 2007-2020 广东宝晨空调科技有限公司 All Rights Reserved 粤ICP备2022107769号
友情链接: 网站制作 成都网站建设 定制网站设计 网站建设费用 成都网站建设 成都网站设计公司 响应式网站设计 手机网站设计 成都响应式网站建设公司 成都网站建设 营销网站建设 成都网站建设公司 成都定制网站建设 成都网站建设 企业网站设计 阿坝网站设计 定制网站制作 网站建设方案 响应式网站设计 成都网站制作公司 成都网站设计 成都响应式网站建设