当前位置: 首页 » 综合知识 » it知识 » 正文

怎么验证Python爬取的代理IP是否有效

发布时间:2023-07-22 以下文章来源于网友投稿,内容仅供参考!

    在爬虫工作的过程中,往往由于IP被限制了而无法进行下去,工程师们也是智计百出,购买代理IP,自己搭建IP池,甚至网上抓取免费代理IP。我们知道,网络上有很多提供免费代理IP的网站,我们可以选择其中一个或多个来进行代理IP的爬取并存储到csv文件中,并通过多进程来验证爬取IP的可用性。

    通过requests和lxml进行网页的爬取和解析。

    在爬取之前,我们首先设置请求头,模拟作为普通浏览器进行网页的访问。

    headers = {

    'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",

    'accept-encoding': "gzip, deflate",

    'accept-language': "zh,zh;q=0.9",

    'cache-control': "no-cache",

    'connection': "keep-alive",

    'host': "www.******",

    'if-none-match': "W/\"61f3e567b1a5028acee7804fa878a5ba\"",

    'upgrade-insecure-requests': "1",

    'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36"

    }

    要爬取的页面结构非常简单,通过lxml的css选择器选择所有的ip地址和端口进行拼接,然后一行行的写入到csv文件中。

    代码如下:

    def getProxyList(target_url=TARGET_URL, pages='1'):

    """

    爬取代理IP地址

    :param target_url: 爬取的代理IP网址

    :return:

    """

    proxyFile = open(FILE_NAME, "a+", newline="")

    writer = csv.writer(proxyFile)

    r = requests.get(target_url + pages, headers=headers, timeout=2.5)

    document_tree = lxml.html.fromstring(r.text)

    rows = document_tree.cssselect("#ip_list tr")

    rows.pop(0)

    for row in rows:

    tds = row.cssselect("td")

    proxy_ip = tds[1].text_content()

    proxy_port = tds[2].text_content()

    proxy_addr = tds[3].text_content().strip()

    writer.writerow([proxy_ip, proxy_port, proxy_addr])

    proxyFile.close()

    自己设置好爬取的页面走个循环,爬取好的地址就写入到了csv文件中。不过之前发布的一些代理IP不能用的可能性较大,可以就爬取前5页左右即可。

    在验证代理IP的可行性时,通过进程池添加验证每个代理IP的验证方法即可。通过requests的session可以持续的进行网络的访问。

    def verifyProxies(verify_url, file_path=FILE_NAME):

    session = requests.session()

    proxyFile = open(FILE_NAME, "r+")

    csv_reader = csv.reader(proxyFile)

    p = Pool(10)

    for row in csv_reader:

    proxies = {"http": "" + row[0] + ":" + row[1]}

    p.apply_async(verifyProxy, args=(verify_url, proxies, session))

    p.close()

    p.join()

    proxyFile.close()

    验证每个IP的方法就是通过给网页发送GET请求,然后根据返回的状态码进行判断,并执行相应的操作。在请求时设置了timeout的话,需要使用try-except抛出异常,否则当超过timeout设置的值时,会终止相应的进程。

  • • Linux Ecdsa密钥长度选择有何依据

    在Linux

  • • Linux Khook在内核监控中的应用如何

    Linux

  • • Linux Gsoap是否支持异步通信

    GSOAP是

  • • Linux Coremail如何提升用户体验

    提升Linu

  • • Linux Ecdsa算法有哪些局限性

    ECDSA

  • 哎呀音乐钢琴键盘学习《 钢琴主人训练营》 西瓜学琴
    郭蝈 陪练钢琴 30节课时 考级刚需 让孩子每一次练琴都是高质量的
    30天轻松学会五线谱 流行钢琴自学初级教程 牙牙学琴
    流行爵士钢琴实战技巧VIP课 - 继伟 哎呀音乐
    【海上钢琴师】原版 MT1990钢琴谱
    百首经典流行钢琴实战曲集 - 继伟
    雷费尔德电钢琴重锤88键专业考级儿童初学者数码电子钢琴家用
    小练咖 真人钢琴陪练 1v1服务 2999随时退 1课时50分钟 考级刚需
    雅马哈电钢琴88键重锤CLP735智能数码电子钢琴家用专业初学者考级
    【原装进口】Yamaha/雅马哈钢琴 b121 SC2原声静音钢琴
  • 珠海专业调钢琴
  • 天津宝坻区调钢琴
  • 天津静海区钢琴调音
  • 成都简阳市钢琴调律
  • 大连瓦房店市钢琴调音
  • 眉山调钢琴联系方式
  • 惠州大亚湾钢琴调琴师
  • 长治调琴师
  • 厦门湖里区钢琴调音师
  • 上海普陀区钢琴调音师