发 帖  
原厂入驻New
[讨论]

爬虫你们是使用的什么框架呢?

2021-6-22 16:41:18  3089
分享
不知道大家日常爬虫工作中会使用到什么框架呢?我一般都是使用的Scrapy,它是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。并且它框架的力量很强大,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便。
那我们今天就用这个框架来采集获取一些亚马逊的数据,大家都知道这是个比较难采集的网站,首先我们的反爬策略是需要做好的,然后就是最重要的一点就是加代理,现在大部分网站都是根据IP来判断的,可以通过亿牛云海量定制代理池来突破网站的限制。
使用 亿牛云爬虫代理组件代码如下:
#! -*- encoding:utf-8 -*-        import base64                    import sys        import random        PY3 = sys.version_info[0] >= 3        def base64ify(bytes_or_str):            if PY3 and isinstance(bytes_or_str, str):                input_bytes = bytes_or_str.encode('utf8')            else:                input_bytes = bytes_or_str            output_bytes = base64.urlsafe_b64encode(input_bytes)            if PY3:                return output_bytes.decode('ascii')            else:                return output_bytes        class ProxyMiddleware(object):                            def process_request(self, request, spider):                # 代理服务器(产品官网 www.16yun.cn)                proxyHost = "t.16yun.cn"                proxyPort = "31111"                # 代理隧道验证信息                proxyUser = "username"                proxyPass = "password"                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)                # 添加验证头                encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)                request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass                                    # 设置IP切换头(根据需求)                tunnel = random.randint(1,10000)                request.headers['Proxy-Tunnel'] = str(tunnel)

0
2021-6-22 16:41:18   评论 分享淘帖

撰写讨论

你正在撰写讨论

如果你是对讨论或其他讨论精选点评或询问,请使用“评论”功能。

高级模式
您需要登录后才可以回帖 登录 | 注册

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容图片侵权或者其他问题,请联系本站作侵删。 侵权投诉
发讨论
关闭

站长推荐 上一条 /5 下一条

快速回复 返回顶部 返回列表