完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
本帖最后由 windworld 于 2016-4-5 15:39 编辑 在一些网站上经常看到一些好的图片希望批量下载保存到本地,但是一个个右击保存有显的十分麻烦,这里可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地,功能有点类似我们之前学过的批处理。下面就看看如何使用python来实现这样一个功能,主要分为三步,如下: 一. 获取整个页面数据 首先我们可以先获取要下载图片的整个页面信息。 创建getjpg.py文件
说明: Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。 首先,我们定义了一个getHtml()函数; urllib.urlopen()方法用于打开一个URL地址; read()方法用于读取URL上的数据; 向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。 二. 筛选页面中想要的数据 Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行。 re模块中一些重要的函数: 假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src="http://imgsrc.baidu.com/forum/w%3D580/sign=750661a0fcfaaf5184e381b7bc5594ed/75fafbedab64034fc3ed0b80aec379310a551d11.jpg" 修改代码如下:
我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式: re.compile() 可以把正则表达式编译成一个正则表达式对象. re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。 运行脚本将得到整个页面中包含图片的URL地址。 三. 将页面筛选的数据保存到本地 把筛选的图片地址通过for循环遍历并保存到本地,代码如下:
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。 通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。 程序运行完成,将在目录下看到下载到本地的文件。 效果如下:
|
|
相关推荐
|
|
飞凌嵌入式ElfBoard ELF 1板卡-CAN编程示例之开发板测试
714 浏览 0 评论
该问题是用APP给芯海科技的CST92F25芯片发指令是出现的
2397 浏览 1 评论
821 浏览 0 评论
1589 浏览 1 评论
2397 浏览 1 评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-24 21:23 , Processed in 0.645016 second(s), Total 73, Slave 54 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号