查看原文
其他

使用Python爬取性感美女并保存到本地

小帅b 学习python的正确姿势 2019-04-06

妈的上次写的一篇疫苗的被封了,那些丧尽天良的家伙把我给气的。哎不说这个了,免得又被封。


咱们今天开始来写爬虫了,各位开心么?作为 Python 爬虫的入门教程,我想有必要来个爬虫程序压压惊,爬取性感美女的图片,然后保存到自己的电脑里面。爽歪歪~


先看下效果吧,这是我把爬取的图片自动存储到的文件夹里边:



 我看了两遍。。



爬虫三步骤:抓取,分析,存储




1 抓取


首先我们要有个目标对吧,我们想要抓取美女照片,就去找找看哪里的网站妹纸多,那咱们就从哪里下手呗。


我发现这网站 http://www.meizitu.com 的妹纸图不错啊,那还等什么,抓取呗。


在 python 中有个叫做 requests 模块,直接 pip install 就可以了,然后访问这个网址获取相应的源码:


response = requests.get(url)
return response


比如我想获取性感美女的源码,那么我的 url 就是 http://www.meizitu.com/a/sexy_1.html。通过get请求我们就可以获取返回的响应体了,我们通过response.text就可以或源码。部分源码截图如下:


         


2 分析


抓取完了之后,我们对我们感兴趣的内容要进行分析了,这时候就涉及到「正则表达式」,根据我们定义的一些规则,来获取我们想要的内容。


我们现在当然是对返回源码中的美女图片感兴趣啦,从返回的源码中就可以看到,美女的图片都是包裹在 img 标签中的:



那么我们就可以用 re 模块来匹配获取我们想要的图片链接了:


p = r'<img src="([^"]+\.jpg)"'

img_addrs = re.findall(p, html)


获取到的部分图片链接截图:




3 存储


既然获取到图片链接了,那么接下来就可以存储了,这里暂时存储到自己本地电脑上吧:


with open(filename,'wb') as f:
img = url_open(each).content
f.write(img)



ok,这样就完成了,是不是很简单?当然爬虫说简单也简单,说复杂也复杂,关键是要看自己想做什么事情,如果你从这个例子中发现自己对 python 又多了些许兴趣,那不妨置顶我,我往后给你写一些 python爬虫 所需要的知识点,例如其它的爬虫模块如Scrapy ,一些表单的请求参数,反爬虫,cookie,多进程抓取等等。


不说了,我再去抓取多一点美女的图片了。






关注我,让你像看小黄文一样轻松学到 Python 的所有!






ps:还没获取我精心准备的 Python 电子书和思维导图等干货的可以在我的公众号「学习Python的正确姿势」中发送 python 免费获取哦! 

   

再ps:说真的,如果你能点个赞转发支持我一下我会更有动力写。



                            顺手,点个赞吧


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存