爬数据是什么意思?
学习一些爬数据的知识有什么用呢?
比如:大到大家经常使用的搜索引擎(Google, 搜狗);
当用户在Google搜索引擎上检索相应关键词时,谷歌将对关键词进行分析,从已“收录”的网页中找出可能的最符合用户的条目呈现给用户;那么,如何获取这些网页就是爬虫需要做的,当然如何推送给用户最有价值的网页,也是需要结合相应算法的,这就涉及到数据挖掘的的知识了;
比较小一些的应用,比如我们统计测试工作的工作量,这就需要统计一周/一月的修改单数量,jira记的缺陷数以及具体内容;
还有就是最近火热进行的世界杯,如果你想统计一下各个球员/国家的数据,并存储这些数据以供其他用处;
还有就是根据自己的兴趣爱好通过一些数据做一些分析等(统计一本书/一部电影的好评度),这就需要爬取已有网页的数据了,然后通过获取的数据做一些具体的分析/统计工作等。
学习简单的爬虫需要具备哪些基础知识?
我把基础知识分为两部分:
1、前端基础知识
HTML/JSON,CSS; Ajax
2. python编程相关知识
(1)Python基础知识
基本语法知识,字典,列表,函数,正则表达式,JSON等
(2)Python常用库:
Python的urllib库的用法 (此模块我用的urlretrieve函数多一些,主要用它保存一些获取的资源(文档/图片/mp3/视频等))
Python的pyMysql库 (数据库连接以及增删改查)
python模块bs4(需要具备css选择器,html的树形结构domTree知识等,根据css选择器/html标签/属性定位我们需要的内容)
python的requests(顾名思义,此模块用于发送request请求的/POST/Get等,获取一个Response 对象)
python的os模块 (此模块提供了非常丰富的方法用来处理文件和目录。os.path.join/exists函数用的较多一些)
参考资料:这部分可以参考相关模块的接口API文档
扩展资料:
网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。
传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。
聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。
另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
相对于通用网络爬虫,聚焦爬虫还需要解决三个主要问题:
(1) 对抓取目标的描述或定义;
(2) 对网页或数据的分析与过滤;
(3) 对URL的搜索策略。
推荐教程:《python教程》以上就是爬数据是什么意思?的详细内容,更多请关注小潘博客其它相关文章!