imtoken钱包下载官网苹果|爬墙工具
免费网站爬取工具汇总 - 知乎
免费网站爬取工具汇总 - 知乎首发于互联网支付杂思切换模式写文章登录/注册免费网站爬取工具汇总梁川互联网金融话题下的优秀答主在线爬取工具在线扒站工具:https://bazhan.wang 或 https://bazhan.me 。只允许爬取单个页面。Archivarix:https://archivarix.com/en/website-downloader-cms-converter/ 可以免费下载200个文件。HTTrack类软件对不懂编程的,推荐老牌的爬站工具HTTrack 。HTTrack :https://www.httrack.com 支持Windows/Linux/OSX/Android。类似工具还有teleport ultra。Cyotek WebCopy:https://www.cyotek.com/cyotek-webcopy这些工具都只能处理静态页面内容,无法处理使用了Ajax动态数据展示的网站。离线存档工具定位于网站离线存档的工具,也可以作为爬取工具使用,功能更为强大,但需要一定技术基础。ArchiveBox:https://archivebox.ioKiwix:https://www.kiwix.orgConifer:https://conifer.rhizome.org这几个都支持Headless Chromium,因此可以爬取ajax动态数据的网站。当然技术人员也可以基于万能的爬虫框架Scrapy 自己开发一个。ArchiveBox的 Wiki 对各种 Web Archiving 工具及服务做了很好的总结,值得参考和挖掘:https://github.com/ArchiveBox/ArchiveBox/wiki/Web-Archiving-Community发布于 2022-12-08 15:14・IP 属地马来西亚爬虫 (计算机网络)网页爬虫赞同 174 条评论分享喜欢收藏申请转载文章被以下专栏收录互联网支
Chrome油猴插件,帮你更有效率地获得一个更大的世界! - 知乎
Chrome油猴插件,帮你更有效率地获得一个更大的世界! - 知乎切换模式写文章登录/注册Chrome油猴插件,帮你更有效率地获得一个更大的世界!无心Chapter.1如果你去搜索谷歌浏览器,你会发现它有很多个版本,Chrome Canary,Chrome Beta,Chrome Dev,Chromium。无疑,Chrome正式版/稳定版是最适合你的版本,这也是大部分人都在用的版本。然而,谷歌浏览器Chrome下载的问题是一个大问题。众所周知,我们在国内无法访问Google官网,不借助“梯子”也就无法登陆到Google官网去下载和更新它旗下的浏览器Chrome。这是谷歌浏览器Chrome中文官方下载地址,但在不番强的时候访问并不稳定,可能会出现下载不了的情况。而我们在国内通过其他途径去下载Chrome时,要面对一堆困扰,不仅下载的可能是阉割版本,而且在百度搜索结果中经常出现以下问题:偷偷给你安装一大堆流氓软件各种乱七八糟广告混在一起找不到准确的下载地址让人防不胜防。Chapter.2如果在国内直接使用Chrome打开谷歌搜索,那么是无法直接访问网站的。那么,在不借助梯子的情况下,就算下载了Chrome也只能用百度吗?答案当然不是。打开网页,依次点击Chrome右上角三点-更多工具-拓展程序。然后点击右上角,进入开发者模式。关注我的微信公众号“361网课搜题吧”,查看6月25日推文,里面有工具链接。将解压后的文件夹拖入下方空白区域即可成功安装谷歌访问助手。这样就可以在不借助梯子的情况下进行谷歌搜索,访问谷歌商店。谷歌商店中搜索“Tampermonkey”,即可下载油猴插件。然后即刻下载脚本点击GreasyFork或OpenUserJS,选择喜欢的脚本安装。安装脚本。右上角点击油猴图标,点击管理面板,可以查看安装的脚本和关闭及启动脚本等等操作。编辑于 2021-06-08 12:43ChromiumGoogle Chrome油猴脚本赞同 2516 条评论分享喜欢收藏申请
[爬虫] (Web Scraper)_chrome和edge浏览器上的爬虫插件 - 知乎
[爬虫] (Web Scraper)_chrome和edge浏览器上的爬虫插件 - 知乎首发于软件工具分享切换模式写文章登录/注册[爬虫] (Web Scraper)_chrome和edge浏览器上的爬虫插件szyyy汽车软件工程师,公众号“汽车工程师日常” qcgcsrc1.前言今年上半年的时候发过两篇关于MATLAB爬虫的文章:最近有朋友留言说想要hangzhou的最新房价数据,想着这代码之前也写过,稍微修改下,适配下网页,应该还是可以运行的,就答应了。爬完了hangzhou的,这位朋友说还想要wuhan的,好吧,我再改改代码......可是由于网页数据的不统一,之前的代码老是遇到一些问题而中断(之前代码主要也是临时学习用,未考虑很多异常的处理)。而且没有专业的反爬功能,爬的时间过长也很容易被限制......调试代码确实比较花时间精力,只能慢慢debug了......大概花了一个晚上的时间,最后终于调好了。(需要数据和代码,后台回复"爬虫1"就行)之前做MATLAB爬虫的时候,主要是为了练习写代码,使用MATLAB做专业的爬虫可能还是不太合适,调试代码匹配网页比较花时间,而且爬一些动态网页,可能也不如python等方便。所以爬取重要数据还是建议使用专业的工具快速方便点。之前听说过Chrome上有个爬虫的插件,不用写代码就能爬取数据。于是想着乘此机会也学习一下,以后爬数据可能也会方便一点;顺便也记录下这个插件的一些使用步骤,分享给需要的朋友,以后可以自己动手爬数据。1 爬虫插件网上搜了下,关于chrome爬虫插件的一些信息,好像Web Scraper推荐比较多,就用它了吧。如果不FQ装chrome插件比较困难,可以在Edge浏览器上试试。我使用的是下面这个插件(chrome的插件基本都可以安装到edge上,上篇GZH文章也有所介绍)https://chrome.google.com/webstore/detail/web-scraper-free-web-scra/jnhgnonknehpejjnehehllkliplmbmhn
https://webscraper.io/Web Scraper插件2Web Scraper的使用关于web scraper的使用,网上已经有挺多介绍了,而且插件的官网上也有一些介绍,感兴趣的可以自己去搜索查看。比较关键的点是 sitemap和selectors。我也是初次使用,在这记录下自己使用过的的操作步骤,以防遗忘。还是以爬LianJia的房价为例。具体操作步骤:[1] 下载安装插件。这个上面已经讲了,就不细说了。[2] 打开 Web Scraper。先打开一个你想爬数据的网页,比如Lianjia,然后用快捷键 Ctrl+Shift+I 或F12 打开Web Scraper插件。[3] 新建一个 Sitemap。点击Create New Sitemap,里面有两个选项;Import sitemap是指导入一个现成的sitemap;第一次使用选择Create sitemap就行。然后填写以下信息:Sitemap Name:这个只是个名字,可以根据网页来自命名,但需要使用英文字母(而且不能是大写字母);Sitemap URL:这是所要爬取的网页的链接地址。如果要爬翻页的、有规律的网页,可以先查看网页不同页码的规律,然后在后面加上[1-100],代表要爬1-100页。https://hz.lianjia.com/ershoufang/xihu/pg[1-100]/比如像这样:[4] 设置Sitemap整个Web Scraper的抓取逻辑是这样: 设置一级Selector, 选定抓取范围;在一级Selector下设置二级Selector,选定抓取字段,然后抓取。4.1 创建一级 Selector:点击 Add new selector;id:应该只是个代号,表示你要抓取的内容(在爬取的csv数据里会显示);Type:是你要抓取的数据的类型,比如元素/文本/链接等;因为我们要在整个网页的要素范围选取多个数据,需要用Element 来先整体选取(如果这个网页需要滑动加载更多,需要选Element Scroll Down);Multiple:勾选 Multiple ,因为我们要选的是多个元素而不是单个元素;Selector:点击select,然后鼠标选择网页上我们需要爬取数据的范围(绿色是待选区域,用鼠标点击后变为红色,表面选中了这块区域,选完后点击"Done Selecting");另外注意,需要多选几个,不然爬取的数据困难只有一个;然后保存这个selector就行。4.2 设置二级 Selector:id:代表你抓取的是什么内容,主要是为了不同的内容做区分(在爬取的csv数据里会显示);这里就写xq_name, xq_address等;Type:选Text,表示要抓取的是文本;Multiple:不要勾选Multiple,因为我们在这里要抓取的是单个元素;Select:点击Select,再点击你要爬取的内容(字段);比如点击小区名、房屋信息、单价、总价等(当字段所在区域变红即为选中,完成选择点"Done Selecting")最好保存,点击Save Selector。创建好一个二级Selector后,可以接着创建多个二级Selector。然后可以预览所选的信息是否正确。[5] 开始爬取数据点击Scrape就行设置一下响应时间等(第一个时间必须2000ms以上)点击Start就可以开始自动爬取数据了(时间会比我的matlab爬虫慢)[6] 数据导出选择Export data as CSV[7] 保存sitemap和查看爬取数据保存了一份sitemap,可以复制到Import Sitemap中导入使用。{"_id":"hz_xihu_ershoufang","startUrl":["https://hz.lianjia.com/ershoufang/xihu/pg[1-100]/"],"selectors":[{"id":"hz_xq","type":"SelectorElement","parentSelectors":["_root"],"selector":"div.info.clear","multiple":true,"delay":0},{"id":"xq_name","type":"SelectorText","parentSelectors":["hz_xq"],"selector":"div.positionInfo","multiple":false,"regex":"","delay":0},{"id":"xq_xinxi","type":"SelectorText","parentSelectors":["hz_xq"],"selector":"div.houseInfo","multiple":false,"regex":"","delay":0},{"id":"xq_peice_zong","type":"SelectorText","parentSelectors":["hz_xq"],"selector":"div.totalPrice","multiple":false,"regex":"","delay":0},{"id":"xq_price_dan","type":"SelectorText","parentSelectors":["hz_xq"],"selector":".unitPrice span","multiple":false,"regex":"","delay":0},{"id":"xq_title","type":"SelectorText","parentSelectors":["hz_xq"],"selector":".title a","multiple":false,"regex":"","delay":0},{"id":"xq_guanzhu","type":"SelectorText","parentSelectors":["hz_xq"],"selector":"div.followInfo","multiple":false,"regex":"","delay":0}]}3 总结Web Srcaper目前还只能一个区域一个区域的爬(后面有时间再找找相关资料),但爬取的信息更丰富,创建爬虫的速度和便捷性,应该也比自己写代码快,而且无软件基础的也可以快速掌握~今天的分享暂时就到这,对于爬虫我也只是初学者,大家感兴趣的也可以自己多尝试~一些参考的文章(Web Srcaper):发布于 2020-12-07 20:21网页爬虫web scraper浏览器插件赞同 192 条评论分享喜欢收藏申请转载文章被以下专栏收录软件工具分享提高效率的以及好用的一些软
2020年30种最佳的免费网页爬虫软件_免费爬虫网站-CSDN博客
>2020年30种最佳的免费网页爬虫软件_免费爬虫网站-CSDN博客
2020年30种最佳的免费网页爬虫软件
最新推荐文章于 2024-02-01 14:21:42 发布
Melisayue
最新推荐文章于 2024-02-01 14:21:42 发布
阅读量3.2w
收藏
125
点赞数
12
文章标签:
爬虫 搜索引擎 java爬虫程序 爬虫搜索 关键字搜索
网页 抓取 爬取 网络爬虫
Java 抓取网页数据
网页抓取
R语言 数据收集 网络抓取 文本挖掘 实用指南.
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/Melisayue/article/details/107103283
版权
原文链接:2020年30种最佳的免费网页爬虫软件
网页抓取(也称为网络数据提取,网络爬虫,数据收集和提取)是一种网页技术,从网站上提取数据。将非结构化数据转换为可以存储在本地计算机或数据库中的结构化数据。
对于不了解编码的人来说,创建网络抓取可能很困难。幸运的是,无论有没有编程技能的人,都有可用的工具。这是我们列出的30种最受欢迎的网页数据抓取工具,从开源库到浏览器扩展和桌面软件。
1. Beautiful Soup
网站: https ://www.crummy.com/software/BeautifulSoup/
目标客户:掌握编程以创建Web抓取/ Web爬网程序以爬网网站的开发人员。
优势:Beautiful Soup是一个开放源代码Python库,旨在抓取HTML和XML文件。它们是已被广泛使用的主要Python解析器。如果您具有编程技能,那么将该库与Python结合使用时,效果最佳。
2. Octoparse
网站:https://www.octoparse.es/
目标客户: 公司或个人需要捕获以下网站:电子商务,投资,加密货币,营销,房地产等。该软件不需要编程和编码技能。
目标客户:Octoparse是终生免费的SaaS 网络数据服务平台。您可以使用它来抓取网页数据并将网站中的非结构化或半结构化数据转换为未编码的结构化数据集。它还提供了要使用的简易任务模板,例如eBay,Twitter,BestBuy等。Octoparse还提供网页数据服务。您可以根据您的抓取需求自定义抓取任务。
3. Import.io
目标客户:寻找网络数据集成解决方案的公司。
优势: Import.io是一个SaaS Web数据平台。它提供了Web抓取软件,可让您从网站抓取数据并将其组织成数据集。他们可以将Web数据集成到用于销售和市场营销的分析工具中。
4. Mozenda
目标客户:企业和企业需要波动的数据/实时数据。
优势: Mozenda提供了一种数据提取工具,可以轻松地从网页捕获数据。他们还提供数据可视化服务。消除了雇用数据分析师的需要。
5. Parsehub
目标客户:缺乏编程技能的数据分析师,营销人员和研究人员。
优势: ParseHub是可视的Web抓取软件,可用于从Web获取数据。您可以通过单击网站上的任何字段来提取数据。它还具有IP轮换功能,当您遇到带有反抓取技术的激进网站时,它可以帮助您更改IP地址。
6. Crawlmonster
目标客户: SEO和市场营销专家 优势: CrawlMonster是免费的网络抓取软件。它允许您扫描网站并分析网站内容,源代码,页面状态以及许多其他内容。
7. Connote
目标客户:寻找网络数据集成解决方案的公司。
优势: Connotate与Import.IO并肩工作,后者提供了自动化Web数据抓取的解决方案。提供Web数据服务,可以帮助您抓取,收集和管理数据。
8. Common Crawl
目标客户:研究人员,学生和老师。 优势: Common Crawl基于数字时代的开源理念。提供跟踪网站的开放数据集。包含原始网页数据,提取的元数据和文本提取。
9. Crawly
目标客户: 具有基本数据要求且没有编码技能的人员。 优势: Crawly提供了一项自动服务,该服务可以抓取网站并将其转换为JSON或CSV形式的结构化数据。他们可以在几秒钟内提取有限的元素,包括:标题文本。HTML,注释,日期和实体标签,作者,图像,视频的URL,编辑者和国家/地区。
10. Content Grabber
目标客户:编程专家的Python开发人员。
优势: Content Grabber是针对公司的网页数据抓取软件。您可以使用其集成的第三方工具创建自己的网页抓取代理。它在处理复杂的网站和数据提取方面非常灵活。
11. Diffbot
目标客户:开发人员和公司。 优势: Diffbot是一个网站抓取工具,它使用机器学习和算法以及公共API从网页中提取数据(网页抓取)。您可以使用Diffbot进行竞争对手分析,价格监控,分析消费者行为等。
12. Dexi.io
目标客户: 具有编程和定价技能的人。
优势: Dexi.io是基于浏览器的网页搜寻器。它提供了三种类型的机器人:提取器,跟踪器和管道。PIPES具有主机器人功能,其中1个机器人可以控制多个任务。它支持许多第三方服务(验证码求解器,云存储等),您可以轻松地将其集成到机器人中。
13. DataScraping.co
目标客户: 缺乏编程技能的数据分析师,营销人员和研究人员。 优势: Data Scraping Studio是免费的网络抓取软件,可从网页,HTML,XML和pdf收集数据。当前,桌面客户端仅适用于Windows。
14. Easy Web Extract
客户: 数据需求有限的企业,营销专家和缺乏编程技能的研究人员。 优势: Easy Web Extract是用于商业目的的可视化网页抓取软件。您可以从网页提取内容(文本,URL,图像,文件),然后将结果转换为多种格式。
15. FMiner
客户:缺乏编程技能的数据分析师,营销人员和研究人员。 优势: FMiner是具有可视化图表设计器的Web抓取软件,可让您使用宏编码器构建项目而无需编码。先进的功能使您可以使用Ajax和Javascript从动态网站进行抓取。
16. Scrapy
客户: 具有编程和抓取技能的Python开发人员
优势: Scrapy用于开发和构建网络蜘蛛。该产品的优点在于它具有一个异步网络库,该库将允许您在完成下一个任务之前先完成它。
17. Helium Scrape
客户:缺乏编程技能的数据分析师,营销人员和研究人员。
优势: Helium Scraper是可视化的网页数据抓取软件,效果很好,特别适用于网站上的小元素。它具有简单的点击界面,使其易于使用。
18. Scrape.it
客户: 需要无需编码的可伸缩数据的人。 优势: 允许将抓取的数据存储在授权的本地磁盘上。您可以使用网络抓取语言(WSL)创建一个抓取工具,该工具的学习曲线较低,无需学习编码。如果您正在寻找安全的网页抓取工具,这是一个不错的选择,值得一试。
19. ScraperWiki
客户: Python和R数据分析环境,非常适合于编码新手的经济学家,统计学家和数据管理员。 优势:它由公司内部的两个部分组成。第一个是QuickCode,它是为了解Python和R语言的经济学家,统计学家和数据管理员而设计的;第二个是The Sensible Code Company,它提供了一种将无序信息转换为结构化数据的Web数据服务。
20. Scrapinghub
客户: Python / Web抓取开发人员 优势: Scraping Hub是一个基于云端的网页平台。它具有四种不同类型的工具:Scrapy Cloud,Portia,Crawlera和Splash。Scrapinghub在50多个国家/地区提供了一系列涵盖的IP地址,这是非常好的,这是IP禁止问题的一种解决方案。
21. Screen-Scraper
客户:对于商业,它与汽车,医疗,金融和电子商务行业有关。 优势: Screen Scraper可以为汽车,医疗,金融和电子商务行业提供Web数据服务。与其他网络抓取工具(如Octoparse)相比,它更加方便和基本。对于没有网络抓取经验的人,它的学习周期也很短。
22. Salestools.io
客户:市场营销人员和销售人员。 优势: Salestools.io提供了网络抓取软件,可帮助营销人员在诸如LinkedIn,Angellist,Viadeo之类的专业网络上收集数据。
23. ScrapeHero
客户:对于投资者,对冲基金,市场分析师非常有帮助。 优势:作为API提供程序的ScrapeHero允许您将网站转换为数据。为公司和企业提供定制的Web数据服务。
24. UniPath
客户:各种规模的企业 优势: UiPath是用于免费Web抓取的机器人过程自动化软件。它使用户能够创建,实施和管理业务流程中的自动化。对于企业用户来说,这是一个不错的选择,因为它使您可以创建数据管理规则。
25. Web Content Extractor
客户:缺乏编程技能的数据分析师,营销人员和研究人员。 优势: Web Content Extractor是用于私人或商业目的的易于使用的Web抓取软件。这是很容易学习和掌握的。您有14天的免费试用期
26. Webharvy
客户:缺乏编程技能的数据分析师,营销人员和研究人员。 优势: WebHarvy是点击式网页抓取软件。它是为非程序员设计的。提取程序不允许您编程。他们有网络抓取教程,对于大多数初学者来说非常有用。
27. Web Scraper.io
客户:缺乏编程技能的数据分析师,营销人员和研究人员。 优势: Web Scraper是一个Chrome浏览器扩展程序,用于从网站提取数据。它是一个免费的网络抓取软件,用于抓取动态网页。
28. Web Sundew
客户:公司,营销人员和研究人员。 优势: WebSundew是一种可视化的抓取工具,可用于Web数据的结构化抓取。企业版允许您在远程服务器上运行抓取,并通过FTP发布收集的数据。
29. Winautomation
客户:开发人员,业务运营主管,IT专业人员 优势: Winautomation是Windows Web抓取工具,可让您自动执行基于桌面和基于Web的任务。
30. Web Robots
客户:缺乏编程技能的数据分析师,营销人员和研究人员。 优势: Web Robots是基于云的Web抓取平台,用于使用许多Javascript抓取动态网站。它具有网页浏览器扩展程序以及桌面软件,使人们可以轻松地从网站提取数据。
优惠劵
Melisayue
关注
关注
12
点赞
踩
125
收藏
觉得还不错?
一键收藏
知道了
1
评论
2020年30种最佳的免费网页爬虫软件
原文链接:2020年30种最佳的免费网页爬虫软件网页抓取(也称为网络数据提取,网络爬虫,数据收集和提取)是一种网页技术,从网站上提取数据。将非结构化数据转换为可以存储在本地计算机或数据库中的结构化数据。对于不了解编码的人来说,创建网络抓取可能很困难。幸运的是,无论有没有编程技能的人,都有可用的工具。这是我们列出的30种最受欢迎的网页数据抓取工具,从开源库到浏览器扩展和桌面软件。1. Beautiful Soup网站: https ://www.crummy.com/software/Beaut
复制链接
扫一扫
1 条评论
您还未登录,请先
登录
后发表或查看评论
排名前20的网页爬虫工具
热门推荐
web开发与Python
07-17
2万+
网络爬虫在许多领域都有广泛的应用,它的目标是从网站获取新的数据,并加以存储以方便访问。而网络爬虫工具越来越为人们所熟知,因为它能简化并自动化整个爬虫过程,使每个人都可以轻松访问网络数据资源。
1. Octoparse
Octoparse是一个免费且功能强大的网站爬虫工具,用于从网站上提取需要的各种类型的数据。它有两种学习模式 - 向导模式和高级模式,所以非程序员也可以使用。可以下载几乎所有的...
10款优秀安卓手机爬虫软件推荐,下载体验超乎想象!
java旋风的博客
08-29
3070
10款优秀安卓手机爬虫软件推荐,下载体验超乎想象!v
常用十大爬虫软件
tzddzdhz的博客
02-01
1072
集搜客GooSeeker始于2007年,是国内最早的网络爬虫工具之一,近年来,集搜客已把互联网内容结构化和语义化技术成功推广到金融、保险、电信运营、电信设备制造、电子制造、零售、电商、旅游、教育等行业。八爪鱼软件能满足多种业务场景,适合产品、运营、销售、数据分析、政府机关、电商从业者、学术研究等多种身份职业,可模板采集、智能采集、不间断云采集、自定义采集、多层级采集、全自动数据格式化等。软件现提供免费版和收费版,免费版有功能限制,收费版分旗舰版、旗舰+版、私有云版,价格每年约1999元至6.98万元不等。
最佳免费网络爬虫工具
hfbsjkdsb的博客
03-23
2040
常用的免费网络爬虫工具推荐:OutWit Hub平台由一个内核组成,该内核具有广泛的数据识别和提取功能库,可以在其上创建无数不同的应用程序,每个应用程序都利用内核的功能。常用的免费网络爬虫工具推荐:ParseHub是一款出色的网络爬虫应用程序,可以从使用 AJAX、JavaScript、cookie 和其他相关技术的网站收集信息。GNU Wget是一个免费的网络爬虫工具,可以免费下载,它是一个用 C 语言编写的开源软件程序,允许你通过HTTP、HTTPS、FTP 和 FTPS获取文件。
再也不用手写爬虫了!推荐5款自动爬取数据的神器!
m0_48891301的博客
09-22
2935
在进行爬虫活动时,需要遵循伦理规范和法律法规,尊重网站的隐私权和信息所有权。未经授权的爬虫活动可能涉及侵犯隐私、盗取数据等问题,违反相关法律法规可能会面临法律责任。我整理了编程语言Python的学习资料,拿出来和大家分享,有需要的朋友可以扫描下方二维码进行领取哦。
在github中最好用的19个Python爬虫推荐,建议收藏!
l01011_的博客
10-06
1860
可依据不同的主题存储到Excel不同的Sheet ,采用User Agent伪装为浏览器进行爬取,并加入随机延时来更好的模仿浏览器行为,避免爬虫被封。以hao123为入口页面,滚动爬取外链,收集网址,并记录网址上的内链和外链数目,记录title等信息,windows7 32位上测试,目前每24个小时,可收集数据为10万左右。总数据数:20119918,抓取字段:用户id,昵称,性别,头像,等级,经验值,粉丝数,生日,地址,注册时间,签名,等级与经验值等。涵盖链家爬虫一文的全部代码,包括链家模拟登录代码。
12款最常使用的网络爬虫工具推荐
python03011的博客
06-25
2万+
12款最常使用的网络爬虫工具推荐
关于7个款来抓数据的开源爬虫软件工具
m0_63060172的博客
11-27
6043
爬虫:是一种按照一定的规则,自动地抓取万维网,信息的程序或者脚本。使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
有哪些好用的爬虫软件?
tingting11232的博客
02-10
3381
有哪些好用的爬虫软件?
网页抓取工具
08-28
网页抓取工具,只要把相关的网址放入就可以获取该页面的所有JS、CSS、图片
简易网页爬虫 V1.0 绿色免费版
04-17
简易网页爬虫是一款方便易用的网页爬虫软件。网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。用户可以通过软件来分析网页中的所有链接。
免费爬虫软件使用教程.docx
06-09
免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx免费爬虫软件使用教程.docx
用java实现爬虫抓取网页中的表格数据功能源码
12-20
使用java代码基于MyEclipse开发环境实现爬虫抓取网页中的表格数据,将抓取到的数据在控制台打印出来,需要后续处理的话可以在打印的地方对数据进行操作。包解压后导入MyEclipse就可以使用,在TestCrawTable中右键...
2020 年最新微博内容及评论爬虫
12-22
微博爬虫综述 今天手把手教大家如何写成一份微博爬虫的代码,可以自己爬取微博的热门话题或评论,方便做相关的数据分析和可视化。 该项目的 Github 地址是 https://github.com/Python3Spiders/WeiboSuperSpider ,请...
电子行业周报:SK海力士推进HBM扩产,Meta自研AI芯片投产.pdf
03-04
半导体 电子行业 行业分析 数据分析 数据报告 行业报告
基于springboot毕业就业信息管理系统的设计与实现(毕业论文)
最新发布
03-04
主要功能:
学生信息管理:学生信息新增,学生信息修改
公司信息管理: 公司信息增删改
简历信息管理:简历信息增删改
公告类型管理:公告信息增删改
就业统计管理:就业统计信息增删改
Python 网页爬虫
07-14
Python 提供了强大的库和工具,用于编写网页爬虫。以下是一些常用的 Python 网页爬虫库:
1. BeautifulSoup:用于解析 HTML 和 XML 文档,提供了简单方便的方法来提取和操作网页数据。
2. Scrapy:一个高效的、可配置的爬虫框架,用于从网站上提取数据。
3. Requests:一个简单易用的 HTTP 库,用于发送 HTTP 请求和处理响应。
4. Selenium:一个自动化测试工具,也可用于爬虫。它可以模拟人类用户在浏览器中的行为,如点击、输入等操作。
5. PyQuery:类似于 jQuery 的库,用于解析 HTML 文档并提供类似于 CSS 选择器的方式来提取数据。
这些库都可以通过 pip(Python 包管理工具)进行安装。您可以根据具体需求选择合适的库来编写您的网页爬虫。请注意,在进行网页爬取时,请遵守网站的使用规则和法律法规。
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
Melisayue
CSDN认证博客专家
CSDN认证企业博客
码龄4年
暂无认证
7
原创
51万+
周排名
209万+
总排名
6万+
访问
等级
467
积分
24
粉丝
23
获赞
1
评论
188
收藏
私信
关注
热门文章
2020年30种最佳的免费网页爬虫软件
32496
2020年十大电子邮件抓取工具—用于销售勘探
11218
2020年最佳的5种社交媒体的数据抓取/网络爬虫工具
7705
20+网页采集工具—5分钟提取线上数据
7518
从网页批量下载图像-前5名批量图像下载器
1986
分类专栏
大数据
3篇
最新评论
2020年30种最佳的免费网页爬虫软件
乔小萸:
博主您好 我想抓取【实验空间-国家虚拟仿真实验教学项目共享服务平台】里的所有数据 以此来分析该网站的设计和使用情况 请问 使用哪个方式比较好
最新文章
11个适用于新手的顶级Amazon Seller工具(2020年)
从网页批量下载图像-前5名批量图像下载器
20+网页采集工具—5分钟提取线上数据
2020年7篇
目录
目录
分类专栏
大数据
3篇
目录
评论 1
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
添加红包
祝福语
请填写红包祝福语或标题
红包数量
个
红包个数最小为10个
红包总金额
元
红包金额最低5元
余额支付
当前余额3.43元
前往充值 >
需支付:10.00元
取消
确定
下一步
知道了
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝
规则
hope_wisdom 发出的红包
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
0
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。
余额充值
三款扒站神器webzip ,HTTrack Website Copier, teleport pro 哪个好用? - 知乎
三款扒站神器webzip ,HTTrack Website Copier, teleport pro 哪个好用? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册网页设计网络安全网站运营网站三款扒站神器webzip ,HTTrack Website Copier, teleport pro 哪个好用?teleport pro一直在用,下载下来文件有原站信息(可批量去除),最严重是有些复杂结构的网站下载下来结构会出错 其他两个没用过,不知道有使用过的…显示全部 关注者293被浏览309,624关注问题写回答邀请回答好问题 4添加评论分享8 个回答默认排序在水伊人 关注还有个神器,wget发布于 2018-01-20 20:56赞同 23 条评论分享收藏喜欢收起Cassidy自由翻译 关注因为接了一个混蛋客户的活接触了一下这个我表示HTTrack真难用,反正不适合像我这种要求10分钟零基础扒站的人。如果按着默认设置一步步点下去,会出现网站能保存,但是看不到源代码的情况。最后我还是用Chrome扒下来的。具体操作:在 Chrome 地址栏中键入“chrome://flags”,回车,这是一个 Chrome 的功能配置页面,项目比较多,我们通过 Ctrl+F 来搜索“mhtml”,找到“将网页另存为 MHTML”这一项,然后点击下方的“启用”即可。启用后,在网页空白处点击右键,选择“另存为”,保存类型为“网页,全部”。参考:如何完整离线保存网页,包括网页完整特效? - 鸟人的回答 @鸟人 编辑于 2018-02-12 00:02赞同 107 条评论分享收藏喜欢
有免费的网络爬虫软件使用吗? - 知乎
有免费的网络爬虫软件使用吗? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册免费软件爬虫 (计算机网络)网页爬虫有免费的网络爬虫软件使用吗?我是金融从业人员~想从网页上爬些数据保存成自己需要的格式做下分析自用~但是我不知道爬下来的数据具体能够做到哪些格式~~我想问一下爬虫除了找专业的人士写…显示全部 关注者1,767被浏览825,056关注问题写回答邀请回答好问题 3313 条评论分享67 个回答默认排序小小造数君 关注最近我们在做类似的工作,一方面接单独的定制需求,另一方面做一个无需编程的智能云爬虫网站。可以来我们这里看看:造数 - 最好用的云爬虫工具我们精心制作了视频:造数云爬虫使用教程--------------------------------------------------------------因为刚开始三周左右,还有很多项目需要大家的意见来完善。我们现在可以满足的范例如下:比如你看到这样的网站,信息很多,但你只想要一个excel表,告诉你地址,大小,总价和均价。网址粘到我们低调的首页搜索框以后,选择你要哪一类数据,选一个,同类的就帮你选上了。最后你会得到下面这样的列表:注册好以后我们会给你生成一个控制台,然后选择你喜欢的格式输出就好了。Excel也好,csv,json也罢,统统没问题。编辑于 2017-02-24 16:19赞同 12341 条评论分享收藏喜欢收起刘宝强数阔创始人&CEO 关注(好多人点赞,我就把我的回答再好好的完善一下)免费的爬虫软件,目前最好用的就是八爪鱼采集器。现在全球100万的用户都选择八爪鱼采集器,口碑就是最好的证明。市场上那么多采集器可以选,为什么选择八爪鱼呢?选择一款好的免费采集工具到底最终要的衡量标准是什么呢?1. 必须能采集任何网站,如果弄了半天你想采集的网站不支持那就悲剧了,八爪鱼是市面上采集网站覆盖最广的工具,支持任何网站的采集,而很多其他采集器只能覆盖大概60%的网站,大多数采集器对于需要登录,翻页,瀑布流、Ajax脚本异步加载数据等不能采集。2. 学习上手容易,如果一个工具很牛逼,但是你不会用也是白扯,八爪鱼不需要你学习任何编程知识,也无需你懂网页通信原理,HTML,Javascript等技术背景,对于文科背景或者没有采集经验的小白是最佳选择,对比其他采集器,大多数需要你懂得技术背景,比如HTML,Javascript脚本分析,网络抓包,正则表达式匹配等,有些采集器还必须要写代码才能用。3. 还需要操作简单,八爪鱼是国内唯一一家支持一键智能采集的爬虫工具,独创的智能模式,只需要用户输入要采集的网址(包含要采集的数据列表),点击一个智能采集按钮,数据就全自动的采集下来了,就像百度一样,看似一个简单的搜索框,其实背后的技术很复杂,当然对用户来讲,简单好用才重要,背后复杂高深的技术并不重要,所有优秀的产品一般都符合这个特征,就像苹果手机,正面只有一个按钮,但是背后却影藏了指纹解锁等技术。除了智能模式,八爪鱼还有自定义模式,通过点击鼠标选择要采集的数据,八爪鱼会自动生成可视化的采集流程度,非常容易理解和使用,到目前为止,八爪鱼也是全球范围内唯一具备可视化自定义流程的采集工具。4. 当采集量很大,数据更新要求高的时候,必须能支持大规模采集,试想一下,如果你需要百度、58同城、微信、淘宝、京东、大众点评等平台时,上面的数据动辄几千万,每天更新几百万,如果你用一台电脑采集,这将是Mission impossible(碟中谍:不可能完成的任务),然而大多数的采集工具都是单机版工具,显然不行,八爪鱼在2014年第一个版本上线的时候,就率先在提出了“云采集”的概念,八爪鱼自建了一个由5000多台云服务器组成的庞大云采集集群,很多人可能没概念,5000台相当于早期雅虎搜索引擎的规模,这些服务器24*7的在为八爪鱼用户提供数据采集服务,单个用户在八爪鱼的采集量可以达到每天过千万条数据,在大数据的背景下,八爪鱼是业内唯一具备此能力的平台。5. 可以应对常见防采集措施,可能你第一天接触采集的时候不需要了解防采集是什么,但是当你采集数据一段时间之后,相信你就会对此印象深刻,简单来讲,网站为了防止自己的数据被机器程序大规模采集,而采取了一系列技术手段来限制采集,这就是防采集,常见的防采集手段有登录、封IP,验证码、Ajax异步加载,瀑布流等,这些方法都非常有效,一般采集工具碰到这些的时候大多都歇菜了,如果你是一个自己写爬虫打码的工程师,相信你对此深有体会,八爪鱼致力于打造能突破一切防采集手段的工具,以上这些措施八爪鱼都可以搞定,当然也不止这些,八爪鱼甚至能像人浏览网页时一样,如果网页格式有变化,采用多种模板,或者弹出一个广告、登录、错误、验证码等页面,八爪鱼也能根据不同情况采用不同应对措施,包括自动识别和输入验证码等,这其中最难搞的一个就是IP限制,IP限制常用的解决方法有代理IP,VPN等,这些都要求你有大量的IP资源,然而IP资源是需要成本的,一个IP一个月的成本至少在50元以上,碰到主流的网站比如大众点评,阿里巴巴、天猫这些,如果要大规模采集,必须有成千上万的IP才行,八爪鱼的云采集集群IP不是固定的,而是像个水池一样,不断有新的IP加入,用过的IP退出,这样就有几十万上百万的IP可以使用,同时,一个采集任务还会被随机分配到很多台不同IP的云采集服务器上去,速度快效率高、还防采集。6.其他,当然每个人采集需求都不一样,你可能还很看重其他的一些功能特点,比如是否有大量的学习教程资源、配置好的采集规则模板、活跃的交流社区、完善的客服支持、以及实现全自动采集同步数据的API接口等等,不用说、在这些方面八爪鱼都为大家考虑到了,我就不一一赘述。7. 免费!免费!免费!最重要的事情说三遍,八爪鱼产品的设计有别于传统的采集工具或其他软件,传统的工具软件一般都是按照功能收费,个别有免费版的也是把核心功能都给阉割点了(话说不阉割咋收费呢, ),八爪鱼完全不同,免费版本具备所有功能,这点也是很多其他采集器没有的,到现在还有一些采集工具使用加密狗等方式来保护被阉割的功能,作为用户来讲我也是很无语,对于一般的需求而言,免费版本就满足所有需求了,当然,八爪鱼是个成功的商业产品,也设置了一些增值服务,如私有云等等,来满足高端付费企业用户的需要,用户都可以根据需要选择。废话不多说,如果你想要的上面都有了,那没啥好犹豫的了,选择困难症、处女座也都该满意了吧,能动手的咱绝对不动口:戳这里,免费下载八爪鱼戳这里,八爪鱼学习教程资料忘了啦,你还不知道八爪鱼长什么样,在这个看颜值的时代,必须爆图,有图有真相,我以采集京东商品数据为例,给大家截图看一下八爪鱼的采集界面:1. 下载并安装八爪鱼客户端软件之后,打开,主界面长这样,简洁大方,有木有?:2. 看到APP采集了吧,(全球首创的技术,亮瞎我的钛合金**),看到内置国内主流网站采集了吧(零门槛我喜欢),喜欢就点这里慢慢去了解,这里就跳过,重点讲一下主页中间的智能采集,在输入框中,输入我们要采集的网址:https://list.jd.com/list.html?cat=9987,653,655然后点击右边的放大镜按钮立即采集。稍等几秒钟,数据就出来了,我们再修改一下列名、删掉不需要的列(就跟excel一样),就得到了下面这个结果(4不4很简单 ):当然啦,这只是用最简单的智能模式,更为强大的自定义模式和简易采集模式还是留给你自己去探索吧,用好自定义模式,你就无敌了,采遍互联网无敌手号称采花大盗的就是你了。我知道有些人就是一目十行懒得看文字,那看图吧,功能和特色概览图:部分典型用户:另外,我列一个八爪鱼(公司名字叫深圳数阔信息技术有限公司)的资质给大家参考:深圳数阔信息技术有限公司是领先的大数据工具与平台提供商。多年来致力于企业级数据整合、数据采集、清洗、分析及挖掘,在大数据领域拥有多项国际领先的知识产权和专利。旗下“八爪鱼”大数据采集平台、“数多多”数据资源交易平台处于行业领先地位,企业用户数超过30万。点击下方链接 ,可免费体验数阔云听CEM系统:公司创始人兼CEO刘宝强先生,毕业于国防科技大学,曾任职于morningstar(晨星资讯),负责morningstar(晨星资讯)全球金融大数据的收集和分析平台。曾在芝加哥(Morningstar全球总部)工作,在硅谷培训学习,对全球大数据产业发展有深入研究。 2015年1月获得国家重点软件企业大数据行业上市公司“拓尔思”500万天使投资2015年6月获得双软认证2015年9月在美国洛杉矶开设分公司Octoparse Data Inc,开展北美业务2015年11月获得深圳市高新技术企业认证2016年1月,《中国大数据企业排行榜》获五星评级2016年5月,获得“云上贵州”大数据商业模式大赛“云路奖”2016年6月,获得深圳市科创委专项资金扶持2016年6月,获得知名投资机构“协同创新基金”Pre-A投资2016年10月,获得阿里云“合作伙伴授权牌”银牌2016年10月,获得“双创未来”2016年成都·深圳青年创客电视大赛一等奖2016年10月,获得复星集团全球创新创业大赛第一名2016年11月,获得世界互联网大会(乌镇)中国创客40强2016年11月,获得大数据创新研究院“大数据创业企业100强”2016年11月,获得国家高新企业认证2017年1月,八爪鱼旗下自主研发的数据分析和可视化平台“微图”上线2017年8月,获得全球潮人创新创业大赛第一名老司机要开车了,上车链接在这里:戳这里,免费下载八爪鱼八爪鱼学习教程资料2019年7月更新:这个老问题,经久不衰,不断有人过来咨询和提问,我再补充一些新内容上来:2018年12月,八爪鱼兄弟产品《云听CEM客户体验管理平台》获得中国大数据优秀解决方案TOP50,云听CEM使用AI技术为品牌企业提供深度消费者洞察和体验优化能力。2019年5月,八爪鱼获得国家工信部2019大数据优秀产品认证2019年5月,八爪鱼在贵阳大数据博览会发布的《大数据企业排行榜》再次获得数据采集类别第一名,这是八爪鱼连续第5次蝉联该领域第一。2019年7月,八爪鱼推出教育公益计划,面向全球高校和教育领域的老师,同学们提供免费好用的数据采集工具,得到老师同学们广泛好评和支持。liubaoqiang@skieer.comhttps://www.zhihu.com/video/1135137256368066560高校老师和同学们对八爪鱼的评价高校老师和同学们对八爪鱼采集器的评价如果我写了一天的内容对你有用,欢迎点个赞哈,O(∩_∩)O谢谢编辑于 2023-06-07 10:39赞同 30781 条评论分享收藏喜欢
在线爬虫工具 - CommandNotFound ⚡️ 坑否
在线爬虫工具 - CommandNotFound ⚡️ 坑否
CommandNotFound
首页 (current)
Tools
技术栈
Linux
PHP
Go
Python
Delphi
Android
SQL
在线工具
TIDBITS
CSS 布局
搜索
技术最新资讯
技术频道
Linux
PHP
Delphi
Android
Go
Python
SQL
在线工具
爬虫工具
首页
在线工具
爬虫工具
输入要抓取内容的 URL 地址
URL
抓取页面链接标题文字
抓取页面链接 href 地址
抓取页面图片 src 地址
工具提示
1. 选择改工具抓取页面,当类型为抓取图片地址时,如果对方页面为相对地址,则将自动转换成绝对地址。
2. 抓取结果将自动过滤重复记录;
开始抓取
发表评论
© Copyright © 2024
CommandNotFound ⚡️ 坑否
当前呈现版本 v1.02.23
收藏本站:CommandNotFound ⚡️ 坑否,请使用 Ctrl + D 或者 Command + D
备案号:京ICP备17062627号-2
Web Scraper——轻量数据爬取利器 - 少数派
Web Scraper——轻量数据爬取利器 - 少数派
PRIMEMatrix栏目Pi Store更多 无需申请,自由写作 任何用户都可使用写作功能。成功发布 3 篇符合基本规则的内容,可成为正式作者。了解更多退出登录反馈PRIMEMatrix栏目Pi Store更多 Web Scraper——轻量数据爬取利器主作者关注卤蛋实验室少数派作者少数派作者 各大平台账号较多不能及时回复评论和私信,有问题可关注公众号 ——「卤蛋实验室」提问 卤蛋实验室关注卤蛋实验室少数派作者少数派作者 各大平台账号较多不能及时回复评论和私信,有问题可关注公众号 ——「卤蛋实验室」提问 联合作者关注卤蛋实验室少数派作者少数派作者 各大平台账号较多不能及时回复评论和私信,有问题可关注公众号 ——「卤蛋实验室」提问 卤蛋实验室关注卤蛋实验室少数派作者少数派作者 各大平台账号较多不能及时回复评论和私信,有问题可关注公众号 ——「卤蛋实验室」提问 2020 年 05 月 20 日 日常学习工作中,我们多多少少都会遇到一些数据爬取的需求,比如说写论文时要收集相关课题下的论文列表,运营活动时收集用户评价,竞品分析时收集友商数据。当我们着手准备收集数据时,面对低效的复制黏贴工作,一般都会萌生一个想法:我要是会爬虫就好了,分分钟就把数据爬取下来了。可是当我们搜索相关教程时,往往会被高昂的学习成本所劝退。拿现在最通用的 python 爬虫来说,对于小白来说往往要跨过下面几座大山:Python + HTML + CSS + JavaScript + Scrapy学习一门编程语言:python学习网页的基础构成——HTML 标签和 CSS 选择器,有时候还要了解一些 JavaScript学习网络通信的基础协议——HTTP 协议学习 python 中常见的爬虫框架和解析库......上面的知识点,没有几个月是掌握不完的。而且对于非强需求的人来说,这么多的知识点,你还会时时刻刻和遗忘做斗争。那么有没有不学 python 也能爬取数据的利器呢?结合文章标题,我想你已经知道我要安利什么了。今天我要推荐的就是 Web Scraper,一个轻量的数据爬虫利器。Web ScraperWeb Scraper 的优点就是对新手友好,在最初抓取数据时,把底层的编程知识和网页知识都屏蔽了,可以非常快的入门,只需要鼠标点选几下,几分钟就可以搭建一个自定义的爬虫。我在过去的半年里,写了很多篇关于 Web Scraper 的教程,本文类似于一篇导航文章,把爬虫的注意要点和我的教程连接起来。最快一个小时,最多一个下午,就可以掌握 Web Scraper 的使用,轻松应对日常生活中的数据爬取需求。 插件安装Web Scraper 作为一个 Chrome 插件,网络条件良好的用户可以直接上chrome 网上应用店安装,不太好的用户可以下载插件安装包手动安装,具体的安装流程可以看我的教程:Web Scraper 的下载与安装。常见网页的类型结合我的数据爬取经验和读者反馈,我一般把网页分为三大类型:单页、分页列表和筛选表单。常见的网页类型1.单页单页是最常见的网页类型。我们日常阅读的文章,推文的详情页都可以归于这种类型。作为网页里最简单最常见的类型,Web Scraper 教程里第一篇爬虫实战就拿豆瓣电影作为案例,入门 Web Scraper 的基础使用。2.分页列表分页列表也是非常常见的网页类型。互联网的资源可以说是无限的,当我们访问一个网站时,不可能一次性把所有的资源都加载到浏览器里。现在的主流做法是先加载一部分数据,随着用户的交互操作(滚动、筛选、分页)才会加载下一部分数据。教程里我费了较大的笔墨去讲解 Web Scraper 如何爬取不同分页类型网站的数据,因为内容较多,我放在本文的下一节详细介绍。3.筛选表单表单类型的网页在 PC 网站上比较常见。这种网页的最大特点就是有很多筛选项,不同的选择会加载不同的数据,组合多变,交互较为复杂。比如说淘宝的购物筛选页。复杂的筛选类网页比较遗憾的是,Web Scraper 对复杂筛选页的支持不是很好,如果筛选条件可以反映在 URL 链接上就可以爬取相关数据,如果不能就无法爬取筛选后的数据。常见的分页类型分页列表是很常见的网页类型。根据加载新数据时的交互,我把分页列表分为 3 大类型:滚动加载、分页器加载和点击下一页加载。常见的分页类型1.滚动加载刷手机我们在刷朋友圈刷微博的时候,总会强调一个『刷』字,因为看动态的时候,当把内容拉到屏幕末尾的时候,APP 就会自动加载下一页的数据,从体验上来看,数据会源源不断的加载出来,永远没有尽头。Web Scraper 有一个选择器类型叫 Element scroll down,意如其名,就是滚动到底部加载的意思。利用这个选择器,就可以抓取滚动加载类型的网页,具体的操作可以见教程:Web Scraper 抓取「滚动加载」类型网页。2.分页器加载一个功能齐全的分页器分页器加载数据的网页在 PC 网页上非常常见,点击相关页码就能跳转到对应网页。Web Scraper 也可以爬取这种类型的网页。相关的教程可见: Web Scraper 控制链接分页、Web Scraper 抓取分页器类型网页 和 Web Scraper 利用 Link 选择器翻页。3.点击下一页加载点击下一页按钮加载数据其实可以算分页器加载的一种,相当于把分页器中的「下一页」按钮单独拿出来自成一派。这种网页需要我们手动点击加载按钮来加载新的数据。Web Scraper 可以用 Element click 选择器抓取这种分页网页,相关教程可见:Web Scraper 点击「下一页」按钮翻页。进阶使用学习了上面列出的几篇教程,Web Scraper 这个插件 60% 的功能基本上就掌握了。下面是一些进阶内容,掌握了可以更高效的抓取数据。1.列表页 + 详情页列表页 + 详情页互联网资讯最常见的架构就是「列表页 + 详情页」的组合结构了。列表页是内容的标题和摘要,详情页是详细说明。有时候我们需要同时抓取列表页和详情页的数据,Web Scraper 也支持这种常见的需求。我们可以利用 Web Scraper 的 Link 选择器来抓取这种组合网页,具体操作可以看教程:Web Scraper 抓取二级网面。2.HTML 标签与 CSS 选择器HTML & CSS我在前面说了 Web Scraper 屏蔽了一些网页知识,比如说 HTML 和 CSS 的一些内容,只需要简单的鼠标点选就可以搭建一个自定义爬虫。但是如果我们花十几分钟了解一些基础的 HTML 和 CSS 知识,其实可以更好的使用 Web Scraper。所以我专门写了一篇介绍 CSS 选择器的文章,十分钟读下来可以上手自定义 CSS 选择器。3.正则表达式的使用一段正则代码Web Scraper 其实是一款专注于文本爬取的爬虫工具。如果你日常工作中经常和文本打交道,或者使用过一些效率工具,那你一定听说过正则表达式。没错,Web Scraper 也支持基础的正则表达式,用来筛选和过滤爬取的文本,我也写了一篇文章介绍正则表达式,如果爬取过程中使用它,可以节省不少数据清洗的时间。4.Sitemap 的导入和导出SItemap 是个什么东西?其实它就是我们操作 Web Scraper 后生成的配置文件,相当于 python 爬虫的源代码。我们可以通过分享 Sitemap 来分享我们制作的爬虫,相关操作我也写了教程:Web Scraper 导入导出爬虫配置。5.换一个存储数据库localStorage & CouchDBWeb Scraper 导出数据时有一个缺点,默认使用浏览器的 localStorage 存储数据,导致存储的数据是乱序的。这种情况可以通过 Excel 等软件进行排序,也可以通过换一个数据存储库的方式来解决。Web Scraper 支持 CouchDB 数据库,配置成功后导出的数据就是正序了。相关的配置过程可以看我写的教程:Web Scraper 使用 CouchDB。Web Scraper 的优点轻量:非常的轻量。上手只需要一个 Chrome 浏览器和一个 Web Scraper 插件。对于一些限制安装第三方软件的公司电脑,可以很轻易的突破这层限制提效:Web Scraper 支持绝大多数的网页的爬取,可以无侵入的加入你的日常工作流中快:抓取速度取决于你的网速与浏览器加载速度,其他的数据采集软件可能有限速现象(充钱就能不限速)Web Scraper 的缺点只支持文本数据抓取:图片短视频等多媒体数据无法批量抓取不支持范围抓取:例如一个网页有 1000 条数据,默认是全量抓取的,无法配置抓取范围。想停止抓取,只能断网模拟数据加载完毕的情况不支持复杂网页抓取:对于那些加了复杂交互、酷炫的特效和反人类的反爬虫网页,Web Scraper 无能为力(其实这种网页写 python 爬虫也挺头疼)导出数据乱序:想让数据正序就得用 Excel 或者用 CouchDB,相对复杂了一些总结掌握了 Web Scraper 的使用,基本上可以应付学习工作中 90% 的数据爬取需求。相对于 python 爬虫,虽然灵活度上受到了限制,但是低廉的学习成本可以大大节省学习时间,快速解决手头的工作,提高整体的工作效率。综合来看,Web Scraper 还是非常值得去学习的。424扫码分享 #效率
#教程
#效率思维
#效率工具
42 等 42 人为本文章充电 扫码分享
举报本文章
举报 卤蛋实验室少数派作者
各大平台账号较多不能及时回复评论和私信,有问题可关注公众号 ——「卤蛋实验室」提问
关注
全部评论(4)
请在登录后评论...
更多
推荐阅读
App 内打开 请绑定手机号码取消 前往绑定 关注公众号 sspaime 下载 App 联系我们 商务合作 关于我们 用户协议 常见问题 © 2013-2024 少数派 | 粤ICP备09128966号-4 | 粤B2-20211534© 2013-2024 少数派粤ICP备09128966号-4 | 粤B2-20211534 确定
求推荐好用的爬虫抓取软件? - 知乎
求推荐好用的爬虫抓取软件? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册求推荐好用的爬虫抓取软件?目前市面上的爬虫软件不知道是我打开方式不对还是什么原因,都无法全面的抓取到网站全部的数据内容 举例来说:我想抓取糯米团/美团网的所有口腔洁牙产品价格、…显示全部 关注者40被浏览419,398关注问题写回答邀请回答好问题 21 条评论分享14 个回答默认排序数阔八爪鱼采集器丨RPA机器人已认证账号 关注一、使用爬虫软件采集数据市面上有很多采集工具,各有特点利益相关,这里我推荐我们家的八爪鱼采集器简单的网页数据爬取几分钟就能搞定给大家简单介绍一下软件吧:1、模板采集(0基础,简单三步获取数据,纯鼠标和输入文字操作,小白友好)打开运行在PC端的八爪鱼客户端,直接搜索网站,看看有没有包含您想要采集的目标网站。万一包含,只需要动动鼠标输入文字,采就完事了。目标采集模板数也是非常多的,基本上主流网站都有包含,看看下面的图片就知道了。图片仅展示部分内置的数据源以京东商品采集给大家详细演示采集过程:简单3步,日采集海量数据具体详细使用教程:使用模板采集数据2、自定义采集模式(内置智能模式,自动识别网页内容数据,自由度高,轻松采数据)如果【模板采集】里没有想要采集的网站,那就自己来,八爪鱼内置智能模式,可以自动识别网页内容进行采集。以八爪鱼教程列表页采集给大家演示操作流程:只需输入网址,一键智能识别采集数据具体详细使用教程:自定义配置采集数据(含智能识别)如果您对用八爪鱼采集网页数据有兴趣,可以用电脑下载客户端试试。下载地址:二、从数据平台上获取或下载数据1、网站流量相关数据平台搜索引擎流量相关1、百度指数推荐理由:一个比较大的功能就是能查询关键词在某段时间的搜索热度,另外还能查询某个关键词的需求图谱,以及人群画像(地域、年龄、性别)。对于市场调研来说,比较适合做关键词分析,竞品挖掘,目标人群画像绘制,相关搜索需求挖掘。2、5118大数据推荐理由:一款SEO人员必备的查询工具,支持网站SEO分析,关键词挖词,关键词排名,百度收录查询等SEO人员常用的功能。对于市场调研来说,可以去评估相应网站的SEO表现情况,以及挖掘竞争对手网站。整体流量预估3、similarweb推荐理由:非常好用的一款网站以及APP整体流量预估工具,提供的数据包括网站每月流量,平均访问时长,人均访问页数,跳出率,访问地区,流量来源,外链来源等等,可以说非常全面了,对于分析竞品及目标网站流量调研十分有用。类似的还有Alexa中国,不过从自身的测试来看,没有similarweb预估的准确(国内有时候similarweb打不开,需要**,Alexa可作为备用网站)微信公众号流量分析4、新榜推荐理由:微信公众号流量分析还是比较推荐新邦APP流量分析5、艾瑞APP指数-艾瑞数据推荐理由:对于APP来说,月活是一个很重要的指标,艾瑞提供具体每个月的月活跃设备数据,另外还有简单的人群画像数据,对于做简单的APP调研够用了。6、蝉大师推荐理由:如果要对APP做细致的分析,比如ASO关键词、ASM投放词,竞品对比,评论分析等等,那么我推荐使用蝉大师这款工具。2、各个细分行业数据获取平台城市交通1、高德交通。提供全国100个城市的交通实时数据,提供非常酷炫、直观的数据可视化呈现,并定期提供专题分析报告与研究。2、北京城市实验室。由龙瀛博士首创致力于定量城市研究的学术网络,提供微观视角下的中国城市空间量化研究。3、北京大学轨迹可视化。由北京大学可视化与可视分析研究组创建,通过位置采样记录物体的移动,进行城市交通密度绘制、拥堵分析以及不同交通模式的关联分析、移动行为以及语意分析等工作,在城市交通GPS轨迹数据,减少交通事故和拥堵等领域发挥作用。4、城市CAD地图数据。提供全球200+城市精美的绘图文件,帮助城市规划设计人员节省大量制图绘图的时间。要求有AutoCAD、SketchUp 8+、Illustrator、Rhinoceros 5+软件。5、深圳市道路交通运行指数。深圳交通运输局旗下网站,是对深圳路网交通总体运行状况进行定量化评估的综合性指标,与传统的车速、流量等参数相比,具有直观、简单的特点,让人们更能清楚地了解堵到何种程度。社会经济1、国家统计局。国家权威数据发布平台。提供所有国民经济、社会、民生数据,同时发布最新的统计政策、会议、统计标准等信息。2、国家数据。国家统计局子网站。你想了解的中国所有权威数据几乎都能在上面找到,涵盖工业、能源、价格、投资、地产、消费、交通运输、采购、财政、金融等等数据,提供月度、季度、年鉴等多各维度数据,并包含数据可视化的图表走势对比分析。3、世界银行公开数据。世界银行公开数据上罗列7000多个指标,包括贫困与不平等、人口、环境、经济、国家与市场等数据。用户可以免费使用和分享数据,还可以按照国家、指标、专题和数据目录浏览并下载数据,并供支持EXCEL、CSV、API、ACCESS等不同导出形式。4、前瞻数据库。前瞻数据库拥有16年的细分产业大数据积累,提供中国宏观、区域宏观、全球宏观、行业经济、进出口、上市公司等数据。5、中经网统计数据库。《中经网统计数据库》是由国家信息中心中经网凭借与国家发改委、国家统计局、海关总署、各行业主管部门以及其他政府部门经过长期数据积累的经济统计数据库群。内容涵盖宏观经济、行业经济、区域经济以及世界经济等各个领域。6、中经网产业数据库。中经网数据中心是国家信息中心中经网组建的专业从事经济数据资源开发和服务的机构,网站提供24个产业数据以及经济综合数据。7、一带一路统计数据库。一代一路统计数据库设置了沿线各国和地区的特色经济统计数据,涵盖经济、农业、工业、环境、资源、贸易、投资等十几个领域。股票金融1、新浪财经。新浪财经是一家创建于1999年8月的财经平台,提供全球财经实时数据,内容专业且丰富。2、东方财富。东方财富网2004年3月上线,网站内容涉及财经、股票、基金、期货、债券、外汇、银行、保险等诸多金融资讯与财经信息,全面覆盖财经领域,每日更新上万条最新数据及资讯,为用户提供便利的查询。3、中财网数据引擎。非常强大齐全的金融数据引擎,免费提供股票、基金、债券、外汇、理财等行情数据以及其他资料。投融资1、IT桔子。IT桔子是关注IT互联网行业的结构化的公司数据库和商业信息服务提供商,提供风险投资、收购、竞争情报、细分行业信息、国外公司产品信息数据服务等。2、投资界。投资界是清科集团旗下提供行业丰富数据及深入分析的专业化网站,提供投融资方面比较详细的数据。互联网金融1、网贷之家。网贷之家是第三方网贷资讯平台,于2011年10月上线。上面披露各P2P平台最新交易数据、转型及停业、问题平台、网贷行业等数据。2、网贷天眼。国内网贷行业较为权威的第三方机构,同样披露各P2P平台最新数据、行业数据、停业及问题平台、研究报告、行业政策等信息数据。生态环境1、国家生态环境部数据中心。国家生态环境部旗下提供的数据服务,包括环境质量、生态环境、污染源、环境管理业务等10大类数据信息。同时,还提供专题数据、数据分析、以及API接口等服务。2、PM2.5in。PM25.in是为大家提供空气质量监测数据的网站,数据采自于国家环境保护部,上面有全国各大城市的空气质量数据。3、环境云。环境云是一个综合环境数据服务的平台,收录专业数据源(国家环保部数据中心、美国全球地震信息中心等)所发布的各类环境数据,接收其自主布建的各类环境监控传感器网络(包括空气质量指标,土壤环境质量指标检测网络)所采集的数据,结合相关数据预测模型生成的预报数据。体育1、体育大数据SportsDT。SportsDT 以体育大数据为入口,提供比分数据、指数数据、比赛数据、分析数据等数据。2、stat-nba。号称全专业最全的NBA中文数据库。文化娱乐1、中国票房网。中国票房网收录了国内所有上映电影的票房实时数据,提供单日、单周、周末、单月、年度、中美对比、城市排片、电影资源库等丰富数据。2、猫眼电影数据。猫眼专业版提供全国各大电影的票房实时数据,包括票房占比、排片场次、排片占比、场均人次、上座率等动态实时数据。自媒体1、清博大数据。清博指数(前称新媒体指数)、提供各类新媒体数据、榜单、分析报告、舆情监测、品牌推广、精准营销等服务。2、新浪舆情通。舆情通以中文互联网大数据及新浪微博的独家官方数据为基础,7*24小时不间断采集新闻、报刊、政务、外媒、微博、微信、博客、论坛、视频、网站、客户端等全网11大信息来源,每天采集超过9000万条数据。论文期刊1、知网。知网始建于1999年6月,提供中国知识资源总、数字出版物、文献评价数据、知识检索。据了解,中国知网文献总量达2.8亿篇,中外学术期刊品种达58000余种。2、国家哲学社会科学学术期刊数据库。国家期刊库收录精品学术期刊1000多种,论文超过485万篇以及超过101万位学者、2.1万家研究机构相关信息。指数1、百度指数。百度指数是以百度海量网民行为数据为基础的数据分析平台,主要功能模块有:基于单个词的趋势研究(包含整体趋势、PC趋势还有移动趋势)、需求图谱、舆情管家、人群画像;基于行业的整体趋势、地域分布、人群属性、搜索时间特征。2、爱奇艺指数。爱奇艺指数是由爱奇艺基于平台上收录的视频提供的视频数据分析工具。用户可以选择你想了解的视频或节目名字,平台输出包括热度趋势、视频看点、舆情分析、受众画像等维度的数据分析。用户还可以添加多个节目进行对比,哪个节目热度高、哪个明星带的流量多、用户都在讨论什么等数据一目了然。3、阿里指数。阿里指数是了解电子商务平台市场动向的数据分析平台,2012年11月26日上线。根据阿里巴巴网站每日运营的基本数据包括每天网站浏览量、每天浏览的人次、每天新增供求产品数、新增公司数和产品数这5项指标统计计算得出。综合数据服务商1、云听。云听基于八爪鱼6年的大数据资源积累以及企业服务经验,运用人工智能自然语言分析技术,为企业提供一提供全网数据收集能力、数据整合分析能力和场景化解决方案,尤其在客户体验管理CEM领域,拥有OPPO、VIVO、科沃斯等知名零售品牌大客户,在电商数据及舆情方面拥有丰富的经验。2、国泰安。国泰安是国内从事金融、经济信息精准数据库设计开发的专业高科技公司,为1000多个高校和金融机构服务。3、优易数据。优易数据汇集了以“国家自然资源和地理空间基础信息库”为基础, 9个国家部委的20余万项核心政务数据。4、瑞思数据。锐思数据从事金融数据库和相关投资研究软件研发为高校、政府及金融机构提供精准的经济、金融数据和完备的增值服务。5、CEIC数据。全面的经济数据库,覆盖超过200+个国家。提供中国超过33万条宏观经济、行业及区域的时间序列数据。6、Wind金融数据。国内领先金融数据、信息和软件服务企业,数据内容涵盖股票、基金、债券、外汇、保险、期货、金融衍生品、现货交易、宏观经济、财经新闻等领域,新的信息内容及时进行更新以满足机构投资者的需求。7、搜数。搜数网每天监测和收集处理公开媒体和各种年鉴书籍中披露的各类统计和调查数据,截止2019年04月10日,已加载到搜数网站的统计资料达到9,741本,涵盖2,280,300张统计表格和454,728,104个统计数据。类似的还有很多数据来源,这里只列举了一部分,想要获取更多可以移看:三、通过调查问卷等获取数据一些第三方问卷平台,可以快速制作各类问卷,然后只要有个很好的话题在微信朋友圈等传播,或者设置抽奖,很快就可以收集非常多的问卷数据,此类问卷平台一半后台都有数据可视化分析报告,这个技巧大部分人都不用,其实操作起来不难。下面推荐几个网站:1、麦客。麦客是一款在线表单制作工具,同时也是强大的客户信息处理和关系管理系统。她可以帮助你轻松完成信息收集与整理,实现客户挖掘与消息推送,并开展持续营销。2、问卷星。3、腾讯问卷。4、金数据。发布于 2021-06-04 10:15赞同 272 条评论分享收藏喜欢收起DataCastle数据城堡知名数据科学竞赛平台 关注我们发现,写爬虫是一件炫酷的事情,但即使是这样,学习爬虫仍然有一定的技术门槛。当前的主流爬虫手段是用Python编程,Python的强大毋庸置疑,但初学者学习Python还是需要一两个月时间的。有没有一些更简单的爬取数据方法呢?答案是有的。一些可视化的爬虫工具通过策略来爬取特定的数据, 虽然没有自己写爬虫操作精准,但是学习成本低很多,下面就来介绍几款可视化的爬虫工具。01 国内工具Microsoft Excel首先教大家一个用Excel爬取数据的方法,这里用的Microsoft Excel 2013版本,下面手把手开始教学~(1)新建Excel,打开它,如下图所示(2)点击“数据”——“自网站”(3)在弹出的对话框中输入目标网址,这里以全国实时空气质量网站为例,点击转到,再导入选择导入位置,确定;(4)结果如下图所示,怎么样,是不是很赞?(5)如果要实时更新数据,可以在“数据”——“全部更新”——“连接属性”中进行设置,输入更新频率即可八爪鱼https://www.bazhuayu.com/一款可视化免编程的网页采集软件,可以从不同网站中快速提取规范化数据,帮助用户实现数据的自动化采集、编辑以及规范化,降低工作成本。一款适合小白用户尝试的采集软件,云功能强大,当然爬虫老手也能开拓它的高级功能。火车头http://www.locoy.com/火车头是一款互联网数据抓取、处理、分析,挖掘软件,采集功能完善,不限网页与内容,任意文件格式都可下载,号称能采集99%的网页。软件定位比较专业而且精准化,使用者需要有基本的HTML基础,能看得懂网页源码,网页结构,但软件提供相应教程,新手也能够学习上手。集搜客http://www.gooseeker.com/index.html一款简单易用的网页信息抓取软件,能够抓取网页文字、图表、超链接等多种网页元素。操作较简单,适用于初级用户,功能方面没有太大的特色,后续付费要求比较多。神箭手云爬虫https://www.shenjian.io一款新颖的云端在线智能爬虫/采集器,基于神箭手分布式云爬虫框架,帮助用户快速获取大量规范化的网页数据。类似一个爬虫系统框架,具体采集还需用户自写爬虫,需要代码基础。狂人采集器http://www.kuangren.cc/一套专业的网站内容采集软件,支持各类论坛的帖子和回复采集,网站和博客文章内容抓取,分论坛采集器、CMS采集器和博客采集器三类。专注论坛、博客文本内容的抓取,对于全网数据的采集通用性不高。02 国外工具Google Sheethttp://google.cn/sheets/about/使用Google Sheet爬取数据前,要保证三点:使用Chrome浏览器、拥有Google账号、电脑已翻墙。如果这三个条件具备了的话,下面我们就开始吧~(1)打开Google Sheet网站:(2)在首页上点击“转到Google表格”,然后登录自己的账号,可以看到如下界面,再点击“+”创建新的表格新建的表格如下:(3)打开要爬取的目标网站,一个全国实时空气质量网站http://pm25.in/rank,目标网站上的表格结构如下图所示:(4)回到Google sheet页面,使用函数=IMPORTHTML(网址, 查询, 索引),“网址”就是要爬取数据的目标网站,“查询”中输入“list”或“table”,这个取决于数据的具体结构类型,“索引”填阿拉伯数字,从1开始,对应着网站中定义的哪一份表格或列表;对于我们要爬取的网站,我们在Google sheet的A1单元格中输入函数=IMPORTHTML("http://pm25.in/rank","table",1),回车后就爬得数据啦~(5)将爬取好的表格存到本地you-get这是一个程序员基于python 3开发的项目,已经在github上面开源,支持64个网站,包括优酷、土豆、爱奇艺、b站、酷狗音乐、虾米……总之你能想到的网站都有! 还有一个黑科技的地方,即使是名单上没有的网站,当你输入链接,程序也会猜测你想要下载什么,然后帮你下载。当然you-get要在python3环境下进行安装,用pip安装好后,在终端输入“you get+你想下载资源的链接”就可以等着收藏资源了。这里给一个you-get的中文使用说明,按照说明上写的按步骤操作就可以啦。http://Import.io是一个基于Web的网页数据采集平台,用户无需编写代码点选即可生成一个提取器。相比国内大多采集软件,http://Import.io较为智能,能够匹配并生成同类元素列表,用户输入网址也可一键采集数据。http://Import.io智能发展,采集简便,但对于一些复杂的网页结构处理能力较为薄弱。Octoparsehttps://www.octoparse.com/Octoparse是八爪鱼的海外版,采集页面设计简单友好,完全可视化操作,适用于新手用户。Octoparse功能完善,价格合理,能够应用于复杂网页结构,如果你想无需翻墙直采亚马逊、Facebook、Twitter等平台,Octoparse是一种选择。visual web ripperhttp://visualwebripper.com/Visual Web Ripper是一个自动化的Web抓取工具,支持各种功能。它适用于某些高级且采集难度较大的网页结构,用户需具备较强的编程技能。content Grabberhttp://www.contentgrabber.com/Content Grabber是功能最强大的Web抓取工具之一。它更适合具有高级编程技能的人群,提供了许多强大的脚本编辑,调试界面。允许用户编写正则表达式,而不是使用内置的工具。Content Grabber网页适用性强,功能强大,不完全为用户提供基础功能,适合具有高级编程技能的人群。Mozendahttps://mozenda.updatestar.com/Mozenda是一个基于云服务的数据采集软件,为用户提供许多实用性功能包括数据云端储备功能。适合拥有基础爬虫经验的人群。还有更多大数据、数据分析、爬虫等学习资料分享,关注公众号【DataCastle数据城堡】领取哦~发布于 2022-05-06 10:21赞同 101 条评论分享收藏喜欢
目前最好用的爬虫软件是那个? - 知乎
目前最好用的爬虫软件是那个? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册软件Java爬虫精通Python网络爬虫(书籍)目前最好用的爬虫软件是那个?关注者92被浏览398,647关注问题写回答邀请回答好问题 1添加评论分享22 个回答默认排序象牙之森技术老狗,希望用技术给别人提供价值 关注这个软件没有最好只有更好,只有适合自己的才是最好的。火车头呢,我就不推荐了,还不如写代码来的方便。可以推荐你看下八爪鱼采集器,后羿采集器,简数采集器,WebScraper , Instant Data scraper,迷你派采集器。八爪鱼采集器:八爪鱼提供智能采集,使用工具除了详细的教程和帮助文档之外,还有强大的免费群,有啥问题除了客服,还有其它人能帮你指导。后羿采集器:后羿是智能采集功能最好的,除了能识别列表页,还能识别出详情页,更有甚者能把字段给你识别的完完整整,它的开发人员绝对是技术一流的。WebScraper:webscraper不同于上面两种,是基于浏览器插件来实现的,这个工具完全免费,适合那种懂爬虫技术,但是不愿写代码的人,并且不愿付费的那种用户。Instant Data scraper:这个也是浏览器插件,能够从简单的网页上采集规则化的列表或表格数据,最大的特点就是简单,比较适合小白用户。迷你派采集器:这个上手难度介于WebScraper以及Instant Data scraper之间,不过也提供了类似八爪鱼和后羿的采集器的智能采集。只需要简单学习一下,就能实现非常强大的功能。是我目前主要使用的工具之一。推荐你可以都使用一下,比较比较才知道。发布于 2021-06-19 14:00赞同 10919 条评论分享收藏喜欢收起神器分享 关注python了,我用python抓取了公众号文章数据,包含文章日期,文章标题,文章链接,文章简介,文章作者,文章封面图,是否原创,IP归属地,阅读数,在看数,点赞数,留言数,赞赏次数,视频数,音频数等,比如深圳卫健委2022年的1000多篇文章阅读数都是10万+,excel数据分析见这篇文章2022年过去,抓取公众号阅读数点赞数在看数留言数做数据分析, 以深圳卫健委这个号为例 。为了方便找文章,部分公众号的历史文章同步到了我的博客https://sushengbuhuo.github.io/blog ,会持续更新,不用在手机上下拉翻历史文章了 ,比如深圳卫健委从2014到2023发布了1万多篇文章,第一篇文章是这个:还可以输入文章地址下载。详情:还有微博数据,包含微博地址,微博内容,头条文章地址,图片地址,视频地址,发布时间,点赞数,评论数,转发数,阅读数,发布地区,是否原创,其中阅读数只有下载自己的号才有。顺便分析单条微博评论区数据及IP归属地分析一键批量下载微博评论数据,并分析ip归属地分布:发布于 2023-06-10 16:24赞同 1添加评论分享收藏喜欢