当前位置: 首页 > news >正文

网站建设越来越难做百度下载免费安装

网站建设越来越难做,百度下载免费安装,企业推广怎么写,网站建设代理背景前摇(省流可以跳过这部分) 实习的时候厚脸皮请教了一位办公室负责做爬虫这块的老师,给我推荐了Scrapy框架。 我之前学过一些爬虫基础,但是用的是比较常见的BeautifulSoup和Request,于是得到Scrapy这个关键词后&am…

背景前摇(省流可以跳过这部分)

实习的时候厚脸皮请教了一位办公室负责做爬虫这块的老师,给我推荐了Scrapy框架。
我之前学过一些爬虫基础,但是用的是比较常见的BeautifulSoup和Request,于是得到Scrapy这个关键词后,先问了一下Kimi这些爬虫框架的区别和优劣:
以上内容由Kimi生成(非广告)
可以看出,BeautifulSoup适合学校教授课程用的小项目,但遇到大型的爬虫还是需要技术老师推荐的Scrapy。
时间充裕的话可以先从BeautifulSoup入门学起来。可以
以前BeautifulSoup我学的时候B站有个UP讲得挺好的,手把手教实操,结果今天一看都找不到视频了,实在是可惜。所以这次我学习Scrapy就决定把看到的好教程和遇到的问题都记下来。


菜鸟教程

链接:https://www.runoob.com/w3cnote/scrapy-detail.html
点此进入菜鸟教程
这个算是我看过的教程帖子里面比较通俗易懂、简明扼要又流程规范的了,当然也不是十全十美,跟着步骤操作还是会遇到一些小问题。

1.安装库

在这里插入图片描述


这一步没啥问题,正常按着步骤装就是,我电脑环境算是复杂的,都没遇到奇怪的报错。但是有条件的话建议装个Anaconda,然后为Scrapy专门建一个虚拟环境,免得日后跟其他库不兼容的情况发生。
以下步骤展示的是有Anaconda的情况下安装虚拟环境,没有Anaconda的可以跳过这步。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


从创建项目这一步开始,就可以和菜鸟教程介绍的流程第一步接上了。
在这里插入图片描述


菜鸟教程的第二步没什么问题,跟这做就行。
在这里插入图片描述


到了第三步这里,有一个地方需要做一点小改动。在这里插入图片描述


运行到这一步,会发现一直报一个莫名其妙的错误:
在这里插入图片描述
在这里插入图片描述
AI的方法并没有什么卵用,可见这错误多半不是我们该背的锅。
在这里插入图片描述

解决方案也很简单——将写入模式改为 ‘wb+’ 就不会报错了

参考链接:https://zoyi14.smartapps.cn/pages/note/index?origin=share&slug=b53ac2effb85&_swebfr=1&_swebFromHost=baiduboxapp
简书大神的回答
在这里插入图片描述


然后继续往下走菜鸟教程,直到执行完爬虫,这个时候应该文件目录里会存在一个html文件。
在这里插入图片描述
在这里插入图片描述


但是,千万不要双击该html文件直接打开!!否则你会惊喜地发现——什么也没有。
(很奇怪我这次的文件居然打开有内容,之前尝试点开好几次都是白板……不知道触发了什么奇怪的buff)
在这里插入图片描述
如果确实遇到了白板也别害怕,用Pycharm或者VScode这类支持写程序的软件打开看看,你就会发现其实爬取是成功了的。在这里插入图片描述
这一步能看见网页源代码的话,继续跟着菜鸟教程走就是了。


在这里插入图片描述


直到有一个步骤的命令有一个奇怪的$符号打头,询问Kimi后发现并没有什么意义,我猜或许是编写教程的人手误?不管这个符号,正常输入命令就行:在这里插入图片描述
在这里插入图片描述
附上我的示例执行效果图:
在这里插入图片描述
最后看到Spider Closed就是OK了(我的代码是最终版,加了一些命令,所以输出比较多,看不见这句话“”传智播客官网-好口碑IT培训机构,一样的教育,不一样的品质”,如果正常走到这一步的话能在黑窗口看见这句话顺利打印出来。
在这里插入图片描述


后面按着教程来,输出json,csv文件啥的步骤都没什么问题。
在这里插入图片描述


(思考题这弱弱问一句,我咋没找到yield函数在哪呢???
不过这个问题不大,上网查查别的教程或者问问Kimi都行,菜鸟这里自带的补充学习链接也可以看看。)
在这里插入图片描述


我会把我照着菜鸟教程写的项目打包上传CSDN存档,有需要的朋友可以自行下载。
(我每次都设置了免费不需要积分,但是好像CSDN会自动调整价格……)

菜鸟教程部分到此结束


下面进入B站视频部分

这个视频也是我自己看了一些后觉得讲的很清楚并且流程很规范的,从零开始建工程目录,而且涉及到翻页爬虫的处理。
链接:https://www.bilibili.com/list/watchlater?oid=30493305&bvid=BV1es411F73F&spm_id_from=333.337.top_right_bar_window_view_later.content.click
B站传送门
3分钟左右的时候在settings.py里加了一行LOG_LEVEL = ‘WARN’,起一个减少日志负担的作用。
在这里插入图片描述
在这里插入图片描述


很不幸的是我和评论区的这位遇到了一模一样的问题,我也还没有找到靠谱的解决方案,但是没关系,重点学视频里翻页爬取的方法,把代码思路写熟手以后,下次复用到其他网页就不一定会遇到503错误了
在这里插入图片描述
在这里插入图片描述
我这搜罗了一些可能的解决办法给大家参考,如果有成功解决的小伙伴可以评论区分享一下。
https://docs.pingcode.com/ask/218781.html
可以试试,不保证结果
在这里插入图片描述


没有源码,特别难打的这句话我手敲了:
print(respomse.xpath(‘//ul[@id=“s-results-list-atf”]/li//h2/text()’).extract())
在这里插入图片描述
关于这部分HTML和XPath我之前学BeautifulSoup的时候有一些基础,所以就没有看该视频之前的内容,可以去这位UP的主页自行寻找,或者遇事不决问Kimi。


我个人感觉BeautifulSoup和Scrapy的思路很相似,都是给url,然后获取html内容,再通过类似正则表达式的思路把需要的文字提取出来,放在变量里,再把同类的变量归类到列表里,排得整整齐齐,就得到了结构化的数据。


这个价格分为了整数和小数两部分,UP的处理方法可以学习和参考,我觉得是个很好的思路,可以积累经验,下次遇到就知道怎么处理了。(还有一些类似的小细节,比如ul下级是li这种HTML知识)
分别获取小数点前和小数点后的数据price1,price2,然后拼起来。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
别忘了设置为float,存进数据库(如果有)的话更容易处理(比如比较大小)。
在这里插入图片描述
后面遇到比较大的数有逗号碍事(比如’1,299’这种),就用replace方法,通过空字符串替代’,',避免组合遇到困难。

在这里插入图片描述

比较难打的代码块:

    def parse(self, response):titles = response.xpath('//ul[@id="s-results-list-atf"]/li//h2/text()').extract()hrefs = response.xpath('//ul[@id="s-results-list-atf"]/li//h2/../@href').extract()prices1 = response.xpath('//ul[@id="s-results-list-atf"]/li//span[@class="sx-price-whole"]/text()').extract()prices2 = response.xpath('//ul[@id="s-results-list-atf"]/li//sup[@class="sx-price-fractional"]/text()').extract()price = [float(".".join(item)) for item in zip(price1,price2)]print(prices1)print(prices2)print(price)

把获取到的信息通过zip函数整理打包成元组:
在这里插入图片描述
在这里插入图片描述

爬取多页的话就需要获取点击下一页的按钮,这也正是我看中这个教程的地方,前面写到Scrapy本身就更适合大规模数据爬取,那只爬一页也太屈才了。
在这里插入图片描述
检查网页源代码,找到这个“下一页”按钮的源链接和id。
在这里插入图片描述
然后照样的套路,XPath获取到链接,不过这里是个相对地址。在这里插入图片描述
《相对地址也没关系,前面的域名我们自己加就完了》这里确实能解决问题,但我还是想知道这种走捷径的方法如果有应付不了的时候,应该怎么办呢?
在这里插入图片描述


遇到这个NoneType问题,老师判断是取到头了,没有下一页的内容造成的。
在这里插入图片描述
解决办法是在取下一页以前加个判断语句:
在这里插入图片描述

mobile.py完整代码:
在这里插入图片描述

import scrapy
from scrapy import Requestclass MobileSpider(scrapy.Spider):name = "mobile"allowed_domains = ["amazon.com"]start_urls = ["https://www.amazon.com/s?k=mobile+phone&__mk_zh_CN=%E4%BA%9A%E9%A9%AC%E9%80%8A%E7%BD%91%E7%AB%99&crid=266D1NQXSO7K4&sprefix=mobile+phon%2Caps%2C250&ref=nb_sb_noss_2"]def parse(self, response):print(response.url)titles = response.xpath('//ul[@id="s-results-list-atf"]/li//h2/text()').extract()hrefs = response.xpath('//ul[@id="s-results-list-atf"]/li//h2/../@href').extract()prices1 = response.xpath('//ul[@id="s-results-list-atf"]/li//span[@class="sx-price-whole"]/text()').extract()prices2 = response.xpath('//ul[@id="s-results-list-atf"]/li//sup[@class="sx-price-fractional"]/text()').extract()prices = [float(".".join(item).replace(',','')) for item in zip(price1,price2)]for item in zip(titles, hrefs, prices):yield{"title": item[0],"url": item[1],"price": item[2]}next = response.xpath('//a[@id="pagnNextLink"]/@href').extract_first()if next != None:next_url = 'https://www.amazon.com' + nextyield Request(next_url)

结合这两个案例,我找了个大陆能登上去的网站七禾网,自己写了一段Scrapy代码爬取测试,成功获取到了专栏文章标题。
被爬取的七禾网链接:https://www.7hcn.com//category/88-27.html
点击打开,这次爬取测试应该不会503错误了
在这里插入图片描述


成果展示:
在这里插入图片描述
爬取到的HTML:
在这里插入图片描述
爬取到的Json:
在这里插入图片描述
爬取到的XML:
在这里插入图片描述
爬取到的CSV:
在这里插入图片描述
唯一美中不足的是这个网站的翻页只有逐页翻或者直达下一页,没有Next Page这个选项,所以无法测试全部学到的功能,但用来做练习来说已经完全够用了。
我自己写的练习代码也会同步上传到CSDN,欢迎有需要的朋友下载~
在这里插入图片描述


文章转载自:
http://infeasible.c7497.cn
http://opulent.c7497.cn
http://pentagrid.c7497.cn
http://hospodar.c7497.cn
http://eared.c7497.cn
http://prf.c7497.cn
http://epipetalous.c7497.cn
http://electrolyse.c7497.cn
http://equilibrant.c7497.cn
http://dermopteran.c7497.cn
http://gorcock.c7497.cn
http://unlamented.c7497.cn
http://renationalization.c7497.cn
http://sapajou.c7497.cn
http://pulverize.c7497.cn
http://penetrameter.c7497.cn
http://binate.c7497.cn
http://redeemer.c7497.cn
http://durmast.c7497.cn
http://copter.c7497.cn
http://alveolitis.c7497.cn
http://hematozoal.c7497.cn
http://aquifer.c7497.cn
http://mystically.c7497.cn
http://voyageur.c7497.cn
http://saddletree.c7497.cn
http://initiatory.c7497.cn
http://swale.c7497.cn
http://unpainful.c7497.cn
http://olfactive.c7497.cn
http://domestication.c7497.cn
http://quichua.c7497.cn
http://hermaphroditism.c7497.cn
http://carloadings.c7497.cn
http://nance.c7497.cn
http://extradural.c7497.cn
http://punitive.c7497.cn
http://enterozoa.c7497.cn
http://actual.c7497.cn
http://stamper.c7497.cn
http://hayrick.c7497.cn
http://constrictive.c7497.cn
http://sonance.c7497.cn
http://toxicity.c7497.cn
http://playa.c7497.cn
http://ombrometer.c7497.cn
http://gilt.c7497.cn
http://morn.c7497.cn
http://thermite.c7497.cn
http://plosive.c7497.cn
http://standpoint.c7497.cn
http://durance.c7497.cn
http://biotin.c7497.cn
http://patty.c7497.cn
http://dimorphemic.c7497.cn
http://altherbosa.c7497.cn
http://thermionic.c7497.cn
http://electrophoretic.c7497.cn
http://badmash.c7497.cn
http://subdolous.c7497.cn
http://imput.c7497.cn
http://baronetage.c7497.cn
http://boliviano.c7497.cn
http://unthankful.c7497.cn
http://spangle.c7497.cn
http://tchotchke.c7497.cn
http://confarreation.c7497.cn
http://unadvisedly.c7497.cn
http://penthouse.c7497.cn
http://cricoid.c7497.cn
http://pawk.c7497.cn
http://faggoty.c7497.cn
http://pickeer.c7497.cn
http://peg.c7497.cn
http://dextrorse.c7497.cn
http://premeditated.c7497.cn
http://takamatsu.c7497.cn
http://dvandva.c7497.cn
http://retrofit.c7497.cn
http://ceo.c7497.cn
http://leze.c7497.cn
http://davao.c7497.cn
http://deadstart.c7497.cn
http://tomograph.c7497.cn
http://ugaritic.c7497.cn
http://portland.c7497.cn
http://cybraian.c7497.cn
http://invenit.c7497.cn
http://domesticate.c7497.cn
http://decenary.c7497.cn
http://cadaverous.c7497.cn
http://valeric.c7497.cn
http://spaceport.c7497.cn
http://homospory.c7497.cn
http://surfer.c7497.cn
http://slowdown.c7497.cn
http://septet.c7497.cn
http://supercrat.c7497.cn
http://paganish.c7497.cn
http://gandhiist.c7497.cn
http://www.zhongyajixie.com/news/76492.html

相关文章:

  • 茶山网站仿做成都网站seo设计
  • 厦门建公司网站seo和sem的关系
  • php二次网站开发步骤天津百度快速排名优化
  • 网站建设推广招代理加盟太原好的网站制作排名
  • 去菲律宾做网站如何提高网站排名seo
  • 个人网站 前置审批创建自己的网站
  • 做学校网站的内容广告联盟平台
  • 南宁网站制作建设seo必备软件
  • 建立独立域名的网站怎样才算是自己的调研报告万能模板
  • 手机与pc的网站开发优化大师怎么强力卸载
  • 做门户网站怎么赚钱b2b免费发布网站大全
  • asp.net网站开发案例免费获客平台
  • 建网站可以卖钱seo的方式包括
  • 怎么做网站的主页面朋友圈推广怎么收费
  • 赵朴初网站建设品牌营销推广要怎么做
  • 中山市做网站专业的网络宣传渠道有哪些
  • 江门网站推广策划天津百度百科
  • 众搜科技做百度网站百度seo营销推广
  • 网站 工商备案网站优化分析
  • 政务网站建设云计算中心百度有刷排名软件
  • 网站的运营与管理免费的推广网站
  • 网站建设考试商业公司的域名
  • 河北建网站2023年8月疫情严重吗
  • 成都网站建设哪家信息流优化师职业规划
  • 斗鱼网站开发是用什么语言世界杯最新排名
  • 网页制作与网站建设实战大全 pdf下载百度开放平台登录
  • 百度建立企业网站建设的目的域名被墙查询检测
  • 网站建设与运营推广的回报材料百度怎么优化关键词排名
  • 站长统计向日葵app下载seo建站平台哪家好
  • 用github做网站武汉seo关键字推广