爬虫中常见的问题,常见的反爬机制

124 篇文章 5 订阅
订阅专栏

原文来源:https://www.cnblogs.com/Eeyhan/p/11520608.html

 

1.请求头之User-agent

这个稍微接触过一点点爬虫的应该都不陌生,不是说接触Python爬虫,不管你用什么开发语言来写爬虫,应该都会用到这个。大概解释一下,就是一个身份的象征,这个可以用浏览器自带的调试工具查看,访问一个网站的时候,按f12键或者鼠标右键打开调试(有的浏览器叫检查,或者查看元素),然后切换到network(网络),重新刷新一次网站,就会出现所有的请求,随机点击一个,右边出现的就是请求头信息了,如下,这是我访问某某网站的,我使用的浏览器是火狐,然后图上标注的就是user-agent

 

 

具体怎么用呢?

比如:

 

 

这样就可以带上UA了

如果不带的话,你的目标网站服务端是可以检测到是浏览器还是爬虫工具在访问数据的,就看你的目标网站的友好度了,如果反爬机制做的很高效,到这里你就被ban了。

2.调试工具之痛

 

很多时候我们为了查看网页的DOM结构可能就直接用浏览器自带的调试工具(就是上面说的按f12键)来查看,这个的话,大部分网页是可以应对的,但是,少部分网站用调试工具查看的DOM结构和整个网页的源码是不一致的,说个最近的事,我爬某视频网站,调试工具打开他在每个重要信息都加了一个css样式,这个css样式是通过定位某个html标签(假设为<span></span>标签)设置上的,我解析网页的时候就很痛苦,调了很久,就是得不到结果,最后发现这个span标签是用js拼接上的,换句话说,服务端回应的是不带有这个span标签的,所以就要没有这个span标签来处理。说这么多不知道看官您能不能理解,遇到过这个问题的朋友应该明白我在说什么

 

 

3.异步请求

上面说的DOM结构不一致还有一种可能,就是前后端用的Ajax异步请求的,所以你打开浏览器的调试工具查看DOM结构和你用Python获取的结果也是不一致的,这个相信会玩爬虫的老哥们都不陌生

 

4.请求头之Cookies

有一部分网站,当你访问首页时,会自动设置一个cookie,然后访问同站下的其他页面就会验证这个字段,如果不匹配就会禁止访问

如下,访问百度都会自动设置一些cookie:

 

5.请求头之特殊字段

 

特殊字段是什么呢,就是某网站特有的一些字段,比如以下的boss直聘网:

 

会带有这些特殊的字段。当然这里只是举个例子,,经过我的测试,我圈出来的那几个[:method]等的字段其实请求的时候是不用带上的

6.请求头之Referer

这个referer是干嘛的呢?首先该字段的值都是上一级网站的url,根据我的理解,它有以下作用:

  1.做前端的朋友知道,可以借用这个字段直接返回到上个页面

  2.还可以通过这个追踪流量来源,比如某某公司在百度上做了SEO(打了个推广广告),当用户通过百度点进来的话,就可以通过referer追踪来源,对用户做进一步的行为分析

  3.检测来源的合法性,因为都可以知道通过某某url路径过来的,那么就可以判断来源是否合法,如果异常的话就可以做拦截请求等等的

 

 

有的网站就是因为有这个验证,所以返回的数据不正常,带上就OK了。还有的网站更奇怪,你不带上也不会报错,返回的数据也是希望的数据,但是无法和页码匹配,比如你请求的是第一页的数据,它有可能返回的是第5页的数据

 

7.请求头之accept:

不知道老哥您遇到过这个问题没有,在请求头里,如果服务端返回的结果是普通的html页面的话,值就应该是如下的:

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3',

如果返回的是json字符串(返回json字符串的话,往往是属于异步请求)的话,值就应该是这个:

'Accept': 'application/json, text/javascript, */*; q=0.01',

 

这个不知道你们有没有体会,反正我记得我爬某网站的时候,因为都通用的同一个请求头,有的网站就是返回json数据,我怎么改代码都无法得到正确的值,就是因为本来是json字符串的我的accept用的上面的html页面用的,导致返回数据不符合事实。

8.请求头之Connection

 

 

这个字段字面意思就是http连接嘛,http链接最根本的就是tcp/ip连接了,什么三次握手,四次握手之类的,这些就不展开了,要说就占篇幅了。我们都知道,http请求属于短连接,访问就有,关闭浏览器就会自动断开的,这种就是短连接,对应的长连接就是websocket,这个就不展开了,自行百度了。这个Connection字段有两个值,一个是keep-alive,一个是close,keep-alive的话往往就跟前面的带有cookie相关,他会保存session会话(如果关闭浏览器的话就没了,有的网站是保存一个字段,默认有几天的有效期),作为同一个连接来请求另一个页面,如果是close的话,就是每次访问都是重新和服务端建立一个连接,不会保存session

 

这个问题的话,在一般情况下还是不会遇到,主要就是在高并发请求的时候,有可能同一个时刻请求多次来自同一个站点的数据,触发该网站的反爬机制的频率限制,就会出现什么scoket.timeout,urllib3.connection.HTTPConnection之类的错误。所以从那次之后我的爬虫程序如果用了高并发的话,我都会把这个connection设置为close

 

9.返回数据gzip

 

 

 

gzip的意思就是这个网站的数据是做呀gzip压缩的,在浏览器(客户端)访问之后,会自动处理这类格式的数据。但是使用Python的标准款urllib的话,是不会处理这类格式的, 解决方法就是用requests库,会自动处理gzip格式,反正这个库真的太强大了

 

10.reqeusts库的弊端

 

嘿嘿,刚说完requests很强大,马上说它的弊端,是的,就是这么骚气。它有什么弊端呢,如果经常使用requests库作为主要的网络请求的话,使用时间越长的老哥,就越会发现它有个弊端,就是它封装的异常类不够全,在报错各种各样的异常的时候,它有时候捕获不到,无法进行针对性的处理,这就是它的弊端,这个怎么解决呢,目前我的话,没有一个很好的解决方法,只能用Exception或者BaseException类来捕获。

当然这个问题也不是一定会遇到,有时候只是某个其他的异常爆出,导致后续的代码跟着出错,然后跟着抛出异常,所以也不能盲目的用异常基类来捕获

 

 

11.登录验证

有的网站为了解决网络请求的拥塞,就做了账号登录验证,你必须登录账号之后才能正常访问页面,一般的网站登录之后返回的就是上面说的cookie字段,有的也会返回一个特殊的字段作为验证,我记得百度登录之后用的字段是BAIDUID。这个不需要多说什么,找到登录接口,提交账号密码参数访问登录接口就行了

 

12.请求头之token

 

 

这个token在语义上就是个令牌的意思,用的比较多的地方就是在手机端上用token验证,此手机端的验证对应的电脑端用的session验证,而电脑端用token的情况就是,特殊字段的变异,有的网站就放在请求头的authorized键里,值就是token,用uuid生成的,有的就是自定义的键,比如boss直聘的就是__zp_stoken__,必须要带上这个字段才能爬取(因为boss直聘的反爬机制升级了,以前直接可以爬,现在必须带上这个字段才行,说句题外话,目前我还没找到boss直聘这个字段是怎么生成的,用fiddler抓包发现请求了阿里云的服务端,但是返回的数据是空,反正没找到它是怎么生产的)

 

 

 

13.登录验证+token

有的网站在用户登录之后感觉还不够安全,就会再对token验证,如果登录验证和token都通过了说明是正常登录操作,才放行。当然也有的网站不需要登录也会分配一个token,比如上面的boss直聘,这个就不多说了,就是以上的结合

 

14.设备验证(手机,电脑)

 

一般情况下,电脑能访问的页面,手机一定能访问,只是如果该站没有作响应式的话,用手机访问的页面排版很乱,因为手机和电脑的尺寸不一样嘛。

 

但是手机能访问的,电脑不一定能访问,比如某app,或者微信小程序,它会做设备验证,发现不是手机页面的话就会拦截或者提示让你用手机下载该app查看。有朋友要问了,是用的什么来检测你是手机还是电脑的呢?就是前面最开始说的User-agent,说到这,怎么解决这个问题不用多说了吧,同样的伪造成手机的UA就行了,当然如果是针对app的爬取的话,一般就在电脑上下载模拟器(夜神模拟器啥啥的),然后fiddler抓包分析,然后再爬取

 

15.重定向

这个跟http的状态码有关了,不多说,返回的状态码是3**的就是重定向范畴里的,比如下面的百度:

 

 

 

 

 

这种网站怎么爬取呢,requests会自动处理重定向的问题,没错,requests就是这么抗打

 

16.触发跳转到新的标签页

什么意思呢,就是比如我在某一个网站点一下按钮,触发机制,用新的网页标签打开的,前端的朋友应该知道,就是a标签属性里加了个target='_blank',这种的话,如果用浏览器的调试工具来分析的话就无法即时的查看请求了。因为习惯上我喜欢用浏览器自带的调试工具分析,比较方便快捷,实在不行的话就上fiddler啥的抓包工具。没错,解决方法我已经说了,像这种点击一个会以新的浏览器窗口打开的就用抓包工具来分析

 

17.调试工具触发js的debug监听器

这个我不知道你们遇到过没,我有一次抓某个网站,它就是为了防止我这类瞎jb搞的人分析它的代码,分析它的请求过程,所以当我一打开调试工具,就触发它的监听器,然后我就发现我电脑的CPU立马跑满了,一直在消耗我的电脑资源直到电脑卡死,所以我只能感觉关闭调试工具或者关闭浏览器,实在不行只能重启了,它就是监听的debuger,我不知道这个是一个函数还是一个类,以下是我保存的代码,看有缘人能不能看懂,看懂的话我就以身相....,不对,走错片场了,卧槽。。

var check = (function () {
    var callbacks = [], timeLimit = 50, open = false;
    setInterval(loop, 1);
    return {
        addListener: function (fn) {
            callbacks.push(fn);
        },
        cancleListenr: function (fn) {
            callbacks = callbacks.filter(function (v) {
                return v !== fn;
            });
        }
    }
    function loop() {
        var startTime = new Date();
        debugger;
        if (new Date() - startTime > timeLimit) {
            if (!open) {
                callbacks.forEach(function (fn) {
                    fn.call(null);
                });
            }
            open = true;
            window.stop();
        } else {
            open = false;
        }
    }
})();

 

18.js加密cookie

这个大概的原理就是,访问该网站的时候会访问两次,第一次服务端返回响应头里给了一段加密的js代码,前端(浏览器)自动调用js然后反解出cookie,然后第二次访问的时候带上cookie去访问,才会返回一个正常的值,这个我在写IPproxy项目的时候遇到的66ip(http://www.66ip.cn/)网站就是这样的,而且很多同类的网站都是类似的操作。解决方法就是打开浏览器的调试工具,然后打断点测试,看看流程,基本都会有一系列的操作然后赋值给一个变量,找到这个变量名被如果的替换就行了,主要的破解难点就在js的部分,有的是做了js混淆加密的,有的是做了自定义处理的,这个就只有多尝试了

 

说到这,如果是上面的监听debug工具的+js加密的话,那可就真的难操作了,你一打开调试工具想打断点分析,结果就立马卡死了。哈哈哈,好像我还没有遇到网站这么干的

相关的js加密cookie破解教程,可以移步这里: https://www.cnblogs.com/zdfbk/p/8806282.html

 

19.urllib库之编码

有的时候如果要传递参数到服务端的话,那么就得做url编码,使用url编码解码就可以用urllIb.parse.quote和urlib.parse.unquote,使用quote方法作编码的话,默认使用的是utf-8的编码,但有时候一些网站用的gbk,所以这是一个坑,你得用quote(kw,encoding='gbk')才能转为gbk的编码,不熟悉这个的话就很难发现这个,因为我们一般就直接用quote就行了,根本不在意是用了什么编码

 

20.request.post之痛

嘿嘿,又是requests库的问题,准确说其实不是requests的问题,而是跟上面的quote一样,我们平常遇到的网站基本都是不会出现这个情况,当出现的时候我们就傻眼了,requests库的粉丝们,放下你们手上的菜刀,我是友军啊,我也一直在用requests,只是发现了这一两个情况而已

 

不多说了,requests做post请求时,提交的data字段会默认将data字段作url编码,且默认用的utf-8编码,对的,又是编码的锅,而有的网站用的并不是utf-8编码的,假如某网站用的是gbk编码,如果我们还是默认的操作的话,就会出错,解决办法就是,手动编码:

 

21.xpath解析tbody

解析网页结构的工具很多,比如一大杀气正则表达式,然后就是xpath,再然后就是bs4,最近我痴迷于xpath,我觉得写起来异常的顺畅,非常有感觉,但是在其中还是遇到了问题如下,无法解析带有tbody标签,这个是我最近发现的,不知道是不是版本问题,只要网页的DOM结构用tbody,比如table标签下有tbody/tr/td时,我要取td下的数据,按理就是写的response.xpath('//table/tbody/tr/td/text()'),但是这样写就是TMD的拿不到,得去掉tbody,写成这样就可以拿到:response.xpath('//table/tr/td/text()'),总之就是不能带tbody,如果有就直接跳到下一级就行,我估计是这个tbody被错误的解析成body标签了

 

22.xpath元素选取

一般情况下,我们获取某个数据的话,直接就根据class属性或者id属性,反正就一些非常特定的属性三两下就可以定位元素,但是有的元素就是什么属性都没带的,就只是一个标签名,而且这个标签用的还异常的多,此时此刻的话,你就可以你的目标元素就近的标签有没有很特殊的属性,直接就可以定位的,然后用following-sibling定位兄弟元素即可,比如:following-sibling::span[1]/text(),补充一个:回到上级:用  【..】表示回到上级,再补充一个,用contains(text(),'xxx'):根据一个元素的内容包含某个字段来定位

当然这几个都是很简单的,这个本来就是xpath的基础部分,但是我跟你说,这三个配套使用的话就没有锁定不了的元素,通通一杀一个准,真的,我感觉用多了xpath,比用beautifulsoup还顺手

 

23.简单验证码

 

简单验证码,比如一些肉眼很好看出的验证码的话,可以借用tesseract库来识别,做ocr提取,比如以下就是我那个IPproxy里的某一段代码:

 

 

直接就可以把简单的验证码的数据提取出来,更多的操作就不说了,网上一大堆

 

24.滑动验证码

滑动验证码的话,以极验的滑动验证码为典型,之前网上有一大堆的极验验证码破解,不过都是2.0的破解,更新到3.0之后,破解的人就少了,不过,嘿嘿,我还是破解了,

我不多说,感兴趣的可以看看我的源码,包括腾讯系的我也破解了: GitHub (就在我的github里,我不说是哪个,嘿嘿,皮一把)

 

网易系的就不多说了,坊间传闻的,网易的滑动验证码本来就是抄袭极验的(不是我说的),所以破解方法差不多,感兴趣的可以根据我的代码自行修改

 

25.ip代理

终于说到这个问题了,稍微接触过爬虫的人都知道,你知道访问频率太频繁你电脑的公网IP就会被ban的,那么你就需要用上ip代理防止ip被ban无法继续爬数据的 github地址

 

26.访问频率控制

 

有的网站比较大型,每天的访问量很大,那么这个网站对访问频率的限制就没那么严格,如果是小网站限制就会严一点,当然凡是无绝对,这个真的就看你的感知了,你如果感觉按你的代码运行下去可能爬不了几个数据就请求超时了,多半是触发访问频率的峰值了。如何解决,就只能看你自己怎么优化代码,保证代码每次请求的都不走空了,这个就没法具体的说了,你可以用协程来回的切换啥啥的

 

27.提升性能:

提升性能的话,要说的还挺多的,我就说几个比较典型的,如果你发现你的代码运行是串行的,你可以用gevent协程做切换,或者用线程池,或者用线程池+异步的方法,然后网络请求属于IO操作,所以不适合上多进程的方式

如果你还觉得速度不够快,可以弃掉requests库改用aiohttp库,这个也是网络请求的库,不过是异步请求的,requests是阻塞式的请求

还觉得不够快,可以用JIT,即使编译技术,把你觉得比较耗时间的代码块用上JIT

还觉得不够快,可以再用上解释器来直接解释这段代码,比如win平台下,直接用cpython对你的代码进行处理,其他平台的就用其他平台的解释器了,不多说了

还觉得不够快,技术再强点的话,可以写原生的C代码,把几个关键的操作抽离出来,用C来重构,然后运行的使用直接调用这段C代码(python有直接运行C代码的库,很多,网上自行查询)

还觉得不够快,升级你的硬件配置了

还觉得不够快?卧槽,没完了是吧,已经这样了,还想怎么个优化法啊老铁?

 

 

互联网防机制的六种技术大解析
公众号:白又白学Python
10-19 9475
目录 前言 爬虫 仔细分析这七种技术 1、user-agent 2、验证码 3、封IP 4、关联请求上下文 5、JavaScript 参与运算 6、提高数据获取成本 前言 ​ 互联网时代,无论在工作上,还是生活上都离不开网络,而网络能给我们带来什么? ​ 新闻,小说,资料,各行业的数据或者报表等等; ​ 比如:快毕业了为了论文,在各种网站上取需要的数据进行分析;还有一些为了兴趣爱好,取各种类型的图片,视频,文章,数据等。 ​ 各网站的开发人员为了约束这种行为,开始绞尽脑
python爬虫面试宝典(常见问题)
09-20
Python爬虫面试,面试官可能会关注以下几个关键知识点: 1. **线程同步与异步**: ...同时,熟悉Python的相关库如requests、BeautifulSoup、Scrapy等,以及能灵活运用它们解决问题的能力,也是面试考察的重点。
互联网网站的爬虫策略浅析
robbin的专栏
08-17 670
因为搜索引擎的流行,网络爬虫已经成了很普及网络技术,除了专门做搜索的Google,Yahoo,微软,百度以外,几乎每个大型门户网站都有自己的搜索引擎,大大小小叫得出来名字得就几十种,还有各种不知名的几千几万种,对于一个内容型驱动的网站来说,受到网络爬虫的光顾是不可避免的。 一些智能的搜索引擎爬虫取频率比较合理,对网站资源消耗比较少,但是很多糟糕的网络爬虫,对网页取能力很差,经常并发几十...
盘点一些网站的爬虫机制
极客猴的博客
08-22 2540
题图:by natgeo from Instagram阅读文本大概需要 4 分钟。因为 Python 语法简介以及强大的第三方库,所以我们使用它来制作网络爬虫程序。网络...
2024年最新互联网防机制的六种技术大解析_爬虫机制
最新发布
2401_84689346的博客
05-02 1206
​ 互联网时代,无论在工作上,还是生活上都离不开网络,而网络能给我们带来什么?​新闻,小说,资料,各行业的数据或者报表等等;​ 比如:快毕业了为了论文,在各种网站上取需要的数据进行分析;还有一些为了兴趣爱好,取各种类型的图片,视频,文章,数据等。​ 各网站的开发人员为了约束这种行为,开始绞尽脑汁,采取各种手段去约束爬虫,于是,有了机制
网站有机制不了数据?那是你不会【,道高一尺魔高一丈啊
热门推荐
龙叔的博客
06-25 15万+
一山更比一山高,有就有
的基本原理
studytest11111的博客
12-15 3028
简单理解 要了解,就要了解爬虫的原理 爬虫:编写 爬虫代码去获取网站上一些信息、图片等资源 : 一旦爬虫的操作做多了,对网站是一种压力,所以网站会做一些机制,网站会检测对网站的请求是一个浏览器的正常请求还是机器代码发送的请求,如果是后者就不会进行处理,不让他们的到正常的网站页面,这就是的基本原理。 ...
python爬虫开发常见问题及其解决方法和经验总结.docx
04-14
Python爬虫开发常见问题及其解决方法和经验总结主要包括以下几点: 网络请求问题 请求失败或超时:设置合理的超时时间,并使用异常处理机制(如try-except),当出现requests.exceptions.Timeout异常时进行重试...
PY爬虫代码,针对有机制的网站非常好用,更能定义头部
04-05
遇到有机制的网站怎么办,用我这个python爬虫代码,能解决大部份问题,当然IP问题不在这个代码。非常好用,更能定义头部。
Python爬虫工程师面试问题总结
09-20
Python爬虫工程师在面试时可能...以上是Python爬虫工程师面试可能遇到的问题及其详解,涵盖了基础语法、内存管理、网络请求、数据解析、框架应用等多个方面。理解并掌握这些知识点,对于面试和实际工作都非常有帮助。
Python在网络爬虫的应用1
08-04
在实际应用,网络爬虫可能需要面对多线程取以提高效率、任务调度、机制的应对以及分布式爬虫的构建等问题。掌握这些技术,将有助于构建更高效、更智能的网络爬虫系统。 总之,Python在网络爬虫领域的应用是...
从入门到入土:Python爬虫学习|实例练手|取百度翻译|Selenium出击|绕过机制|
Q_U_A_R_T_E_R的博客
09-13 276
此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出。欢迎各位前来交流。(部分材料来源网络,若有侵权,立即删除) 本人博客所有文章纯属学习之用,不涉及商业利益。不合适引用,自当删除! 若被用于非法行为,与我本人无关 Python爬虫学习|实例练手|取百度翻译情况说明代码分析代码展示运行结果 情况说明 百度翻译存在一定的机制 直接访问会显示浏览器版本过低,建议升级,其实是取给发现了 简简单单的使用requests可能没有办法获取到我们想要的东西,没去深入探究requests可不可以
python重定向爬虫_python 取k12出现重定向问题解决方法
weixin_39533361的博客
12-06 75
import requestsurl ='http://rc.k12.com.cn/cloudRes/res/download/id/440511'headers ={'Host':'rc.k12.com.cn','User-Agent':' Mozilla/5.0 (Windows NT 6.3; WOW64; rv:58.0) Gecko/20100101 Firefox/58.0','Acc...
爬虫大家最关心的16个问题,7分钟的Python爬虫解疑大全教入门
cpfsdzs2014的博客
06-22 194
爬虫大家最关心的16个问题,7分钟的Python爬虫解疑大全教入门! 我收集了大家关注爬虫最关心的 16 个问题,这里我再整理下分享给大家,并一一解答,也欢迎大家补充! 1...
一日一技:爬虫模拟浏览器如何避免重复登录?
m0_48891301的博客
09-23 302
当我们使用模拟浏览器访问一个网站的时候,可能会遇到网站需要登录的情况。我的爬虫练习网站提供了这样一个登录练习的案例。如果你手动用浏览器测试,你会发现这样一个现象:第一次访问的时候,自动跳转到登录页面。输入账号kingname和密码genius以后,可以看到登录成功的页面,如下图所示:现在,你把浏览器关了再打开,然后再次访问这个网址,你会发现浏览器直接就能进入到登录成功的页面,不会再出现登录页面。
5种常见策略及解决方案
程序员小芽的博客
07-17 3220
随着互联网的发展,越来越多的公司需要取各种数据来分析出自己公司业务的发展方向。而目前许多目标网站也有各种各样的措施来爬虫,越是数据价值高的网站做得也就越复杂。给大家列举了几个常见措施以及解决方案。最常见策略就是检测用户的请求头。这个是比较容易实现的,破解起来也是比较容易的,解决方法就是伪装header,只要合理添加请求头就可以正常访问目标网站获取数据。目前一般网站都会检测某个ip在单位时间内的请求次数,如果单位次数超过了这个阈值就会停止其请求访问。
学会这招,小姐姐看你的眼神将不一样
kimol君的博客
10-03 2万+
学会这招,小姐姐看你的眼神将不一样前言一、爬虫分析二、取项目ID1.抓取帖子的URL2.提取帖子的UUID3.完整代码三、取项目的数据写在最后 前言 今天某小丽同学来找我,有个实验需要用到轻松筹的数据进行一个分析。可是没有足够的数据,如何办是好? 乐于助人的我,当然不会置之不理~ (ps.毕竟是小姐姐嘛,拒绝了不好,对叭) 于是乎,我抄起家伙,说干就干。 一、爬虫分析 通过简单的分析,可以发现轻松筹提供了一个接口,可以返回某个项目的相关数据,具体如下: 地址如下,xxxxxx表示项目的UUID: h
机制不了吗?那是你还不知道
Python栈
07-08 1372
不知道你们在用爬虫数据的时候是否有发现,越来越多的网站都有自己的机制,抓取数据已经不像以前那么容易,目前常见机制主要有以下几种:
爬虫机制m3u8视频流
04-07
的解决方案有哪些? 对于爬虫机制m3u8视频流的解决方案,有以下几种: 1. 使用代理:使用代理服务器可以隐藏真实IP地址,从而避免被网站识别为...希望这些解决方案能够帮助您解决爬虫机制m3u8视频流的问题

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 需要来自administrators的权限才能对此文件夹进行更改 143145
  • 未知usb设备设备描述符请求失败怎么解决 99264
  • Termux详细教程! 99113
  • ERROR:JAVA: 错误: 不支持发行版本 5 解决方法 81005
  • 错误:System has not been booted with systemd as init system (PID 1). Can‘t operate. 68975

分类专栏

  • 工具探索 2篇
  • 大数据平台 14篇
  • JS 2篇
  • 安全 21篇
  • chrome 7篇
  • 爬虫 1篇
  • 软件开发IDE工具 31篇
  • IDEA 1篇
  • nginx 11篇
  • JAVA 1篇
  • Reverse 10篇
  • 一行shell 1篇
  • Go 1篇
  • 手机 4篇
  • 收集整理 1篇
  • cpp 4篇
  • kali 21篇
  • Python 124篇
  • 数据库 40篇
  • 其他 37篇
  • 人工智能AI 19篇
  • windows 53篇
  • linux 166篇

最新评论

  • Fiddler抓取不到https?看这里解决

    lzonel: 删除证书可以了,感谢

  • vscode搭建汇编环境

    去飞集: can't open dosbox with command: dosbox -conf "c:\Users\AppData\Roaming\Code\User\globalStorage\xsro.vscode-dosbox\dosbox.conf"cwd:c:\Users\.vscode\extensions\xsro.vscode-dosbox-0.1.8-win32-x64\emu\dosbox\win什么原因?

  • VMware XP安装安装程序没有找到硬盘驱动器

    johonhan: 搞定了,pve安装xp系统在创建虚拟机磁盘设置时将总线/设备改成IDE

  • Windows API函数大全(Windows编程参考手册)

    我直接TM原地起飞: 谢谢你 欧浩辰

  • vscode搭建汇编环境

    2401_83289872: 同问 请问你解决了吗表情包

大家在看

  • 自定义模板打造专属炫酷的CSDN个人主页!HTML+CSS个性化DIY全攻略 59

最新文章

  • windows 安卓子系统(WSA)使用方法
  • 通过 KMS 方式激活 Windows 10(11)
  • Spark程序排错系列(System memory * must be at least *)
2023年29篇
2022年148篇
2021年253篇
2020年45篇
2019年111篇

目录

目录

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司大鹏网站优化排名坪山阿里店铺运营大运关键词按天计费永湖企业网站建设坂田关键词按天计费民治标王荷坳百度标王宝安设计网站永湖网站排名优化惠州网站优化按天扣费平湖至尊标王爱联模板网站建设惠州网站推广工具民治关键词按天扣费盐田外贸网站建设双龙标王坪地百度竞价惠州标王南澳seo网站优化吉祥阿里店铺运营坑梓百姓网标王推广龙华百度seo石岩网站推广塘坑企业网站制作丹竹头百度关键词包年推广盐田建设网站盐田网站制作设计松岗网站制作设计坂田网站制作设计坪山关键词排名包年推广歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化