今日头条请求失败(今日头条发布不成功)
本文目录一览:
今日头条标题校验失败是怎么回事
网络故障。今日头条是一个通用信息平台,致力于连接人与信息,让优质丰富的信息得到高效精准的分发,促使信息创造价值。如果显示标题校验失败是因为网络故障导致,可以退出重新进入就可以了。
今日头条上传视频失败原因有哪些
主要原因:
1、格式问题:输出为mp4格式,这种格式目前在所以网站是通用的,不会因为格式问题上传失败。
2、拍摄问题:拍摄采用16比9横屏,是目前通用格式,拍摄要稳定。
3、剪辑问题:剪掉那些晃动厉害,重复啰嗦的视频,使整个视频简洁明快,线索清晰;如果视频中的素材夹杂有4比3的,也有16比9的,那在编辑时要注意调整成一个模式,否则视频的四边会出现黑边。
4、内容问题:实质上是最关键的,如果视频内容会引起观看者不适,是不会通过的,所以,视频内容一定要是健康向上的。
为什么今日头条发送评论失败 今日头条发送评论失败的原因
;
可能是以下原因:
1、可能是网络故障,可以尝试在检查网络后重新发送评论。
2、可能是回复的内容不符合规范,需检查评论内容是否规范。
3、可能是因为的你回复的内容带有广告性质,还有一种原因就是你的帐号之前发布了过违规的信息,所以现在无法回复。可以换个账号评论。
爬今日头条,各种失败经验,之后成功了
最近研究了一下js加密,发现今日头条比较适合练手,在头条获取数据的XHR中request参数有一项_signature参数,这个是就是经过js加密的数据。解决方案在最后。
先说寻找逻辑,叫顺藤摸瓜,藤是params中的key,瓜是js函数,在哪里摸,我用的是chrome F12,全局查找,就是在网址ctrl+f,注意看结果,前面有url这种一般都是在headers之类带着没什么价值,要看出来具体数据的。
然后在preview里,格式化看得清楚,还是查找signature。
这样就成功一大半了。顺便还找到了as和cp
as: e.as,cp: e.cp,
这个e也在前面定义了var e = ascp.getHoney(),然后在搜索getHoney,就找到了。
把这段复制进pycharm的zhu.js文件里,然后新建一个python文件来运行,nodejs直接运行也行。
额,报错了,execjs._exceptions.ProgramError: ReferenceError: md5 is not defined
赶紧查了一下md5是个加密模块, nodejs安装MD5 ,然后改装了改装一下,增加了var md5 = require('md5-node');运行成功。
然后就到了signature, _signature: i,i = TAC.sign("refresh" === t ? 0 : r.params.max_behot_time_tmp))
params.max_behot_time_tmp应该是在回传的数据里的max_behot_time了。
首次请求是0,后来的是根据前一次请求的后传数据继续请求。
不知所云,但还是按照老办法试试看能不能运行。
execjs._exceptions.ProgramError: TypeError: Cannot read property 'userAgent' of undefined。
这回我参考一下 别人怎么办
原来要加useagent,
global.navigator={};
global.navigator.userAgent=
然后变成这样
调用发现又有错误:
好像说的是var data = TAC.sign(0);之前出现了一个不该出现的逗号,把它改成分号,果然成功了,
满怀欣喜的把signature,cp,as找到拼接成url发送,结果并不能返回数据。
有些忧郁的又看看别人怎么办, 用selenium获取参数 ,phantomjs不维护了,听说chrome headless可以替代之, 别人家说这么用 ,chrome还是打开窗口了,后来发现chromedriver.exe版本与chrome有严格的对应关系。 官网这样说
总算是chrome是无头的了,现在只差跟着up主把参数弄出来就行了,因为有了前面的查找,selenium执行的函数名称也很清楚,
signature = brower.execute_script('return TAC.sign(0)')
果然出来一个参数,开心的拼接url发送请求还是没数据回来。。。
忧伤的想了好久,尝试了多次,终于在手机版里发现可以不用cp和as参数,用哪里生成的signature都能拼接出结果,只是max_behot_time是藏在前一页最后一项的信息里
用requests的session或者scrapy都能连续爬取了。不过m站将返回数量20写进了js里,更改params的参数也不能控制一次的爬取量还是很是遗憾。
结果
好像必须带着cookie才能爬取后续的,不然永远都只能爬取第一页的内容,获取cookie用request的session都不行可能只能用selenium获取cookie之后再来。忧伤。。。