保存地址的name为空,还望老师看一下,使用视频老师的讲解会报 TypeError: unsupported operand type(s) for +: 'set' and 'str' 错误,所以自己写成了这样
捕获.JPG
老师,我用scrapy genspider middler httpbin.org创建文件的时候报这种错误
import requests from fake_useragent import UserAgent from bs4 import BeautifulSoup def format_actors(a_list): actor_set=set() for a in a_list: actor_set.add(a.text.strip()) return actor_set def start(): url = 'https://www.maoyan.com/films/1331230' headers = {"User-Agent":UserAgent().chrome} resp = requests.get(url,headers=headers) soup = BeautifulSoup(resp.text,'lxml') name = soup.select('h1.name')[0].text types = soup.select('li.ellipsis')[0].text actors_m = soup.select('li.celebrity actor>div>a') actors = format_actors(actors_m) print(f'电影名:{name},类型:{types},演员:{actors}') if __name__ == "__main__": start()
老师,请问问题出在哪?报以下错误
老师,您好,post请求,传给Request的data在哪里找呢,是浏览器里Request headers下面的内容还是Query string parameters下面的内容,或者是别的地方的内容?
老师这个怎么解决啊?,怎么手动验证啊?
在将True改为False之后第二个debug解决了,
目前还有第一个debug,也就是
这是源码
python里面的内容有讲maven,我好像都没看到
老师,爬虫我已复制好user_url,为什么还是报错呢?
老师,我想用正则表达式可以匹配到红色划线的那些数字,但是我尝试了几次都不行,那个正则应该怎么写呢?
20-分段情况.zip
https://www.osgeo.cn/scrapy/topics/settings.html这个网址是404了?
老师,这个实验用for语句控制了访问次数,那么如果在某些网站上面,我只访问一次去获取数据,那服务器是不是就不会崩溃啊
问题2: format_actors 中的参数 a_list 从哪里获得的, 代表着什么?
老师 我这返回的数据有 但是生成的文件里面有没有 只有用with生成的文件里有数据
老师,我运行了代码,他给我返回由于“由于目标计算机积极拒绝,无法连接。”是不是我的爬虫被发现了,阻止我的访问
老师这种情况是 猫眼的反爬吗 爬了个空页面
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637