为什么用scrapy的新建指令却是运行的我上一个爬虫文件的结果啊?一开始是好的后面突然就这样了,运行了好几遍也都是启动爬虫,包括别的指令也是一样的问题
提交了一下代码,老师您看一下
from urllib.request import Request,urlopen from fake_useragent import UserAgent from urllib.parse import urlencode url = "http://dhwy-test.saikul.com/dhwy/auth/login" headers = {"User-Agent":UserAgent().random} data = {"username":"test","password":"789"} requ = Request(url,headers=headers,data=urlencode(data).encode()) resp = urlopen(requ) print(resp.read().decode())
必须要登录啊
这里为什么报错呢
老师好,为啥会这样呀
老师我这里没有给我分配ip,开启不了服务
老师,你好!安装docker 报错提示 虚拟化没打开 可是事实是开着的 电脑重启/软件重装都不好使,有什么办法解决吗?麻烦帮忙看下,谢谢!
selenium webdriver time requests re lxml etree fake_useragent UserAgent url = header = {: UserAgent().chrome} opt = webdriver.ChromeOptions() driver = webdriver.Chrome(=opt) driver.get(url) time.sleep() content = driver.find_element_by_xpath() content.click() contents = driver.find_element_by_xpath() (contents.text)
我用了selenium的click方法,该网址的url点击该xpath是不变的,但是我重新拿到的HTML还是没有点击过之前的
老师,xpath窗口的位置怎么放在页面底部?
xiaoshuo.rar
老师麻烦帮我看下为什么会爬取失败,只爬取了一点。。。。
老师这个怎么解决?它一直卡着不动,点其它地方也是移动不动,百度查了没结果
找不到chrome浏览器123.0.6312.59这个版本的怎么办?
老师这个创建项目不是:scrapy genspider 网站名 网站名.com 创建爬虫文件【2】
怎么变成scrapy genspider qu qu.la了,我昨天的问题是不是就是后边的 .com写错了?
老师,string()格式化当前节点是什么意思?
一直这样 别的版本都试过 都不行
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637