我的为什么没有办法添加到内存,后续也爬不出来?
我的天,下载这,下载那,安装什么配件都是国外的,以后不能用怎么办?
老师,注册快代理账号的时候需要实名认证,这个会泄露隐私吗?
老师,帮我看下是什么原因呢?是被反爬了吗?
代码:
from urllib.request import Request,urlopen from fake_useragent import UserAgent from urllib.parse import quote args = input('请输入品牌:') url = 'https://sh.58.com/ershouche/?key={quote(args)}' headers = {'User-Agent':UserAgent().chrome} req = Request(url,headers = headers) resp = urlopen(req) print(resp.read().decode())
问题:
老师,我自己的代码和资料里的代码都会出现百度安全验证
这是我的代码
代码2:
from urllib.request import urlopen,Request from fake_useragent import UserAgent from urllib.parse import urlencode args = input('请输入要搜索的内容:') parms = { 'wd':args } # print(urlencode(parms)) #把汉字转换成编码 ua = UserAgent() # url = f'https://www.baidu.com/s?{urlencode(parms)}' url = f'http://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E5%A4%A9%E6%B0%94&fenlei=256&oq=%25E5%25B0%259A%25E5%25AD%25A6%25E5%25A0%2582&rsv_pq=f7b1202800024f69&rsv_t=be31f9qpyyfaaH6RH8MnYIeBOdXAk6TR5wmyOGLEFbhe13o7aWCkqzMvXBs&rqlang=cn&rsv_enter=1&rsv_dl=tb&rsv_btype=t&rsv_sug3=8&rsv_sug1=6&rsv_sug7=100&rsv_sug2=0&inputT=1987&rsv_sug4=1987' # print(url) headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/102.0.5005.63 Safari/537.36 Edg/102.0.1245.39' } req = Request(url,headers = headers) resp = urlopen(req) print(resp.read().decode())
代码1:
from urllib.request import urlopen,Request from fake_useragent import UserAgent from urllib.parse import quote # args = '尚学堂' # print(quote(args)) #%E5%B0%9A%E5%AD%A6%E5%A0%82 #通过它转换中文、汉字 args = input('请输入要搜索的内容:') ua = UserAgent() url = f'https://www.baidu.com/s?wd={quote(args)}' headers = { 'User-Agent':ua.chrome } req = Request(url,headers = headers) resp = urlopen(req) print(resp.read().decode())
能不能把爬虫和其他所有的文档改成高淇老师的那种文档,PDF格式,看起来非常清晰的??????
这个代表什么路径file:///
老师我的fake-useragent用不了是因为没有在虚拟环境中安装吗,我的代码现在在虚拟环境里,但下面自动出来的文件路径还是python,没有精确到虚拟环境,要怎么调整啊
老师 为啥在有process_item()的情况下get_media_requests()不起作用,只能出现其中一个吗
url = f'https://www.maoyan.com/films?showType=2&offset=0' headers = { 'User-Agent': UserAgent().chrome } resp = requests.get(url , headers=headers) e = etree.HTML(resp.text) movie_title = e.xpath('//dl[@class="movie-list"]/dd/div[@class="channel-detail movie-item-title"]/@title') # movie_href = e.xpath("//dl[@class='movie-list']/dd/div[@class='channel-detail movie-item-title']/a/@href") print(movie_title) # for i in movie_title: # print(i)
老师,为啥我获取到的title和href值都只有1个
老师这样怎么处理,浏览器打开一片空白,
from selenium import webdriver import os chrome = webdriver.Chrome(executable_path='./venv/Scripts/chromedriver.exe') file_path = 'file:///' + os.path.abspath('./html/dorop_down.html') chrome.get(file_path) selet = chrome.find_element_by_id('shippingMetod') selet.find_element_by_xpath('//option[@value=""10.69]').click()
selenium webdriver os chrome = webdriver.Chrome(=) file_path = + os.path.abspath() chrome.get(file_path) selet = chrome.find_element_by_id() selet.find_element_by_xpath().click()
这是什么问题:
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637