会员可以在此提问,百战程序员老师有问必答
对大家有帮助的问答会被标记为“推荐”
看完课程过来浏览一下别人提的问题,会帮你学得更全面
截止目前,同学们一共提了 132487个问题

const { defineConfig } = require('@vue/cli-service')

const AutoImport = require('unplugin-auto-import/webpack')

const Components = require('unplugin-vue-components/webpack')

const { ElementPlusResolver } = require('unplugin-vue-components/resolvers')



module.exports = defineConfig({

 transpileDependencies: true,

 configureWebpack: {

  plugins: [

   AutoImport({

    resolvers: [ElementPlusResolver()]

    }),

   Components({

    resolvers: [ElementPlusResolver()]

    })

   ]

  }

})

复制完之后,运行PS D:\code\vue\vue_shop> yarn serve报错

yarn run v1.22.22

$ vue-cli-service serve

 ERROR  TypeError: AutoImport is not a function

TypeError: AutoImport is not a function

    at Object.<anonymous> (D:\code\vue\vue_shop\vue.config.js:11:4)

    at Module._compile (node:internal/modules/cjs/loader:1554:14)

    at Object..js (node:internal/modules/cjs/loader:1706:10)

    at Module.load (node:internal/modules/cjs/loader:1289:32)

    at Function._load (node:internal/modules/cjs/loader:1108:12)

    at TracingChannel.traceSync (node:diagnostics_channel:322:14)

    at wrapModuleLoad (node:internal/modules/cjs/loader:220:24)

    at Module.require (node:internal/modules/cjs/loader:1311:12)

    at require (node:internal/modules/helpers:136:16)

    at exports.loadModule (D:\code\vue\vue_shop\node_modules\@vue\cli-shared-utils\lib\module.js:86:14)

error Command failed with exit code 1.

info Visit https://yarnpkg.com/en/docs/cli/run for documentation about this command.

PS D:\code\vue\vue_shop> 

怎么解决啊


Python 全系列/第十阶段:Flask百战电商后台项目/Flask百战电商后台项目 14656楼
人工智能/第五阶段:机器学习-线性回归/梯度下降法 14657楼
Python 全系列/第八阶段:轻量级Web开发利器-Flask框架/Flask数据库 14661楼
Python 全系列/第二阶段:Python 深入与提高/文件处理 14663楼
JAVA 全系列/第二阶段:JAVA 基础深化和提高/容器(旧) 14664楼

from fake_useragent import UserAgent
import requests
from lxml import etree

#发送请求
class Downloader():
    def do_download(self,url):
        print(url)
        headers = {"User-Agent":UserAgent.chrome}
        resp = requests.get(url,headers=headers)
        #如果=200,则发送请求成功
        if resp.status_code == 200:
            resp.encoding='utf-8'
            return resp.text

#数据解析
class Parser():
    def do_parse(self,html):
        e = etree.HTML(html)
        #将网页信息string化才能输出,strip()两边去除空格
        contents = [div.xpath('string').strip() for div in e.xpath( '//div[@class="content"]')]
        urls = ['https://www.qiushibaike.com{}'.format(url) for url in e.xpath('//ul[@class="pagination"]/li/a/@href')]
        return contents,urls

#数据保存
class DataOutPut():
    def do_save(self,datas):
        with open('duanzii.txt','a',encoding='utf-8') as f:
            for data in datas:
                f.write(data+'\n')

#url管理器
class URLManger():
    #初始化
    def __init__(self):
        #新旧url可以让自己更清晰的分辨
        self.new_url=set()
        self.old_url=set()
    #加入一个Url
    def add_new_url(self,url):
        #严谨url不能为空,不能为空字符串,也不能在爬取过的url里面
        if url is not None and url !='' and url not in self.old_url:
            self.new_url.add(url)
    #加入多个Url
    def add_new_urls(self,urls):
        for url in urls:
            # 判断,直接调用上面的方法
            url = self.add_new_url(url)

    #获取一个Url
    def get_new_url(self):
        # 取出一个url并删除,pop表示删除
        url = self.add_new_url.pop()
        # 将用完的url加入old中,用来判断是否用过
        self.old_url.add(url)
        return url
    #获取还有多少个Url要爬取
    def get_new_url_siaze(self):
          return len(self.new_url)
    #获取是否还有多少Url要爬取
    def have_new_url(self):
        return self.get_new_url_siaze() > 0

#数据调度器,调度四个个类
class Scheduler:
    def __init__(self):
        self.downloader = Downloader()
        self.paser = Parser()
        self.data_out_put = DataOutPut()
        self.url_manager = URLManger()
    def start(self,url):
        self.url_manager.add_new_url(url)
        while self.url_manager.have_new_url():
            #去除url
            url = self.url_manager.get_new_url()
            #下载
            html= self.downloader.do_download(url)
            #解析,data当前页面的数据,urls以及要爬取的数据
            datas,urls = self.paser.do_parse(html)
            #处理上一步的data
            self.data_out_put.do_save(datas)
            #处理上一步的urls
            self.url_manager.add_new_urls(urls)


if __name__=='__main__':
    scheduler = Scheduler()
    url = 'https://www.qiushibaike.com/text/'
    scheduler.start(url)

image.png

这是完整代码,pop还是不行

Python 全系列/第十五阶段:Python 爬虫开发/爬虫反反爬- 14666楼
Python 全系列/第十阶段:Flask百战电商后台项目/Flask百战电商后台项目 14667楼
JAVA 全系列/第一阶段:JAVA 快速入门/面向对象详解和JVM底层内存分析 14668楼
JAVA 全系列/第一阶段:JAVA 快速入门/控制语句、方法、递归算法 14670楼

课程分类

百战程序员微信公众号

百战程序员微信小程序

©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园
网站维护:百战汇智(北京)科技有限公司
京公网安备 11011402011233号    京ICP备18060230号-3    营业执照    经营许可证:京B2-20212637