面向复杂场景的多目标跟踪与分割(已接单)
¥1000
要写项目+论文+论文修改
选题背景、意义及依据
随着计算机视觉技术在自动驾驶、智能监控等领域的深度渗透,多目标跟踪与分
割成为保障系统可靠性的核心技术。在自动驾驶场景中,车辆需实时精准识别行人、
车辆、骑行者等目标,明确其轮廓与动态轨迹,为路径规划和避障决策提供支撑;在
智能监控场景中,需实现对多个移动目标的连续追踪与区域分割,助力异常行为检测。
然而,实际应用中的光照突变、目标遮挡、恶劣天气、尺度变化等复杂情况,导致传
统技术难以兼顾分割精度与跟踪稳定性,成为行业落地的关键瓶颈。
TrackFormer 模型凭借 Transformer 架构的全局特征关联优势,实现了多目标
跟踪与分割的端到端融合,解决了传统 “检测 - 跟踪” 分离架构的目标 ID 切换问题。
Mask-RCNN 则在实例分割任务中表现突出
[1],具备高精度的目标定位与轮廓提取能
力。KITTI 数据集作为自动驾驶领域的权威基
[2],涵盖了真实道路场景中的复杂情况,
为算法验证提供了丰富的样本支撑。实现 “分割 - 跟踪” 分阶段任务,可充分发挥各
自技术优势,提升复杂场景下的多目标处理性能,具有重要的实践价值与理论创新意
义。
选题依据主要包括三方面:一是应用需求驱动,自动驾驶、智能交通等领域对高
精度、实时性多目标跟踪与分割技术的迫切需求,为课题提供了明确的落地导向;二
是技术可行性,TrackFormer 的跟踪优势与 Mask-RCNN 的分割能力形成互补,降
低了研究难度且保障了成果可靠性;三是数据支撑充足,KITTI 数据集提供了完整的标
注信息与多样化场景样本,能够满足模型训练、验证与测试的全流程需求,为课题顺
利开展奠定基础。
二、国内外研究现状
国外在多目标跟踪与分割领域的研究起步较早,已形成较为成熟的技术体系。早
期研究主要基于传统计算机视觉方法,如基于区域的分割算法(阈值分割、边缘检测)、
基于特征匹配的跟踪算法(SIFT、SURF 特征),但这类方法对复杂场景的适应性较差,
易受光照、遮挡等因素影响。随着深度学习技术的兴起,基于神经网络的分割与跟踪
算法成为主流。2017 年,He 等人提出的 Mask-RCNN 算法,创新性地将 Faster R-CNN
的目标检测框架与全卷积网络(FCN)的分割能力相结合,通过添加掩码分支实现了
实例级别的分割,在 COCO 数据集上取得了优异的性能,奠定了实例分割领域的研究
基础。此后,研究者们围绕 Mask-RCNN 进行了大量改进,如引入注意力机制、优化
特征融合模块、采用轻量化网络结构等,进一步提升了算法的效率与精度,使其能够
更好地适应复杂场景下的应用需求。2021 年提出的 TrackFormer 模型,将
Transformer 架构与实例分割结合,通过关联特征实现端到端多目标跟踪与分割,解
决了传统跟踪算法中检测与跟踪分离的问题,在复杂场景下的目标关联精度显著提升,
目前已在 COCO、KITTI 等数据集上得到了验证
[10]。
国内对多目标跟踪与分割技术的研究也紧随国际前沿,在算法改进与实际应用方
面取得了显著成果。国内高校与科研机构如清华大学、中科院自动化所、哈尔滨工业
大学等,在 Mask-RCNN 的基础上,针对复杂场景下的遮挡问题、小目标分割问题等
进行了深入研究,提出了多种改进策略。例如,通过引入上下文信息增强模块,提升
算法对遮挡目标的识别能力;通过优化锚点设计,改善小目标的分割精度。同时,国
内企业如百度、华为等也积极推动该技术在自动驾驶、智能监控等领域的落地应用
[11],
开发了一系列基于深度学习的多目标分割与识别系统。国内高校(如哈工大、中科院)
已尝试将 TrackFormer 与 Mask-RCNN 融合,针对道路场景中目标遮挡、尺度变化
等问题优化特征关联模块,提升动态目标的跟踪稳定性,相关研究已在自动驾驶原型
系统中初步应用。
KITTI 数据集由德国卡尔斯鲁厄理工学院与丰田美国技术研究院联合发布,是自动
驾驶领域应用最广泛的公开数据集之一,包含立体图像、光流、目标检测、语义分割
等多个任务的标注数据。由于其数据的真实性与场景的多样性,已成为评估多目标分
割与识别算法性能的重要基准。目前,国内外大量研究基于 KITTI 数据集开展,研究者
们通过在该数据集上训练与测试算法,验证算法在真实道路场景下的适应性。例如,
有研究基于 Mask-RCNN 对 KITTI 数据集中的车辆、行人等目标进行分割与识别,通过
优化网络参数与数据增强策略,提升了算法在复杂道路场景下的性能;还有研究将
Mask-RCNN 与多目标跟踪算法相结合,实现了对 KITTI 数据集中动态目标的实时跟踪
与分割。
综合来看,当前基于 Mask-RCNN 的实例分割技术已日趋成熟,其在 KITTI 数据
集上的应用研究也积累了一定成果,但面对严重遮挡、恶劣天气、目标密集分布等复
杂场景时,算法在分割精度与实时性方面仍存在优化空间。TrackFormer 作为近年来
多目标跟踪领域的热门框架,凭借 Transformer 架构的全局特征关联优势,在目标连
续跟踪与 ID 稳定性方面表现突出。本课题将以 KITTI 数据集为基础,聚焦
Mask-RCNN 在核心目标(车辆、行人、骑行者)分割与识别任务的性能优化,同时
利用 TrackFormer 在目标精准跟踪与轮廓持续捕捉的技术特点,通过双模型独立验证
与场景化对比,进一步提升算法对复杂道路场景的适应性,为多目标跟踪与分割技术
的工程落地提供参考。
三、课题研究目标、研究内容、研究方法及关键技术
(一)研究目标
本课题核心目标是分别运用 Mask-RCNN 与 TrackFormer 两个独立模型,完成
复杂道路场景下的多目标分割与跟踪任务,具体包括:完成 KITTI 数据集的双任务适
配预处理,分别构建满足 Mask-RCNN 分割任务与 TrackFormer 跟踪任务的训练、
验证及测试数据集。独立搭建并部署 Mask-RCNN 实例分割模型与 TrackFormer 多
目标跟踪模型,完成各自的训练与全流程验证,确保模型稳定运行。实现 KITTI 数据
集中核心目标的专项处理:Mask-RCNN 完成车辆、行人、骑行者的准确识别与轮廓
分割,目标识别准确率不低于 85%,分割交并比(mIoU)不低于 70%;TrackFormer
实现上述目标的连续跟踪,跟踪成功率(MOTA)不低于 65%,ID 切换率低于 10%。
分别分析两个模型在不同场景(常规场景、遮挡、恶劣天气、目标密集)下的性能表
现,明确各自的适用场景与局限。保证两个模型独立推理的基础实时性,满足自动驾
驶、智能监控等场景的基本应用需求。
(二)研究内容
1. KITTI 数据集双任务预处理与适配
深入解析 KITTI 数据集的图像数据、分割标注及轨迹信息,编写两套独立的格式
转换脚本,将数据集分别转换为 Mask-RCNN 适配的 COCO 分割格式,以及
TrackFormer 适配的时序跟踪标注格式,保留样本 ID 一致性以便后续场景化对比。
对分割数据集执行图像去噪、尺寸归一化操作,采用随机裁剪、翻转、光照调整等基
础数据增强方法
[4],提升模型泛化能力
[3];对跟踪数据集进行帧间冗余去除、目标轨迹
校准,采用连续帧同步翻转、尺度缩放等策略,保证目标运动连贯性。按 7:1:2 比例
分别为两个模型划分训练集、验证集与测试集,确保各集合中场景分布均衡,满足独
立训练与性能评估需求。
2. 双模型独立搭建与适配
基于 PyTorch 框架搭建 Mask-RCNN 实例分割模型,包含 ResNet-FPN 特征提
取网络、RPN 区域提议网络、目标检测分支与掩码分割分支,根据 KITTI 数据集目标
类型(车辆、行人、骑行者)调整分类头与掩码分支输出维度,适配特定目标分割任
务。独立搭建 TrackFormer 多目标跟踪模型,构建 Transformer 特征关联模块、目
标 ID 分配机制与帧间预测分支,适配 KITTI 数据集的时序特征,调整网络输入维度
与输出层结构,确保目标跟踪 ID 稳定输出。
3. 双模型独立训练与参数配置
Mask-RCNN 训练:采用 COCO 数据集预训练权重初始化,设置固定训练参数
(学习率 1e-4、批次大小 4-8、迭代次数根据数据集规模调整),通过验证集监控训
练效果,确保模型收敛,不额外进行网络结构或损失函数优化。TrackFormer 训练:
利用 COCO 时序数据集预训练权重初始化,采用默认训练策略与参数配置,聚焦模型
对 KITTI 数据集的适配性训练,不进行额外的关联策略或网络结构改进,保证模型原
汁原味的性能输出[5]。
4. 双模型独立实验验证与结果分析
构建双模型独立评估体系:Mask-RCNN 采用准确率、召回率、mIoU 指标衡量
分割性能;TrackFormer 采用 MOTA、MOTP、ID Switch 指标评估跟踪效果。开展
场景化测试实验,分别在常规道路、遮挡、雨天、目标密集等场景下验证两个模型的
性能;对比分析单一模型在不同场景下的表现差异,总结模型的适用范围与固有局限。
(三)研究方法
文献研究法:系统梳理 Mask-RCNN 分割算法、TrackFormer 跟踪算法的技术原
理与应用现状,明确两个模型的核心特性与使用规范,为独立部署与训练提供理论支
撑。
独立部署法:按照两个模型的原始设计架构与训练流程,分别搭建实验环境、配
置参数,不进行交叉优化或融合设计,保证模型性能的独立性与真实性。
实验对比法:通过场景化测试与指标量化,对比两个模型在专项任务中的性能表
现,分析模型的固有优势与局限,为实际应用场景下的模型选择提供依据[6]。
(四)关键技术
数据集双任务适配技术:针对分割与跟踪任务的差异化需求,设计独立的格式转
换脚本与预处理流程,确保数据与模型输入要求精准匹配。模型独立部署与适配技术:
基于原始算法架构,完成 Mask-RCNN 与 TrackFormer 在 KITTI 数据集上的参数配
置与任务适配,保证模型稳定运行。场景化性能评估技术:构建多场景测试集,建立
针对性的评估指标体系,实现对两个模型专项性能的精准量化与差异分析。
(一)遇到的困难和问题
双模型独立适配数据集的差异问题:KITTI 数据集的标注格式需分别满足
Mask-RCNN 的分割任务与 TrackFormer 的跟踪任务需求,两类任务对数据格式、
标注信息的要求不同,格式转换过程中易出现信息丢失或不兼容问题;同时,数据增
强需兼顾分割任务的目标特征完整性与跟踪任务的帧间时序连贯性,单一增强策略难
以同时适配两个独立模型。
单模型在复杂场景下的固有性能局限:Mask-RCNN 在 KITTI 数据集的遮挡、恶
劣天气场景中,易出现小目标(远处行人、骑行者)分割轮廓模糊、漏检等问题;
TrackFormer 单独运行时,缺乏精准分割特征辅助,在目标密集或快速移动场景下,
易出现 ID 切换频繁、轨迹断裂等跟踪不稳定问题。
双模型训练的独立优化难题:两个模型需分别进行训练与调参,训练过程无交互
反馈,且 KITTI 数据集样本数量相对有限,两个模型单独训练时均易出现过拟合现象;
同时,学习率、批次大小等参数的设置需针对各自模型特性调整,参数优化过程繁琐
且易相互干扰。
双模型独立推理的实时性压力:Mask-RCNN 本身结构复杂、推理计算量较大,
TrackFormer 的 Transformer 关联模块也存在一定耗时,两个模型独立运行时,需
分别满足各自的实时性需求,难以同时适配自动驾驶等对响应速度有要求的场景。
(二)拟采取的解决措施
针对数据集适配差异问题:
编写两套独立的格式转换脚本,分别将 KITTI 数据集转换为 Mask-RCNN 适配的
COCO 分割格式与 TrackFormer 适配的时序跟踪标注格式,保留样本 ID 一致性以
便后续场景化对比,避免格式转换中的信息丢失。设计差异化数据增强方案:针对
Mask-RCNN,采用随机裁剪、光照调整、色域变换等策略,提升分割模型的泛化能力;
针对 TrackFormer,采用连续帧同步翻转、尺度缩放、帧间冗余去除等策略,保证跟
踪任务的时序连贯性。
针对复杂场景下的性能局限:
对 Mask-RCNN:采用 COCO 数据集预训练权重初始化,沿用其原始损失函数
与网络结构,通过增加复杂场景样本的数据增强(如模拟遮挡、光照突变样本),提
升模型对复杂环境的适应能力,不额外修改网络架构。对 TrackFormer:基于其原始
Transformer 关联框架,利用 COCO 时序数据集预训练权重初始化,通过调整帧间
关联阈值、优化目标 ID 分配规则,提升跟踪稳定性,不进行网络结构改进。
针对独立训练优化难题:
采用 “分模型独立训练 + 统一监控” 策略,为两个模型分别划分独立的训练集、
验证集,设置针对性训练参数,避免参数相互干扰。双模型均引入 L2 正则化与
Dropout 技术,抑制过拟合;采用迁移学习策略,利用各自适配的预训练权重初始化,
降低对 KITTI 数据集样本数量的依赖。
针对实时性压力:
对两个模型分别进行基础轻量化处理:Mask-RCNN 简化特征提取网络的冗余通
道,TrackFormer 采用局部注意力计算替代部分全局注意力,在不改变核心架构的前
提下降低计算量。优化推理流程,对两个模型的输入数据进行并行预处理,减少数据
加载与格式转换耗时,提升独立推理效率。
(三)预期达到的目标
1.完成 Mask-RCNN 与 TrackFormer 两个独立模型的数据集适配、训练与部署,
实现各自核心任务:Mask-RCNN 精准完成 KITTI 数据集中车辆、行人、骑行者的轮
廓分割,TrackFormer 独立实现上述目标的连续跟踪[10][11][12]。
2.双模型性能指标达标:Mask-RCNN 的目标识别准确率不低于 85%,分割交并
比(mIoU)不低于 70%;TrackFormer 的跟踪成功率(MOTA)不低于 65%,ID 切
换率低于 10%;两个模型在复杂场景下的目标漏检率均低于 15%。
3.解决数据集适配差异、独立训练过拟合、复杂场景性能局限等问题,形成一套完
整的双模型独立应用方案,确保两个模型在同一复杂道路场景下均能稳定运行。
4.双模型独立推理的实时性满足基础应用需求,Mask-RCNN 单帧推理时间不超过
90ms,TrackFormer 单帧推理时间不超过 70ms;完成符合本科毕业设计要求的论
文,整理两个模型的独立训练代码、格式转换脚本及实验数据,形成可复用的实验平
台。
五、论文进度安排
本课题研究周期共计 16 周,围绕 Mask-RCNN 与 TrackFormer 两个独立模型
的训练、优化与验证展开,具体进度安排如下:
第 1-2 周进行文献调研与课题梳理,系统查阅多目标分割、多目标跟踪、
Mask-RCNN 算法、TrackFormer 算法及 KITTI 数据集相关的国内外文献,撰写文献
综述,明确两个模型的独立研究重点、技术路线与各自难点,完成开题报告的最终修
改。
第 3-4 周开展数据集预处理与实验环境搭建工作,深入分析 KITTI 数据集结构与
标注格式,编写两套独立格式转换脚本,分别生成 Mask-RCNN 适配的 COCO 分割
格式、TrackFormer 适配的跟踪时序格式,分别对两个模型的数据集进行预处理,设
计 差 异 化 数 据 增 强 策 略 , 划 分 训 练 集 、 验 证 集 与 测 试 集 , 搭 建 基 于
PyTorch/TensorFlow 的深度学习实验环境,配置两个模型所需的依赖库与硬件资源
[7]。
第 5-8 周进行双模型独立搭建与初步训练,基于深度学习框架分别搭建
Mask-RCNN 实例分割模型与 TrackFormer 跟踪模型,根据 KITTI 数据集目标类型
调整模型输出维度,采用迁移学习策略,分别利用 COCO 数据集预训练权重初始化两
个模型,设置各自合理的训练参数,完成初步训练[8]。
第 9-11 周推进双模型独立优化与性能验证,针对 Mask-RCNN,优化特征融合模
块与损失函数,引入注意力机制,提升复杂场景下的分割精度,通过验证集监控性能,
采用正则化技术抑制过拟合;针对 TrackFormer,改进跨帧关联策略,优化
Transformer 注意力计算方式,提升小目标与遮挡场景下的跟踪稳定性,调整训练参
数加快收敛,在各自测试集上验证优化后模型的性能,完成多组对比实验,记录核心
指标数据。
第 12-13 周进行实验结果分析与总结,分别量化分析两个模型的性能,
Mask-RCNN 聚焦分割准确率、mIoU 等指标,TrackFormer 聚焦 MOTA、ID Switch
等指标,对比不同参数设置、数据增强策略对各自模型性能的影响,总结两个模型在
复杂场景下的优势与不足
[9]。
第 14-15 周开展论文撰写与修改工作,根据课题研究内容与双模型实验结果,撰
写本科毕业设计论文,重点阐述两个模型的独立设计、训练过程与性能对比,完善论
文逻辑结构与内容细节,修改格式错误与表述问题,形成论文初稿。
第 16 周完成论文定稿与答辩准备,根据指导教师意见修改论文,完成最终定稿,
整理两个模型的独立训练代码、格式转换脚本及实验数据,形成可复用的实验平台,
准备答辩 PPT,梳理课题研究核心内容、双模型技术难点与创新点,进行答辩模拟训
练。

改进bp神经网络预测地震伤亡人数(已接单)
¥800
python改进bp神经网络机器学习 对地震影响因
素做灰色关联,筛选出影响性最高的因素 然后使
用核主成分法降维 最后使用改进bp神经网络完成
地震伤亡人数预测 对比传统bp性能更优
添加功能+论文(已接单)
¥1000
我的系统是校园二手交易平台,要加的功能是购物车,还有类似社区能发帖子的功能
要写论文,论文包修改到毕业
论文要求很高
添加功能(已接单)
¥200
待办与流程追踪:员工可发起申请并实时查看流转状态;审批人处理集中呈现的待办任务,实现全流程的线上化、透明化与可追溯
智能考勤统计:集成定位打卡与请假/出差数据,自动生成个人及部门的月考勤报表,简化统计核对工作
人工智能定制(已完成)
¥5000
Total Coursework Assessment
The coursework is assessed in two parts, A and B:
60% of marks for Part A
40% of marks for Part B
Coursework will be submitted via Turnitin in zipped files.
Part A (Lectures 01-05)
The assignment will involve the submission of a Python Jupyter notebook (NB) and a web page containing select visualisations (WP).
NOTE:
there is a limit of 30 to the cumulative number of static and interactive charts/maps you can submit for the web presentation
IMPORTANT: The notebook and web-page submissions are stand-alone and shouldn't assume that the assessor has read the Part B presentation. You can reuse body text from Part B - this will not be included in your word-count limit for the coursework. Also there is no word count on explanatory text in the Jupyter notebooks or web-page.
Dataset
The Part A and Part B visualisations will be based on your chosen dataset. This total size of this dataset and any datasets used to augment it should not exceed 150mb in size. The dataset should include some geographical data which can be used to produce a Plotly map for the web presentation.
This dataset can be augmented by other data where required but the primary focus is using the notebooks to explore this dataset. Try and keep the datasets a reasonable size - a few thousand rows should be sufficient to demonstrate your dataviz skills and provide a dataset which is both interesting to you and contains interesting correlations to present to others.
If the dataset requires cleaning or refinement this should be included in the notebook, preferably in a separate section.
Notebook
With the notebook it's important to explain what you are doing and why. You will need to demonstrate:
Understanding of the dataset using Pandas to query its structure.
Exploration of the dataset driven by iterative charting/mapping etc.
The selection of key dataviz charts from the exploratory phase for presentation in the web-page.
Try and create a narrative for your notebook - from the raw dataset, through its refinement and exploration with Pandas, Matplotlib and Plotly etc. and finally to the selection of key charts for your web presentation.
I suggest breaking your notebook into three key sections:
Inspecting, cleaning and refining the dataset.
Exploring the refined dataset.
A conclusion and explanation of which resulting charts/maps were chosen for the web presentation and why.
Web presentation
It's possible to use Codepen for your web presentation but the projects, as opposed to the pens, are not free. Codesandbox is a free option that allows for proper web projects with image assets. The free Codepen 'pens' are designed for little web-dev sketches are will probably be too limiting and awkward for your web presentation.
A Codesandbox project should provide everything needed for the web presentation. Alternative web resources like can also be used. If you want to work locally with a conventional web structure (typically a root directory containing an index.html entry point and sub-folders with any assets used) you can just zip that project directory for submission. Here's an example of how your project's file structure might look with an index.html 'entrypoint' and sub-folders containing the CSS, JavaScript and data:
ucl-dataviz-project-2026
├── data
│ └── FTSE_time_series.csv
├── images
│ └── key_ftse_indicators.png
│ └── ftse_map_company_worth_by_country.png
├── index.html
├── index.js
├── style.css
├── scripts
│ ├── gdp_country_plotly_map.js
│ └── 2026_stock_analysis_plotly.js

For the web presentation you can use any charts/visualisations in the Matplotlib ecosystem (including auxiliary libraries like Seaborn) and any Plotly, Datawrapper charts/maps etc. The Plotly charts can be developed using Python or JavaScript.
Using JavaScript is not mandatory but the Plotly JavaScript API, which is very close to the Python based one, does offer some advantages. You need only worry about getting the data from your notebook to the web/codepen/Codesandbox and can then do all the adaptation and refinement in one place.
The web presentation (page) should include the following, as a minimum:
At least four Pandas/Matplotlib/Seaborn charts
At least two Plotly charts
At least one Plotly map
At least one Datawrapper chart
Marking guide
The marks for notebook and web-project will be apportioned as follows:
Notebook:
Structure, flow, presentation (30/100)
Exploration, insights, data discoveries (30/100)
Code quality, efficiency, choice of algorithms (20/100)
Misc., data refinement, use of auxiliary libraries (20/100)
Web-project:
Choice and presentation of charts (40/100)
Structure, flow, coherency (20/100)
Layout, aesthetics, ease of use (20/100)
Technical ambition (20/100)
Submission
The presentation will be submitted as a zip file containing the notebook, web-page and any data/assets required to view the presentation.
Codesandbox projects can be downloaded - use the download project option on the top left square menu to save your project files locally, then zip them for submission. We will cover this in the lectures.
If the project is available online please include the Codesandbox (or other) URL - this will make assessment easier.
The naming convention must be Group X - Part A
Part B (Lectures 07-10)
Recommended Workflow: 1. Complete Part A data cleaning in Python 2. Export cleaned data to CSV 3. Import CSV into Power BI (avoid complex data cleaning in Power BI) 4. Create dashboard visualizations 5. Write design rationale referencing Part A insights
Part B: Functional Power BI Dashboard with Design Rationale
Objective
To create a functional Power BI dashboard that visualizes key insights from the dataset you have chosen for Part A, demonstrating your team's ability to apply both conceptual design thinking and practical Power BI skills.
Any Power BI specific Python/Pandas data cleaning or analysis can be included in a section of your Part A Python notebook.
This assignment emphasizes:
Design principles: Understanding how to create a dashboard tailored to a specific audience.
Hands-on practice: Building a functional dashboard that includes visuals and interactivity.
Rationale: Articulating and justifying your design decisions.
Assignment Requirements
1. Build a Functional Power BI Dashboard
You are required to create a working dashboard in Power BI that includes a minimum of:
Three (3) visuals representing key metrics, trends, or insights (e.g., bar charts, line charts, or maps).
One (1) interactive feature (e.g., slicers, filters, or tooltips) to allow users to explore the data.
Annotations (titles, labels, or tooltips) to help users understand the visuals.
Focus: Simplicity and clarity, ensuring that the dashboard is user-friendly and tailored to your intended audience.
2. Address Core Design Elements
a. Visualization Design Process
Identify the most valuable insights from the dataset.
Consider the needs of your audience (e.g., management, analysts, or clients).
b. Relevant Visuals and Analyses
Choose visuals appropriate for the dataset and audience.
Provide a clear rationale for each visual type, for example:
oUse bar charts for comparisons.
oUse line charts for trends over time.
oUse maps for geographic data.
c. Interactivity
Include at least one (1) interactive feature such as slicers, drill-throughs, or tooltips.
Ensure that interactions are intuitive and add value to the user experience.
d. Colour and Layout
Use Power BI's built-in themes or a customized color palette.
Ensure the layout is clean, logical, and user-friendly.
3. Write a Design Rationale (Max 600 Words)
Alongside your dashboard, submit a design rationale that specifically explains:
Key design decisions: Why were certain visuals, interactions, and layouts chosen?
Audience needs: How does the dashboard meet the requirements of the intended users?
Challenges faced and solutions: What difficulties were encountered and how were they resolved?
Deliverables
Power BI Dashboard File (.pbix): A working dashboard file demonstrating your visuals, interactivity, and annotations.
Design Rationale (Max 500 Words): Submit as a Word document (PDF submissions will receive a word count penalty).
Evaluation Rubric
Functionality (25%) - Includes required visuals and interactivity, ensuring they work as intended.
Visual Design and Analysis (25%) - Are visuals appropriate, clear, and insightful?
Interactivity (15%) - Does interactivity enhance data exploration?
Color and Layout (15%) - Is the design visually appealing and accessible?
Design Rationale (20%) - Clearly explains design choices and process.
Additional Notes
Dataset: The same dataset from Part A must be used. We strongly recommend completing data cleaning in Python (Part A) and exporting a clean CSV for Power BI import.
Focus on Simplicity: Prioritize clarity and usability over complexity.
Submission Deadline
Submission Date: 10:00 AM, 31st March 2026
Submission Method (must be followed strictly): Upload the
1.Power BI file (.pbix)
2.Written Design Rational (doc, txt, markdown etc.) with Power BI link share.
via Turnitin on the Moodle Page in the zip format
The naming convention must be Group X - Part B
Last modified: Monday, 26 January 2026, 6:32 PM

基于K-means和ResNet50的穿戴甲智能搭配推荐系统设计与实现(已接单)
¥1600
第1章 绪论
1.1 研究背景与意义(阐述穿戴甲市场发展、个性化搭配需求及技术赋能潜力)
1.2 穿戴甲智能搭配的现状与挑战(分析现有搭配方式的不足与技术难点)
1.3 主要研究目标及内容概述(明确系统设计目标与本文各章节内容安排)

第2章 相关技术与研究综述
2.1 图像特征提取技术综述(重点介绍CNN及ResNet等深度特征提取模型)
2.2 聚类算法在图像分析中的应用(重点介绍K-means及其变种在视觉领域的应用)
2.3 个性化推荐系统技术概述(介绍基于内容的推荐、协同过滤等基本范式)
2.4 时尚领域智能搭配研究现状

第3章 推荐系统核心模型设计与实现
3.1 数据集构建与预处理
 3.1.1 穿戴甲图像数据集收集与标注
 3.1.2 手部图像数据集收集与预处理
 3.1.3 数据增强与标准化
3.2 基于K-means的穿戴甲聚类分析
 3.2.1 特征设计与提取
 3.2.2 聚类过程与类别释义
3.3 基于ResNet50的图像深度特征提取模型
 3.3.1 模型选型与调整
 3.3.2 特征向量生成
3.4 匹配与推荐算法设计(结合聚类结果与深度特征进行相似度计算与排序)

第4章 智能搭配推荐系统的设计与实现
4.1 系统总体架构设计(展示前后端及算法模块的组成)
4.2 系统功能模块详细设计
 4.2.1 用户交互模块
 4.2.2 图像处理模块
 4.2.3 核心推荐引擎模块
 4.2.4 结果展示模块
4.3 系统开发环境与工具

第5章 系统测试与结果分析
5.1 实验设计与评价指标(说明测试数据、评估方法,如准确率、多样性、用户满意度等)
5.2 核心模型性能分析(展示聚类效果、特征提取有效性等)
5.3 系统功能测试与示例展示(展示系统运行界面和典型推荐案例)
5.4 结果讨论与系统局限性分析
5.5 未来优化与扩展方向
要写论文和修改论文
插件开发(已完成)
¥2500
就是根据网站的积分规则只要我批量导入账号就能够自动获取积分的一个插件
网站:https://basic.smartedu.cn/
登录有滑块验证
数据标注(已完成)
¥200
看监控然后标注一下车牌号 什么时间进来的 什么时间走的 然后是哪个车位 一共三天 明天下午七点前
基于知识图谱的电影推荐系统的设计与实现(已接单)
¥1500
具体项目需求与甲方沟通,要写论文包修改
二手交易平台(已完成)
¥200
角色权限
角色1:普通用户
1.基础操作:账号注册、密码登录、退出登录、个人信息(昵称/地址)修改;
2.商品操作:发布二手商品(上传图片、填写详情)、编辑/下架/删除自有商品、浏览全平台商品、商品搜索/筛选/排序、查看商品详情、收藏商品;
3.交易操作:发起商品购买、生成订单、支付状态模拟、查看全状态订单列表、取消待付款订单、确认收货;
4.评价操作:对已完成订单的商品/卖家进行星级+文字评价,查看自身评价记录。
角色2:系统管理员
1.用户管理:查看全平台用户列表、禁用/启用用户账号、检索用户信息;
2.商品管理:审核待上架商品(通过/驳回)、下架违规商品、置顶优质商品、检索商品信息;
3.订单管理:查看所有订单列表、跟踪订单状态、处理异常订单、检索订单;
4.系统管理:发布/编辑/删除系统公告、查看系统核心数据统计、清理平台无效数据。
核心功能模块详细设计
模块1:用户认证与个人中心模块
用户注册&登录
1.注册:输入账号密码注册
2.登录:账号密码登录
个人中心
1.个人资料:查看/修改头像、昵称、手机号、收货地址
2.我的商品:分页展示自有商品(区分「审核中/已上架/已下架」),支持商品编辑、下架、删除操作,可快速重新发布下架商品;
3.我的订单:按状态分类展示(待付款、待发货、待收货、已完成、已取消),支持订单详情查看、待付款订单取消、待收货订单确认、订单筛选;
4.我的收藏:展示所有收藏商品,支持取消收藏、从收藏页直接发起购买;
5.安全设置:修改登录密码;
6.我的评价:展示自身发布的所有评价,支持查看评价对应的订单与商品。
模块2:商品核心模块
商品发布
1.商品信息填写:必填项+选填项清晰区分,包含「商品名称、商品分类、原价、二手价、新旧程度、商品描述、交易方式、交易地址」;
○分类预设:数码产品、服饰鞋帽、书籍教辅、家居用品、文体器材、其他,等等;
○新旧程度:全新、9成新、8成新、7成及以下;
○交易方式:支持「自提」「邮寄」二选一,需填写对应地址;
2.图片上传:支持多图上传(最多5张)
3.发布规则:发布后商品进入「待审核」状态,管理员审核通过后正式上架展示。
商品展示与检索
1.首页展示:按「发布时间/热度」排序展示商品列表,卡片式呈现商品封面、名称、二手价、新旧程度、卖家昵称;
2.商品详情:完整展示商品所有信息(图片轮播、价格、新旧程度、交易方式、地址、详情描述、卖家信息),提供「立即购买」「收藏」核心按钮;
3.精准检索:支持关键词模糊搜索(商品名称/描述)、分类筛选、价格区间筛选(最低价-最高价)、新旧程度筛选、排序筛选(价格升序/降序、发布时间),筛选条件可组合使用,实时刷新结果;
4.商品收藏:点击收藏按钮即可将商品加入收藏夹,重复点击取消收藏,收藏状态实时展示。
模块3:订单与交易模块
订单生成与状态管理(核心必实现)
1.下单流程:用户点击商品详情「立即购买」→ 确认商品信息+选择收货地址+用户手机号 → 生成唯一订单(订单号格式:时间戳+用户ID)→ 进入「待付款」状态;
2.订单状态流转:
✔️ 待付款 → 用户点击「支付」→ 状态更新为「待发货」;
✔️ 待发货 → 卖家后台点击「确认发货」→ 状态更新为「待收货」;
✔️ 待收货 → 买家点击「确认收货」→ 状态更新为「已完成」;
✔️ 待付款 → 买家点击「取消订单」→ 状态更新为「已取消」;
3.订单详情:展示订单号、商品信息、成交价格、交易方式、收货地址、订单状态、创建时间、买卖双方信息,信息完整可追溯。
交易评价
1.评价触发:仅当订单状态变为「已完成」后,买卖双方可互相评价;
2.评价内容:支持「1-5星星级评分」+「文字评价」,评价提交后不可修改,展示在商品详情页与对方个人主页;
3.评价管控:管理员可在后台查看所有评价,删除违规评价内容。
模块4:管理员后台模块
管理员基础操作
1.独立登录:专属管理员登录入口,账号密码在数据库初始化时预设,验证通过后进入后台;
2.后台首页:数据概览面板,展示平台核心数据(商品总数、订单总数、用户总数、今日新增商品/订单/用户),ECharts可视化图表(柱状图/折线图)。
全业务管控
1.用户管理:分页展示全平台用户列表,支持按用户名/手机号检索,可一键「禁用/启用」用户账号,禁用后用户无法登录;
2.商品管理:分页展示所有商品(区分「审核中/已上架/已下架」),核心操作:
✔️ 审核商品:待审核商品支持「通过」(上架)/「驳回」(填写驳回理由,商品退回至卖家);
✔️ 管控商品:对已上架商品进行「下架」「置顶」操作,置顶商品在首页优先展示;
3.订单管理:分页展示所有订单,支持按订单号/用户名检索,查看订单完整详情;

项目技术栈:

项目需求描述:

项目接单要求:

项目如何接单:

课程分类

百战程序员微信公众号

百战程序员微信小程序

©2014-2026百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园
网站维护:百战汇智(北京)科技有限公司
京公网安备 11011402011233号    京ICP备18060230号-3    营业执照    经营许可证:京B2-20212637