基于深度学习的红外镜头下的行人识别系统演示与介绍(YOLOv12/v11/v8/v5模型+Django+web+训练代码+数据集)

张开发
2026/4/6 19:49:47 15 分钟阅读

分享文章

基于深度学习的红外镜头下的行人识别系统演示与介绍(YOLOv12/v11/v8/v5模型+Django+web+训练代码+数据集)
视频演示基于深度学习的红外镜头下的行人识别系统目录视频演示1. 前言​2. 项目演示2.1 用户登录界面2.2 主界面布局2.3 个人信息管理2.4 多模态检测展示2.5 检测结果保存2.6 多模型切换2.7 识别历史浏览2.8 管理员管理用户信息2.9 管理员管理识别历史3.模型训练核心代码4. 技术栈5. YOLO模型对比与识别效果解析5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比5.2 数据集分析5.3 训练结果6. 源码获取方式1. 前言​大家好欢迎来到 Coding 茶水间今天要为大家介绍的是一款已落地的成品项目 ——基于 YOLO 算法的红外行人识别系统。在安防监控、夜间巡检、恶劣环境监测等领域的智能化升级中红外画面下的行人精准检测是保障全天候安全防控、提升识别可靠性的关键但传统人工监控模式存在夜间可视性差、易漏检、响应不及时的弊端而算法开发与系统集成又面临专业门槛高、调试周期长的痛点。本项目精准解决这一核心需求本次展示的系统不仅集成了 YOLO 多版本模型加载、图片 / 视频 / 文件夹批量检测、摄像头实时流分析等核心功能还加入了目标类别过滤、检测数据导出、识别历史追溯及模型选择模块同时支持语音播报、脚本化无界面检测与模型自主训练旨在提供开箱即用、可适配不同红外场景行人检测需求的一站式解决方案。接下来让我们通过详细的功能演示一同探索这套系统的技术细节与应用价值。2. 项目演示2.1用户登录界面登录界面布局简洁清晰用户需输入用户名、密码验证后登录系统。2.2主界面布局主界面采用三栏结构左侧为功能操作区中间用于展示检测画面右侧呈现目标详细信息布局合理交互流畅。2.3个人信息管理用户可在此模块中修改密码或更换头像个人信息支持随时更新与保存。2.4多模态检测展示系统支持图片、视频及摄像头实时画面的目标检测。识别结果将在画面中标注显示并且带有语音播报提醒并在下方列表中逐项列出。点击具体目标可查看其类别、置信度及位置坐标等详细信息。2.5 检测结果保存可以将检测后的图片、视频进行保存生成新的图片和视频新生成的图片和视频中会带有检测结果的标注信息并且还可以将所有检测结果的数据信息保存到excel中进行方便查看检测结果。2.6多模型切换系统内置多种已训练模型用户可根据实际需求灵活切换以适应不同检测场景或对比识别效果。2.7 识别历史浏览系统内支持用户对识别历史进行浏览以方便用户查看历史识别记录可以对识别历史的结果图片进行一个点击放大。2.8 管理员管理用户信息系统内支持管理员端的登录操作登录以后可以对用户信息进行编辑修改和删除以方实现对用户信息的管理操作。2.9 管理员管理识别历史系统内支持管理员对识别历史的单条和多条历史记录的一个浏览和删除操作以方便管理员对识别历史进行管理。3.模型训练核心代码本脚本是YOLO模型批量训练工具可自动修正数据集路径为绝对路径从pretrained文件夹加载预训练模型按设定参数100轮/640尺寸/批次8一键批量训练YOLOv5nu/v8n/v11n/v12n模型。# -*- coding: utf-8 -*- 该脚本用于执行YOLO模型的训练。 它会自动处理以下任务 1. 动态修改数据集配置文件 (data.yaml)将相对路径更新为绝对路径以确保训练时能正确找到数据。 2. 从 pretrained 文件夹加载指定的预训练模型。 3. 使用预设的参数如epochs, imgsz, batch启动训练过程。 要开始训练只需直接运行此脚本。 import os import yaml from pathlib import Path from ultralytics import YOLO def main(): 主训练函数。 该函数负责执行YOLO模型的训练流程包括 1. 配置预训练模型。 2. 动态修改数据集的YAML配置文件确保路径为绝对路径。 3. 加载预训练模型。 4. 使用指定参数开始训练。 # --- 1. 配置模型和路径 --- # 要训练的模型列表 models_to_train [ {name: yolov5nu.pt, train_name: train_yolov5nu}, {name: yolov8n.pt, train_name: train_yolov8n}, {name: yolo11n.pt, train_name: train_yolo11n}, {name: yolo12n.pt, train_name: train_yolo12n} ] # 获取当前工作目录的绝对路径以避免相对路径带来的问题 current_dir os.path.abspath(os.getcwd()) # --- 2. 动态配置数据集YAML文件 --- # 构建数据集yaml文件的绝对路径 data_yaml_path os.path.join(current_dir, train_data, data.yaml) # 读取原始yaml文件内容 with open(data_yaml_path, r, encodingutf-8) as f: data_config yaml.safe_load(f) # 将yaml文件中的 path 字段修改为数据集目录的绝对路径 # 这是为了确保ultralytics库能正确定位到训练、验证和测试集 data_config[path] os.path.join(current_dir, train_data) # 将修改后的配置写回yaml文件 with open(data_yaml_path, w, encodingutf-8) as f: yaml.dump(data_config, f, default_flow_styleFalse, allow_unicodeTrue) # --- 3. 循环训练每个模型 --- for model_info in models_to_train: model_name model_info[name] train_name model_info[train_name] print(f\n{*60}) print(f开始训练模型: {model_name}) print(f训练名称: {train_name}) print(f{*60}) # 构建预训练模型的完整路径 pretrained_model_path os.path.join(current_dir, pretrained, model_name) if not os.path.exists(pretrained_model_path): print(f警告: 预训练模型文件不存在: {pretrained_model_path}) print(f跳过模型 {model_name} 的训练) continue try: # 加载指定的预训练模型 model YOLO(pretrained_model_path) # --- 4. 开始训练 --- print(f开始训练 {model_name}...) # 调用train方法开始训练 model.train( datadata_yaml_path, # 数据集配置文件 epochs100, # 训练轮次 imgsz640, # 输入图像尺寸 batch8, # 每批次的图像数量 nametrain_name, # 模型名称 ) print(f{model_name} 训练完成) except Exception as e: print(f训练 {model_name} 时出现错误: {str(e)}) print(f跳过模型 {model_name}继续训练下一个模型) continue print(f\n{*60}) print(所有模型训练完成) print(f{*60}) if __name__ __main__: # 当该脚本被直接执行时调用main函数 main()4. 技术栈语言Python 3.10前端界面bootstrap后端django数据库SQLite存储用户信息模型YOLOv5、YOLOv8、YOLOv11、YOLOv125. YOLO模型对比与识别效果解析5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比基于Ultralytics官方COCO数据集训练结果模型尺寸(像素)mAPval 50-95速度(CPU ONNX/毫秒)参数(M)FLOPs(B)YOLO12n64040.6-2.66.5YOLO11n64039.556.1 ± 0.82.66.5YOLOv8n64037.380.43.28.7YOLOv5nu64034.373.62.67.7关键结论精度最高YOLO12nmAP 40.6%显著领先其他模型较YOLOv5nu高约6.3个百分点速度最优YOLO11nCPU推理56.1ms比YOLOv8n快42%适合实时轻量部署效率均衡YOLO12n/YOLO11n/YOLOv8n/YOLOv5nu参数量均为2.6MFLOPs较低YOLO12n/11n仅6.5BYOLOv8n参数量3.2M与计算量8.7B最高但精度优势不明显。综合推荐追求高精度优先选YOLO12n精度与效率兼顾需高速低耗选YOLO11n速度最快且精度接近YOLO12nYOLOv5nu/YOLOv8n因性能劣势无特殊需求时不建议首选。5.2 数据集分析数据集中训练集和验证集一共3300张图片数据集目标类别1种数据集配置代码如下上面的图片就是部分样本集训练中经过数据增强后的效果标注。5.3 训练结果混淆矩阵显示中识别精准度显示是一条对角线方块颜色越深代表对应的类别识别的精准度越高。F1指数F1 Score是统计学和机器学习中用于评估分类模型性能的核心指标综合了模型的精确率Precision和召回率Recall通过调和平均数平衡两者的表现。当置信度为0.446时所有类别的综合F1值达到了0.85蓝色曲线。mAP0.5是目标检测任务中常用的评估指标表示在交并比IoU阈值为0.5时计算的平均精度均值mAP。其核心含义是只有当预测框与真实框的重叠面积IoU≥50%时才认为检测结果正确。图中可以看到综合mAP0.5达到了0.91491.4%。6. 源码获取方式源码获取方式https://www.bilibili.com/video/BV1dLcBzSEFm/

更多文章