Skip to content

模型

提示

这是一个额外订阅功能。价格为$50/年,订阅后生效。

Frigate+ 提供基于Frigate+用户从安防摄像头提交的图像训练的模型,这些模型专门为Frigate分析视频的方式设计。这些模型能以更少资源提供更高准确性。您上传的图像用于微调一个基于所有Frigate+用户上传图像训练的基础模型,最终得到一个针对您特定环境优化的高精度模型。

信息

订阅后基础模型不会直接可用。未来可能会改变,但目前您需要提交包含最低数量图像的模型请求。

订阅后,每年可进行 12 次模型训练以微调您的模型。此外,在您的订阅有效期内,您将可以使用任何已发布的基础模型。如果您取消订阅,您仍可访问您账户中的任何已训练模型和基础模型。提交模型请求或购买额外训练需有有效订阅。新的基础模型按季度发布,目标发布日期为 1 月 15 日、4 月 15 日、7 月 15 日和 10 月 15 日。

集成Frigate+的方法请参阅集成文档

可用模型类型

Frigate+提供三种模型类型:mobiledetyolonasyolov9。所有都是目标检测模型,能检测下方列出的相同标签

不是所有检测器都支持所有模型类型,请根据支持的检测器类型表格选择匹配您检测器的模型。你可以通过先使用基础模型,在你的硬件上测试模型类型的兼容性和速度。

模型类型描述
mobiledet基于与Frigate默认模型相同的架构。可在Google Coral设备和CPU上运行。
yolonas新架构,精度略高且对小目标检测有改进。支持Intel、NVIDIA GPU和AMD GPU。
yolov9一款处于行业领先水平的SOTA(最先进技术)目标检测模型,其性能与YoloNAS相当,但支持更广泛的硬件平台。该模型可在Intel、NVIDIA GPU、AMD GPU、Hailo、MemryX*、Apple Silicon*以及瑞芯微NPU上运行。

* 将会在0.17支持

YOLOv9信息

YOLOv9 模型提供 st 两种尺寸规格。当您申请 yolov9模型时,系统将提示您选择具体尺寸。如果你不确定该选择哪种尺寸,建议您先对基础模型进行测试,以找到符合您需求的性能水平。其中,s 尺寸在推理速度和精度方面与当前的 yolonas 模型最为接近,若想入手体验,推荐从320x320分辨率的 yolov9s 模型开始尝试。

信息

切换到 YOLOv9 时,您可能需要针对某些目标调整检测阈值。

Hailo 支持

如果您使用的是Hailo设备,在提交模型请求时需要明确说明您的具体硬件型号,因为Hailo的不同硬件之间并不兼容。建议您先使用现有的基础模型进行测试,然后再提交模型训练请求。

Rockchip (RKNN) 支持

在 0.16 版本中,YOLOv9 的 ONNX 模型需要手动转换。首先,您需要配置 Frigate 使用该 YOLOv9 ONNX 模型的模型 ID,以便将模型下载到您的 model_cache目录。然后,您可以按照相关文档进行转换。自动转换功能将在 0.17 版本中推出。

支持的检测器类型

目前Frigate+模型支持CPU(cpu)、Google Coral(edgetpu)、OpenVino(openvino)和ONNX(onnx)检测器。

警告

Frigate+模型与onnx检测器的配合使用仅限Frigate 0.15及以上版本。

硬件推荐检测器类型推荐模型类型
CPUcpumobiledet
Coral(所有形态)edgetpumobiledet
Intelopenvinoyolov9
NVIDIA GPU*onnxyolov9
AMD ROCm GPU*onnxyolov9
Hailo8/Hailo8L/Hailo8Rhailo8lyolov9
Rockchip NPU*rknnyolov9

* 0.16版本需要手动转换,0.17版本将支持自动转换。

改进你的模型

一些用户可能会发现,Frigate+ 模型最初会产生更多误报,但通过提交正确识别和误报的样本,模型将会得到改进。随着订阅者提交所有这些新图像,未来的基础模型会因纳入越来越多的示例而得到提升。请注意,在训练模型时,只会使用至少有一个已验证标签的图像。将 Frigate 中的图像作为正确识别或误报提交,并不能验证该图像。您仍必须在 Frigate+ 中验证该图像,以便将其用于训练。

  • 同时提交正确识别和误报的样本。这将帮助模型区分正确与错误。在您所有的图像中,您应争取达到正确识别样本提交占比 80%,误报样本提交占比 20% 的目标。如果您在特定区域遇到误报情况,提交该区域附近在相似光照条件下任何物体类型的正确识别样本,将有助于教会模型在没有物体时该区域的样子。
  • 稍微降低阈值,以便在阈值附近生成更多误报/正确识别样本。例如,如果您有一些误报得分是 68%,一些正确识别得分是 72%,您可以尝试将阈值降低到 65%,并提交该范围内的正确识别和误报样本。这将帮助模型学习,并扩大正确识别得分与误报得分之间的差距。
  • 提交多样化的图像。为获得最佳效果,每台摄像机您应至少提供 100 张已验证图像。请记住,应涵盖不同的条件。您需要阴天、晴天、黎明、黄昏和夜晚的图像。随着情况的变化,您可能需要提交新的示例来应对新类型的误报。例如,从夏季到冬季下雪天的变化,或者诸如新增烤架或露台家具等其他变化,可能都需要额外的示例和训练。

可用标签类型

Frigate+模型支持更适合安防摄像头的对象集。当前支持以下对象:

  • 人物personface
  • 车辆carmotorcyclebicycleboatschool_buslicense_plate
  • 快递标识amazonuspsupsfedexdhlan_postpurolatorpostnlnzpostpostnordglsdpdcanada_postroyal_mail
  • 动物dogcatdeerhorsebirdraccoonfoxbearcowsquirrelgoatrabbitskunkkangaroo
  • 其他packagewaste_binbbq_grillrobot_lawnmowerumbrella

Frigate默认模型中的其他对象类型暂不支持。未来版本将增加更多对象类型。

候选标签

候选标签也可用于标注。这些标签目前没有足够的数据纳入模型,但使用它们将有助于更快地提供支持。你可以通过编辑相机设置来启用这些标签。 在可能的情况下,这些标签在训练期间会映射到现有标签。例如,在添加对新标签的支持之前,任何 “婴儿”(baby) 标签都会映射到 “人”(person)。

候选标签有:baby, bpost, badger, possum, rodent, chicken, groundhog, boar, hedgehog, tractor, golf cart, garbage truck, bus, sports ball

候选标签无法使用自动建议。

标签属性

使用Frigate+模型时,某些标签有特殊处理方式。facelicense_plate及快递标识如amazonupsfedex被视为属性标签,不会像常规对象那样被追踪,也不会直接生成核查项。此外,threshold过滤器对这些标签无效,您需要根据需要调整min_score和其他过滤值。

要启用这些属性标签,需将其添加到追踪对象列表:

yaml
objects:
  track:
    - person
    - face
    - license_plate
    - dog
    - cat
    - car
    - amazon
    - fedex
    - ups
    - package

使用Frigate+模型时,系统会为人物对象选择面部最清晰的快照,为车辆选择车牌最清晰的快照。这有助于面部识别和车牌识别等二次处理。

面部属性示例

快递标识如amazonupsfedex用于自动为车辆对象分配子标签。

Fedex属性示例

最近更新