0

0

浏览器端基于face-api.js的多人脸识别系统构建与优化

DDD

DDD

发布时间:2025-10-20 11:07:00

|

324人浏览过

|

来源于php中文网

原创

浏览器端基于face-api.js的多人脸识别系统构建与优化

本教程详细探讨了在浏览器中使用face-api.js构建多人脸识别系统时,如何解决人脸误识别的问题。核心在于正确地为每个用户生成独立的标签化人脸描述符(labeledfacedescriptors),并利用facematcher进行高效准确的匹配。文章提供了完整的svelte代码示例,涵盖模型加载、视频流处理、多脸检测、特征提取及识别匹配等关键环节,旨在帮助开发者构建稳定可靠的浏览器端人脸识别应用。

浏览器端人脸识别概述与face-api.js

在现代Web应用中集成人脸识别功能,通常需要利用JavaScript库来处理复杂的计算机视觉任务。face-api.js 是一个强大的库,它基于TensorFlow.js,提供了在浏览器环境中进行人脸检测、面部特征点定位、表情识别和人脸识别等功能。它利用预训练的深度学习模型,可以在客户端直接对图像或视频流进行实时分析,无需将数据发送到服务器,从而提高了隐私性和响应速度。

然而,在构建多人脸识别系统时,开发者可能会遇到一个常见问题:系统能够识别已保存的人脸,但在同一画面中存在多张已知人脸时,却可能将所有人脸都识别为同一个人,尽管它能正确识别出“未知”人脸。这通常是由于人脸描述符的存储和匹配逻辑存在缺陷。

核心问题分析:标签化人脸描述符的错误使用

问题的根源在于如何为每个已知用户(例如示例中的customer)创建和管理其人脸描述符。原始代码的getLabeledFaceDescriptions函数存在一个关键逻辑错误:它将所有客户的人脸描述符都累积到一个共享的全局descriptions数组中,然后尝试为每个客户使用这个包含所有人脸描述符的共享数组来创建faceapi.LabeledFaceDescriptors对象。

faceapi.LabeledFaceDescriptors的构造函数期望接收一个标签(例如客户的姓名)和一个只包含该标签对应人脸描述符的数组。当所有LabeledFaceDescriptors对象都引用同一个包含所有描述符的数组时,FaceMatcher在进行匹配时就无法区分不同的人脸,因为它认为所有标签都指向了同一组特征。这导致了无论识别到哪张已知人脸,系统都可能返回第一个或最“突出”的标签。

解决方案:正确构建与匹配标签化人脸描述符

要解决上述问题,我们需要确保每个LabeledFaceDescriptors实例只包含其对应人物的特征描述符。以下是实现这一目标的步骤和代码优化:

1. 模型加载与初始化

首先,确保所有必要的face-api.js模型已正确加载。这包括用于人脸检测的ssdMobilenetv1模型、用于特征点定位的faceLandmark68Net模型以及用于人脸识别的faceRecognitionNet模型。

吐槽大师
吐槽大师

吐槽大师(Roast Master) - 终极 AI 吐槽生成器,适用于 Instagram,Facebook,Twitter,Threads 和 Linkedin

下载
import * as faceapi from 'face-api.js';
import { onMount, onDestroy } from 'svelte';

// ... (其他变量定义)

const detectionOptions = {
  withLandmarks: true,
  withDescriptors: true,
  minConfidence: 0.5,
  MODEL_URLS: {
    Mobilenetv1Model: "https://raw.githubusercontent.com/ml5js/ml5-data-and-models/main/models/faceapi/ssd_mobilenetv1_model-weights_manifest.json",
    FaceLandmarkModel: "https://raw.githubusercontent.com/ml5js/ml5-data-and-models/main/models/faceapi/face_landmark_68_model-weights_manifest.json",
    FaceRecognitionModel: "https://raw.githubusercontent.com/ml5js/ml5-data-and-models/main/models/faceapi/face_recognition_model-weights_manifest.json",
  },
};

// ... (onMount, onDestroy)

async function make() {
  video = await getVideo(); // 获取视频流
  canvas = createCanvas(width, height);
  ctx = canvas.getContext("2d");

  // 并行加载所有模型
  await Promise.all([
    faceapi.nets.ssdMobilenetv1.loadFromUri(detectionOptions.MODEL_URLS.Mobilenetv1Model),
    faceapi.nets.faceRecognitionNet.loadFromUri(detectionOptions.MODEL_URLS.FaceRecognitionModel),
    faceapi.nets.faceLandmark68Net.loadFromUri(detectionOptions.MODEL_URLS.FaceLandmarkModel),
  ]);
  console.log("Models loaded!");
  modelReady(); // 模型加载完成后调用
}

2. 正确构建 LabeledFaceDescriptors

这是解决问题的关键步骤。getLabeledFaceDescriptors函数需要修改为为每个客户独立地收集其人脸描述符,并用这些独立的描述符数组来创建LabeledFaceDescriptors对象。为了提高识别的鲁棒性,可以尝试从同一张图片或多张图片中提取多个描述符。

  let labeledFaceDescriptors = []; // 存储所有客户的 LabeledFaceDescriptors

  async function getLabeledFaceDescriptions() {
    const descriptorsPromises = $customers.map(async (customer) => {
      if (customer.image_url == null) return;

      const descriptorsForThisCustomer = []; // 为每个客户初始化一个独立的描述符数组
      // 尝试从同一图片获取多个描述符,增加鲁棒性
      for (let i = 0; i < 2; i++) { // 循环次数可调整
        try {
          const img = await faceapi.fetchImage($baseURL + customer.image_url);
          const face_detection = await faceapi
            .detectSingleFace(img)
            .withFaceLandmarks()
            .withFaceDescriptor();

          if (face_detection && face_detection.descriptor) {
            descriptorsForThisCustomer.push(face_detection.descriptor);
          }
        } catch (error) {
          console.warn(`Failed to process image for ${customer.name}:`, error);
        }
      }

      if (descriptorsForThisCustomer.length > 0) {
        // 使用独立的描述符数组创建 LabeledFaceDescriptors
        return new faceapi.LabeledFaceDescriptors(customer.name, descriptorsForThisCustomer);
      }
      return undefined; // 如果没有找到描述符,则返回undefined
    });

    // 等待所有客户的描述符生成完毕,并过滤掉undefined项
    labeledFaceDescriptors = (await Promise.all(descriptorsPromises)).filter(d => d !== undefined);
    console.log("Labeled Face Descriptors loaded:", labeledFaceDescriptors);
  }

3. 实时多人脸检测与匹配

在模型和LabeledFaceDescriptors准备就绪后,我们需要在视频流中实时检测所有可见人脸,并对每张人脸进行匹配。

  async function modelReady() {
    await getLabeledFaceDescriptions(); // 确保加载了标签化人脸描述符

    if (labeledFaceDescriptors.length === 0) {
      console.warn("No labeled face descriptors found. Recognition will not work.");
      return;
    }

    // 使用所有标签化人脸描述符初始化 FaceMatcher
    const faceMatcher = new faceapi.FaceMatcher(labeledFaceDescriptors, 0.6); // 0.6是匹配阈值,可根据需求调整

    const displaySize = {
      width: video.width,
      height: video.height
    };

    setInterval(async () => {
      // 检测视频流中的所有人脸
      const detections = await faceapi
        .detectAllFaces(video) // 使用 detectAllFaces
        .withFaceLandmarks()
        .withFaceDescriptors();

      // 调整检测结果的大小以适应显示尺寸
      const resizedDetections = faceapi.resizeResults(detections, displaySize);

      // 对每张检测到的人脸进行匹配
      const results = resizedDetections.map((d) =>
        faceMatcher.findBestMatch(d.descriptor)
      );

      // 绘制结果
      drawResults(resizedDetections, results);
    }, 100); // 每100毫秒检测一次
  }

4. 绘制结果与业务逻辑处理

drawResults函数负责在Canvas上绘制视频帧、人脸边界框和识别出的姓名。同时,可以根据识别结果触发相应的业务逻辑,例如显示客户信息。

  function drawResults(detections, results) {
    // 清空Canvas并绘制视频帧
    ctx.clearRect(0, 0, width, height);
    ctx.drawImage(video, 0, 0, width, height);

    if (detections && detections.length > 0) {
      for (let i = 0; i < detections.length; i++) {
        const detection = detections[i];
        const bestMatch = results[i];

        // 绘制人脸边界框
        const box = detection.detection.box; // 获取边界框信息
        ctx.beginPath();
        ctx.rect(box.x, box.y, box.width, box.height);
        ctx.strokeStyle = "#a15ffb";
        ctx.lineWidth = 2;
        ctx.stroke();
        ctx.closePath();

        // 绘制识别出的姓名
        const label = bestMatch.label; // 获取匹配到的标签(姓名)
        const distance = Math.round(bestMatch.distance * 100) / 100; // 匹配距离
        const displayText = `${label} (${distance})`;

        const textHeight = 16;
        ctx.font = `${textHeight}px Arial`;
        const textWidth = ctx.measureText(displayText).width;

        ctx.fillStyle = "#a15ffb";
        ctx.fillRect(box.x, box.y - textHeight - 8, textWidth + 8, textHeight + 8); // 绘制背景框
        ctx.fillStyle = "#000000";
        ctx.fillText(displayText, box.x + 4, box.y - 4); // 绘制文本

        // 处理匹配到的客户信息
        if (label !== "unknown") { // face-api.js默认使用"unknown"
          const matchedCustomer = $customers.find(
            (customer) => customer.name === label
          );
          if (matchedCustomer) {
            // 这里可以触发业务逻辑,例如调用外部函数显示客户详情
            // 注意:频繁调用 view_sales_function 可能会导致性能问题或重复操作,
            // 实际应用中可能需要加入去抖动 (debounce) 或只在首次识别时触发。
            // view_sales_function(matchedCustomer); 
          }
        }
      }
    }
  }

完整的Svelte组件代码示例

下面是一个集成了上述优化方案的Svelte组件代码示例。

<script>
  import * as faceapi from 'face-api.js';
  import { onMount, onDestroy } from 'svelte';
  // 假设 $customers 和 $baseURL 是 Svelte stores,用于获取客户数据和基础URL
  // import { customers, baseURL } from './stores'; // 示例导入,实际项目中可能不同
  // 模拟 Svelte stores,实际项目中应从 store.js 等文件导入
  let $customers = [{ name: 'Alice', image_url: 'https://i.pravatar.cc/150?img=1' }, { name: 'Bob', image_url: 'https://i.pravatar.cc/150?img=2' }];
  let $baseURL = ''; // 假设图片是绝对路径或相对路径,这里可留空或设置

  let video;
  let width = 640; // 调整视频宽度
  let height = 480; // 调整视频高度
  let canvas, ctx;
  let container;
  let labeledFaceDescriptors = []; // 存储所有客户的 LabeledFaceDescriptors

  const detectionOptions = {
    withLandmarks: true,
    withDescriptors: true,
    minConfidence: 0.5,
    MODEL_URLS: {
      Mobilenetv1Model: "https://raw.githubusercontent.com

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

531

2023.06.20

js获取当前时间
js获取当前时间

JS全称JavaScript,是一种具有函数优先的轻量级,解释型或即时编译型的编程语言;它是一种属于网络的高级脚本语言,主要用于Web,常用来为网页添加各式各样的动态功能。js怎么获取当前时间呢?php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

576

2023.07.28

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

760

2023.08.03

js是什么意思
js是什么意思

JS是JavaScript的缩写,它是一种广泛应用于网页开发的脚本语言。JavaScript是一种解释性的、基于对象和事件驱动的编程语言,通常用于为网页增加交互性和动态性。它可以在网页上实现复杂的功能和效果,如表单验证、页面元素操作、动画效果、数据交互等。

6255

2023.08.17

js删除节点的方法
js删除节点的方法

js删除节点的方法有:1、removeChild()方法,用于从父节点中移除指定的子节点,它需要两个参数,第一个参数是要删除的子节点,第二个参数是父节点;2、parentNode.removeChild()方法,可以直接通过父节点调用来删除子节点;3、remove()方法,可以直接删除节点,而无需指定父节点;4、innerHTML属性,用于删除节点的内容。

492

2023.09.01

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

221

2023.09.04

Js中concat和push的区别
Js中concat和push的区别

Js中concat和push的区别:1、concat用于将两个或多个数组合并成一个新数组,并返回这个新数组,而push用于向数组的末尾添加一个或多个元素,并返回修改后的数组的新长度;2、concat不会修改原始数组,是创建新的数组,而push会修改原数组,将新元素添加到原数组的末尾等等。本专题为大家提供concat和push相关的文章、下载、课程内容,供大家免费下载体验。

240

2023.09.14

js截取字符串的方法介绍
js截取字符串的方法介绍

JavaScript字符串截取方法,包括substring、slice、substr、charAt和split方法。这些方法可以根据具体需求,灵活地截取字符串的不同部分。在实际开发中,根据具体情况选择合适的方法进行字符串截取,能够提高代码的效率和可读性 。

303

2023.09.21

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 6万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 3.4万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号