人脸识别核心是将人脸转为128维特征向量,用face_recognition提取、SVM/KNN分类,需规范数据组织、标准化与阈值比对。

用Python做人脸识别,核心是把人脸变成一串有区分度的数字(特征向量),再用这些数字训练模型做比对或分类。不依赖黑盒API,从特征提取到模型训练,关键在选对工具链、数据组织合理、训练目标明确。
用dlib或face_recognition提取128维人脸特征
推荐初学者从 face_recognition 入手——它底层调用dlib的HOG+CNN人脸检测器和预训练ResNet模型,一行代码就能得到稳定可靠的128维特征向量。
- 安装:pip install face_recognition(注意需先装dlib,Windows用户建议用conda安装)
- 提取单张人脸特征:
encoding = face_recognition.face_encodings(image)[0],返回长度为128的numpy数组 - 一张图含多张脸?用
face_recognition.face_locations()先定位,再逐区域编码,避免混入背景干扰 - 注意图像格式:必须是RGB(不是BGR),且像素值为uint8(0–255),OpenCV读图后记得
cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
构建带标签的人脸特征数据集(非原始图像)
真正训练时,你不需要反复加载和编码原始图片——那样太慢。应该提前把所有人脸转成特征向量+标签,存成结构化数据。
- 遍历每人多张照片,提取特征并打上姓名/ID标签,汇总为两个numpy数组:
X(shape: N×128)和y(shape: N,) - 保存为.npz文件:
np.savez('face_data.npz', X=X, y=y, names=names),下次直接加载,秒级就绪 - 每人至少3–5张不同角度/光照的照片,避免单样本过拟合;剔除模糊、遮挡严重或编码失败(len(encoding)==0)的样本
用SVM或KNN做轻量级身份分类训练
128维特征本身已具备强判别性,无需复杂深度网络。传统机器学习模型足够胜任小规模人脸识别(几十到几百人)。
立即学习“Python免费学习笔记(深入)”;
- KNN最直观:
from sklearn.neighbors import KNeighborsClassifier,k设为3–5,适合快速验证流程 - SVM更鲁棒:
from sklearn.svm import SVC,推荐用rbf核,配合GridSearchCV调参(C和gamma) - 训练前务必标准化:
from sklearn.preprocessing import StandardScaler,虽然128维特征本身分布较均衡,但标准化能提升SVM收敛稳定性 - 交叉验证不可少:用
cross_val_score看平均准确率,避免因数据划分偶然性高估效果
部署时用特征比对替代实时训练
上线后,模型固定,新来的人脸只需提取特征,与已有特征库比对距离(如欧氏距离),设定阈值即可判断是否为注册用户或未知人脸。
- 比对逻辑示例:
distances = np.linalg.norm(known_encodings - unknown_encoding, axis=1),取最小距离对应ID - 阈值经验参考:face_recognition默认0.6,低于此值认为匹配;实际项目中建议用测试集绘制距离分布直方图,按误识率(FAR)反推合理阈值
- 不推荐在线训练模型(如持续fit新样本),易导致概念漂移;新增人员应走“特征提取→追加数据→离线重训”闭环
基本上就这些。特征提取靠成熟库保底,数据组织决定扩展性,模型选择讲求实效——不复杂但容易忽略细节。










