我有一组图像用于训练:对于两个人,10 个图像和 80 个不同人的图像来检查识别的可靠性。有 3 个参考图像,每个人 1 个,与 10 个人共享一个(包括前两个和 80 个中的一些)。在所有图像中,这些人都位于正面。作为对所有 3 个控制图像进行识别的结果,最好识别使用 10 个图像对其进行训练的两个人。问题是所有 3 种算法(LBPH、Fisherfaces、Eigenfaces)都不能处理这个任务(在一个或两个图像上他们用另一个人标记一个人,并且只有一个训练图像),显然,我有一个错误在训练或识别序列的某个地方,或者我没有考虑到某些事情。
添加用于训练的图像:
- 计算用于灰度训练的图像
- 确定人脸的位置,并根据这个位置制作新的图像
- 对于 LBPH 以外的算法,将图像设置为相同的尺寸(我仍然无法确定最好使用哪种尺寸,我随机戳了不同的尺寸)
- 直方图均衡
- 添加到一个向量然后将进入训练
添加图像进行识别:
- 以灰度和每次执行确定图像中的所有人脸
- 根据位置制作新图像
- 对于 LBPH 以外的算法,将图像设置为相同大小
- 直方图均衡
- 送去表扬
我很乐意接受任何建议并回答您的问题,感谢您的帮助!
作为教育过程的一部分,我执行了你的任务(只是这三个算法),这里是github
简而言之,他从相机中拍摄了一张图像,并从本地数据库(一组图像)中确定了这个人是谁。有一种形式,您可以在其中扭曲所有三种算法的参数
但是github不允许项目中加载emgu库,因为 它们太重,您必须手动添加它们
如有必要,我可以通过其他资源单独下载它们。
人脸识别过程可以分为3个阶段:
OpenCV 为第 1 阶段和第 3 阶段提供实用程序,但第 2 阶段(最困难的)将责任推给用户。算法 LBPH、Fisherfaces、Eigenfaces 在专门准备的图像(归一化)上实现了 90% 的识别准确率。如果您选择 AT&T,您会看到它们具有所有图像:它们具有相同的大小(宽度和高度),都经过标准化灰度化,纯色背景,面部基于锚点居中和对齐,以及其他规范化方法。规范化过程的一个例子。OpenCV中使用的识别算法的解析和分析。AT&T 人脸数据库。
因此,在我的案例中,识别准确率低的问题是图像的归一化水平低。为了提高准确度,您需要添加各种算法进行图像归一化,或者使用基于神经网络和机器学习的更现代的算法进行识别。
根据文章中的算法进行归一化后,定义的准确性显着提高(我根据眼睛的位置添加了图像的旋转和缩放)。