Перейти к основному содержимому
Версия: 3.17.3

Принадлежность лица реальному человеку

В этом разделе вы узнаете, как интегрировать компонент Liveness Estimator в ваш проект на C++ или Python для оценки принадлежности лица реальному человеку ("живость").

2D RGB Оценка принадлежности лица реальному человеку (C++/Python)

1. Создание Liveness Estimator

1.1 Для создания Liveness Estimator, выполните шаги 1-3, описанные на странице Создание процессинг-блока и укажите следующие значения:

  • "LIVENESS_ESTIMATOR" для ключа "unit_type";
  • Пустую строку "" для ключа "model_path".
configCtx["unit_type"] = "LIVENESS_ESTIMATOR";
configCtx["model_path"] = "";

// опционально, значения по умолчанию указаны после знака "="
// пути указаны для примеров, расположенных в <sdk_dir>/bin
configCtx["sdk_path"] = "..";
configCtx["capturer_config_name"] = "common_capturer_uld_fda.xml";
configCtx["config_name"] = "liveness_2d_estimator_v3.xml";
configCtx["facerec_conf_dir"] = sdk_dir + "/conf/facerec";
configCtx["dll_path"] = "facerec.dll"; // для Windows
// или
configCtx["dll_path"] = sdk_dir + "/lib/libfacerec.so"; // для Linux

Списки существующих конфигурационных файлов можно найти в разделах:

1.2 Создание процессинг-блока Liveness Estimator:

pbio::ProcessingBlock livenessEstimator = service->createProcessingBlock(configCtx);

2. Оценка лица

2.1 Создайте Context-контейнер ioData для данных ввода-вывода, используя метод createContext():

auto ioData = service->createContext();

2.2 Создайте Context-контейнер imgCtx с RGB-изображением, выполнив шаги, описанные на странице Создание контейнера Context c RGB-изображением:

# копирование изображения в бинарный формат
input_rawimg = image.tobytes()
# помещение изображения в контейнер
imageCtx = {
"blob": input_rawimg,
"dtype": "uint8_t",
"format": "NDARRAY",
"shape": [dim for dim in img.shape]
}

2.3 Поместите исходное изображение в контейнер данных ввода-вывода:

ioData["image"] = imgCtx;

2.4 Вызовите livenessEstimator и передайте Context-контейнер ioData, содержащий изображение:

livenessEstimator(ioData);

Для точной оценки требуется присутствие в кадре лица только одного человека, смотрящего в камеру, иначе будет возвращен статус "MULTIPLE_FACE_FRAMED".

Если на изображении обнаружено несколько лиц, будет обработано только одно из них (порядок не гарантируется).

Метод livenessEstimator() добавит результат обработки сэмплов (изображений) в контейнер ioData. Формат выходных данных представляет собой список объектов, доступный по ключу "objects". Каждый объект списка имеет ключ "class" со значением "face".

По ключу "liveness" доступен объект Context, содержащий 3 элемента:

  • ключ "confidence" со значением типа double в диапазоне [0,1]
  • ключ "value" со значением типа string, которое соответствует одному из состояний pbio::Liveness2DEstimator::Liveness
  • ключ "info" со значением типа string, которое соответствует одному из двух состояний: "REAL" или "FAKE"
/*
{
"objects": [{ "bbox": [x1, y2, x2, y2],
"class": "face",
"id": {"type": "long", "minimum": 0},
"liveness": {
"confidence": {"type": "double", "minimum": 0, "maximum": 1},
"info": {
"enum": ["FACE_NOT_FULLY_FRAMED", "MULTIPLE_FACE_FRAMED",
"FACE_TURNED_RIGHT", "FACE_TURNED_LEFT", "FACE_TURNED_UP", "FACE_TURNED_DOWN",
"BAD_IMAGE_LIGHTING", "BAD_IMAGE_NOISE", "BAD_IMAGE_BLUR", "BAD_IMAGE_FLARE",
"NOT_COMPUTED"]
},
"value": {
"enum": ["REAL", "FAKE"]
}
}
}]
}
*/
примечание

Примеры использования Liveness Estimator:

3. Ускорение на GPU

Процессинг-блок Liveness Estimator не поддерживает ускорение на GPU.