Чего я пытаюсь достичь
- Готовая модель живости лица, которая работает на:
воспроизведение экрана телефона - распечатанные фотографии
- различные условия освещения
- различные оттенки кожи и устройства
[*]Фокус делается на реальной точности, а не на результатах тестов
Что я пробовал
- Обучение моделей жизнеспособности RGB на основе CNN (варианты MobileNet)
- Использование смешанных наборов данных (реальных и поддельных):
изображения, воспроизводимые с телефона - атаки с использованием печатных фотографий
- изображения, собранные пользователем
[*]Применение стандартной предварительной обработки:
- распознавание лиц + кадрирование
- нормализация
Несмотря на это:
- Поддельные изображения (особенно повторы с телефона) часто классифицируются как ЖИВЫЕ
- Модели хорошо работают на проверочных наборах, но не работают при реальном использовании
- Повышение порогов достоверности помогает лишь частично
- Нет камеры глубины/ИК-датчика (только RGB)
- Необходимо работать на пользовательском Android устройств
- Задержка и размер модели имеют значение
- Предпочитаю решения, которые можно реально развернуть в производстве
- Рекомендуется наборы данных, которые хорошо обобщаются для реальных поддельных атак.
- Стратегии обучения, которые действительно повышают надежность (а не только точность тестов)
- Является ли Жизнеспособность только RGB фундаментально ограниченной для промышленного использования
- Предложения по лучшие подходы (например, основанные на движении, метод «запрос-ответ», гибридные методы)
- Любые проверенные на практике модели или форматы, подходящие для мобильных устройств (ONNX / TFLite)
Мне не нужна точность на демонстрационном уровне или академические результаты.
Мне нужно что-то, что надежно работает в реальных условиях пользователя.
Любые рекомендации от людей, которые внедрили определение активности в производственной среде, будут очень полезны.
Подробнее здесь: https://stackoverflow.com/questions/798 ... r-real-wor
Мобильная версия