Я хочу подключить внешнюю панорамную камеру к устройству iOS (iPhone), чтобы фиксировать жесты рук пользователей. В настоящее время я использую Unity для сборки iOS, и мне удалось без особых проблем отображать панорамные видео на моем iPhone с помощью плагинов Unity ARKit и ARFoundation.
Я бы хотел Узнайте, какую настройку лучше всего использовать для отладки, если я использую внешнюю камеру 360°, подключенную к iPhone. Я также рассматриваю возможность использования плагина Mediapipe Unity, чтобы можно было захватывать жесты рук с помощью камеры 360°, и мне бы хотелось иметь возможность визуализировать жесты рук в редакторе Unity. Я предполагаю, что у меня должна быть прямая трансляция с камеры 360° в моем редакторе Unity, но при разработке для iOS вам нужно собирать и компилировать в XCode, поэтому я не могу напрямую транслировать то, что видит iPhone (с помощью 360°). камера).
Могу ли я просто подключить панорамный канал к своему MacBook, на котором я занимаюсь разработкой, переключить платформу на Mac и выполнить отладку таким образом? Или есть способ получить прямую трансляцию с моего телефона в редакторе перед тем, как переходить к XCode? Я думаю, что переключение платформы на MacOS для отладки будет проблемой для ARKit и ARFoundation, поскольку они используются в iOS.
Подробнее здесь: https://stackoverflow.com/questions/790 ... nity-for-a
Какова наилучшая настройка для обнаружения жестов рук с помощью mediapipe в Unity для сборки iOS? ⇐ IOS
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение