Какова наилучшая настройка для обнаружения жестов рук с помощью mediapipe в Unity для сборки iOS?IOS

Программируем под IOS
Ответить
Anonymous
 Какова наилучшая настройка для обнаружения жестов рук с помощью mediapipe в Unity для сборки iOS?

Сообщение Anonymous »

Я хочу подключить внешнюю панорамную камеру к устройству iOS (iPhone), чтобы фиксировать жесты рук пользователей. В настоящее время я использую Unity для сборки iOS, и мне удалось без особых проблем отображать панорамные видео на моем iPhone с помощью плагинов Unity ARKit и ARFoundation.
Я бы хотел Узнайте, какую настройку лучше всего использовать для отладки, если я использую внешнюю камеру 360°, подключенную к iPhone. Я также рассматриваю возможность использования плагина Mediapipe Unity, чтобы можно было захватывать жесты рук с помощью камеры 360°, и мне бы хотелось иметь возможность визуализировать жесты рук в редакторе Unity. Я предполагаю, что у меня должна быть прямая трансляция с камеры 360° в моем редакторе Unity, но при разработке для iOS вам нужно собирать и компилировать в XCode, поэтому я не могу напрямую транслировать то, что видит iPhone (с помощью 360°). камера).
Могу ли я просто подключить панорамный канал к своему MacBook, на котором я занимаюсь разработкой, переключить платформу на Mac и выполнить отладку таким образом? Или есть способ получить прямую трансляцию с моего телефона в редакторе перед тем, как переходить к XCode? Я думаю, что переключение платформы на MacOS для отладки будет проблемой для ARKit и ARFoundation, поскольку они используются в iOS.

Подробнее здесь: https://stackoverflow.com/questions/790 ... nity-for-a
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «IOS»