Я хочу подключить внешнюю панорамную камеру к устройству iOS (iPhone), чтобы фиксировать жесты рук пользователей. В настоящее время я использую Unity для сборки iOS, и мне удалось без особых проблем отображать панорамные видео на моем iPhone с помощью плагинов Unity ARKit и ARFoundation.
Я бы хотел Узнайте, какую настройку лучше всего использовать для отладки, если я использую внешнюю камеру 360°, подключенную к iPhone. Я также рассматриваю возможность использования плагина Mediapipe Unity, чтобы можно было захватывать жесты рук с помощью камеры 360°, и мне бы хотелось иметь возможность визуализировать жесты рук в редакторе Unity. Я предполагаю, что у меня должна быть прямая трансляция с камеры 360° в моем редакторе Unity, но при разработке для iOS вам нужно собирать и компилировать в XCode, поэтому я не могу напрямую транслировать то, что видит iPhone (с помощью 360°). камера).
Могу ли я просто подключить панорамный канал к своему MacBook, на котором я занимаюсь разработкой, переключить платформу на Mac и выполнить отладку таким образом? Или есть способ получить прямую трансляцию с моего телефона в редакторе перед тем, как переходить к XCode? Я думаю, что переключение платформы на MacOS для отладки будет проблемой для ARKit и ARFoundation, поскольку они используются в iOS.
Подробнее здесь: https://stackoverflow.com/questions/790 ... nity-for-a
Какова наилучшая настройка для обнаружения жестов рук с помощью mediapipe в Unity для сборки iOS? ⇐ IOS
Программируем под IOS
1727036969
Anonymous
Я хочу подключить внешнюю панорамную камеру к устройству iOS (iPhone), чтобы фиксировать жесты рук пользователей. В настоящее время я использую Unity для сборки iOS, и мне удалось без особых проблем отображать панорамные видео на моем iPhone с помощью плагинов Unity ARKit и ARFoundation.
Я бы хотел Узнайте, какую настройку лучше всего использовать для отладки, если я использую внешнюю камеру 360°, подключенную к iPhone. Я также рассматриваю возможность использования плагина Mediapipe Unity, чтобы можно было захватывать жесты рук с помощью камеры 360°, и мне бы хотелось иметь возможность визуализировать жесты рук в редакторе Unity. Я предполагаю, что у меня должна быть прямая трансляция с камеры 360° в моем редакторе Unity, но при разработке для iOS вам нужно собирать и компилировать в XCode, поэтому я не могу напрямую транслировать то, что видит iPhone (с помощью 360°). камера).
Могу ли я просто подключить панорамный канал к своему MacBook, на котором я занимаюсь разработкой, переключить платформу на Mac и выполнить отладку таким образом? Или есть способ получить прямую трансляцию с моего телефона в редакторе перед тем, как переходить к XCode? Я думаю, что переключение платформы на MacOS для отладки будет проблемой для ARKit и ARFoundation, поскольку они используются в iOS.
Подробнее здесь: [url]https://stackoverflow.com/questions/79012560/what-is-the-best-setup-for-detecting-hand-gestures-with-mediapipe-on-unity-for-a[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия