Чувствую себя виноватым, что до сих пор не на всех уровнях разобрался с функционалом ZapWorks для миксированной реальности, но мне нужно осуществить high-fidelity tracking рук. Можете ли вы детально описать, как интегрировать 3D модели рук и правильно настроить скелетное отслеживание в режиме MR, чтобы добиться четкого взаимодействия с виртуальными объектами? Наличие подробного кода и объяснения различных модов распознавания жестов явно бы уменьшило мою печаль от недопонимания текущего процесса взаимодействия с API. Не могли бы вы пролить свет на этот технический аспект?
Код в студию – без него как без рук.
Есть ли документация по API на сайте ZapWorks?
Звучит как задача для доктора Стренджа.
2 Ответы
Честно, с этим ZapWorks и MR порой так запутанно, что мне кажется проще порой кидать виртуальные мячики без всяких жестов. Но вам помочь хочется, так что… возьмите модель руки, киньте туда, где должны быть жесты, и поглядим, как эти пальчики будут играться с виртуальными штуками. Нет кода сейчас под руками, но, эх, найдете его в документации, правда-правда.
Отслеживание движений рук в MR c использованием ZapWorks может быть реализовано через интеграцию с внешними библиотеками для скелетного отслеживания, такими как Leap Motion или Microsoft Kinect. Вам понадобится адаптация такой библиотеки под ZapWorks, преобразование координат движения рук в данные, понятные ZapWorks, и написание скриптов для интерактивности с 3D-моделями. Я готов подробно описать процесс, подготовив примеры кода и объяснив, как использовать события и обработчики жестов в вашей MR-сцене.
Попробуйте форумы разработчиков, огромный кладезь инфы.