Dernièrement, il y a eu beaucoup de battage médiatique autour Technologie LiDAR Donc, intégré dans les nouveaux appareils Apple, il est facile d'oublier que la réalité augmentée sur un téléphone mobile peut fonctionner d'une autre manière. Mais il peut le faire, d'autant plus que les outils ToF atteignent de nouveaux sommets dans les téléphones Samsung.
Que vous soyez développeur, à la recherche d'un nouvel appareil ou simplement curieux, il vaut la peine de prendre le temps de vous familiariser avec ces raccourcis et d'apprendre les entrées pour la détection de profondeur sur mobile.
Liens rapides
Qu'est-ce que ToF?
ToF signifie Time of Flight.
Techniquement, ToF fait référence à l'utilisation de la vitesse de la lumière (ou même du son) pour déterminer la distance. Il mesure le temps nécessaire à la lumière (ou au son) pour quitter l'appareil, rebondir sur un objet ou un avion et revenir à l'appareil, le tout divisé par deux qui révèle la distance entre l'appareil et l'objet ou l'avion.
Ainsi, la relation est que LiDAR est un type de ToF, mais tous les ToF ne sont pas LiDAR. Pour simplifier les choses, lorsque nous parlons de «ToF», nous entendons la mesure de distance optique, sans compter le LiDAR.
Ainsi, si les technologies optiques LiDAR et non LiDAR utilisent la lumière pour la détermination de distance et la cartographie 3D, en quoi diffèrent-elles l'une de l'autre ?
Qu'est-ce que LiDAR?
LiDAR signifie «détection de lumière et télémétrie». Cette technique utilise un laser, ou grille laser, comme source de lumière dans l'équation détaillée ci-dessus.
Une seule lecture LiDAR peut être utilisée pour mesurer des choses comme la largeur de la pièce, mais plusieurs lectures LiDAR peuvent être utilisées pour créer des "points de traction". Qui peut être utilisé pour créer des modèles 3D d'objets ou des cartes topographiques de régions entières.
Bien que LiDAR puisse être nouveau pour les appareils mobiles, la technologie elle-même existe depuis longtemps. S'éloignant des appareils mobiles, LiDAR est utilisé pour tout faire, de la cartographie des environnements sous-marins à la découverte de sites archéologiques.
En quoi LiDAR et ToF sont-ils différents?
La différence fonctionnelle entre LiDAR et d'autres formes de technologies optiques qui utilisent ToF est que LiDAR utilise un laser pulsé pour construire un nuage de points, qui est ensuite utilisé pour créer une carte ou une image 3D. Les applications ToF créent des "cartes de profondeur" basées sur la détection de la lumière, généralement via une caméra RVB standard.
L'avantage de ToF par rapport au LiDAR est que ToF nécessite un équipement moins spécialisé afin de pouvoir être utilisé avec des appareils plus petits et moins coûteux. L'avantage du LiDAR vient de la facilité avec laquelle un ordinateur peut lire un nuage de points par rapport à une carte de profondeur.
L'API fonctionne API de profondeur Créé par Google pour les appareils Android, il fonctionne mieux sur les appareils prenant en charge ToF et fonctionne en créant des cartes de profondeur et en reconnaissant les «points forts». Ces points distincts, qui sont souvent des barrières entre différentes intensités lumineuses, sont ensuite utilisés pour définir différents niveaux dans l'environnement. Cela crée essentiellement un nuage de points à basse résolution.
Comment ToF et LiDAR fonctionnent avec la réalité augmentée au téléphone
Les cartes de profondeur et les nuages de points sont excellents, et pour certaines personnes et certaines applications, ils suffisent. Cependant, pour la plupart des applications AR, ces données doivent être mises en contexte. ToF et LiDAR le font tous deux en travaillant avec d'autres capteurs sur l'appareil mobile. Plus précisément, ces plates-formes doivent comprendre l'orientation et le mouvement de votre téléphone.
Comprendre l'emplacement d'un appareil dans un environnement donné est appelé «localisation et cartographie simultanées» ou «SLaM». SLaM est utilisé dans d'autres applications telles que les véhicules autonomes, mais il est très essentiel pour les applications de réalité augmentée mobiles de placer des objets numériques dans l'environnement réel.
Cela est particulièrement vrai pour les expériences qui restent en place lorsque l'utilisateur n'interagit pas avec elles, ainsi que pour placer des objets numériques qui semblent être derrière des personnes et des objets réels.
Un autre facteur important pour placer des objets numériques dans les applications basées sur LiDAR et ToF comprend les «ancres». Les ancres sont des points numériques du monde physique auxquels les objets numériques sont «connectés».
Dans les applications universelles comme Pokemon Go, cela se fait via un processus séparé appelé «géolocalisation». Cependant, dans les applications AR mobiles, l'objet numérique est ancré à des points dans le nuage de points LiDAR ou à l'un des points caractéristiques de la carte de profondeur.
Le LiDAR est-il meilleur que ToF?
Strictement parlant, LiDAR est plus rapide et plus précis que ToF. Cependant, cela devient encore plus important avec des applications plus avancées sur le plan technologique.
Par exemple, ToF et l'API Depth ont du mal à comprendre les grands objets à faible texture comme les murs blancs. Cela peut rendre difficile pour les applications utilisant cette méthode de positionner avec précision des objets numériques sur certaines surfaces dans le monde réel. Les applications qui utilisent LiDAR sont moins susceptibles d'avoir ce problème.
Cependant, les applications avec des environnements plus vastes ou plus divers en termes d'installation ne rencontreront probablement pas ce problème. De plus, la plupart des applications de RA grand public basées sur des appareils mobiles impliquent l'utilisation d'un filtre AR sur le visage ou le corps de l'utilisateur - une application qui ne rencontrera probablement pas de problèmes en raison de grandes surfaces non tissées.
Pourquoi Apple et Google utilisent-ils des capteurs de profondeur différents?
Lors du lancement de ses appareils compatibles LiDAR, a-t-elle déclaré Pomme Il comprenait les capteurs ainsi que d'autres appareils pour «débloquer des flux de travail plus professionnels et prendre en charge les applications photo et vidéo professionnelles». Le communiqué décrit également l'iPad Pro compatible LiDAR comme «le meilleur appareil de réalité augmentée au monde» et l'application «benchmarking» est promue par Apple.
Google n'a pas fourni d'explication claire sur les raisons pour lesquelles LiDAR ne sera pas utilisé à la fois sur l'API Depth et sur la nouvelle version des appareils pris en charge. En plus de travailler avec LiDAR, de garder les appareils Android plus légers et plus abordables, l'accessibilité présente également un énorme avantage.
Étant donné qu'Android fonctionne sur les appareils mobiles fabriqués par plusieurs entreprises, l'utilisation de LiDAR favorisera les modèles compatibles LiDAR au détriment de toutes les autres entreprises. De plus, comme elle ne nécessite qu'une caméra standard, l'API Depth est rétrocompatible avec plus d'appareils.
En fait, l'API Depth de Google ne dépend pas du matériel, ce qui signifie que les développeurs utilisant l'expérience de création de la plate-forme Réalité augmentée Google Ils peuvent également développer des expériences qui fonctionnent sur les appareils Apple.
Avez-vous exploré la détection de profondeur?
Cet article s'est principalement concentré sur LiDAR et ToF dans les expériences de réalité augmentée sur mobile. C'est en grande partie parce que ces expériences plus complexes nécessitent le plus d'explications. C'est aussi parce que ces expériences sont les plus agréables et les plus tournées vers l'avenir.
Cependant, les approches de détection de profondeur comme celles-ci constituent la base de nombreuses expériences et outils plus simples et plus pratiques que vous pouvez utiliser quotidiennement sans trop y réfléchir. Nous espérons que la lecture de ToF et LiDAR vous permettra de mieux apprécier ces applications. Vous pouvez maintenant visualiser Profitez du LiDAR sur iPhone : les utilisations les plus passionnantes.