Arbeidsprinsippet for 3D -sensorer inkluderer hovedsakelig følgende vanlige teknologier:
TOF (Flight Time): TOF -teknologi bruker sensoren for å avgi en laser eller infrarød lyspuls og måler returtiden for å beregne avstanden mellom objektet og sensoren. Ved å måle pulsenes tur-retur-tid nøyaktig, kan TOF-sensoren utlede avstanden, plasseringen og formen til objektet i forhold til sensoren.
Laser Speckle: Laserflekkteknologi bruker en laserstråle for å belyse overflaten til et objekt, og strålen danner et flekkmønster etter å ha spredt gjennom overflaten av objektet. Ved å analysere endringene i flekkmønsteret, kan sensoren bestemme avstandsforskjellen mellom forskjellige punkter på overflaten av objektet. Ved å kombinere flekkmønstre i flere vinkler, kan den tredimensjonale formen til objektet konstrueres.
Stereoskopisk syn: Stereoskopiske synssensorer bruker to eller flere kameraer for å fange opp to perspektiver av et objekt samtidig. Ved å analysere forskjellen mellom de to perspektivene, kan sensoren beregne den tredimensjonale formen, dybden og plasseringen av objektet. Denne metoden brukes ofte i robotnavigasjon, stereoavbildning og virtual reality -applikasjoner.
Strukturert lys: Strukturerte lyssensorer bruker strukturerte lysmønstre eller mønstre (for eksempel rutenett eller striper) projisert på overflaten til et objekt og beregner formen og plasseringen av objektet ved å registrere deformasjonen eller forvrengningen av lysmønsteret. Sensoren måler avstanden mellom lysmønsteret og overflaten til objektet ved å analysere endringene i lysmønsteret.
Triangulation: Denne metoden brukes ofte i laserprofilsensorer. Ved å avgi en linjelaser og bruke et kamera for å fange opp det reflekterte lyset, kan sensoren beregne objektets tredimensjonale form og plassering. Denne metoden er mye brukt i roboter og automatisert utstyr.