A system for performing a navigated surgery comprises a first target attached to a patient at a surgical site and a second target at the surgical site. An optical sensor is coupled to the user and detects the first target and second target simultaneously in a working volume of the sensor. An intra-operative computing unit (ICU) receives sensor data concerning the first target and second target, calculates a relative pose and provides display information. The sensor can be handheld, body-mounted or head-mounted, and communicate wirelessly with the ICU. The sensor may also be mountable on a fixed structure (e.g. proximate) and in alignment with the surgical site. The ICU may receive user input via the sensor, where the user input is at least one of sensor motions, voice commands, and gestures presented to the optical sensor by the user. The display information may be presented via a (heads-up) display unit.L'invention concerne des systèmes, des procédés et des dispositifs destinés à être utilisés dans des systèmes de guidage électroniques pour une navigation chirurgicale pour déterminer la relation entre les coordonnées tridimensionnelles d'une anatomie d'un patient et celles d'un système de guidage électronique. Ces coordonnées sont nécessaires pour aider à déterminer des angles auxquels des éléments, tels qu'une prothèse acétabulaire, sont insérés dans le corps du patient. Dans un tel exemple, pendant une chirurgie de remplacement de hanche, le chirurgien est guidé dans le placement d'une prothèse acétabulaire dans le corps du patient, plus précisément dans le bassin.