REALIDAD AUMENTADA
Una de ellas fue dada por Ronald Azuma en 1997. La definición de Azuma dice que la realidad aumentada:
- Combina elementos reales y virtuales.
- Es interactiva en tiempo real.
- Está registrada en 3D.
Además
Paul Milgram y Fumio Kishino definen en 1994 la realidad de
Milgram-Virtuality Continuum como un continuo que abarca desde el
entorno real a un entorno virtual puro. Entre medio hay Realidad
Aumentada (más cerca del entorno real) y Virtualidad Aumentada (está más
cerca del entorno virtual).
Realidad
Aumentada también es la incorporación de datos e información digital en
un entorno real, por medio del reconocimiento de patrones que se
realiza mediante un software, en otras palabras, es una herramienta
interactiva que está dando sus primeros pasos alrededor del mundo y que
en unos años, la veremos en todas partes, corriendo y avanzando,
sorprendiéndonos y alcanzando todas las disciplinas: vídeo juegos,
medios masivos de comunicación, arquitectura, educación e incluso en la
medicina, trayendo un mundo digital inimaginable a nuestro entorno real.
Su gran diferencia con la realidad virtual, es que ésta nos extrae de
nuestro entorno para llevarnos a una realidad.
Los dispositivos de Realidad aumentada normalmente constan de un "headset" y un sistema de display para
mostrar al usuario la información virtual que se añade a la real. El
"headset" lleva incorporado sistemas de GPS, necesarios para poder
localizar con precisión la situación del usuario
Los
dos principales sistemas de "displays" empleados son la pantalla óptica
transparente (Optical See-through Display) y la pantalla de mezcla de
imágenes (Video-mixed Display). Tanto uno como el otro usan imágenes
virtuales que se muestran al usuario mezcladas con la realidad o bien
proyectadas directamente en la pantalla.
Los
Sistemas de realidad aumentada modernos utilizan una o más de las
siguientes tecnologías: cámaras digitales, sensores ópticos,
acelerómetros, GPS, giroscopios, brújulas de estado sólido, RFID, etc.
El Hardware de procesamiento de sonido podría ser incluido en los
sistemas de realidad aumentada. Los Sistemas de cámaras basadas en
Realidad Aumentada requieren de una unidad CPU potente y gran cantidad
de memoria RAM para procesar imágenes de dichas cámaras. La combinación
de todos estos elementos se da a menudo en los smartphones modernos, que
los convierten en un posible plataforma de realidad aumentada.
Para
fusiones coherentes de imágenes del mundo real, obtenidas con cámara, e
imágenes virtuales en 3D, las imágenes virtuales deben atribuirse a
lugares del mundo real. Ese mundo real debe ser situado, a partir de
imágenes de la cámara, en un sistema de coordenadas. Dicho proceso se
denomina registro de imágenes. Este proceso usa diferentes métodos de
visión por ordenador, en su mayoría relacionados con el seguimiento de
vídeo. Muchos métodos de visión por ordenador de realidad aumentada se
heredan de forma similar de los métodos de odometría visual.
Por
lo general los métodos constan de dos partes. En la primera etapa se
puede utilizar la detección de esquinas, la detección de Blob, la
detección de bordes, de umbral y los métodos de procesado de imágenes.
En la segunda etapa el sistema de coordenadas del mundo real es
restaurado a partir de los datos obtenidos en la primera etapa. Algunos
métodos asumen los objetos conocidos con la geometría 3D (o marcadores
fiduciarios) presentes en la escena y hacen uso de esos datos. En
algunos de esos casos, toda la estructura de la escena 3D debe ser
calculada de antemano. Si no hay ningún supuesto acerca de la geometría
3D se estructura a partir de los métodos de movimiento. Los métodos
utilizados en la segunda etapa incluyen geometría proyectiva (epipolar),
paquete de ajuste, la representación de la rotación con el mapa
exponencial, filtro de Kalman y filtros de partículas.