Se trata de la tecnología llamada “sensor de imágenes multi-apertura”, que ve las cosas de una manera diferente a como la ven los detectores de luz que utilizan las cámaras digitales convencionales. En vez de ver una gran representación de la imagen, este sensor rompe la escena en muchos cuadrados de 16×16 píxeles. Cada cuadradito tiene su propia lente de visión, lo que se llama “multi-apertura”.
Después de tomar la foto, el software de la cámara analiza las diferencias de localización de los distintos elementos que aparecen en los cuadrados. Las diferencias entre un cuadrado y otro permiten a la cámara deducir la distancia entre por ejemplo la camiseta y la pared que aparecen en la imagen.
El resultado es un “mapa de profundidades” que no sólo describe cada componente con píxeles rojo, azul y verde, sino también la distancia a la que está el píxel. Las tres dimensiones. Por el momento, el equipo de trabajo de Stanford no tiene ningún formato específico para almacenar la información, pero la relativa a la profundidad se podría adjuntar a un JPEG, como metadato.
Las aplicaciones de la tecnología en tres dimensiones a la fotografía son inmensas y supondría una revolución en cuanto a calidad y posibilidades. Adobe Systems está ya también trabajando en este campo.
vINQulos
CNet News
Durante el primer trimestre del año aumentaron un 0,5 % hasta los 30,8 millones de…
Su programa formativo permite a personas desempleadas o subempleadas ganar habilidades en tecnología cloud y…
Los nuevos ataques se apoyan en esquemas impulsados por la inteligencia artificial, como el 'vhishing'…
Los primeros integrantes de la familia HUAWEI Pura son los modelos Pura 70, Pura 70…
Proofpoint DLP Transform funciona en los principales canales: correo electrónico, nube, endpoint y web.
Además, la compañía dejó atrás las pérdidas durante el primer trimestre de 2024.