SIGGRAPH 2015, la conferencia anual educacional e interdisciplinaria sobre computación gráfica y técnicas interactivas, ha anunciado la lista de participantes en el programa de Tecnologías Emergentes en el cual se presentará lo último en tecnologías interactivas y gráficas.
El Programa de Tecnologías Emergentes del 2015 incluye proyectos desarrollados por varias industrias que demuestran como las nuevas tecnologías y técnicas impactan la manera en que vivimos y trabajamos. La 42ª Conferencia anual de SIGGRAPH se celebrará del 9 al 13 de agosto del 2015, en el Centro de Convenciones de Los Ángeles, California.
Los proyectos en el programa del 2015 figuran bajo el tema principal “Trabajo y Juego, Tecnología que Mejora Nuestras Vidas Diarias”. Cada proyecto e instalación demuestra como la innovación es capaz de mejorar ambientes de trabajo, facilitar las tareas cotidianas o asegurar que el tiempo libre sea más placentero.
“Para la conferencia de este año, queríamos encontrar tecnologías que se pudieran aplicar a la vida cotidiana, ya sea para mañana o en varios años. Es muy emocionante conocer de primera mano una tecnología que se pueda dar seguimiento a su desarrollo y saber que será relevante en un futuro cercano. También queríamos revelar aplicaciones prácticas de tecnología emergente de varias industrias, tales como automotriz o asistencial. Lo cual creo que hemos logrado con la gran variedad de instalaciones interactivas que se van a exhibir”, ha comentado Kristy Pron, directora del Programa de Tecnologías Emergentes de SIGGRAPH 2015.
Los aspectos más destacados en la demostración del programa Tecnologías Emergentes de SIGGRAPH 2015 incluyen:
– Una Gama de Proyectores Auto-Multiescópicos para Humanos Interactivos Digitales
Presentado por la Universidad Linkoping y la Universidad del Sur de California
En esta instalación, los usuarios tienen la oportunidad de interactuar con sujetos humanos digitales en 3D de tamaño natural desplegados a través de 216 video proyectores que transmiten imágenes de gran densidad angular sobre un amplio campo de visualización. Mientras los usuarios se mueven alrededor de la instalación, sus ojos hacen una transición de una vista a otra, lo cual es ideal para visualizar sujetos de tamaño natural y permite interacciones naturales personales en 3D, tales como miradas y gestos espaciales de la mano. La presentación automultiescópica en 3D permite que un gran número de personas pueda ver contenido 3D simultáneamente, sin necesidad de espejuelos o aparatos especiales.
– Experiencia Interactiva de Vehículos Ford (“Ford Immersive Vehicle Environment”)
Presentado por la Ford Motor Company
La Experiencia Interactiva de Vehículos Ford (FiVE por sus siglas en inglés) es un sistema de realidad virtual altamente realista e interactivo que contempla los retos únicos del diseño, ingeniería y ergonomía automotriz. FiVE facilita un enfoque colaborativo que permite a los equipos que trabajan en el programa ver y entender la complejidad en la ingeniería desde la perspectiva del consumidor y a la vez considerar el diseño estético, ajustes y acabado, elaboración y mantenimiento del sistema de un vehículo.
– Christie Digital’s Sandbox
Presentado por Christie Digital
Las tecnologías de punta de Christie Digital extienden las capacidades de los sistemas automáticos de calibración y proyección actuales. Esta demostración utiliza esta aplicación tecnológica para calibrar eficiente y automáticamente proyecciones de “mapping” en cualquier superficie, ya sea sencilla o compleja, y hasta en 3D. Christie Digital’s Sandbox presenta un alineamiento automático de proyección en menos de 30 segundos, aún cuando el proyector y/o la superficie es movido.
– Semantic Paint: Segmentación Interactiva y Aprendizaje de los Mundos 3D
Presentado por la Universidad de Stanford, Universidad de Nankai, Universidad de Oxford y Microsoft Research
Esta instalación es un sistema en tiempo real e interactivo para la reconstrucción geométrica y segmentación de clase de objeto de los mundos 3D. Gracias a este sistema, el usuario puede caminar en una habitación llevando una cámara de profundidad y equipo de realidad virtual para reconstruir una escena en 3D y segmentarla de manera interactiva en clases de objeto. El usuario puede interactuar físicamente con la escena en el mundo real y hasta tocar objetos utilizando comandos de voz para clasificarlos.
– MidAir Touch Display
Presentado por las Universidades de Keio yTokyo
El MidAir Touch Display integra tecnología táctil, distribución de energía acústica, antenas planas de sistemas en fase, campos ultrasónicos e imágenes aéreas a través del Aerial Imaging Plate para proporcionar interacción visual-táctil con las propias manos. Este proyecto de interacción verdadera permite a los usuarios ver y tocar virtualmente objetos flotantes a simple vista y con sus manos, para verdadera interacción. Esta presentación fue escogida por SIGGRAPH en la DC Expo en Japón.