El futuro de la colaboración en la virtualidad

La teleconferencia ha avanzado aún más la colaboración dentro de las organizaciones y con socios y clientes. Impulsadas por las necesidades que impuso la pandemia en 2020, las herramientas de teleconferencia ahora son de uso común. Al mismo tiempo, surgió una amplia gama de plataformas de colaboración que facilitaron varios tipos de trabajo en equipo.

Realidad extendida (XR), realidad aumentada y virtual (AR y VR), el metaverso y los gemelos digitales ahora prometen desatar formas aún más efectivas de herramientas de colaboración. Estas nuevas tecnologías permiten paisajes visuales y auditivos intuitivos que van desde simples representaciones gráficas de salas y participantes hasta una inmersión completa en entornos realistas que colocan a los usuarios dentro de las aplicaciones.

Ampliando esto, la computación espacial liberará cada vez más a los usuarios de interfaces torpes que pueden distraer y que a menudo requieren capacitación. En cambio, el entorno virtual del usuario hará que sea natural interactuar de maneras que se asemejen al comportamiento de la vida real.

El sonido y la vista proporcionarán comprensión direccional, y la fusión de sensores agregará capas de datos ambientales, de equipos y de sistemas del mundo real a entornos virtuales. Las representaciones cada vez más precisas y auténticas de objetos y fenómenos reales desdibujarán las líneas entre el mundo real y las representaciones virtuales. De hecho, un miembro del equipo en una instalación del mundo real podría compartir visualizaciones de este entorno virtualmente con otros miembros del equipo mediante AR o VR. Los técnicos de campo, por ejemplo, podrían compartir casi sin problemas las condiciones del lugar con expertos en los centros de mando.

Desafíos actuales de los auriculares

Geoffrey Bund, director ejecutivo de Headwall, un proveedor de aplicaciones de centro de comando y control mejoradas de AR y VR, señala que los auriculares no han alcanzado el ciclo de exageración de los medios que ha colocado a AR y VR al alcance como el próximo entorno informático. La ubicuidad de la tecnología –al menos para el mercado masivo– tomará algún tiempo.

Bund señala al periodista Nilay Patel de El bordequien sostiene que “hay que entregarle mucho valor a alguien para que le salga algo en la cara”. Bund añade: “Hasta ahora, las preocupaciones sobre el tamaño, el peso y la potencia de los auriculares han impedido el crecimiento exponencial previsto en el espacio del consumidor porque el valor no está del todo ahí”.

Mateo Ball, autor de El metaverso: Y cómo lo revolucionará todocomparte este sentimiento. “Es justo decir que la tecnología ha demostrado ser más difícil de lo que esperaban muchas de las empresas mejor informadas y con mayores recursos financieros”, afirma.

Ball enumera una serie de aplicaciones (ingeniería civil, diseño industrial, capacitación en el lugar de trabajo y otras) donde la XR ya no es infrecuente. Pero señaló en 2023: “Es difícil decir que una masa crítica de consumidores o empresas crea que existe una experiencia AR/VR/MR ‘superior’ en el mercado actual”.

Más contenido para leer:  Cyber experts set out plan to secure crucial 2024 US election

Jani Jokitalo, asesor principal de tecnologías de la información y las comunicaciones de Business Finland, también percibe la necesidad de mejorar las pantallas. Uno de los desafíos persistentes es reducir el efecto de las náuseas que pueden experimentar los usuarios de auriculares, lo que es un obstáculo obvio para una colaboración eficaz, especialmente durante períodos más largos. Parte de la sensación es provocada por un conflicto de vergencia-acomodación.

La vergencia es la rotación de los globos oculares para proporcionar una imagen estereoscópica de un objeto del mundo real, mientras que la acomodación describe centrarse en la imagen para crear una imagen nítida. En el mundo real, los humanos pueden igualar ambos ajustes. Sin embargo, en el mundo virtual, la vergencia y la acomodación a menudo no coinciden, lo que resulta en la enfermedad de la realidad virtual. Las nuevas tecnologías de visualización, incluidas las lentes varifocales, pueden superar el desajuste, pero es necesario madurar.

Otra consideración es el peso de los auriculares y el equilibrio de ese peso para que los dispositivos no pesen mucho en la parte frontal. Los usuarios tienen que equilibrar el peso con la fuerza muscular, lo que resulta agotador durante un uso prolongado. Según Jokitalo, es necesario mejorar “factores técnicos como el peso, la miniaturización, la potencia computacional, la capacidad de la batería, el consumo de energía y la disipación de calor”, considerando al mismo tiempo “la usabilidad, la comodidad y, sobre todo, el coste”.

El Bund de Headwall también enumera los desarrollos que afectarán la colaboración en el futuro. La tecnología de los auriculares avanza rápidamente y Bund ve una ventaja importante en la capacidad de los usuarios de ver el mundo que los rodea a través de las cámaras dentro de los auriculares.

En primer lugar, los usuarios se sienten más cómodos usando auriculares si son conscientes de su entorno físico para evitar hacerse daño o dañar objetos. En segundo lugar, particularmente relevante para la colaboración en entornos mixtos, los usuarios aún pueden ver a los miembros de su equipo o compañeros de trabajo, de modo que aún puedan tener lugar interacciones relativamente naturales.

Además, el seguimiento mejorado de manos y ojos permitirá que el sistema recopile datos que pueden ayudar al interactuar con objetos virtuales y representar imágenes relevantes para la colaboración. Finalmente, agregar rasgos faciales detallados, incluidas expresiones y parpadeos, proporciona las reacciones de los miembros del equipo y, por lo tanto, facilita las interacciones intuitivas.

Las capacidades cada vez mayores de las tecnologías inmersivas avanzadas permitirán formas nuevas y mejoradas de colaboración. Muchos desarrollos simultáneamente catapultarán los dispositivos XR hacia aplicaciones verdaderamente inmersivas que extraen una cantidad cada vez mayor de información en un panorama interactivo coherente y completo.

Más contenido para leer:  Openreach llega a seis millones de hogares con alcance total de fibra

La distinción entre AR y VR está cada vez más relegada a discusiones tecnológicas y conceptuales; a efectos prácticos, AR y VR se combinan en aplicaciones XR y MR (realidad mixta).

Imitando entornos reales

Karoliina Salminen, líder de fabricación inteligente en la organización finlandesa de investigación y tecnología VTT, considera que la persistencia efectiva es un aspecto crucial y cree que los mundos digital y físico “deben combinarse de forma autónoma en función de las necesidades actuales e individuales”. Para lograrlo, dice, “mantener la conciencia situacional de los mundos físicos, los mundos virtuales y los usuarios” es crucial.

Lo problemático es que la tecnología actual no está lo suficientemente madura. Otra consideración es la comunicación entre los tres aspectos (el entorno físico, el paisaje virtual y el usuario) y la capacidad de atender los aspectos actuales de la situación y las tareas que un usuario está tratando de realizar.

Salminen también señala la necesidad de crear una comunicación natural y una colaboración efectiva entre los usuarios: la capacidad de sentir y experimentar el entorno de los socios de colaboración de la manera más natural posible para que coincida estrechamente con las interacciones cara a cara en el mundo real. “Realidad compartida” es la palabra clave en este contexto.

Las tecnologías AR y VR actuales permiten compartir muchos aspectos visuales y verbales en la comunicación, pero falta compartir las sensaciones de otros sentidos. En la colaboración del mundo real, los miembros del equipo experimentan entornos de manera integral y simultánea; por lo tanto, muchas experiencias no requieren mención ni explicación explícita.

Por ejemplo, la textura de las superficies de los dispositivos o la temperatura de los entornos puede ser difícil de evaluar cuando el intercambio se basa en una comunicación verbal y explícita, lo que significa que la comprensión intuitiva y visceral de los problemas y beneficios puede verse afectada en las colaboraciones virtuales. El intercambio implícito de información experiencial es un desafío, pero también un aspecto crucial para mejorar la colaboración.

Avanzando hacia la computación espacial

Un paso adelante en la colaboración natural representa el avance hacia una computación espacial cada vez más sofisticada. El concepto se remonta al año 2003, cuando el investigador del Instituto Tecnológico de Massachusetts, Simon Greenwold, publicó Computación espacialun documento que delineaba el nuevo concepto de interacción con dispositivos digitales.

“La computación espacial es la interacción humana con una máquina en la que la máquina retiene y manipula referentes a objetos y espacios reales. Es un componente esencial para que nuestras máquinas sean socios más completos en nuestro trabajo y juego”, escribió.

La computación espacial es un trampolín hacia entornos cada vez más inmersivos que conectarán los mundos físico y virtual de manera visceral e intuitiva. Las tecnologías de interfaz en la virtualidad permitirán una interacción perfecta con entornos creados digitalmente. Las opciones de entrada en el metaverso y los avances en experiencias sonoras y hápticas permitirán a los usuarios experimentar el mundo virtual como genuinamente inmersivo, permitiéndoles convertirse en uno con los paisajes digitales. Estos entornos podrían abrir nuevas oportunidades de formación y colaboración.

Más contenido para leer:  Datos del personal de WH Smith accedidos en ciberataque

Las aplicaciones de entrenamiento no sólo proporcionarán conocimientos teóricos de manera intuitiva, sino que también pueden enseñar acciones físicas e incluso establecer la memoria muscular con indicaciones repetidas de movimientos. Esta participación física fomentará la colaboración en los esfuerzos de investigación, el diseño de productos y las tareas operativas, por nombrar sólo algunas áreas que se beneficiarán de la computación espacial. En particular, la computación espacial puede permitir una interacción perfecta con sistemas y objetos físicos de forma remota. Por ejemplo, los trabajadores pueden operar maquinaria, los investigadores pueden manejar equipos de laboratorio y los cirujanos pueden colaborar en procedimientos médicos desafiantes.

De manera similar, el audio espacial puede crear entornos inmersivos que aumentan, incluso crean, paisajes que brindan autenticidad y diversas capas de información. Por ejemplo, las conversaciones se pueden seguir más fácilmente cuando el sonido direccional facilita la identificación de los hablantes. El ruido de la maquinaria puede revelar la ubicación del equipo. Los cambios en la ubicación del sonido y el ajuste del sonido pueden proporcionar información sobre el movimiento, como cuando se imitan los cambios de frecuencia del ruido del motor de un automóvil que pasa.

La computación espacial también podría establecer el mapeo de entornos, la fusión de una cantidad cada vez mayor de datos de sensores y una interacción aún más fluida dentro y con entornos virtuales y elementos y objetos superpuestos. Naturalmente, la inteligencia artificial (IA) desempeñará un papel en este contexto para utilizar los datos para representar entornos y elementos visuales. En aplicaciones de entretenimiento, por ejemplo, la IA creará aplicaciones e historias personalizadas. En aplicaciones profesionales, la IA establecerá capas de información que puedan satisfacer de manera flexible las necesidades operativas y organizativas.

Cathy Hackl, autora de En el metaverso y coautor de Computación espacial: una revolución empresarial impulsada por la IAsostiene que el mercado está experimentando actualmente “una evolución de la informática móvil a la informática espacial, una informática que se extiende más allá de las pantallas”.

Ella señala: “Empieza a comprender el mundo físico y expande aún más la informática. La computación espacial permitirá que los dispositivos comprendan el mundo de una manera que nunca antes habían podido hacerlo. Va a cambiar la interacción entre humanos y computadoras y, eventualmente, cada interfaz (ya sea un automóvil o un reloj) se convertirá en dispositivos de computación espacial”.


Martin Schwirn es el autor de “Pequeños datos, grandes disrupciones: cómo detectar señales de cambio y gestionar la incertidumbre” (ISBN 9781632651921). También es asesor principal de previsión estratégica en Business Finland, y ayuda a empresas emergentes y ya establecidas a encontrar su posición en el mercado del mañana..

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales