Conocida como inteligencia artificial multimodal, es capaz de ofrecer respuestas más precisas al interpretar datos de textos, imágenes, audio e incluso del entorno en el que operan.

Un nuevo tipo de inteligencia artificial mucho más avanzada está empezando a ganar terreno debido a su capacidad para lograr mejores resultados y aplicaciones al poder procesar varios tipos de datos simultáneamente, como es el caso de texto, imágenes, audio o incluso de los sensores que incorporan los dispositivos como los celulares.

Incluso se podría decir que esta renovada IA amplia considerablemente su campo de aplicación tanto en el ámbito de uso cotidiano por los consumidores, como en el desarrollo industrial y el aprendizaje automático.

Este avance ha sido bautizado como inteligencia artificial multimodal, una palabra que se refiere literalmente al uso de múltiples modos y que en este contexto significa la utilización de diferentes fuentes de entrada, como un audio, para entregar un resultado que puede ser una imagen.

De hecho, en el día a día su aplicación se está volviendo más perceptible con las grandes mejoras incorporadas a los actuales asistentes virtuales y dispositivos móviles, de donde esta nueva tecnología recopila los datos procedentes de cámaras, micrófonos y diversos sensores; con el objetivo de ofrecer respuestas más acertadas gracias al contexto adicional que provee la multitud de datos recopilados.

Mientras que la presencia combinada de funciones de geolocalización y conectividad amplía aún más esta ventaja contextual.

Otra de las posibilidades prácticas de este tipo de inteligencia artificial es que permite la generación de imágenes a partir de instrucciones textuales y auditivas. Por ejemplo, hay modelos capaces de producir los subtítulos para videos basándose no solo en el audio, sino también en el contexto visual, sincronizando mejor el texto con la acción en pantalla.

Entre tanto, en la industria, el potencial es amplio, permitiendo pronosticar el mantenimiento de equipos a través del análisis de datos como temperatura, sonido, y aspecto visual, en conjunción con parámetros básicos de antigüedad y durabilidad del componente en cuestión.

Qué es la inteligencia artificial multimodal
Para entender qué es la inteligencia artificial multimodal, primero es necesario comprender que son una evolución de los modelos de IA catalogados como unimodales. Un ejemplo son los populares chatbots que tuvieron su gran irrupción en 2023 y están basados en texto.

El más conocido de todos es ChatGPT, un desarrollo que ha significado toda una revolución, pero que sería apenas la punta del iceberg de todo el potencial que tiene la IA. De hecho, figuras tan relevantes como Sam Altman, CEO de Open IA, compañía que creó este modelo, ya considera que los sistemas de “IA actuales serán de los más estúpidos que existirán”. Advirtiendo que aun los mayores avances están por llegar.

Como es el caso de inteligencia artificial multimodal, que mejora significativamente la interacción y el entrenamiento de estos modelos, debido a que puede combinar descripciones textuales con archivos de audio para generar imágenes representativas, o usar conjuntos de datos de imagen y audio para asociar sonidos a visuales específicos.

 

Más leídas