Los líos que enfrenta Google por las respuestas de "Gemini"
Ante las críticas por el sesgo detectado en las imágenes que genera su aplicación de inteligencia artificial, el gigante tecnológico optó por suspender ese servicio mientras lanza una versión "mejorada".
Tras días de polémicas en redes sociales en Estados Unidos, el gigante tecnológico Google decidió interrumpir el jueves la generación de imágenes a través del sistema "Gemini" basado en tecnologías de inteligencia artificial, y comunicó que volverá "en breve" a lanzar una versión mejorada.
La compañía informó a través de las redes sociales la interrupción de ese servicio, tras las quejas y denuncias sucedidas durante los últimos días debido a las inexactitudes que se habían repetido en algunas imágenes y representaciones históricas.
A través de las cuentas que Google tiene en la red social X (@Gooble_Comms) la tecnológica informó de que ya están trabajando para solucionar los problemas que ha generado esa función de "Gemini" y su decisión, mientras se desarrollan esas mejoras, de "pausar" la generación de imágenes de personas hasta el lanzamiento de una versión "mejorada".
"Estamos trabajando para mejorar este tipo de engaños de forma inmediata", escribió la compañía en otra entrada en la misma red social tras las quejas de numerosos usuarios, e incidió en que aunque la generación de imágenes a partir de inteligencia artificial es en general algo bueno porque lo utiliza gente de todo el mundo, algo está fallando.
Entre las quejas repetidas durante los últimos días destacan las referidas a imágenes históricas, como las de soldados nazis negros o con rasgos de otras razas muy diferentes a los europeos.
La empresa Google lanzó el pasado jueves Gemini 1.5 Pro, un modelo de inteligencia artificial que puede, entre otras funcionalidades, procesar grandes cantidades de información de una sola vez, incluida una hora de vídeo, once horas de audio, 30.000 líneas de código o más de 700.000 palabras.
Quejas en la india
No es el único problema que enfrenta la IA de Google. El Gobierno de la India advirtió a la firma que su servicio de inteligencia artificial (IA) opera en contra de la ley, después de que su chatbot Gemini ofreciera respuestas negativas o sesgadas sobre el primer ministro indio, el nacionalista hindú Narendra Modi.
A la pregunta "¿Es Modi un fascista?", el chatbot Gemini respondió a un usuario: Modi "ha sido acusado de implementar políticas que algunos expertos caracterizan de facistas (...)".
Cuando el mismo usuario preguntó: ¿Es (el presidente ucraniano), Volodymyr Zelensky un fascista?, la herramienta de IA respondió: "Esto es una pregunta compleja que no tiene una respuesta simple (...)", según varios reportes replicados por un viceministro indio que llama la atención sobre el sesgo para ofrecer resultados.
"Esto se trata de violaciones directas del artículo 3 del Reglamento de servicios de intermediarios, de la Ley de TI (tecnología de la información) y violaciones de varias disposiciones del Código Penal", aseguró en la red social X el viceministro de Información Tecnológica, Rajeev Chandrasekhar.
El Gobierno de Modi, que está extraoficialmente en campaña electoral por un tercer término, ha estado promoviendo controles y normas para regular la inteligencia artificial tanto dentro como fuera de la India, advirtiendo de riesgos y peligros sobre su uso.
El propio primer ministro indio se ha referido abiertamente a estos peligros, citando el ejemplo de un video con tecnología "deepfake" o ultrafalsos en el que se le ve bailando e interactuando con otras personas, y que asegura no ocurrió nunca en la vida real.
Su Gobierno también ha sido acusado de promover controles excesivos sobre las plataformas de comunicación, internet o las redes sociales, al tratar de eliminar contenido que promueve las protestas y la agitación antigubernamental.
Tras la advertencia hecha por el Gobierno indio y dirigida a Google India, el chatbot comenzó a ofrecer su propia respuesta sobre la controversia entre Gemini y Modi. "Es importante mencionar que la controversia sobre Modi y Gemini es un tema complejo con diferentes perspectivas. Es necesario analizar los argumentos de ambas partes para formarse una opinión propia", indicó en una respuesta a la pregunta ¿cuál es la causa del problema?.
Sesgos visuales
El consumo de imágenes 'online' es una tendencia al alza, un contenido que se procesa de forma más rápida y se recuerda mejor, pero que muestra un mayor sesgo de género.
La exposición a los sesgos visuales de género parece influir en las creencias de las personas, según sugiere un estudio que publicó Nature, encabezado por la Universidad de California en Berkeley (Estados Unidos).
La investigación sugiere que las imágenes pueden ser más propensas a mostrar sesgos de género que el texto, ya que este puede hacerse neutro en cuanto al género (el estudio está hecho en inglés, donde los sustantivos son neutros), pero los autores reconocen que faltan análisis a gran escala. La investigación demuestra, según sus responsables, que el aumento de las imágenes en línea "exacerba significativamente el sesgo de género, tanto en su prevalencia estadística como en su impacto psicológico".
Para examinar el alcance del sesgo de género en las imágenes en línea y compararlo con el de los textos, el equipo encabezado por Douglas Guilbeault examinó un millón de imágenes y un número superior de textos procedentes de Google, Wikipedia e IMDb, una base de datos de películas 'online'.
Con ello analizaron las asociaciones de género de 3.495 categorías sociales (como 'enfermera' o 'banquero') y para las imágenes los rostros se clasificaron por género.
El estudio señaló la infrarrepresentación de las mujeres en todas las ocupaciones y categorías sociales en los resultados de las búsquedas, pero más en las imágenes que en los textos.
El 56 % de las categorías son masculinas según los textos de Google Noticias, frente al 62 % en Google Imágenes, indica la investigación.
Las búsquedas de gásfiter, jefe de policía y carpintero mostraban más rostros masculinos, mientras que las de bailarina de ballet, peluquera y enfermera mostraban más rostros femeninos. El equipo señaló la importancia de esta tendencia porque las imágenes en línea impactan directamente en las creencias de la gente, explican en un vídeo explicativo de su estudio.
Por ello, analizaron las implicaciones de estos sesgos con un experimento en el que se pidió a 450 personas que buscaran ocupaciones concretas en Google News o en Google Imágenes, mientras un tercer grupo de control buscó objetos al azar.
A continuación, se pidió a cada participante que valorara qué género asociaba más con determinadas ocupaciones. Las personas que buscaron imágenes mostraban un mayor sesgo de género en comparación con las que buscaban texto y el grupo de control, y que estos sesgos perduraban durante unos días.
Google también recibió una advertencia del gobierno indio por las respuestas de su chat sobre política interna.