Google suspende IA por sobrerrepresentación de minorías - 800Noticias
800Noticias
Tecnología

800 Noticias | Marco Arriaga

El gigante tecnológico Google ha suspendido temporalmente su nueva IA de generación de imágenes, Gemini, después de que se descubiera que la herramienta tendía a sobrerrepresentar a las minorías étnicas en sus resultados.

Las pruebas realizadas por el analista Ben Thompson y otros usuarios de X (antes Twitter) mostraron que Gemini era más propenso a generar imágenes de personas de color cuando se le pedía que generara imágenes de personas en general. Esto generó controversia, especialmente al ver que la IA creaba imágenes de asiáticos, negros o indígenas para figuras históricas de lugares y épocas dominadas por hombres blancos, como vikingos, soldados nazis o científicos del siglo XVII.

Google ha reconocido que este sesgo es un problema grave y ha prometido trabajar para solucionarlo antes de volver a lanzar la herramienta. En un comunicado, la compañía ha explicado que «ya estamos trabajando para abordar problemas recientes con la función de generación de imágenes de Gemini. Mientras tanto, vamos a pausar la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada».

Jack Krawczyk, uno de los responsables de IA en Google, ha dado una explicación más específica en X: «Diseñamos nuestra generación de imágenes para que refleje nuestra base de usuarios global, y nos tomamos la representación y los sesgos en serio. Seguiremos haciéndolo así para peticiones abiertas (las imágenes de una persona llevando un perro son universales). Los contextos históricos tienen más matices y lo afinaremos más para acomodarlos».

La propia IA de Gemini, en su versión de texto, también ha reconocido el problema: «Algunos usuarios reportaron que Gemini generaba imágenes con sesgo racial, mostrando a personas blancas con menos frecuencia o con características menos favorables que a personas de otras razas» y «que generaba imágenes históricamente incorrectas, como por ejemplo, imágenes de vikingos negros o soldados nazis negros».

La polémica pone de relieve el papel humano en la generación de IA. La inteligencia artificial se alimenta de millones de bases de datos que acumulan todos los sesgos humanos imaginables. Google, para evitar críticas públicas, intentó que el hombre blanco no fuera el género y etnia dominante cuando los usuarios pidieran ejemplos aleatorios de personas. Pero la máquina entendió que debía ser igual para vikingos, nazis o caballeros medievales. La IA aprendió a rectificar ese sesgo en cualquier imagen de persona, incluso las que tenían una evidencia histórica contraria.

Elon Musk, CEO de Tesla y SpaceX, ha aprovechado la controversia para criticar a Google y su postura «woke». Musk ha anunciado que ha hablado con un ejecutivo de Google y que le han asegurado que «tomarán acción inmediata para arreglar el sesgo de género y racial en Gemini».

El tiempo dirá si Google logra solucionar el problema del sesgo en su IA de generación de imágenes. La compañía tiene un gran desafío por delante para garantizar que sus productos sean justos e inclusivos para todos los usuarios.

Con información de El País

Foto referencial

Le interesa: Honor presenta la Pad 9

Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias

Síguenos por @800noticias