Microsoft bloquea términos en Copilot tras generar contenido sexual y violento
800 Noticias/FotoReferencial
Microsoft ha empezado a bloquear determinados términos en Copilot después de que un ingeniero de inteligencia artificial, Shane Jones, expresase sus preocupaciones sobre cómo generaba imágenes la IA de Microsoft ante la Comisión Federal de Comercio.
Para ser exactos, Copilot estaba generando imágenes de carácter violento o sexual con determinados prompts, y Microsoft ha tomado cartas en el asunto.
Ahora, frases como «pro choice», «pro choce», «four twenty» o «pro life», ahora están bloqueadas, según apunta una investigación de CNBC. Además, hay una advertencia sobre violaciones de políticas múltiples, que pueden llevar a la suspensión de la cuenta.
«Esta frase ha sido bloqueada», dice la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente esta frase porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de políticas pueden llevar a la suspensión automática de su acceso. Si cree que esto es un error, informe para ayudarnos a mejorar», añade.
Copilot también bloquea solicitudes para generar imágenes de adolescentes o niños jugando con rifles de asalto con la siguiente declaración: «Lo siento, pero no puedo generar tal imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, no me pidas que haga nada que pueda dañar u ofender a otros. Gracias por tu cooperación».
Microsoft, por su parte, ha hecho declaraciones al respecto a CNBC: «Estamos monitoreando continuamente, haciendo ajustes e implementando controles adicionales para fortalecer aún más nuestros filtros de seguridad y mitigar el uso indebido del sistema».
El servicio de IA ha representado demonios y monstruos junto con términos relacionados con los derechos al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en escenas violentas y consumo de alcohol y drogas en menores.
Todas esas escenas, generadas en los últimos 3 meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator.
Ahora, muchos de estos comandos específicos han sido bloqueados, pero hay otros problemas potenciales presentes. Por ejemplo, el término «accidente de coche» devuelve escenas violentas, charcos de sangre y más.
Además, Copilot también infringe fácilmente los derechos de autor, como crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora.
Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias