OpenAI asegura en un informe que GPT-4o tiene un nivel de riesgo «medio»
800 Noticias
OpenAI ha publicado un documento en el que recoge las medidas de seguridad y la evaluación de los riesgos del uso del futuro GPT-4o. La empresa detrás de ChatGPT realizó un análisis de los riesgos de su actividad antes de lanzar su último modelo de lenguaje en mayo de este año.
Las evaluaciones las ha realizado un grupo externo de expertos en seguridad que se encargaba de encontrar debilidades en el sistema. Los analistas se han anticipado a problemas que ya se han visto en algunas herramientas de IA: crear clones de voz no autorizados de una persona, contenido erótico y violento o utilizar textos, audio o imágenes con derechos de autor.
La empresa ha probado durante meses una serie de escenarios como propagar información errónea masivamente o que la IA sea secuestrada por actores maliciosos. OpenAI preocupa a los usuarios y analistas, ambos han pedido una mayor transparencia y la compañía con sede en California ha empezado a publicar los resultados de sus pruebas de seguridad.
GPT-4o sabe cómo persuadir a los usuarios
OpenAI ha publicado el informe tres meses después de la llegada de GPT-4o y los investigadores aseguran que representa un nivel de riesgo «medio». Los expertos han tenido en cuenta la capacidad de que esta IA afecte a la ciberseguridad, crear amenazas biológicas, su poder de persuasión o el grado de autonomía del modelo.
Siga leyendo en Computer Hoy