Un trabajador de seguridad de OpenAI abandona la empresa por temor a ChatGPT - 800Noticias
800Noticias
Tecnología

800 Noticias

El anuncio de GPT-4o no ha dejado a nadie indiferente. Se cree que la IA podría seguir creciendo todavía más y más, ya que esto se trata de una versión refinada de GPT-4 Turbo y no es un salto realmente hacia una nueva versión como podría ser la esperadísima GPT-5 de la que todavía no sabemos nada. En este marco, un trabajador de seguridad del a empresa ha decidido dejarlo, cree que la empresa ya no es fiable para controlar algo tan importante como una IA de estas características, y menos de cara a alcanzar la famosa Inteligencia Artificial General o AGI.

Un trabajador de seguridad de OpenAI ha presentado su renuncia de acuerdo con Futurism por la desconfianza que le está generando la compañía de Sam Altman. En buena medida lo ha hecho porque duda de que OpenAI vaya a ser responsable cuando se alcance la AGI, el punto en el que la IA podrá superar las capacidades humanas sin ningún tipo de problema. Su nombre es Daniel Kokotajlo, está doctorándose en filosofía y estaba focalizado en el equipo de ética de la compañía, por lo que es importante tener en cuenta que su trabajo en la empresa era precisamente supervisar si las cosas podían funcionar de forma correcta de acuerdo con la moralidad de la sociedad actual.

Kokotajlo se ha mostrado realmente desilusionado ya que se ha pedido por activa y por pasiva una pequeña pausa en el desarrollo de estas tecnologías para poder gestionar de forma eficiente el impacto que puede tener en la sociedad. Sin embargo, el gran problema que nos encontramos es que si se detiene el desarrollo, la rentabilidad de estas empresas se hundiría, haciéndolas quebrar. Por eso se muestran de forma recurrente muchos proyectos avanzados como Sora aunque todavía le faltaron meses para ver la luz. Sea como fuere, los expertos no dejan de advertir la necesidad de detener el desarrollo por los peligros potenciales que podría tener una IA mucho más inteligente que nosotros.

No ayuda el hecho de que algunos expertos de IA pidieran que se detuviera y posteriormente lanzaran su propia IA, como hizo Elon Musk con Grok que además es de código abierto. En cualquier caso, cada vez se ve más claro que la IA es preocupante incluso para los que trabajan en ella, ya que no es el único que ha preferido marcharse que seguir avanzando en este camino. Ese es el caso de William Saunders, que formaba parte del equipo de superalineamiento de la empresa y cuyo objetivo era precisamente hacer que las IA siguieran las intenciones humanas en vez de continuar por su propio camino. Es en estos sectores tan sensibles y ambiguos dónde las dimisiones suelen ser bastante constantes.

Hace poco veíamos como la IA podría haber sido la barrera de civilizaciones extraterrestres para convertirse en multiplanetarias. La IA habría avanzado tan rápido que supondría el colapso de este tipo de sociedades, y es algo que podría pasar también con nosotros.

Siga leyendo en La Vanguardia

Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias

Síguenos por @800noticias