Estudio señala que IA se volverá mentirosa - 800Noticias
800Noticias
Tecnología

800 Noticias

La carrera de las compañías desarrolladoras de la inteligencia artificial (IA) no se detiene y desde 2023 cuando se desplegó el primer sistema de este tipo han habido ciertas advertencias sobre su rápido crecimiento y adaptación a la cotidianidad, además de ser una opción viable para suplantar a los seres humanos.

Es posible que hayas experimentado que al interactuar con una inteligencia artificial, como ChatGPT, las respuestas que te da no se ajusten completamente a la realidad.

Estos fenómenos son comúnmente denominados «alucinaciones de la IA» o expresiones similares, y desde una perspectiva humana, podrían ser considerados como declaraciones falsas.

Un reciente estudio publicado en la revista Nature señala una tendencia preocupante en el funcionamiento de los grandes modelos de lenguaje, como GPT de OpenAI y LLaMA de Meta.

Puede leer: Cómo dejar de recibir llamadas spam

Según la tesis estos modelos avanzan y se vuelven supuestamente más inteligentes, también parecen tornarse menos confiables. Esto se debe a una razón sencilla: a mayor nivel de sofisticación, mayor es la probabilidad de que generen declaraciones erróneas.

El estudio realizado por el investigador José Hernández-Orallo del Instituto Valenciano de Investigación en Inteligencia Artificial, examinó diversos modelos de inteligencia artificial «top» como ChatGPT. Sus hallazgos indican que si bien estos sistemas son capaces de generar respuestas a una amplia gama de preguntas, también tienden a proporcionar información incorrecta con mayor frecuencia en comparación con modelos anteriores.

Puede leer: Latinoamérica tiene potencial en supercomputación pero «se necesitan grandes inversiones»

A diferencia de los sistemas previos, que podían evitar responder o admitir desconocimiento, los nuevos modelos de lenguaje natural muestran una mayor tendencia a generar una respuesta, incluso si ésta es inexacta. El filósofo de la ciencia y la tecnología Mike Hicks de la Universidad de Glasgow se refiere a este fenómeno como «hablar sin fundamento» o «bullshitting».

Además, el estudio incluyó una evaluación por parte de un grupo de participantes, quienes juzgaron la precisión de las respuestas proporcionadas por los chatbots. Los resultados revelaron que los participantes se equivocaron entre el 10% y el 40% de las veces, lo que demuestra la dificultad para distinguir entre respuestas correctas e incorrectas.

Con información de Computer Hoy.

Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias

Síguenos por @800noticias