1. Home
  2. »
  3. IA
  4. »
  5. Detectarán «alucinaciones» de ChatGPT

Detectarán «alucinaciones» de ChatGPT

Facebook
Twitter
Pinterest

En el terreno de la Inteligencia Artificial (IA), los modelos de lenguaje grande como ChatGPT, Claude, Copilot DALL-E e incluso Google Gemini han demostrado ser herramientas impresionantes, que producen un alto grado de inquietud por el futuro laboral humano por el aparente rango de efectividad de sus resultados.

Sin embargo, todos estos modelos actuales comparten un problema común y que podemos considerar como grave: la tendencia a generar información falsa o “alucinaciones”.

Este problema ha generado errores vergonzosos y ha limitado la utilidad de estas herramientas. Las alucinaciones de la IA es uno de los elementos más graves de esta tecnología, tan delicado que hasta Sam Altman, CEO de OpenAI, en más de una ocasión han intentado minimizarlo usando impresionantes acrobacias retóricas:

“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que alucinan. Son más un feature o característica de sus funciones que un bug o fallo. Si quieres buscar algo en una base de datos, ya hay cosas más útiles para hacerlo”.

Esto a todas luces es un ardid, ya que el problema con estas alucinaciones de la IA es que son tan sutiles y están tan bien entretejidos con la información verdadera que pueden pasar por ciertos ante alguien que no domine el tema del que la plataforma desarrolló el material.

al vez el ejemplo más claro y reciente de los peligros que implican estas alucinaciones lo vivimos hace poco cuando Google se vio obligado a retirar sus resúmenes de búsqueda potenciados por Inteligencia Artificial. Luego de que Gemini comenzara a sugerir ponerle pegamento a la pizza y comer piedras. La buena noticia es que viene una solución real en camino.

Fuente: msn.com

Noticias Relacionadas