Espacio publicitario

Fallos en la Inteligencia Artificial

La alucinación tecnológica consiste en obtener, de parte de un chatbot de inteligencia generativa, respuestas aparentemente verdaderas, pero que en realidad son incorrectas, falsas o fuera de contexto

  • DANIEL ASUAJE

12/03/2025 05:02 am

Un resultado profundamente sorpresivo, desconcertante e indeseable del uso de las IA es obtener silencio como respuesta u obtener información errónea. A manera de ejemplo puedo relatar que en cierta ocasión pregunté a Chatgpt cuándo fue reconocida por el hombre la existencia de Dios. Las primeras veces se desconectaba alertándome que podía dar respuestas erróneas, pero una vez se quedó pensando hasta que me cansé de esperar horas. Me dio una respuesta satisfactoria solo cuando hice la misma pregunta en modo “razona”. Esta experiencia me mueve a someterlas a peticiones paradójicas, p.ej. ordenándole que me desobedezca y ver cómo resolverían ese tipo de peticiones.
 
Además de la “evasión de respuesta” el otro fallo posible, y frecuente, es la alucinación tecnológica. Esta puede ser peligrosa porque en la confianza de la sapiensa de la IA podemos ingenuamente confiar en que la información brindada es válida, cierta y segura y no siempre es el caso. El riesgo puede ser simple desinformación o ilusión de conocimiento, pero puede tener consecuencias graves si la consulta es sobre salud o inversión, por poner dos casos relevantes.

La alucinación tecnológica consiste en obtener, de parte de un chatbot de inteligencia generativa, respuestas aparentemente verdaderas, pero que en realidad son incorrectas, falsas o fuera de contexto. En lugar de decir “no sé” o “no tengo respuesta para esta consulta”, los chatbots pueden optar, sin malicia ni maldad, por el silencio o evasión de respuesta o por dar información no solo falsa, sino hasta descabellada. Lo desalentador es que a) no hay ningún chatbot, sea Chatgpt, Deepseek, Gemini o cualquier otro, que esté libre de este problema imprevisible y b) no es sencillo generar procedimientos seguros para sortear de modo confiable este inconveniente. Veamos la alucinación más en detalle.

Tal comportamiento tiene, al menos dos causas posibles. Pero antes debemos acotar que no es un evento único de las IA sino de las inteligencias en general, tanto humanas como artificiales. Cuando le comenté esta apreciación a Grok3 le pareció un enfoque interesante y novedoso. Hoy que le pregunté a Chatgpt sobre las causas de la alucinación me nombró entre las posibles que “Desde una perspectiva de neurociencia y sociología, se puede argumentar que la alucinación tecnológica es una extensión de la forma en que el cerebro humano procesa la información, confiando en patrones y referencias previas para interpretar lo que percibe. La tecnología, al amplificar o distorsionar estos patrones, puede generar ilusiones persistentes que afectan el comportamiento individual y colectivo.” Me sorprendió este caso de convergencia de conocimiento entre una inteligencia humana y otra artificial, sin dejar de reconocer que echó por tierra sin piedad lo que yo creía era una propuesta novedosa y exclusiva de mi patrimonio cognitivo.

La primera causa es que obedece al diseño de las IA, las cuales tienen como propósito brindar una respuesta útil y creíble. Las inteligencias humanas y artificiales actuamos bajo el supuesto de que “sabemos”, no somos socráticos y nos cuesta reconocer que “yo solo sé que no sé nada”. La segunda es toparse con los límites del conocimiento y al pisar este terreno las inteligencias pueden caer en una de esta tres “alucinaciones” para llenar los “huecos” cognitivos:

a. Formular una hipótesis sobre la base de la información disponible y con auxilio a la lógica. Si preguntamos a un lego humano “por qué llueve más en las montañas” posiblemente diga que “el aire húmedo y caliente sube y al hacerlo por las montañas se condensa y cae”. Una IA ante la pregunta “por qué la flor de Jamaica es roja", diría: "Basado en lo que sé, contiene antocianinas, pigmentos naturales que dan colores rojos y morados a muchas plantas”Respuestas con datos conocidos y razonamiento lógico.

b. Conjetura: Aquí se recurre a comparaciones o enfoques creativos para proponer una respuesta plausible, usando analogía o pensamiento lateral y sin necesidad de evidencia directa. Por ejemplo si preguntamos "cómo sería la vida en Marte", alguien podría decir: "Bueno, en la Tierra los desiertos son secos y hostiles, siendo Marte más seco aún, sería como un desierto extremo y frío". Si preguntamos a una IAs "cómo olería la flor de Jamaica en Marte", podría conjeturar: "Aquí tiene un aroma ácido y floral; en Marte, con menos atmósfera, tal vez olería como un té diluido".

c. Invención pura: es el modo auténticamente descabellado. Por ejemplo si preguntamos a un humano o una IA “quien inventó el sombrero” cabe la posibilidad de tener por respuesta "Seguro fue un pastor francés del siglo XII llamado Pierre que quería protegerse del sol mientras cuidaba ovejas". Pura ficción.

El tema es fecundo y es terreno no solo para investigaciones sino para entender cómo las inteligencias pensamos y razonamos, algo en lo cual llevamos siglos tratando de develar sus misterios.

@AsuajeGuedez
asuajeguedezd@gmail.com
Siguenos en Telegram, Instagram, Facebook y Twitter para recibir en directo todas nuestras actualizaciones
-

Espacio publicitario

Espacio publicitario

Espacio publicitario

DESDE TWITTER

EDICIÓN DEL DÍA

Espacio publicitario

Espacio publicitario