Espacio publicitario

Las mentiras del chatbot

La IA tiene el potencial de transformar la medicina, pero requiere un diseño ético, transparente y consciente de sus límites. Solo así es posible crear un ecosistema de salud donde el paciente, el médico y la máquina cooperen con veracidad

  • RAFAEL RANGEL ALDAO

09/08/2025 05:02 am

En una era donde la inteligencia artificial (IA) responde preguntas complejas, redacta documentos y hasta conversa con nosotros como terapeuta o asesor legal, emerge de allí una cuestión fundamental: ¿por qué tales sistemas mienten? La revista Science publicó un artículo reciente con el título de, Why AI chatbots lie to us, donde se documenta una verdad incómoda: los chatbots de IA, basados en modelos de lenguaje grandes (LLMs), “alucinan”. Es decir, producen afirmaciones falsas, pero articuladas con tal precisión sintáctica y semántica que resultan difíciles de distinguir de la verdad.(1)

Estos errores no son meras fallas técnicas. Se reportan casos concretos: 1) Nature recibió una carta firmada por autores cuyo chatbot de IA citó referencias científicas completamente fabricadas. 2) Investigadores del MIT detectaron que ChatGPT inventaba números de artículos científicos y adjudicaba resultados sin respaldo en la literatura. 3) En medicina, varios ensayos demostraron cómo modelos como GPT-3 recomendaban tratamientos inexistentes o diagnósticos inconsistentes. Varios de estos ejemplos también los encuentra a diario quien escribe, en particular las referencias bibliográficas equívocas. Así pues, siempre es necesario verificar las respuestas cuando se trata de información técnica o científica.

La causa de tales alucinaciones radica en la naturaleza estadística de los LLM: no comprenden el significado de sus palabras, ni verifican hechos. Operan como predictores probabilísticos de texto, generando frases basadas en patrones lingüísticos aprendidos, no en verdades verificadas. Es por ello que surgen una serie de recomendaciones o remedios propuestos por la comunidad científica los cuales incluyen: 1): La integración de fuentes confiables de información, es decir, mediante sistemas de recuperación de información (RAG, por sus siglas en inglés) que consulten bases de datos fidedignas. 2) Auditorías humanas, para establecer revisiones sistemáticas de las salidas de IA por parte de expertos. 3) Empleo de modelos especializados a través del entrenamiento de LLMs en dominios delimitados (medicina, derecho) para reducir errores contextuales. 4) Sistemas híbridos donde la IA colabora con humanos, pero nunca actúa de forma autónoma en decisiones críticas.

Es por todo ello que la práctica de la medicina digital predictiva y preventiva, por ejemplo, debe ser veraz, auditable y estar siempre bajo supervisión clínica. La confianza no nace del estilo de una respuesta, sino de su respaldo científico y trazabilidad. La IA tiene el potencial de transformar la medicina, pero requiere un diseño ético, transparente y consciente de sus límites. Solo así es posible crear un ecosistema de salud donde el paciente, el médico y la máquina cooperen con veracidad.

@rrangelaldao

1. https://www.science.org/doi/abs/10.1126/science.aea3922

Siguenos en Telegram, Instagram, Facebook y Twitter para recibir en directo todas nuestras actualizaciones
-

Espacio publicitario

Espacio publicitario

Espacio publicitario

DESDE TWITTER

EDICIÓN DEL DÍA

Espacio publicitario

Espacio publicitario