Se habla mucho de los beneficios de la inteligencia artificial en salud. Pero si sientes rechazo hacia ella, probablemente no sea por desconocimiento. Es por responsabilidad.
La IA en consulta tiene riesgos reales. Y el más importante tiene nombre propio: alucinaciones.
Las llamadas “alucinaciones de la IA” ocurren cuando el sistema genera información que suena coherente, profesional y bien redactada… pero no refleja exactamente lo que pasó en la sesión.
Cualquiera que haya usado herramientas como OpenAI lo ha visto: introduces unos datos y el sistema añade otros que no estaban. No miente deliberadamente; simplemente predice lo que “encaja”. En un entorno clínico, esto no es un detalle técnico. Es un problema.
Y además de las alucinaciones, existen otras preocupaciones legítimas:
Pérdida de matices emocionales.
Incapacidad para recoger comunicación no verbal.
Sensación de que “nunca tomará la nota como yo”.
La clave está en ver la IA como una herramienta que potencia, no reemplaza, al profesional:
La IA bien entrenada y supervisada evita alucinaciones, protege la integridad de las notas clínicas y permite al profesional centrarse en la atención al paciente, sin perder control sobre la sesión.
Si eres escéptico con la IA, el tipo de herramienta que utilices importa. Noa Notes está diseñada precisamente para evitar todos esos riesgos que te generan rechazo:
No es una "grabación de la sesión".
No hace una transcripción literal automática.
Permite definir qué es clínicamente relevante.
Exige revisión antes de validar la nota.
Y, lo más importante: se adapta a tus plantillas y a tu modelo de trabajo.
La IA puede tener un lado oscuro cuando se usa sin control, pero cuando está bien configurada, entrenada y revisada, deja de ser una amenaza y se convierte en una herramienta.