IA generativa para consultas médicas

Fundamentos de IA para profesionales de la salud

Escrito por Equipo Noa - Doctoralia | Oct 10, 2025 5:59:50 PM

Siguiente episódio →

Te damos la bienvenida a este curso. A partir de ahora, te vamos a guiar por lo básico de la IA para profesionales de la salud, para que empieces a usarla con confianza en tu día a día.

¡Vamos allá!

Aunque no tengas formación técnica, deberías entender los fundamentos de la IA. ¿Por qué? Porque te ayudará a aprovecharla mejor en la práctica y en la atención de tus pacientes.

👉 Primer punto: la IA no es una sola cosa; es un conjunto de tecnologías que trabajan juntas.

Piensa en tus clases de “Ciencias” cuando ibas a la universidad: física, biología, química… y sus subtemas. La IA funciona igual: es un paraguas con muchas áreas y capas, cada una con su objetivo, herramientas y complejidad.

️‍🔥 Calentamiento: La IA invisible en tu vida cotidiana

Te invitamos a hacer este ejercicio rápido y responder cuántas herramientas con IA ya utilizas en tu vida diaria, ¡a veces sin ni siquiera darte cuenta!

Para ayudarte, vamos a enumerar algunas de las más comunes, organizadas por su uso habitual.

  1. Primero, los asistentes de voz como Gemini, Alexa o Siri. Te ayudan a buscar información, poner recordatorios o agendar citas, todo solo con tu voz.
  2. Después están los chatbots como ChatGPT, Gemini, Microsoft Copilot y DeepSeek. Pueden responder preguntas, analizar datos, resumir textos e incluso crear imágenes o documentos.
  3. También puedes estar usando texto predictivo y autocorrección cuando tu móvil sugiere la siguiente palabra que vas a escribir o corrige automáticamente un error tipográfico. Utiliza IA para analizar tus patrones de escritura y predecir tu intención.
  4. Y, por último, los servicios de streaming y sus recomendaciones, como Netflix, Spotify o YouTube. Todos funcionan con IA que analiza tu historial de visionado o escucha tus preferencias para sugerirte nuevo contenido que pueda gustarte.

Así que, aunque no lo hubieras notado antes, la IA ya está integrada de forma silenciosa en muchos aspectos de la vida diaria.

En este curso iremos un paso más allá, explorando cómo la IA puede apoyar tu práctica médica en concreto desde la documentación y la gestión hasta la comunicación con tus pacientes.

 

La inteligencia detrás de ChatGPT, Gemini y otras herramientas populares basadas en IA.

Cuanto más aprendes a utilizarlas, más potentes se vuelven. Así que repasemos rápidamente lo básico de estas herramientas: ¿cómo aprenden, entienden y generan lenguaje humano?

Se construyen sobre algo llamado Modelos de Lenguaje de Gran Tamaño, (LLM) por sus siglas en inglés.

Pero... ¡Espera un momento antes de que ese término tan intimidante te haga salir corriendo! “Modelos de Lenguaje de Gran Tamaño” puede sonar un poco abrumador. Pero vamos a mostrarte únicamente lo esencial que necesitas saber para comprender fácilmente este concepto.

La metafora del robot en la librería

Una historia para entender fácilmente qué son los LLM: Imagina un robot en una librería enorme. Este robot ha leído millones de libros, páginas web, artículos e incluso conversaciones. Este robot no piensa como una persona, pero es increíblemente bueno recordando cómo solemos hablar, escribir y hacer preguntas.

Esto es, en esencia, lo que hace un LLM. Es un tipo de inteligencia artificial que ha aprendido a “hablar” y “entender” el lenguaje humano de una forma muy sofisticada porque ha sido entrenada con una cantidad enorme de datos.

A través de este proceso, reúnen la información necesaria para construir una comprensión profunda del mundo, y esa comprensión (o inteligencia) les permite realizar muy bien tareas completamente nuevas.

Esto es clave porque no queremos usarlos solo para lo que aprendieron durante su entrenamiento ni para generar textos basados en los libros que “leyeron”. Queremos hacerles preguntas que nunca han visto antes y esperar respuestas inteligentes (y las dan).

🕵️ Actúa como un detective: después de leer tanto, un LLM empieza a detectar patrones.

Por ejemplo, si preguntas “¿Qué tiempo hace hoy?”, la respuesta esperada será sobre sol, lluvia o nubes.

🔮“Predice” la siguiente palabra: pero no solo termina tu frase, también puede redactar textos completos, responder preguntas, resumir artículos, traducir idiomas y mucho más.

Es como una máquina superinteligente generando contenido coherente y relevante a partir de tu instrucción. Es como pedirle a un chef que te prepare un plato de risotto. No lo inventa de la nada: consulta su mejor libro de recetas basado en lo que ha aprendido.

En resumen, un LLM es un tipo de inteligencia artificial entrenada para comprender y generar lenguaje humano. Aprende analizando enormes cantidades de datos (como libros, webs y artículos) para entender cómo funciona el lenguaje.

Un ejemplo claro de esto es cómo Google presenta ahora los resultados de búsqueda. Antes Google era un “directorio de información”, que te indicaba dónde podías encontrar las respuestas. Ahora, con los LLM, se ha convertido en un “compilador y resumidor de información”, intentando darte directamente la respuesta, de forma conversacional y con contexto.

Imaginemos que quieres encontrar las mejores opciones de tratamiento para un paciente con diabetes tipo 2 recién diagnosticada. Antes, Google te ofrecía una lista de enlaces a artículos científicos o guías clínicas. Ahora, con la ayuda de los LLM, ya te muestra una respuesta resumida que incluye tratamientos de primera línea, recomendaciones de estilo de vida e incluso posibles interacciones farmacológicas, todo en un formato claro y conversacional.

Así que, con nuevas plataformas de IA apareciendo casi a diario, es completamente normal sentirse un poco perdido, sobre todo si no estás familiarizado con la parte técnica. ¿Te suena?

Antes de crear un prompt: entiende las capacidades principales de las herramientas de IA

Lo primero a tener en cuenta es que lo que una IA puede o no puede hacer depende de cómo fue entrenada. A continuación, resumimos las 5 capacidades más comunes de las herramientas basadas en LLM y cómo pueden aplicarse. Las plataformas más populares hoy (OpenAI/GPT, Google/Gemini, Anthropic/Claude) combinan varias de ellas.

Capacidad 1: generación de texto

Es la capacidad más básica y común: generar texto a partir de texto. Funciona muy bien para creatividad, resúmenes y preguntas abiertas. Te permite crear contenido nuevo (no solo repetir información).

👉 Dónde destaca:

  • Redacción, edición y resumen de textos
  • Responder preguntas directas o generales
  • Generar ideas y conceptos creativos (¡revisa los hechos!)
  • Estructurar información, por ejemplo plantillas, listas de verificación o documentos formateados

2. Capacidad número dos: generación de medios

La generación de imágenes convierte instrucciones escritas en contenido visual. Describes lo que quieres ver y el modelo crea una imagen que se ajusta a tu idea. Esto es especialmente útil en salud, donde lo visual facilita la comprensión.

👉 Dónde destaca:

  • Crear explicaciones visuales para pacientes (procedimientos, pasos, instrucciones)
  • Preparar imágenes para redes sociales de tu consultorio
  • Producir íconos o ilustraciones para presentaciones, cursos o educación al paciente
  • Ayudarte a visualizar distribuciones de la clínica, flujos de trabajo u organización de espacios

Herramientas útiles: Midjourney (imagen), Sora (generación de video), Veo (generación de video), Nano Banana* (imagen)

Curiosidad: modelos más nuevos como Nano Banana Pro pueden llevar esto al siguiente nivel y crear resultados bastante avanzados. Ver ejemplo

3. Capacidad número tres: razonamiento

El razonamiento va más allá de predecir la siguiente palabra y generar lenguaje. Sigue una lógica paso a paso, lo que permite que la IA resuelva problemas, analice información compleja y explique cómo llegó a sus conclusiones.

En la práctica, las capacidades de razonamiento se activan o mejoran “detrás de cámaras”*, permitiendo que el modelo profundice en lugar de limitarse a lo más probable.

👉 Dónde destaca:

  • Ayuda a desglosar casos clínicos complejos o con mucha data en una lógica paso a paso.
  • Apoya en triaje y priorización: organiza listas de pacientes, marca casos urgentes o sugiere qué síntomas requieren atención rápida.
  • Mejora de calidad y análisis de flujo de trabajo: analiza pasos en un proceso clínico y sugiere mejoras lógicas para reducir retrasos o errores.

*Depende del proveedor/modelo; a veces hay que activarlo manualmente, como el modo “extended thinking” de Claude.

4. Capacidad número cuatro: búsqueda web

Los LLM estándar generan respuestas a partir de lo que aprendieron durante el entrenamiento. Los agentes con búsqueda web combinan el modelo de lenguaje con fuentes en vivo, por lo que pueden “buscar” información en tiempo real y usar esas fuentes para armar la respuesta. En situaciones más avanzadas, pueden tener múltiples herramientas (no solo búsqueda web) y decidir de forma autónoma cuándo usar cada una.

👉 Dónde destaca:

  • Encontrar las noticias más recientes
  • Evaluar múltiples fuentes antes de responder
  • Citar referencias de dónde proviene la información
  • Apoyar investigaciones de mercado o análisis competitivos con datos actualizados

5. Capacidad número cinco: investigación profunda (Deep research)

Es la combinación de “razonamiento” + “búsqueda web”. No se trata solo de hacer búsquedas, sino de buscar y pensar sobre la información.

Por ejemplo, puede indagar datos en rincones de internet que tú no revisarías y evaluar si son relevantes para incluirlos en la respuesta final.

👉 Dónde destaca:

  • Escanear múltiples fuentes y seleccionar lo confiable, en lugar de abrumarte con decenas de enlaces
  • Sintetizar información dispersa en una sola respuesta clara (p. ej., guías, estudios, regulaciones, datos de mercado)
  • Identificar tendencias o patrones que no son evidentes a primera vista
  • Comparar distintos puntos de vista y explicar cuáles son más sólidos y por qué
    • Algunas capacidades útiles en herramientas populares:
      • Perplexity: modo rápido de investigación profunda que revisa muchas fuentes y entrega respuestas con citas.
      • Google Gemini: combina Google Search con razonamiento multimodal para investigaciones ricas y actualizadas.
      • ChatGPT: realiza navegación en varios pasos, analiza fuentes y produce reportes detallados con citas.
      • Anthropic Claude: mezcla razonamiento avanzado con búsqueda web y explica claramente las fuentes usadas.

¡Algunos consejos extra!

#1

Cada vez que cambies de tema, empieza un chat nuevo. Esto restablece el contexto y ayuda a la IA a mantenerse centrada, evitando confusiones de conversaciones anteriores.

#2

Escribir no siempre es conveniente, especialmente en una clínica con mucho movimiento. Hoy en día, muchas plataformas admiten entrada por voz, lo que te permite decir tu pregunta o instrucción directamente.

#3

Pide un resumen de vídeo: imagina que estás viendo una ponencia de un congreso médico online, pero no vas a tener tiempo de ver el vídeo completo. Simplemente copia el enlace de YouTube, pégalo en el chat y pide un resumen.

⚙️ Ingeniería de prompt

Después de entender lo básico de los LLM, el siguiente tema muy importante es aprender a interactuar de la mejor forma con estas herramientas. Es el momento de hablar de la ingeniería de prompts.

Primero de todo: ¿qué es exactamente un prompt?

Un prompt es el mensaje o la pregunta que das a una herramienta de IA para obtener una respuesta. Es la manera en la que “hablas” con la IA, ya sea para pedir ayuda, generar contenido, resolver un problema o buscar información.

Cuando escribes un prompt, la herramienta usa su memoria a corto plazo (la información que das en ese momento) junto con su memoria a largo plazo (el conocimiento que aprendió durante el entrenamiento) para entender tu solicitud y darte la mejor respuesta posible. Ambas influyen en el resultado.

→ Veamos este ejemplo: Imagina que necesitas explicar de forma clara y completa a tus pacientes qué es la hipertensión.

Tu tarea sería: Escribe una explicación breve y clara de qué es la hipertensión, de forma que cualquier paciente pueda entenderla fácilmente; O bien: ¿Cómo explicarías la hipertensión a un paciente sin formación médica?

¿Lo ves? En los sistemas basados en LLM, cuanto más precisa y contextualizada sea la información que aportes, más datos tendrá para consultar.

Consejo: Los LLM no acceden a su memoria a largo plazo de forma rápida; a veces recuerdan datos de su entrenamiento, pero no es algo muy fiable. Sin embargo, cuando les das información dentro del prompt (por ejemplo, un capítulo de un libro), utilizan muy bien esa memoria a corto plazo y ofrecen resúmenes o explicaciones precisas.

En la próxima clase verás la fórmula perfecta para construir tu prompt.