Te damos la bienvenida a este curso. A partir de ahora, te vamos a guiar por lo básico de la IA para profesionales de la salud, para que empieces a usarla con confianza en tu día a día.
¡Vamos allá!
Aunque no tengas formación técnica, deberías entender los fundamentos de la IA. ¿Por qué? Porque te ayudará a aprovecharla mejor en la práctica y en la atención de tus pacientes.
👉 Primer punto: la IA no es una sola cosa; es un conjunto de tecnologías que trabajan juntas.
Piensa en tus clases de “Ciencias” cuando ibas a la universidad: física, biología, química… y sus subtemas. La IA funciona igual: es un paraguas con muchas áreas y capas, cada una con su objetivo, herramientas y complejidad.
Te invitamos a hacer este ejercicio rápido y responder cuántas herramientas con IA ya utilizas en tu vida diaria, ¡a veces sin ni siquiera darte cuenta!
Para ayudarte, vamos a enumerar algunas de las más comunes, organizadas por su uso habitual.
Así que, aunque no lo hubieras notado antes, la IA ya está integrada de forma silenciosa en muchos aspectos de la vida diaria.
En este curso iremos un paso más allá, explorando cómo la IA puede apoyar tu práctica médica en concreto desde la documentación y la gestión hasta la comunicación con tus pacientes.
Cuanto más aprendes a utilizarlas, más potentes se vuelven. Así que repasemos rápidamente lo básico de estas herramientas: ¿cómo aprenden, entienden y generan lenguaje humano?
Se construyen sobre algo llamado Modelos de Lenguaje de Gran Tamaño, (LLM) por sus siglas en inglés.
Pero... ¡Espera un momento antes de que ese término tan intimidante te haga salir corriendo! “Modelos de Lenguaje de Gran Tamaño” puede sonar un poco abrumador. Pero vamos a mostrarte únicamente lo esencial que necesitas saber para comprender fácilmente este concepto.
Una historia para entender fácilmente qué son los LLM: Imagina un robot en una librería enorme. Este robot ha leído millones de libros, páginas web, artículos e incluso conversaciones. Este robot no piensa como una persona, pero es increíblemente bueno recordando cómo solemos hablar, escribir y hacer preguntas.
Esto es, en esencia, lo que hace un LLM. Es un tipo de inteligencia artificial que ha aprendido a “hablar” y “entender” el lenguaje humano de una forma muy sofisticada porque ha sido entrenada con una cantidad enorme de datos.
A través de este proceso, reúnen la información necesaria para construir una comprensión profunda del mundo, y esa comprensión (o inteligencia) les permite realizar muy bien tareas completamente nuevas.
Esto es clave porque no queremos usarlos solo para lo que aprendieron durante su entrenamiento ni para generar textos basados en los libros que “leyeron”. Queremos hacerles preguntas que nunca han visto antes y esperar respuestas inteligentes (y las dan).
🕵️ Actúa como un detective: después de leer tanto, un LLM empieza a detectar patrones.
Por ejemplo, si preguntas “¿Qué tiempo hace hoy?”, la respuesta esperada será sobre sol, lluvia o nubes.
🔮“Predice” la siguiente palabra: pero no solo termina tu frase, también puede redactar textos completos, responder preguntas, resumir artículos, traducir idiomas y mucho más.
Es como una máquina superinteligente generando contenido coherente y relevante a partir de tu instrucción. Es como pedirle a un chef que te prepare un plato de risotto. No lo inventa de la nada: consulta su mejor libro de recetas basado en lo que ha aprendido.
En resumen, un LLM es un tipo de inteligencia artificial entrenada para comprender y generar lenguaje humano. Aprende analizando enormes cantidades de datos (como libros, webs y artículos) para entender cómo funciona el lenguaje.
Un ejemplo claro de esto es cómo Google presenta ahora los resultados de búsqueda. Antes Google era un “directorio de información”, que te indicaba dónde podías encontrar las respuestas. Ahora, con los LLM, se ha convertido en un “compilador y resumidor de información”, intentando darte directamente la respuesta, de forma conversacional y con contexto.
Imaginemos que quieres encontrar las mejores opciones de tratamiento para un paciente con diabetes tipo 2 recién diagnosticada. Antes, Google te ofrecía una lista de enlaces a artículos científicos o guías clínicas. Ahora, con la ayuda de los LLM, ya te muestra una respuesta resumida que incluye tratamientos de primera línea, recomendaciones de estilo de vida e incluso posibles interacciones farmacológicas, todo en un formato claro y conversacional.
Así que, con nuevas plataformas de IA apareciendo casi a diario, es completamente normal sentirse un poco perdido, sobre todo si no estás familiarizado con la parte técnica. ¿Te suena?
Lo primero a tener en cuenta es que lo que una IA puede o no puede hacer depende de cómo fue entrenada. A continuación, resumimos las 5 capacidades más comunes de las herramientas basadas en LLM y cómo pueden aplicarse. Las plataformas más populares hoy (OpenAI/GPT, Google/Gemini, Anthropic/Claude) combinan varias de ellas.
Es la capacidad más básica y común: generar texto a partir de texto. Funciona muy bien para creatividad, resúmenes y preguntas abiertas. Te permite crear contenido nuevo (no solo repetir información).
👉 Dónde destaca:
La generación de imágenes convierte instrucciones escritas en contenido visual. Describes lo que quieres ver y el modelo crea una imagen que se ajusta a tu idea. Esto es especialmente útil en salud, donde lo visual facilita la comprensión.
👉 Dónde destaca:
Herramientas útiles: Midjourney (imagen), Sora (generación de video), Veo (generación de video), Nano Banana* (imagen)
Curiosidad: modelos más nuevos como Nano Banana Pro pueden llevar esto al siguiente nivel y crear resultados bastante avanzados. Ver ejemplo
El razonamiento va más allá de predecir la siguiente palabra y generar lenguaje. Sigue una lógica paso a paso, lo que permite que la IA resuelva problemas, analice información compleja y explique cómo llegó a sus conclusiones.
En la práctica, las capacidades de razonamiento se activan o mejoran “detrás de cámaras”*, permitiendo que el modelo profundice en lugar de limitarse a lo más probable.
👉 Dónde destaca:
*Depende del proveedor/modelo; a veces hay que activarlo manualmente, como el modo “extended thinking” de Claude.
Los LLM estándar generan respuestas a partir de lo que aprendieron durante el entrenamiento. Los agentes con búsqueda web combinan el modelo de lenguaje con fuentes en vivo, por lo que pueden “buscar” información en tiempo real y usar esas fuentes para armar la respuesta. En situaciones más avanzadas, pueden tener múltiples herramientas (no solo búsqueda web) y decidir de forma autónoma cuándo usar cada una.
👉 Dónde destaca:
Es la combinación de “razonamiento” + “búsqueda web”. No se trata solo de hacer búsquedas, sino de buscar y pensar sobre la información.
Por ejemplo, puede indagar datos en rincones de internet que tú no revisarías y evaluar si son relevantes para incluirlos en la respuesta final.
👉 Dónde destaca:
Cada vez que cambies de tema, empieza un chat nuevo. Esto restablece el contexto y ayuda a la IA a mantenerse centrada, evitando confusiones de conversaciones anteriores.
Escribir no siempre es conveniente, especialmente en una clínica con mucho movimiento. Hoy en día, muchas plataformas admiten entrada por voz, lo que te permite decir tu pregunta o instrucción directamente.
Pide un resumen de vídeo: imagina que estás viendo una ponencia de un congreso médico online, pero no vas a tener tiempo de ver el vídeo completo. Simplemente copia el enlace de YouTube, pégalo en el chat y pide un resumen.
Después de entender lo básico de los LLM, el siguiente tema muy importante es aprender a interactuar de la mejor forma con estas herramientas. Es el momento de hablar de la ingeniería de prompts.
Primero de todo: ¿qué es exactamente un prompt?
Un prompt es el mensaje o la pregunta que das a una herramienta de IA para obtener una respuesta. Es la manera en la que “hablas” con la IA, ya sea para pedir ayuda, generar contenido, resolver un problema o buscar información.
Cuando escribes un prompt, la herramienta usa su memoria a corto plazo (la información que das en ese momento) junto con su memoria a largo plazo (el conocimiento que aprendió durante el entrenamiento) para entender tu solicitud y darte la mejor respuesta posible. Ambas influyen en el resultado.
→ Veamos este ejemplo: Imagina que necesitas explicar de forma clara y completa a tus pacientes qué es la hipertensión.
Tu tarea sería: Escribe una explicación breve y clara de qué es la hipertensión, de forma que cualquier paciente pueda entenderla fácilmente; O bien: ¿Cómo explicarías la hipertensión a un paciente sin formación médica?
¿Lo ves? En los sistemas basados en LLM, cuanto más precisa y contextualizada sea la información que aportes, más datos tendrá para consultar.
Consejo: Los LLM no acceden a su memoria a largo plazo de forma rápida; a veces recuerdan datos de su entrenamiento, pero no es algo muy fiable. Sin embargo, cuando les das información dentro del prompt (por ejemplo, un capítulo de un libro), utilizan muy bien esa memoria a corto plazo y ofrecen resúmenes o explicaciones precisas.
En la próxima clase verás la fórmula perfecta para construir tu prompt.