Los Desafíos de la IA en el Campo de la Salud
En la última década, el avance de la inteligencia artificial (IA) ha generado un gran entusiasmo, pero también ha puesto de manifiesto los errores que esta tecnología puede cometer. Desde malinterpretaciones en la comunicación hasta recomendaciones erróneas en contextos críticos como la salud, es vital reflexionar sobre los límites y repercusiones de utilizar IA en tareas delicadas. En este artículo, analizaremos cómo las herramientas de IA, aunque eficientes, pueden no ser infalibles y lo que esto puede significar para el futuro de la asistencia médica.
Errores de IA y la Tolerancia del Usuario
Las personas suelen aceptar los fallos de los asistentes digitales, ya que facilitan numerosas tareas. Sin embargo, la preocupación crece cuando estos errores se producen en entornos donde las consecuencias pueden ser graves. Por ejemplo, un posible proyecto de ley presentado en la Cámara de Representantes de EE. UU. en 2025 propone permitir que los sistemas de IA receten medicamentos sin supervisión humana. Esto ha generado un intenso debate entre investigadores y legisladores sobre la viabilidad y la ética de dicha práctica.
La Preocupación por los Errores
Los errores en los sistemas de IA son inevitables, y es crucial entender cuántos errores se consideran aceptables y qué implicaciones tendría que estos se tradujeran en resultados adversos, incluso muertes. Como investigador especializado en sistemas complejos, exploro cómo interactúan diferentes elementos para generar resultados impredecibles. A pesar de que la tecnología avanza, los errores en IA son una parte inherente de su funcionamiento.
El Dilema de la Inteligencia y la Infalibilidad
Alan Turing, pionero de la computación, afirmó que “si se espera que una máquina sea infalible, no puede ser también inteligente”. Aprender de los errores es esencial para la inteligencia, y esta dualidad se manifiesta en mi trabajo. Un estudio reciente reveló que clasificar datos en categorías claras puede ser extremadamente difícil, lo que limita la eficacia de los sistemas de IA.
Un Estudio de Caso: Estudiantes Universitarios
En 2021, junto a mis estudiantes, comenzamos a investigar la “clasificabilidad” al analizar datos de más de medio millón de estudiantes de la Universidad Nacional Autónoma de México. Queríamos determinar si un algoritmo de IA podía predecir qué estudiantes terminarían sus estudios a tiempo. A pesar de probar varios modelos, el mejor alcanzó solo un 80% de precisión, lo que demostró que muchos estudiantes, a pesar de ser similares en apariencia, tenían caminos académicos muy distintos.
La Complejidad de la Predicción
El concepto de complejidad también es clave en este contexto. Los sistemas complejos, como el tráfico de una ciudad, dependen de interacciones múltiples y a menudo imposibles de predecir. Esto puede llevar a situaciones en las que, aunque se tengan datos sobre velocidad y dirección, entender el comportamiento real del sistema es un desafío constante.
Implicaciones para la Prescripción Médica
La complejidad del diagnóstico médico presenta desafíos similares. Las mismas condiciones de salud pueden manifestarse de maneras diferentes e incluso compartir síntomas. Dada esta realidad, es probable que la IA nunca sea completamente precisa en el diagnóstico. Si bien los humanos también cometen errores, la situación se complica cuando un sistema de IA malinterpreta información crítica, generando así incertidumbre sobre la responsabilidad legal.
La combinación de humanos y máquinas, conocida como “centauros” o “inteligencia híbrida”, puede ofrecer un enfoque más equilibrado. Un médico, al usar IA para evaluar tratamientos posibles según el historial médico de un paciente, puede contribuir a un sistema más eficaz. Sin embargo, el sentido común sugiere que, especialmente en medicina, la supervisión humana es indispensable.
Conclusión
La integración de la inteligencia artificial en el ámbito de la salud promete mejorar diversos procesos, pero también resalta la necesidad de prudencia y supervisión humana. Los errores inherentes a la tecnología nunca deben pasarse por alto, sobre todo cuando de la salud de las personas se trata.
- Los sistemas de IA presentan inevitables errores que pueden tener graves consecuencias.
- La combinación de inteligencia humana y artificial puede ser más efectiva que cualquiera de las dos por separado.
- La supervisión humana sigue siendo crucial en la prescripción y diagnóstico médico.
- El avance en IA no implica la infalibilidad, lo que exige un enfoque cauteloso en su implementación.

