| ** | Latin American Journal of Clinical Sciences and Medical Technology is an open access magazine. To read all published articles and materials you just need to register Registration is free of charge. Register now If you already have registered please Log In | ** |
Hace un par de días vi un episodio de la primera temporada de Los expedientes secretos X, una serie televisiva de los años noventa. En él, una computadora que controlaba, muy futurísticamente, todos los adminículos de un edificio de oficinas de una empresa de tecnología militar, se rebela y ataca a quien la quiere desconectar. El agente Moulder dice claramente: «la inteligencia artificial es un peligro». Recordé también a la computadora HAL, que se rebela en la película 2001: odisea del espacio. Este futuro distópico, previsto desde hace tiempo, no deja de generar preocupación. Aunque queda pendiente hacer una historia de la génesis y devenir de la idea de que la ciencia y la tecnología crean monstruos, se puede suponer que el origen se remonta a aquella cultura gótica, romántica e irracional, del mito de Frankenstein, que propone que la ciencia no debe rebasar ciertos límites ni compararse con la deidad.
Sin embargo, la inteligencia artificial (IA) ha pasado, en pocos años, de ser una promesa futurista a una presencia tangible en la práctica médica contemporánea. Sistemas de aprendizaje automático, redes neuronales profundas y modelos de lenguaje avanzados se han integrado rápida y progresivamente en procesos clínicos, administrativos y científicos. Este acelerado desarrollo ha generado entusiasmo, pero también intranquilidad, particularmente en regiones como América Latina, donde la desigualdad en el acceso a la tecnología y la deficiencia de los sistemas de salud plantean desafíos. Entonces, más que preguntarnos si la IA debe formar parte de la medicina, la cuestión central es cómo debe hacerlo, bajo qué condiciones y con qué consideraciones éticas y científicas.
En el ámbito diagnóstico, la IA ha mostrado gran potencial, principalmente en el terreno de la imagen, como radiología, dermatología y patología digital. Algoritmos entrenados con grandes volúmenes de datos han demostrado una capacidad de detección comparable (o incluso superior) a la de especialistas humanos. Estas herramientas pueden contribuir a reducir la variabilidad interobservador, acelerar los tiempos de lectura y ampliar el acceso al diagnóstico en áreas con escasez de especialistas. Sin embargo, estos avances no carecen de limitaciones. Los modelos de IA dependen de la calidad y la representatividad de los datos con los que fueron entrenados. Cuando dichos datos no reflejan la diversidad étnica, socioeconómica y epidemiológica de las poblaciones latinoamericanas, el riesgo de sesgo y de error diagnóstico aumenta.
En el terreno terapéutico, la IA se ha incorporado a sistemas de apoyo a la toma de decisiones clínicas, modelos predictivos de riesgo y estrategias de medicina personalizada. En oncología, cardiología e infectología, entre otras áreas, estos sistemas pueden ayudar a estimar pronósticos, seleccionar tratamientos y optimizar los recursos sanitarios. No obstante, su uso plantea interrogantes complejas: ¿quién es responsable cuando una recomendación algorítmica resulta perjudicial?
Existe también el riesgo de que los clínicos desarrollen una dependencia excesiva de estas herramientas, disminuyan su juicio crítico y su experiencia clínica. Por lo tanto, la IA debe entenderse como un apoyo, no como sustituto del razonamiento médico.
Asimismo, en el ámbito de la producción y difusión del conocimiento científico también se han generado inquietudes. La IA no sólo está transformando la manera de diagnosticar y tratar a los pacientes, sino también cómo se redactan, editan y publican los artículos científicos que sustentan la medicina basada en la evidencia.
En la actualidad, investigadores y editores utilizan herramientas de IA para mejorar la claridad del lenguaje, traducir manuscritos, estructurar argumentos y sintetizar información. Para muchos autores no angloparlantes, estas tecnologías representan una oportunidad para reducir barreras lingüísticas, producir textos mejor redactados en inglés y aumentar su visibilidad en la literatura internacional.
Desde una perspectiva editorial, la IA puede agilizar los procesos de revisión preliminar, detección de plagio y organización de manuscritos. Sin embargo, también introduce riesgos importantes. Los modelos de lenguaje pueden generar textos gramaticalmente impecables, pero conceptualmente imprecisos, perder el estilo particular del autor y, en algunos casos, producir referencias bibliográficas inexistentes o incorrectas (alucinación de IA), lo cual compromete la integridad científica.
Frente a este escenario, es crucial establecer criterios claros sobre lo que es aceptable en el uso de la IA en publicaciones científicas. En términos generales, emplear la IA como herramienta de apoyo es razonable y, en muchos casos, beneficioso. La corrección gramatical, la mejora de estilo, la traducción y la organización de ideas pueden ser legítimamente asistidas por IA, siempre y cuando los autores mantengan el control intelectual y verifiquen rigurosamente el contenido generado. La responsabilidad última sobre el manuscrito debe permanecer, sin ambigüedades, en manos de los investigadores humanos.
No obstante, existen límites que no deben cruzarse. Resulta éticamente inaceptable listar a la IA como coautora o autora de un artículo, ya que carece de capacidad para asumir responsabilidad, declarar conflictos de interés o rendir cuentas ante la comunidad científica. Igualmente, la generación automatizada de datos, resultados o conclusiones sin validación humana representa una amenaza directa a la confiabilidad del conocimiento publicado. De igual forma, el uso sustancial de IA en la redacción de un manuscrito, sin una declaración explícita, compromete la transparencia y la trazabilidad académica.
Nos encontramos, por lo tanto, ante una serie de retos abiertos. Las revistas científicas deben definir políticas claras sobre la declaración del uso de IA, sin caer en prohibiciones indiscriminadas que puedan frenar la innovación. Al mismo tiempo, es necesario desarrollar mecanismos para detectar usos indebidos sin instaurar una vigilancia excesiva ni punitiva. En contextos como el latinoamericano, estas discusiones deben considerar también las desigualdades de acceso y la necesidad de que la IA contribuya a reducir, y no ampliar, las brechas científicas y tecnológicas.
En conclusión, la inteligencia artificial no es ni una amenaza existencial para la medicina ni una solución mágica a sus desafíos. Es una herramienta poderosa que exige criterios éticos sólidos, rigor metodológico y una responsabilidad humana ineludible. El desafío para la comunidad médica y editorial no es resistir el avance de la IA, sino integrarla de manera transparente, prudente y crítica, lo cual garantiza que la innovación tecnológica fortalezca y no debilite la integridad de la ciencia y la confianza de la sociedad en ella.
| 1. | Yu KH, Beam AL, Kohane IS. Artificial intelligence in healthcare. Nat Biomed Eng. 2018;2(10):719-731. |
| 2. | Topol EJ. High-performance medicine: The convergence of human and artificial intelligence. Nat Med. 2019;25:44-56. |