Uso de inteligencia artificial para mejorar la salud

Nikhil Vytla, SM ’25, crea software de inteligencia artificial con énfasis en resultados confiables


Nikhil Vytla estaba en la escuela secundaria cuando programó su primera aplicación para teléfono móvil. Junto con su amigo, creó una aplicación que accedía a artículos de noticias de diferentes sitios web, los traducía a cualquier idioma y luego utilizaba tecnología de texto a voz para leerlos en voz alta. La inspiración de Vytla para la aplicación estuvo cerca de casa.

“A mi abuelo le encantaba leer las noticias, pero con el tiempo, [desarrolló] degeneración macular relacionada con la edad y perdió la vista. Ya no podía leer sus periódicos favoritos”, dijo. “Esa fue mi motivación para desarrollar tecnología que ayudara a las personas de mis comunidades —las personas que me importaban”

Desde su primera incursión en el mundo del desarrollo de software, Vytla ha seguido persiguiendo su pasión por la construcción de tecnología a lo largo de su carrera educativa y profesional. Su enfoque en el uso de inteligencia artificial (IA) en la atención médica surgió al presenciar de primera mano cómo la tecnología podría abordar desafíos humanos reales, particularmente para las poblaciones vulnerables que podrían beneficiarse más de herramientas médicas más precisas y accesibles. En marzo completó su Maestría en Ciencias en Ciencias de Datos de Salud desde el Departamento de Bioestadística en Harvard TH. Escuela Chan de Salud Pública.

Creando tecnología para el bien social

Para obtener su título universitario, Vytla estudió informática y estadística en la Universidad de Carolina del Norte (UNC) en Chapel Hill. Se interesó en aplicar sus habilidades técnicas a proyectos de bien social, particularmente en el campo de la salud. “La atención médica representa esta increíble intersección donde la innovación técnica puede tener un impacto inmediato que cambie la vida”, dijo. “Cuando se crea software que podría ayudar a los médicos a salvar vidas o mejorar los resultados de los pacientes, el trabajo adquiere un significado completamente diferente” Está particularmente orgulloso de ser miembro fundador del capítulo de su universidad Ciencias de la Computación + Bien Social. En la organización, equipos de estudiantes se asociaron con organizaciones sin fines de lucro y nuevas empresas locales para desarrollar aplicaciones móviles y otras tecnologías.

Por ejemplo, Vytla y sus compañeros de equipo trabajaron con el sistema hospitalario UNC Health para crear un software de realidad virtual (VR) para niños inmunodeprimidos, que tenían que permanecer en alas aisladas del hospital debido a su susceptibilidad a las enfermedades. Utilizando cascos de realidad virtual, los niños podrían realizar excursiones virtuales a museos, explorar entornos submarinos o jugar juegos interactivos. “Ver la cara de un niño iluminarse mientras prácticamente nadaba con delfines mientras estaba confinado en una cama de hospital —es entonces cuando te das cuenta de que la tecnología no se trata sólo de algoritmos y códigos”, dijo. “Se trata de devolver la alegría y las posibilidades a las personas cuando más las necesitan.”

Después de la universidad, Vytla aceptó un trabajo como ingeniero de software para la startup TruEra, donde desarrolló métodos para explicar mejor cómo funcionan los modelos de IA.

“La IA es una caja negra”, dijo. “¿Cómo puedes saber qué características o influencias son más importantes para el modelo en términos de tomar una decisión —como la predicción de un determinado resultado, por ejemplo [si un paciente tiene una] enfermedad o no?”

Según Vytla, la explicabilidad de la IA también es importante para determinar la equidad en cómo los modelos utilizan características protegidas —rasgos como raza y género que están legalmente protegidos contra la discriminación— para tomar decisiones como aprobaciones de préstamos o tarjetas de crédito o diagnósticos de salud.

“Mi objetivo no es sólo hacer que la IA sea más inteligente—es crear una IA que funcione equitativamente para todos. Quiero cerrar la brecha entre la investigación de inteligencia artificial de vanguardia y las herramientas prácticas que realmente podrían mejorar la atención al paciente en entornos clínicos reales”, dijo. Vytla señaló que la necesidad de una IA confiable en la atención médica es particularmente urgente—los estudios han demostrado que algunos sistemas de IA médica exhiben sesgos raciales, como algoritmos que subestiman los niveles de dolor en pacientes negros o herramientas de diagnóstico entrenadas principalmente con datos de poblaciones blancas, lo que lleva a diagnósticos menos precisos para las personas de color. Con el objetivo de trabajar en este tipo de temas, se propuso estudiar en la Escuela Chan de Harvard.

Mejorar el diagnóstico de lesiones traumáticas

En el programa de ciencia de datos de salud, Vytla pasó a formar parte de una cohorte muy unida de estudiantes. “Pudimos construir una red cercana y confiar y apoyarnos mutuamente a través de clases bastante difíciles, cursos y problemas complejos”, dijo. “Creo que la camaradería era realmente importante. No sé si habría logrado superar el programa sin ese tipo de apoyo.”

Además de las clases, completó su proyecto final en el Laboratorio de Informática Quirúrgica en la Facultad de Medicina de Harvard y en el Centro Médico Beth Israel Deaconess. El proyecto se centró en el proceso de diagnóstico de pacientes que acuden a urgencias con lesiones traumáticas por, por ejemplo, accidentes automovilísticos o caídas. Vytla trabajó en el desarrollo de un modelo de IA para ayudar a los cirujanos a realizar diagnósticos más precisos.

“La toma de decisiones clínicas en la atención del trauma es altamente subjetiva. Hay mucha variabilidad en cómo los diferentes cirujanos tratan a los pacientes, lo que podría provocar lesiones omitidas y tratamientos retrasados, o resultados potencialmente inconsistentes”, explicó.

El modelo de IA de Vytla utilizó varios factores como insumos para el análisis. El componente principal fueron los resultados de los pacientes obtenidos a partir de imágenes médicas —como radiografías y tomografías computarizadas—, que fueron redactadas por los médicos en informes. Según Vytla, diferentes médicos rara vez utilizan exactamente la misma terminología para describir las mismas observaciones, por lo que el paso inicial del modelo implicó analizar el texto y convertirlo en términos estandarizados para los diagnósticos. Luego, el modelo incorporó información adicional, incluida la demografía de los pacientes y los resultados de los exámenes físicos. Con base en todos los datos, el modelo produjo una lista de posibles diagnósticos omitidos y recomendaciones para pruebas médicas de seguimiento.

“No es necesariamente que la herramienta complete los diagnósticos, sino que proporciona sugerencias al cirujano o al residente [un cirujano en formación] sobre cosas que debe verificar y potencialmente probar. Está diseñado para complementar la experiencia del cirujano, no para anularla”, dijo Vytla.

Cuando se evaluó el modelo utilizando un conjunto de datos de prueba, predijo más lesiones que las que tenían los pacientes, equivocándose por el lado de la seguridad. “En la atención traumatológica, los falsos positivos son mucho más preferibles que los falsos negativos. Una tomografía computarizada adicional puede resultar incómoda, pero una lesión interna omitida podría ser fatal. Diseñamos deliberadamente el sistema para ser cautelosos —es mejor ser minuciosos que pasar por alto algo crítico”, dijo Vytla. Los investigadores del Laboratorio de Informática Quirúrgica continúan perfeccionando el modelo de Vytla para su uso futuro.