Entrenan IA con datos médicos para predecir enfermedades y hospitalizaciones
Investigadores médicos de Reino Unido actualmente entrenan el modelo de inteligencia artificial generativa, Foresight, con 57 millones de historiales médicos obtenidos del Servicio Nacional de Salud (NHS), con el objetivo planteado de permitir a los médicos y planificadores de salud «orientar sus recursos de forma precisa, temprana y a gran escala». Los técnicos alegan que el modelo dispone de la capacidad para predecir enfermedades o pronosticar la recurrencia de hospitalizaciones.
Foresight fue inicialmente desarrollado en 2023, y derivado del modelo de gran escala (LLM), GPT-3, de OpenAI; y se entrenó con los registros médicos de 1,5 millones de pacientes en dos hospitales de Londres. Ahora, la IA emplea ocho conjuntos de datos de información sanitaria regularmente obtenida por la NHS en Inglaterra, entre noviembre de 2018 hasta diciembre de 2023, y deriva del LLM Llama 2, perteneciente a Meta.
Los datos incluyen citas ambulatorias, visitas hospitalarias, información de vacunas y registro, lo cual totaliza más de 10 mil millones de eventos de salud distintos, es decir, prácticamente la totalidad de la población en Inglaterra. “El verdadero potencial de Foresight es predecir complicaciones de salud antes de que ocurran, lo cual nos da una valiosa ventana de tiempo para intervenir de manera temprana, y permitir un ajuste hacia un sistema médico más preventivo a escala», expresó uno de los coautores de Foresight, Chris Tomlinson.
Riesgo inherente a la privacidad de los pacientes
No obstante, otros investigadores señalan que esta tecnología genera preocupaciones respecto a la privacidad y protección de datos; ante el uso de larga escala de información sanitaria, inclusive, los arquitectos de esta IA no garantizan que el algoritmo se abstenga de revelar datos sensibles de pacientes.
Asimismo, aunque los investigadores aseguran que todos los registros fueron anonimizados, previo a su uso para entrenar a la IA, otros analistas señalan el riesgo de que una persona o grupo identifique patrones en la información para identificar a un paciente. «Estos modelos deberían permanecer bajo estricto control de la NHS, donde podrán ser usados de manera segura», indicó el académico de la Universidad de Oxford, Luc Rocher.
Para mitigar este riesgo, el director de Investigación y Ensayos Clínicos en NHS Digital, Michael Chapman, aseguró que la IA opera dentro de un entorno seguro de datos, personalizado para NHS, para asegurarse que la información no se filtre fuera del modelo, y de que esta permanezca accesible solamente para investigadores aprobados.
Fuente: Medios internacionales
VTV/DC/SB