Jerez: “La IA debe tener en cuenta la protección del ciudadano”

El catedrático de la Universidad de Málaga, José Manuel Jerez.
photo_camera El catedrático de la Universidad de Málaga, José Manuel Jerez.

El catedrático hablará de los aspectos éticos de esta tecnología en el Simposio Nacional de Oncología de Precisión en Vigo

Los desafíos éticos y legales de la inteligencia artificial en el abordaje del cáncer será uno de los asuntos que se someterán a debate en el sexto Simposio Nacional de Oncología de Precisión que se celebra esta semana en Vigo y que fue organizado por la Sociedad Oncológica de Galicia. Para ello cuentan con un “ingeniero de la salud”, el catedrático de Lenguajes y Ciencias de la Computación en la Escuela Técnica Superior de Ingeniería Informática de la Universidad de Málaga, José Manuel Jerez, que pondrá sobre la mesa los objetivos y la estrategia de la Ley de Inteligencia Artificial de la Unión Europea.

Es la primera legislación integral del mundo diseñada para regular el uso y el desarrollo de la inteligencia artificial. Se trata de equilibrar el fomento de la innovación tecnológica con la protección de los ciudadanos y sus derechos fundamentales. La ley establece distintos niveles de riesgo para establecer los límites y también los requisitos que se deben cumplir en cada caso. José Manuel Jerez expondrá ejemplos concretos de los riesgos de la IA aplicados al mundo sanitario.

En el nivel de riesgo “inaceptable” estarían por ejemplo los sistemas para la asignación automática de pacientes con cáncer, basándose en sus datos médicos y genéticos, a ensayos clínicos sin consentimiento informado

Para el nivel de “alto riesgo” se refiere a sistemas de IA para diagnóstico y tratamiento, como podría ser un software diseñado para analizar imágenes médicas y ayudar en el diagnóstico, además de recomendar tratamientos personalizados. “Dado su impacto directo en las decisiones clínicas y la seguridad del paciente, serían sistemas de alto riesgo y estarían sujetos a evaluaciones de conformidad rigurosas antes de su implementación”.

Como ejemplo de “riesgo limitado”, menciona los Chatbots para soporte informativo a pacientes de cáncer, que respondan a preguntas sobre efectos secundarios de tratamientos, consejos de cuidado personal o programación de citas. Ahí bastaría asegurar que los usuarios sean conscientes de que están interactuando con una máquina y no con un profesional.

Por último, serían de “riesgo mínimo” las aplicaciones para la gestión del bienestar y el seguimiento de síntomas porque son herramientas complementarias de autoayuda y no influyen en decisiones de tratamiento o diagnóstico.

Te puede interesar