Medicina de precisión y el problema de la caja negra

Autor Nicolás Medina Silva el 7/11/19 9:51 AM

Medicina de precisión y el problema de la caja negra

La inteligencia artificial (IA) puede definirse, en términos generales y simplificados, como un proceso computacional con la capacidad de realizar tareas que usualmente requieren inteligencia humana. Recientemente, este tipo de procesamiento de datos ha recibido mucha atención ya que demuestra algunas características que asociamos con el pensamiento humano como “aprender” o “resolver problemas”.

No obstante, la capacidad de imitar o replicar el comportamiento humano no es la razón por la que estas técnicas computacionales han despertado interés en la comunidad científica. Por el contrario, este interés frecuentemente se deriva de la capacidad que ha mostrado la IA para superar el desempeño de un humano experto o muy talentoso en algunas tareas específicas.

Recientemente, implementaciones particulares de IA han logrado derrotar al campeón de uno de los juegos más antiguos y complejos (i.e., Go); componer piezas musicales y otras formas de arte; optimizar sistemas de gestión; asistir en la toma de decisiones para operaciones financieras de alto impacto; falsificar vídeos de personajes reconocidos y muchas otras aplicaciones sorprendentes e inesperadas.

En el área de la salud, el impacto de estas herramientas no representa un futuro lejano. Actualmente la IA se emplea ampliamente en temas relacionados con salud, en particular, dentro proveedores de tecnología y procesamiento de datos. Sin embargo, una de las aplicaciones más prometedoras de la IA se encuentra relacionada con el uso de modelos predictivos en lo que hoy se conoce como medicina de precisión (i.e., intervenciones hechas a la medida de acuerdo a las características genéticas, moleculares o los bio-marcadores de cada paciente).  (También puede leer: Medicina: ciencia, arte e información)

Es claro que las herramientas usadas para determinar el riesgo de un paciente particular pueden optimizarse y que la toma de decisiones en medicina puede enriquecerse con herramientas tecnológicas. Estas observaciones, de la mano con el desempeño super-humano demostrado recientemente por la IA en algunas tareas, permiten vislumbrar aspectos esenciales del potencial anticipado de estas técnicas para su aplicación en la medicina. Otro aspecto fundamental está relacionado con el cambio en la forma como los médicos estamos generando y capturando datos sobre cada paciente.

En primer lugar, la práctica de la medicina genera cada vez mayor cantidad datos a través de exámenes de laboratorio e imágenes diagnosticas; sin nombrar las enormes librerías genéticas y la capacidad de leer el genoma de un paciente de forma relativamente económica. En segundo lugar, los datos típicamente aislados y no estructurados de la historia clínica hoy en día están interconectados y almacenados de forma más organizada. Dado a que la IA se beneficia de la disponibilidad de grandes cantidades de datos, este cambio en la práctica médica conforma un terreno muy fértil para el desarrollo de herramientas.

Debido a esto, el posible impacto de las técnicas de IA en la práctica de la medicina despierta no solo un gran interés; sino preguntas y dilemas complejos relacionados con los límites del desempeño humano, la responsabilidad y el conocimiento del médico, la forma en que se educa al personal de salud y su impacto en la forma como se desarrollan las actividades de atención en salud. (También puede leer: Innovación empresarial: por qué y cómo)

Una forma interesante de evaluar el alcance de estos asuntos sin resolver, es dándole una mirada al problema de la caja negra. Para esto podemos valernos de un ejemplo: hay IA basada en redes neurales las cuales tienen múltiples nodos y capas (i.e., son amplias), estos nodos tienen múltiples conexiones entre sí (i.e., son complejas) y la información que es procesada tiene la capacidad de modificar la estructura misma (i.e., son recursivas). Debido a estas características, si una IA está basada en redes neurales y alcanza desempeño super-humano en alguna tarea, los investigadores se encuentran con muchas dificultades para entender cómo lo hizo.

Cuando esto ocurre, el “conocimiento” relacionado con la tarea queda atrapado en una “caja negra”. Dicho de otra forma, sabemos que un humano en el tope de su desempeño puede ser superado por la IA y sabemos que la tarea puede hacerse de una mejor forma a como la hemos venido haciendo; sin embargo, no aprendimos nada sobre la tarea en si misma y no podemos optimizarla sin el uso de la caja negra.

Si llevamos el problema de la caja negra a temas relacionados con la atención en salud, los dilemas descritos se hacen aún más evidentes: Un médico puede estar interesado en que la IA le ayude a establecer el pronóstico de su paciente, pero, si no sabe qué información tiene en cuenta la caja negra para establecer este riesgo difícilmente podrá orientar al paciente. Podemos diseñar IA para evaluar el genoma de un recién nacido, pero, dado que el médico no puede analizar esta gran cantidad de información: ¿Debe la madre asesorarse de la caja negra?. Finalmente, emerge la pregunta sobre cómo estamos preparándonos y educando al personal de la salud para enfrentarse a este gran reto.

La caja negra es solo una forma de enfocar algunos de estos dilemas y no es común a todas las implementaciones de IA; sin embargo, nos permite ver algunos de los asuntos para los cuales debemos prepararnos. En el futuro, una buena parte del reto para el personal de salud consiste en ampliar la capacidad humana usando estas herramientas; para esto, necesitamos entender muy claramente cuál es nuestro papel en el proceso de atención en salud, así como algunos aspectos básicos de esta tecnología.

Lo invitamos a participar sobre este tema y suscribirse a nuestro blog. En CAIMED, le apostamos al avance tecnológico pero siempre con sentido humano. 

Nicolás Medina Silva MD. MSc.

Investigador | Caimed

Referencias

  1. Sullivan HR, Schweikart SJ. Are current tort liability doctrines adequate for addressing injury caused by AI? AMA J Ethics. 2019;21(2):160–6.
  2. Castelvecchi D. The black box of AI. Nature. 2016;538(7623).
  3. Anderson M, Anderson SL. How should AI Be developed,validated and implemented in patient care? AMA J Ethics. 2019;21(2):125–30.

Etiquetas: Medicina, Inteligencia Artificial, Tecnologia