POR QUÉ LA GRIPE AVIAR CON MANCHAS DE CÁNCER DEBE SER MANEJADA CON CUIDADO

Acelerar los diagnósticos de cáncer podría perjudicar más de lo que ayuda

En estos días, podría parecer que los algoritmos están superando a los médicos en todos los aspectos, identificando lesiones peligrosas y lunares dudosos con la consistencia infalible que sólo una máquina puede reunir. Este mismo mes, Google generó una ola de titulares con un estudio que muestra que sus sistemas de IA pueden detectar el cáncer de mama en las mamografías con mayor precisión que los médicos.

Pero para muchos en el cuidado de la salud, lo que estudios como estos demuestran no es sólo la promesa de la IA, sino también su amenaza potencial. Dicen que a pesar de todas las capacidades obvias de los algoritmos para procesar datos, las sutiles habilidades de juicio de las enfermeras y los médicos no son tan fáciles de digitalizar. Y en algunas áreas en las que las compañías tecnológicas están impulsando la IA médica, esta tecnología podría exacerbar los problemas existentes.

LOS DAÑOS DE ENCONTRAR MÁS CÁNCER

Para el periódico de mamografías de Google, la principal crítica es que la empresa intenta automatizar un proceso que ya es algo controvertido. Como señaló Christie Aschwanden en Wired a principios de este mes, los médicos han argumentado durante años que los escáneres tempranos para el cáncer de mama podrían perjudicar tanto como ayudar, y la introducción de la IA podría inclinar la balanza.

«HAY UNA IDEA EN LA SOCIEDAD DE QUE ENCONTRAR MÁS CÁNCERES ES SIEMPRE MEJOR, PERO NO SIEMPRE ES VERDAD.»

«Existe la idea en la sociedad de que encontrar más cánceres siempre es mejor, pero no siempre es cierto», dice Adewole Adamson, dermatólogo y profesor asistente de la Escuela de Medicina Dell, a The Verge. «El objetivo es encontrar más cánceres que realmente van a matar a la gente». Pero el problema es que «no hay un estándar de oro para lo que constituye el cáncer».

Tal como lo han encontrado los estudios, usted puede mostrar las mismas lesiones de etapa temprana a un grupo de médicos y obtener respuestas completamente diferentes sobre si es cáncer. E incluso si están de acuerdo en que eso es lo que muestra una lesión, y sus diagnósticos son correctos, no hay forma de saber si ese cáncer es una amenaza para la vida de alguien. Esto lleva a un sobrediagnóstico, dice Adamson: «Llamar a las cosas cáncer que, si no las buscara, no dañaría a las personas durante su vida».

Tan pronto como usted llama a algo cáncer, se desencadena una cadena de intervenciones médicas que pueden ser dolorosas, costosas y que cambian la vida. En el caso del cáncer de mama, eso puede significar tratamientos de radiación, quimioterapia, la extirpación de tejido del seno (una tumorectomía) o la extirpación de uno o ambos senos por completo (una mastectomía). Estas no son decisiones apresuradas.

Pero las complejidades de tal diagnóstico no reciben la atención adecuada en el estudio de Google, dice Adamson. Primero, los investigadores de la compañía entrenaron su algoritmo en imágenes que ya habían sido identificadas como cancerosas o no. Pero como no hay un estándar de oro para el diagnóstico de cáncer, particularmente el cáncer temprano, es discutible si tales datos de entrenamiento proveen una buena base de referencia. En segundo lugar, el algoritmo de Google sólo produce resultados binarios: sí, es cáncer o no, no lo es. Como Adamson argumenta en un documento reciente, es necesario que haya espacio para la incertidumbre, una tercera opción que representa el área gris del diagnóstico y que prolonga el debate en lugar de cerrarlo.

GOOGLE DICE QUE EL DOCUMENTO ES «INVESTIGACIÓN EN FASE INICIAL»

Cuando se le preguntó sobre estos problemas, el equipo de Google le dijo a The Verge que la reducción de sus algoritmos en las tasas de falsos positivos (incidentes en los que algo se identifica incorrectamente como cáncer) disminuiría la amenaza de un diagnóstico excesivo. También recalcaron que el documento era una «investigación de etapa temprana» y que en el futuro investigarían el tipo de análisis no binario que defiende Adamson.

«Este es exactamente el tipo de investigación en el que nos comprometeremos con nuestros socios como próximo paso», dijo un portavoz de Google Health. «Esperamos estar explorando consideraciones de flujo de trabajo, consideraciones de interfaz de usuario, entre muchas otras áreas».

Para Adamson, sin embargo, estos desafíos son más grandes que un solo documento. El sobrediagnóstico, dice, «es un problema para muchos cánceres diferentes; para la próstata, el melanoma, el cáncer de mama, la tiroides». Y si los sistemas de IA se vuelven cada vez mejores para encontrar lesiones cada vez más pequeñas, se producirá una gran cantidad de pseudo-pacientes que tienen una ‘enfermedad’ que en realidad no los matará».

EL RADIÓLOGO NO TAN OBSOLETO

El sobrediagnóstico es un desafío cuando se integra la IA en la medicina, pero para algunos médicos, las raíces del problema son más profundas. No se encuentran en documentos o algoritmos específicos, sino en la confianza del mundo de la IA en que puede suplantar a toda una categoría de trabajo médico: la radiología.

En 2016, el pionero de la IA Geoffrey Hinton (uno de los tres «padrinos de la IA» que ganaron el Premio Turing de 2018) dijo: «La gente debería dejar de entrenar a los radiólogos ahora. Es completamente obvio que dentro de cinco años el aprendizaje profundo lo hará mejor que los radiólogos». En 2017, el cofundador de Google Brain, Andrew Ng, repitió el punto mientras comentaba un algoritmo que detectaba la neumonía de los rayos X: «¿Deberían los radiólogos preocuparse por su trabajo?»

La retórica se ha calmado en los últimos años, pero para los radiólogos de verdad, estas mordeduras de sonido siempre han sonado equivocadas y un poco insultantes. (Como Hinton señaló en 2016 cuando recordó haber profetizado sobre la perdición de los radiólogos en un hospital: «No salió muy bien»). Aunque los algoritmos son ciertamente capaces de detectar características específicas en las imágenes médicas así como en los médicos, eso está muy lejos de ser capaz de ponerse una bata y empezar a caminar por las salas.

El núcleo del problema es que los radiólogos no se limitan a mirar las imágenes, dice Hugh Harvey, radiólogo y consultor de tecnología de la salud. «Es un completo malentendido de lo que hacen los radiólogos». El trabajo, dice, «es más como leer una novela y tratar de escribir un resumen de lo que se trata».

«LA I.A. NO PUEDE REEMPLAZAR LO QUE HACEN LOS RADIÓLOGOS EN NINGÚN SENTIDO SIGNIFICATIVO».

Como Harvey anotó en una entrada de blog en 2018, esto involucra programar y preparar a los pacientes, recolectar los datos de varias maneras (desde fluoroscopias, ultrasonidos, biopsias, etc.), correlacionar esto con otras partes del diagnóstico, y comprometerse en todo tipo de tareas auxiliares, como enseñar, entrenar, y auditar el trabajo de otros. «La IA no puede reemplazar lo que los radiólogos hacen en ningún sentido significativo», dice Harvey. «Puede encontrar cosas que son difíciles de encontrar y mostrárselas a los radiólogos para que den su opinión», pero no mucho más.

Los orígenes del exceso de confianza del mundo de la IA no se encuentran en ninguna venganza particular contra los radiólogos, sino en las afinidades estructurales de la propia inteligencia artificial. La visión artificial ha demostrado ser, con mucho, la mayor fuerza del aprendizaje profundo, el sabor dominante de la IA. Fue una prueba de reconocimiento de imágenes la que inició el actual auge de la IA en 2012, y son los algoritmos de visión de aprendizaje profundo los que apuntalan sus aplicaciones más poderosas, desde los autos auto-conductores hasta el reconocimiento facial.

Debido a esto, los investigadores de la IA tienen un gran kilometraje de aplicación de algoritmos de visión relativamente estándar a los conjuntos de datos médicos. Esto genera muchas «primicias», ya que la IA aprende a detectar la característica X en los datos Y y crea la impresión de una oleada rápida de progreso tecnológico. Los médicos dicen que la más parecida a una herramienta de estas aplicaciones -aquellas que simplemente marcan características en los datos para que los médicos las verifiquen- son las más útiles. Pero las más complejas que tratan de hacer sus propios diagnósticos no necesariamente tratan con los desafíos médicos subyacentes. Esto es especialmente cierto cuando muchos de los algoritmos que crean titulares aún no se han integrado en un entorno clínico.

Como dice Harvey: «El aprendizaje profundo está siendo usado como un martillo, y las compañías de tecnología están buscando clavos, pero algunos de los clavos – no son del todo correctos.»

REPLANTEAMIENTO DE LA NARRATIVA DE LA I.A. Y LA ATENCIÓN SANITARIA

Si hay un tema consistente que se encuentra en las fronteras de la IA y la medicina, es que los problemas no son tan simples como parecen a primera vista.

La reportera de salud Mary Chris Jaklevic señaló en un artículo reciente que mucha de la información errónea aquí proviene de la narrativa de «máquina versus médico» que se encuentra en tantos estudios de IA y en los informes posteriores. Tal narrativa es a la vez pegajosa y chasqueante, atrayendo el interés de los lectores en el momento y moldeando su comprensión del debate futuro. Pero también es unidimensional y reduce las complejidades del diagnóstico médico a unos pocos números. Al hacerlo, no se tienen en cuenta las partes del trabajo de atención de la salud que son menos fáciles de cuantificar.

LA CAPACIDAD DE LA I.A. PARA ESCALAR SUBYACE EN SU POTENCIAL Y SU PELIGRO

A pesar de ello, la mayoría de los expertos que participan en este trabajo -ya sean programadores o médicos- siguen siendo cautelosamente optimistas sobre el potencial de la IA en la atención médica. Como señala Adamson, es la capacidad de la IA para escalar lo que la hace tan poderosa y le da tanta promesa como exige precaución.

Una vez que un algoritmo ha sido exhaustivamente revisado, señala, y se han resuelto las complejidades de cómo encajará en el proceso de diagnóstico, puede ser desplegado rápida y fácilmente en casi cualquier lugar del mundo. Pero si esas pruebas se realizan apresuradamente, entonces los malos efectos secundarios como el sobrediagnóstico se multiplicarán con la misma rapidez.

«No creo que la IA deba tirarse a la basura, sino todo lo contrario», dice Adamson. «Tiene el potencial de hacer cosas buenas, si se diseña apropiadamente. Mi preocupación no es la IA como tecnología, sino cómo la aplicaremos».

Add comment