Share on facebook
Share on google
Share on twitter
Share on whatsapp

¿Cómo se hackea una tomografía para hacer aparecer falsos tumores?



¿Cómo se hackea una tomografía para hacer aparecer falsos tumores?

Investigadores israelíes demuestran cómo se pueden "inyectar" tumores falsos o hace desaparecer tumores verdaderos de las tomografías computadas


Investigadores en ciberseguridad de la Universidad Be-Gurion del Negev han demostrado en un nuevo estudio cómo los hackers pueden acceder a estudios médicos y agregar o eliminar imágenes de tumores malignos, lo que pone a los pacientes en riesgo de diagnóstico erróneo

En el estudio, demostraron también que las imágenes alteradas eran capaces de engañar no solo a radiólogos de experiencia, sino también a los algoritmos de inteligencia artificial que actualmentese utilizan cada vez más para ayudar en los diagnósticos.

La manipulación deliberada de este tipo de análisis podría utilizarse para el fraude en los seguros médicos, ransomware, ciberterrorismo o incluso el asesinato, dijeron los investigadores en un comunicado.

Es este video, se muestra lo fácil que es acceder a las estaciones de trabajo de los radiólogos en un hospital, ingresando desde la sala de espera para instalar un dispositivo capaz de interceptar y manipular los datos.

Para insertar y eliminar afecciones médicas, los investigadores utilizaron una red neuronal de aprendizaje profundo denominada red de confrontación generativa (GAN). Los GAN se han utilizado para generar imágenes realistas, como retratos de personas inexistentes.   

Los radiólogos diagnosticaron erróneamente el 99 por ciento de las exploraciones alteradas que mostraron tumores malignos, y el 94 por ciento de las imágenes alteradas a las que se les quitaron imágenes cancerosas.

Después de informar a los radiólogos de la manipulación, los expertos aún no pudieron diferenciar entre las imágenes manipuladas y las auténticas, diagnosticando erróneamente el 60 por ciento de las tomografías que mostraban falsos tumores y el 87 por ciento de los que no mostraban signos de tumor.

También fueron engañados los algoritmos basados en IA que están destinados a ayudar a los radiólogos en el diagnóstico. En consecuencia, las herramientas de detección de cáncer de pulmón de inteligencia artificial de vanguardia, utilizadas por algunos radiólogos, también son vulnerables a este ataque.

Referencias

CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning, Yisroel Mirsky, Tom Mahler, Ilan Shelef, Yuval Elovici 
https://arxiv.org/pdf/1901.03597.pdf