user-icon user-icon
  • Clima
    • Durango 23ºC 6ºC Min. 23ºC Máx.
    • Clouds
    • Próximos 5 días
      • Domingo
      • 6º / 24º
      • Clouds
      • Lunes
      • 9º / 22º
      • Clouds
      • Martes
      • 10º / 22º
      • Clouds
      • Miércoles
      • 12º / 26º
      • Clouds
      • Jueves
      • 12º / 26º
      • Clouds
    • Pronóstico en video Ana Mora nos da el pronóstico del tiempo en Laguna para este fin de semana.
    • Ana Mora nos da el pronóstico del tiempo en Laguna para este fin de semana.
      • Video
      • media-content

Inteligencia Artificial: “El engaño perfecto” en las radiografías médicas

Una investigación científica reveló cómo la inteligencia artificial puede ser utilizada para crear imágenes médicas falsas que engañan tanto a profesionales como a sistemas automatizados de diagnóstico.

Estados, Unidos /

Un estudio advirtió sobre la capacidad de manipulación mediante imágenes médicas falsas que generan sistemas de inteligencia artificial, con resultados que engañan a especialistas y a herramientas digitales. 

La investigación se publicó en la revista Radiology.

El desafío de detectar lo "invisible": Médicos frente a la IA

Diecisiete radiólogos de doce hospitales en seis países evaluaron 264 radiografías. La mitad provino de sistemas como ChatGPT y RoentGen. Cuando los participantes no conocían el objetivo, solo el 41 por ciento identificó imágenes sintéticas. 

Tras recibir información sobre la presencia de material artificial, la precisión alcanzó 75 por ciento.

Amenazas a la ciberseguridad y riesgos legales

El líder del estudio, Mickael Tordjman, de la Escuela de Medicina Icahn del Mount Sinai, señaló que la similitud entre imágenes reales y simuladas genera riesgo de litigios con base en diagnósticos alterados.

También advirtió sobre amenazas a la seguridad digital si actores externos insertan imágenes falsas en sistemas hospitalarios.

El análisis incluyó modelos como GPT-4o, GPT-5, Gemini 2.5 Pro y Llama 4 Maverick. La detección de contenido falso osciló entre 57 y 85 por ciento

El propio sistema que generó imágenes no logró reconocer todos los casos.

Cinta amarilla de prohibido el paso en color amarillo
arrow-circle-right

Los investigadores plantearon el uso de marcas digitales y bases de datos para identificar contenido falso y reforzar controles. 

El equipo consideró que la generación de estudios clínicos simulados puede extenderse a otras técnicas de diagnóstico y afectar la confianza en registros médicos.

LV

Manuel González
  • Manuel González
  • Periodista con más de tres décadas de experiencia. Guionista, locutor, productor y traductor simultáneo en Grupo Multimedios. Me gusta leer y ver beisbol.
  • Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de TELEDIARIO; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
  • t-icon
LOS EDITORES RECOMIENDAN