Norton advierte sobre los riesgos del uso indebido de la IA en imágenes

El rápido avance de la IA ha facilitado la creación de imágenes con un alto nivel de realismo, incluidas imágenes falsas o manipuladas, reduciendo significativamente las barreras para el engaño en línea.
Norton, una marca líder en ciberseguridad para consumidores, advierte que, si bien el contenido generado por IA no es intrínsecamente dañino, pueden surgir riesgos cuando los estafadores hacen un uso indebido de estas capacidades como parte de estafas y tácticas de ingeniería social, utilizando imágenes con IA para crear urgencia, ejercer presión, explotar la confianza o engañar a las personas en entornos digitales.
El uso de herramientas de IA para generar o alterar imágenes y crear deepfakes ha atraído cada vez más la atención en todo el panorama digital. Si bien abre interesantes oportunidades para el arte y la expresión creativa, el contenido generado por IA también puede crearse con fines de uso indebido y estafas en plataformas y redes sociales. La capacidad de crear imágenes falsas muy realistas introduce nuevos riesgos, ya que este tipo de contenido podría aprovecharse en planes de engaño, fraude o extorsión diseñados para manipular emocionalmente o presionar a las personas.
“Con las herramientas de inteligencia artificial actuales, es posible hacer que casi cualquier persona parezca estar haciendo casi cualquier cosa en cuestión de segundos, sin necesidad de conocimientos técnicos. Esto cambia radicalmente lo fácil que es engañar y manipular a las personas en Internet”, afirma Iskander Sanchez-Rola, director de IA e Innovación en Norton. “La IA puede hacer que las personas parezcan estar en lugares en los que nunca han estado, haciendo cosas que nunca han hecho, o mostrándolas de forma comprometedora o engañosa. Este tipo de manipulación es extremadamente peligrosa y puede tener graves consecuencias en el mundo real”.
Cuando las imágenes generadas por IA se vuelven peligrosas
La IA en sí misma no es intrínsecamente peligrosa. En lo que respecta a la creación de imágenes, existen muchos casos de uso legítimos y positivos, desde el diseño y el arte hasta la educación y la accesibilidad.
Sin embargo, el riesgo surge cuando la IA se cruza con el engaño. Entre los ejemplos de usos peligrosos de imágenes generadas o manipuladas por IA se encuentran:
Perfiles románticos o sociales falsos
Fotos de perfil generadas por IA que se utilizan en aplicaciones de citas o plataformas sociales para crear identidades falsas creíbles, a menudo como parte de estafas románticas o planes de manipulación emocional a largo plazo.
Imágenes de prueba falsas usadas en estafas
Imágenes que muestran recibos falsos, compras de lujo, accidentes, emergencias médicas o capturas de pantalla manipuladas, creando situaciones que parecen reales pero no lo son, y que se utilizan para presionar a las víctimas para que envíen dinero rápidamente.
Imágenes alteradas utilizadas para chantaje o extorsión
Imágenes manipuladas diseñadas para poner falsamente a personas, o a personas cercanas a ellas, en situaciones comprometedoras o embarazosas, y que luego se utilizan para amenazar con revelarlas a menos que se realice un pago.
Suplantación de identidad de personas reales o figuras de autoridad
Imágenes generadas por IA que imitan a personas reales, como ejecutivos, figuras públicas o familiares, con el objetivo de obtener información confidencial, dinero o difundir información falsa como parte de ataques de ingeniería social.
Imágenes falsas de productos en estafas de comercio electrónico
Imágenes muy realistas generadas por IA de productos que no existen o no se corresponden con la realidad, utilizadas para atraer a los consumidores a sitios web de comercio electrónico fraudulentos o anuncios engañosos en redes sociales.
Imágenes manipuladas diseñadas para provocar miedo o urgencia
Imágenes que representan desastres, detenciones, lesiones o situaciones urgentes inventadas, creadas para provocar reacciones emocionales y empujar a las personas a actuar sin verificar.
Qué pueden hacer las personas para reducir el riesgo
Dado que el uso indebido de imágenes generadas o manipuladas por IA sigue aumentando, Norton recomienda tomar medidas prácticas para reducir la exposición en línea:
-
Comparte menos contenido visual públicamente, especialmente fotos o vídeos personales, ya que este material puede ser reutilizado, manipulado o sacado de contexto por terceros sin tu consentimiento.
-
Ten cuidado al compartir imágenes de alta resolución, que pueden ser reutilizadas o alteradas más fácilmente.
-
Controla tu presencia digital buscando periódicamente imágenes o información personal para identificar posibles usos indebidos.
-
Desconfía de los mensajes inesperados que incluyan imágenes acompañadas de solicitudes de pago, amenazas o presiones urgentes, incluso cuando el contenido parezca real.
-
Verifica el origen del contenido antes de reaccionar preguntando quién creó o compartió la imagen, el contexto en el que apareció y si una fuente fiable confirma su autenticidad.
-
Evita compartir o volver a compartir imágenes o vídeos de otras personas a menos que estés seguro de que proceden de una fuente fiable y representan contenido auténtico.
-
Evita interactuar directamente con personas que ejerzan presión y busca orientación de una fuente fiable o de las autoridades competentes, de conformidad con la normativa local.
-
Recurre a herramientas tecnológicas, incluida la inteligencia artificial, para ayudar a identificar posibles signos de manipulación, complementando siempre estas herramientas con la verificación de la fuente, el contexto y la intención detrás del contenido.
-
Comparte estas recomendaciones con tus allegados, especialmente con los niños y los familiares mayores, que pueden ser más vulnerables a este tipo de engaños.
En un entorno digital en el que la línea entre lo real y lo manipulado puede volverse cada vez más difusa, es esencial desarrollar una mentalidad crítica y adoptar hábitos de seguridad digital. La prevención, la verificación y la educación siguen siendo las herramientas más eficaces para hacer frente a los riesgos emergentes asociados al uso indebido de la inteligencia artificial.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y se encuentra en el sitio https://boletin.mx/2026/02/16/norton-advierte-sobre-los-riesgos-del-uso-indebido-de-la-ia-en-imagenes/




