ESET Latinoamérica advierte sobre las consecuencias de exponer imágenes y datos personales en los
distintos sitios o aplicaciones web y qué tener en cuenta para evitar riesgos.
Centroamérica, 07 de abril de 2025. – La última actualización del chatbot de ChatGPT ha permitido a las
personas que lo utilizan replicar el inconfundible estilo artístico del co creador del estudio de animación
y legendario cineasta japonés Hayao Miyazaki. Esta nueva funcionalidad se ha viralizado rápidamente en
redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli.
Sin embargo, desde ESET, compañía líder en detección proactiva de amenazas, advierten que, como se
ha demostrado en distintas ocasiones, sumarse a una tendencia por mera diversión, puede derivar en
fraudes o suplantación de identidad si la tecnología se ve comprometida, o simplemente si para usarla
se aceptan condiciones de privacidad desfavorables, o que pueden estar en contra de las regulaciones
locales o internacionales.
Un ejemplo de esto es el caso de Clearview AI que funcionaba desde 2020 como un motor de búsquedas
similar a Google, pero de rostros. Debido a que recolectaba la información de fuentes públicas como
redes sociales, revistas digitales o blogs, tuvo en 2022 una disputa con la Unión Americana de Libertades
Civiles para que restrinja las ventas del software en el mercado estadounidense de servicios de
reconocimiento facial a entidades gubernamentales. Este tipo de controversias continúa y la empresa
sigue operando, no exenta de disputas y reclamos legales, y pago de multas en distintos países.
Por otro lado, la empresa australiana Outabox, en mayo de 2024 sufrió una filtración que expuso datos
de reconocimiento facial y biometría de sus sistemas, que se utilizaban en bares y clubes de Australia.
Personas que afirmaron ser antiguos desarrolladores de Outabox crearon un sitio web donde
confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma,
datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo
de visitas a clubes y uso de máquinas tragamonedas. Las investigaciones demostraron que los datos se
recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana,
operados por ClubsNSW que había contratado a Outabox.
“Como analizamos recientemente desde ESET, entre los principales desafíos que impone la Inteligencia
Artificial Generativa, la moderación del contenido y los derechos de autor son dos puntos que toman
fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. El
funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de
datos (con los que se entrenan y de los cuales se sirven), muchos de estos contienen información
personal, sensible y confidencial. Las diversas fuentes para recolectar información y así entrenar a los
modelos de IA pueden provenir de información pública o de fuentes abiertas, información solicitada a los
usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al
estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por
dispositivos IoT”, explica David González, investigador de Seguridad Informática de ESET Latinoamérica.
ESET -Nota de Prensa
Dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean
tratados y almacenados de forma segura, ya que, según ESET, pueden quedar expuestos y sujetos a
posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox.
Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar de forma fácil la
identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque
y exposición.
Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios,
quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento implica un
vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises.
La falta de explicación y transparencia sobre cómo funcionan los modelos y cómo tratan la información
genera también conflictos legales. Aquí es donde se puede tornar una línea delgada entre lo privado y lo
invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo
de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor
calidad.
Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las
debidas precauciones, por lo que desde ESET Latinoamérica comparten los puntos más importantes a
considerar para minimizar los riesgos:
Revisar las políticas de privacidad del sitio o aplicación: Mantenerse informado sobre cómo
funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable
subir o no información personal o confidencial.
Chequear si la información que se sube a un sitio o aplicación está protegida por alguna ley:
Garantizar que los modelos de IA dentro de aplicaciones o sitios cumplan con regulaciones
internacionales y nacionales pertinentes, así como con los principios éticos de transparencia,
explicabilidad, equidad y responsabilidad. En caso de la ausencia de alguno de estos principios, es
mejor no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de
trabajo).
Usar aplicaciones web o móviles de fuentes oficiales: Debido al gran uso de aplicaciones o sitios
similares a ChatGPT que puedan generar imágenes con el estilo artístico del Studio Ghibli, los
ciberdelincuentes aprovechan esta temática para poder engañar a los usuarios e incitarlos a
descargar software que aparentemente cumple con el propósito de generar imágenes con IA, sin
embargo, puede contener malware como se menciona en este post.
Usar imágenes seguras o sin derechos de autor: Si no se tiene el conocimiento de que la imagen sea
para su uso libre, es mejor no subirla para evitar problemas legales relacionadas con los derechos de
autor. Una buena práctica es subir imágenes relacionadas a paisajes o ilustraciones que cumplan con
las políticas de privacidad del sitio o aplicación.
