La Unión Europea investiga a Snapchat por presuntas deficiencias en la prevención del acoso infantil y venta de bienes ilegales
Snapchat hit with EU probe into alleged failure to prevent child grooming, illegal goods sales Reuters
La Unión Europea (UE) ha iniciado una investigación formal contra Snapchat, la popular aplicación de mensajería efímera, por presuntas fallas en la prevención del acoso infantil y la venta de bienes ilegales en su plataforma. Según informó la agencia Reuters, la Comisión Europea está examinando si la empresa ha incumplido las normativas comunitarias diseñadas para proteger a los usuarios, especialmente a los menores, de riesgos en línea como el grooming y el comercio de productos prohibidos. Esta acción se enmarca en los esfuerzos de la UE por reforzar la seguridad digital y hacer cumplir leyes como el Reglamento de Servicios Digitales, que obliga a las grandes plataformas tecnológicas a implementar medidas efectivas contra contenidos dañinos.
La investigación se centra en evaluar si Snapchat ha adoptado suficientes salvaguardas para detectar y eliminar actividades de acoso infantil, un delito grave que implica la manipulación de menores con fines sexuales, así como para impedir la venta de bienes ilegales, como drogas o armas, a través de sus funciones. La Comisión Europea podría imponer sanciones significativas si determina que la empresa no ha cumplido con sus obligaciones, lo que incluye multas de hasta el 6% de su facturación global anual, según las normas vigentes. Este escrutinio refleja la creciente presión regulatoria sobre las grandes tecnológicas para que mejoren la moderación de contenidos y protejan a los usuarios vulnerables.
El caso de Snapchat destaca los desafíos persistentes en la regulación de plataformas digitales, donde el equilibrio entre la privacidad, la libertad de expresión y la seguridad pública es complejo. La UE ha sido pionera en establecer marcos legales estrictos, como el Reglamento General de Protección de Datos (GDPR) y el Reglamento de Servicios Digitales, que buscan responsabilizar a las empresas por los contenidos que albergan. Esta investigación podría sentar un precedente para otras plataformas similares, impulsando cambios en las políticas de moderación a nivel global y subrayando la importancia de la transparencia y la diligencia en la protección de los derechos de los usuarios, en particular de los niños y adolescentes.