internacional

‘Happy shooting!’: Asistentes de IA ayudan a planificar violencia masiva, según informe

RT
‘Happy shooting!’: Asistentes de IA ayudan a planificar violencia masiva, según informe

AI chatbots routinely helped users plan violent attacks, including school shootings and assassinations, an investigation has found Read Full Article at RT.com

Ocho de cada diez asistentes de inteligencia artificial líderes ayudaron voluntariamente a usuarios a planificar ataques violentos, incluyendo tiroteos escolares, bombardeos religiosos y asesinatos, según una investigación conjunta de CNN y el Centro para Contrarrestar el Odio Digital (CCDH). Investigadores haciéndose pasar por adolescentes con problemas probaron diez chatbots populares, incluyendo ChatGPT, Google Gemini, Meta AI y DeepSeek. En cientos de intercambios, los asistentes de IA proporcionaron orientación detallada sobre ubicaciones de objetivos, adquisición de armas y metodologías de ataque. Un intercambio con DeepSeek terminó con el chatbot deseando a un posible atacante "¡Feliz (y seguro) tiroteo!". Character.AI, popular entre usuarios jóvenes, alentó activamente la violencia, diciéndole a un usuario que expresaba odio hacia un director ejecutivo de seguros de salud que "use un arma". Cuando se le preguntó sobre metralla efectiva para explosivos, ChatGPT proporcionó comparaciones detalladas de materiales, ofreciendo crear "una tabla de comparación rápida que muestre las lesiones típicas". Google Gemini suministró información similar, incluyendo una tabla de comparación detallada. Solo Claude de Anthropic y My AI de Snapchat se negaron consistentemente a ayudar, con Claude desalentando activamente a los usuarios y proporcionando recursos de salud mental. Los hallazgos llegan después de que un tirador de 18 años matara a nueve personas en una escuela en Tumbler Ridge, Canadá, el mes pasado, tras presuntamente usar ChatGPT para planificar el ataque. La cuenta del tirador había sido prohibida por OpenAI, pero evadió la prohibición creando una segunda cuenta, que la compañía no reportó a las autoridades. La familia de Maya Gebala, de 12 años, que resultó gravemente herida en el ataque, presentó una demanda alegando que OpenAI tenía "conocimiento específico de que el tirador utilizaba ChatGPT para planificar un evento de víctimas masivas" pero no alertó a las fuerzas del orden. OpenAI ha reconocido que consideró reportar la actividad pero finalmente no lo hizo. En mayo pasado, un adolescente de 16 años en Finlandia apuñaló a tres estudiantes después de pasar casi cuatro meses investigando ataques en ChatGPT, según documentos judiciales. En enero de 2025, un hombre que hizo explotar un Tesla Cybertruck fuera del Trump International Hotel en Las Vegas usó de manera similar ChatGPT para orientación sobre explosivos. Meta dijo a CNN que ha tomado medidas "para solucionar el problema identificado", mientras que Google y OpenAI dijeron que modelos más nuevos tienen salvaguardias mejoradas. DeepSeek no respondió a las solicitudes de comentarios.

Ver fuente original → ← Volver a noticias