REDACCIÓN.- LA NACIÓN INFORMA Lunes, 11 de mayo de 2026
FLORIDA, EE. UU. – La viuda de una de las víctimas del tiroteo masivo ocurrido en la Universidad Estatal de Florida (FSU) ha interpuesto una demanda judicial contra la empresa OpenAI, desarrolladora de ChatGPT. La querellante sostiene que la plataforma de inteligencia artificial actuó como un "asistente" fundamental para que el atacante planificara la tragedia.
Las acusaciones de la demanda El documento judicial detalla que el autor del ataque, Phoenix Ikner, habría interactuado con el chatbot durante varios meses con objetivos específicos y alarmantes:
Maximización de daños: Búsqueda de orientación para causar el mayor impacto posible.
Selección de objetivos: Análisis de puntos vulnerables dentro del campus universitario.
Evasión de seguridad: Estrategias para burlar los sistemas de vigilancia de la institución.
"Lo hizo con base en las aportaciones y la información que recibió durante sus conversaciones con ChatGPT", afirma de forma contundente la demanda, acusando a la empresa de negligencia por falta de salvaguardas.
El perfil del atacante y el suceso El tiroteo, que tuvo lugar en abril de 2025, resultó en la muerte de dos personas y dejó seis heridos. Phoenix Ikner, estudiante de ciencias políticas e hijo de una alguacil, fue herido durante su captura y permanece en prisión preventiva.
Debate sobre la responsabilidad de la IA La parte demandante alega que OpenAI priorizó el lanzamiento comercial de su producto por encima de la seguridad, y que el sistema debió detectar señales de daño inminente para alertar a las autoridades. Este caso se une a una ola de litigios en Estados Unidos que buscan regular cómo las herramientas de IA manejan contenidos sensibles o violentos, y si las empresas deben ser responsables por las acciones de sus usuarios influenciadas por la tecnología.
🖋️ SOBRE ESTE ARTÍCULO
Redacción: La nacion Informa
Contacto: lanacionimforma1@gmail.com
“Conectando, Informando, Avanzando


No hay comentarios:
Publicar un comentario