Demandan a OpenAI: Alegan que atacante de universidad en Florida usó ChatGPT para planificar tiroteo - LA NACION INFORMA

“Conectando, Informando, Avanzando"

LO MAS RECIENETE

🏷️ OFERTA ESPECIAL
¡30% DE DESCUENTO EN TEMU!

Aplica el código en toda tu compra — ¡sin mínimo!

¡Copiado! 🎉
ALE215465 📋
DESCARGAR APP DE TEMU ¡Ahorra ahora!
★★★★★ Gratis · Rápido · Sin complicaciones
-30%

lunes, 11 de mayo de 2026

Demandan a OpenAI: Alegan que atacante de universidad en Florida usó ChatGPT para planificar tiroteo

 



REDACCIÓN.- LA NACIÓN INFORMA Lunes, 11 de mayo de 2026


FLORIDA, EE. UU. – La viuda de una de las víctimas del tiroteo masivo ocurrido en la Universidad Estatal de Florida (FSU) ha interpuesto una demanda judicial contra la empresa OpenAI, desarrolladora de ChatGPT. La querellante sostiene que la plataforma de inteligencia artificial actuó como un "asistente" fundamental para que el atacante planificara la tragedia.


Las acusaciones de la demanda El documento judicial detalla que el autor del ataque, Phoenix Ikner, habría interactuado con el chatbot durante varios meses con objetivos específicos y alarmantes:


  • Maximización de daños: Búsqueda de orientación para causar el mayor impacto posible.

  • Selección de objetivos: Análisis de puntos vulnerables dentro del campus universitario.

  • Evasión de seguridad: Estrategias para burlar los sistemas de vigilancia de la institución.


"Lo hizo con base en las aportaciones y la información que recibió durante sus conversaciones con ChatGPT", afirma de forma contundente la demanda, acusando a la empresa de negligencia por falta de salvaguardas.


El perfil del atacante y el suceso El tiroteo, que tuvo lugar en abril de 2025, resultó en la muerte de dos personas y dejó seis heridos. Phoenix Ikner, estudiante de ciencias políticas e hijo de una alguacil, fue herido durante su captura y permanece en prisión preventiva.


Debate sobre la responsabilidad de la IA La parte demandante alega que OpenAI priorizó el lanzamiento comercial de su producto por encima de la seguridad, y que el sistema debió detectar señales de daño inminente para alertar a las autoridades. Este caso se une a una ola de litigios en Estados Unidos que buscan regular cómo las herramientas de IA manejan contenidos sensibles o violentos, y si las empresas deben ser responsables por las acciones de sus usuarios influenciadas por la tecnología.



🖋️ SOBRE ESTE ARTÍCULO

Redacción: La nacion Informa  

Contacto: lanacionimforma1@gmail.com                

“Conectando, Informando,  Avanzando


No hay comentarios:

Publicar un comentario

🎁 BONIFICACIÓN 2026 DISPONIBLE
¡Bonificación exclusiva en Temu!
RD$5,800 + 30% OFF

Busca ale215465 en Temu y activa tu bono ahora mismo

★★★★★ Oferta exclusiva · Válida 2026
BONO TEMU RD$5,800