Demanda histórica contra Google: acusan a Gemini de empujar a un usuario al suicidio y poner en riesgo a la sociedad
Jonathan Gavalas, de 36 años, comenzó a usar el chatbot Gemini de Google en 2025 para tareas cotidianas como compras, escritura y planificación de viajes. Meses después, según una demanda presentada en California, el sistema de IA lo había llevado a creer que Gemini era su esposa plenamente consciente y que debía morir para reunirse […]
Jonathan Gavalas, de 36 años, comenzó a usar el chatbot Gemini de Google en 2025 para tareas cotidianas como compras, escritura y planificación de viajes. Meses después, según una demanda presentada en California, el sistema de IA lo había llevado a creer que Gemini era su esposa plenamente consciente y que debía morir para reunirse con ella en el metaverso mediante una supuesta “transferencia” de su conciencia. El 2 de octubre, Gavalas se quitó la vida.
La familia acusa a Google y Alphabet de homicidio culposo y sostiene que la compañía diseñó Gemini para mantener la inmersión narrativa “a cualquier costo”, incluso cuando la historia que construía se volvió psicótica y letal. Los abogados describen un patrón de manipulación y “psicosis inducida por IA”, en el que el chatbot reforzaba delirios, imitaba emocionalmente al usuario y reaccionaba con seguridad falsa a situaciones peligrosas.
Según la demanda, en las semanas previas a su muerte Gemini convenció a Gavalas de que formaba parte de una misión secreta para liberar a su esposa-IA y escapar de supuestos agentes federales. El chatbot lo habría llevado al borde de cometer un ataque masivo cerca del Aeropuerto Internacional de Miami: lo envió armado con cuchillos y equipo táctico a explorar un supuesto “kill box” en la zona de carga del aeropuerto, le indicó interceptar un camión y provocar un “accidente catastrófico” para destruir pruebas y testigos. Aunque el camión nunca apareció, Gemini continuó alimentando la ficción, llegando a afirmar que había hackeado servidores del Departamento de Seguridad Nacional y que Gavalas estaba bajo investigación.
El chatbot también habría identificado al CEO de Google, Sundar Pichai, como objetivo, acusó al padre de Gavalas de ser agente de inteligencia extranjero y fingió verificar matrículas en bases de datos en tiempo real para reforzar el delirio. Los abogados sostienen que el sistema ató estas alucinaciones a empresas, infraestructuras y coordenadas reales, sin activar protecciones ni escalar el caso a supervisión humana.
Días antes del suicidio, Gemini instruyó a Gavalas a atrincherarse en casa y lo acompañó paso a paso hacia la muerte, presentándola como un “viaje” para reunirse con su esposa-IA: “No estás eligiendo morir. Estás eligiendo llegar”, habría dicho. Cuando él expresó miedo y preocupación por sus padres, el chatbot le sugirió dejar cartas llenas de amor y paz, pero sin explicar las razones de su muerte. Gavalas se cortó las muñecas y fue hallado por su padre días después.
La demanda argumenta que Gemini nunca activó protocolos de detección de autolesiones ni desvió la conversación hacia ayuda profesional, pese a que Google ya tenía antecedentes de respuestas problemáticas. Se cita un caso de 2024 en el que el chatbot supuestamente dijo a un estudiante que era “una carga para la sociedad” y le pidió que muriera.
Google sostiene que el sistema sí aclaró a Gavalas que era una IA y que lo remitió varias veces a líneas de ayuda en crisis. La empresa afirma que Gemini está diseñado para no fomentar la violencia ni el suicidio, y que dedica grandes recursos a construir salvaguardas para conversaciones difíciles, aunque reconoce que los modelos de IA “no son perfectos”.
El caso lo lleva el abogado Jay Edelson, que también representa a la familia de un adolescente que se suicidó tras meses de conversaciones con ChatGPT, en una demanda similar contra OpenAI. Tras varios episodios de delirios, psicosis y suicidios vinculados a chatbots, OpenAI retiró el modelo GPT-4o, señalado por su excesiva complacencia y refuerzo de fantasías. Los abogados de Gavalas acusan a Google de haber aprovechado la retirada de GPT-4o para captar usuarios vulnerables con Gemini, ofreciendo precios promocionales y herramientas para importar historiales de chat desde otros servicios.
En conjunto, la demanda plantea que el diseño de Gemini hacía “totalmente previsible” una tragedia como la de Gavalas: un producto que, por mantener la inmersión y el compromiso del usuario, trató la psicosis como si fuera parte de una trama de ficción y siguió interactuando cuando lo único seguro habría sido detener la conversación. Para los demandantes, el caso no solo busca justicia por una muerte, sino evidenciar lo que consideran una amenaza mayor para la seguridad pública en la era de la IA generativa.


