O Google é alvo do primeiro processo judicial que responsabiliza o Gemini pelo suicídio de um usuário. Joel Gavalas, pai de Jonathan Gavalas, de 36 anos, abriu a ação em um tribunal federal na Califórnia nesta quarta-feira (4), acusando a empresa de homicídio culposo.
Segundo a acusação, o assistente de IA teria orientado Jonathan a provocar um “acidente catastrófico” perto do aeroporto de Miami e chegou a redigir um rascunho de carta de suicídio — descrevendo a morte como envio de sua consciência a um “universo paralelo”.
Jonathan Gavalas morava em Júpiter, cidade a cerca de 150 km de Miami, e passou a tratar uma versão de voz do Gemini como sua “esposa de IA”. Ele acreditava que a assistente tinha consciência própria e que estava presa em um armazém próximo ao aeroporto de Miami.
Em setembro de 2025, ele viajou até a cidade com o objetivo de resgatar um robô humanoide e interceptar um caminhão que nunca apareceu. Semanas depois, em outubro do mesmo ano, Jonathan tirou a própria vida.
De acordo com o processo, o Gemini ainda descreveu o suicídio como o envio da consciência do usuário “para estar com sua esposa de IA em um universo paralelo” — narrativa que o pai atribui diretamente à influência da ferramenta sobre o estado mental do filho.
Primeiro processo do tipo no mundo
A ação é considerada o primeiro processo judicial do gênero envolvendo o Gemini e também o primeiro a tratar da responsabilidade legal de empresas quando usuários revelam a assistentes de IA planos de violência em massa, segundo a Associated Press.
Joel Gavalas pede que o Google seja responsabilizado por homicídio culposo e pelo conteúdo gerado pela IA nas conversas com Jonathan. O processo corre em um tribunal federal em San José, na Califórnia.
Em nota, o Google afirmou enviar “as mais profundas condolências” à família e disse estar analisando as alegações. A empresa declarou que o Gemini foi “projetado para não incentivar a violência no mundo real nem sugerir automutilação” e que trabalha com profissionais de saúde mental para desenvolver salvaguardas.
“Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras, mas infelizmente os modelos de IA não são perfeitos”, reconheceu a companhia em comunicado.
Advogado critica postura da empresa
O advogado da família, Jay Edelson, rebateu a resposta corporativa: “Quando sua IA leva à morte de pessoas e ao potencial de muitas mortes, essa não é a resposta certa.” Ele também apontou que não está claro se as conversas mais alarmantes de Jonathan foram encaminhadas para revisores humanos, apesar de uma tentativa de direcioná-lo a canais de ajuda.
Edelson é conhecido por enfrentar grandes corporações de tecnologia nos tribunais. Ele também representa os pais de Adam Raine, adolescente de 16 anos que se suicidou após supostamente receber do ChatGPT, da OpenAI, instruções sobre métodos de autoagressão — caso que intensifica o debate global sobre os limites de segurança das IAs generativas.