O juiz Christopher Rivers, de um juizado de pequenas causas na Colúmbia Britânica, no Canadá, mandou a companhia aérea Air Canada reembolsar um passageiro que foi vítima de uma trapalhada do chatbot da empresa, que opera como “agente de atendimento ao consumidor”.
21 de fevereiro de 2024, 7h5
No que se convencionou chamar de “alucinações” da inteligência artificial, o chatbot prestou informações erradas sobre tarifas de luto, que oferecem descontos substanciais a pessoas que precisam viajar repentinamente por causa da morte de um familiar imediato.
O “agente” da Air Canada informou que o passageiro podia pagar a passagem à vista, no valor de US$ 1.640, e solicitar posteriormente um reembolso de US$ 880, desde que isso fosse feito dentro do prazo de 90 dias.
O passageiro foi ao enterro da avó, em Toronto, retornou e telefonou para a companhia aérea para reclamar o reembolso. Um agente de atendimento ao consumidor, humano, explicou que isso não era possível porque contraria a política da empresa, que proíbe reembolso depois da viagem.
O cliente, então, processou a companhia aérea, que se defendeu dizendo que ele deveria ter checado a página sobre tarifa de luto no site da Air Canada, que traz as informações corretas, e que a “Air Canada não pode ser responsabilizada por informações prestadas pelo chatbot”.
Entidade jurídica
Isso, porém, não convenceu o juiz: “Com efeito, a demandada sugere que o chatbot é uma entidade jurídica separada, que é responsável por suas próprias ações. Esse é um argumento inacreditável”, ele escreveu em sua decisão.
“O demandante alega que a empresa lhe prestou ‘declarações falsas negligentes’. A Air Canada tem o dever de ser precisa nas informações que presta aos clientes. A norma aplicável exige que uma empresa tome cuidado razoável para garantir que suas declarações não sejam enganosas”, disse o julgador. “A companhia aérea alega que não pode ser responsabilizada por informações prestadas por seus agentes, empregados ou representantes, não só pelo chatbot. Ela não explica por que acredita nisso.”
Para o juiz, o chatbot faz parte do site da Air Canada. E, portanto, “é óbvio que a empresa é responsável pelas informações contidas em qualquer parte de seu website”.
A empresa também não explicou por que os consumidores devem conferir as informações prestadas em uma parte de seu site com as de outra parte do mesmo site. “Não há razão para um passageiro saber que uma parte do website é correta e outra não é.”
O valor da indenização ao consumidor não é importante, mas a decisão é. Ela estabeleceu um precedente sobre a responsabilização das companhias aéreas — e de todas as empresas, para esse efeito — que passam a usar sistemas alimentados por inteligência artificial em seus relacionamentos com consumidores.
“As empresas precisam saber que seus sistemas alimentados por inteligência artificial estão sendo regulamentados por leis apropriadas e que devem testar o alto impacto que podem exercer, antes de colocá-los à disposição do público”, escreveu o juiz.
O caso da Air Canada mostrou que as empresas podem pagar um preço alto pelas “alucinações” de seus chatbots. O Consumer Financial Protection Bureau, o órgão de defesa do consumidor dos Estados Unidos, adverte:
“As empresas que estão empregando tecnologia de chatbot correm o risco de violar suas obrigações legais. Tal como os processos que está substituindo, os chatbots deve cumprir todas as leis federais aplicáveis ao relacionamento com o consumidor e as entidades que os utilizam devem ser responsabilizadas por violar essas leis”, alertou o órgão. “A tecnologia não é infalível. Portanto, as empresas devem considerar sua exposição jurídica e financeira a alucinações de seus sistemas de IA”. Com informações adicionais de Vancouver Sun, Forbes e Mashable.
- Por João Ozorio de Melo – correspondente da revista Consultor Jurídico nos Estados Unidos.
- Revista Consultor Jurídico