Em uma carta recente endereçada ao CEO da Hertz, Gil West, o Subcomitê de Supervisão da Câmara dos Representantes dos EUA para Cibersegurança, Tecnologia da Informação e Inovação Governamental afirmou estar buscando mais informações sobre o uso de scanners de inteligência artificial (IA) pela empresa de aluguel de carros para avaliar danos em veículos alugados. Essa iniciativa legislativa reflete uma crescente preocupação com a implementação de tecnologias de IA em serviços diretos ao consumidor, especialmente quando impactam os custos e as responsabilidades financeiras dos clientes.
A principal questão levantada pelo Subcomitê foca na precisão, equidade e transparência dos sistemas de IA da Hertz. Embora a IA prometa otimizar processos e padronizar avaliações, surgem dúvidas sobre sua capacidade de discernir com exatidão entre danos preexistentes, desgaste normal e danos novos de responsabilidade do locatário. A eficácia de um scanner de IA sob diversas condições — como iluminação, clima ou limpeza do veículo — é crítica. Pequenos arranhões ou sujeira, por exemplo, poderiam ser erroneamente interpretados como danos significativos, resultando em cobranças indevidas e frustração para os consumidores.
A equidade é uma preocupação central. Modelos de IA são treinados com grandes volumes de dados, e vieses existentes podem ser amplificados, levando a avaliações inconsistentes ou discriminatórias. Por exemplo, certos tipos de veículos ou condições de uso podem ser mal interpretados. A ausência de um processo transparente sobre como o sistema de IA chega às suas conclusões dificulta a contestação de uma cobrança pelo cliente. Sem clareza sobre os critérios e o funcionamento do algoritmo, os consumidores podem se sentir impotentes diante de uma decisão automatizada.
Os legisladores também buscam entender o nível de supervisão humana na avaliação de danos. É fundamental determinar se as decisões finais são exclusivas da IA ou se há um componente humano para revisar, validar e, se necessário, anular avaliações automatizadas. A falta de um mecanismo robusto de revisão e de um processo de apelação claro e acessível poderia infringir os direitos dos consumidores, deixando-os sem recurso. Encargos inesperados, baseados em avaliações questionáveis da IA, podem prejudicar a reputação da Hertz e a confiança dos consumidores.
Este inquérito reflete uma tendência global de reguladores em examinar as implicações éticas e práticas da IA. Governos e órgãos de defesa do consumidor estão cada vez mais preocupados com proteção de dados, segurança cibernética e a garantia de que a IA seja desenvolvida e utilizada de forma responsável e centrada no ser humano. Para empresas como a Hertz, que operam em escala global, a colaboração com reguladores para demonstrar a robustez e transparência de suas soluções de IA é crucial.
O Subcomitê espera obter detalhes sobre os protocolos de teste e validação dos sistemas de IA da Hertz, as medidas para mitigar vieses, os mecanismos de resolução de disputas para clientes, e a forma como a empresa comunica essas políticas aos locatários. A busca por essas informações visa garantir que a inovação tecnológica não comprometa a proteção do consumidor e que a implementação da IA no setor de aluguel de veículos seja realizada de maneira justa, precisa e transparente. Em última análise, a investigação busca um equilíbrio entre a eficiência prometida pela IA e a necessidade imperativa de salvaguardar os direitos e a confiança dos consumidores.