Como adequar o uso de Chatbots à LGPD
Cada vez mais empresas estão adotando os chatbots para agilizar atendimentos em diferentes plataformas, como websites, aplicativos e plataformas de mensagens.
Um chatbot é uma espécie de robô que tem algoritmos programados para simular uma conversa humana nos meios em que se aplica.
Com o advento da pandemia de Covid-19, houve um aumento significativo de interações online, o que incentivou as empresas a adotarem a ferramenta de chatbots para acelerar o processo de diálogo e atendimento ao público.
Comunicação direta com usuários
A ferramenta de troca de mensagens Whatsapp, por exemplo, tem sido amplamente usada por muitas empresas para facilitar a comunicação com seus clientes, e normalmente iniciam a conversa via um chatbot, que facilita a identificação do cliente, a triagem e endereçamento do assunto, contribuindo para que o maior número possível de atendimentos ao longo do tempo.
Para iniciar um atendimento, os chatbots costumam coletar dados pessoais de clientes, como nome, e-email, telefone e CPF. É nesse momento que os dados pessoais são coletados, tornando-os imediatamente subordinados às normas da LGPD. É necessário que a coleta das informações via chatbots estejam também em conformidade com a nova legislação, a fim de evitar sanções previstas na lei.
Práticas para criação de Chatbots
Diante disso, segue baixo um conjunto de práticas que devem ser consideradas e aplicadas ao motor do chatbot no momento da sua criação, ou seja, antes de começar as interações com os clientes, a fim de evitar a não conformidade à LGPD.
- Ao iniciar uma conversa com o usuário, é preciso informar que a interação está sendo feita com um sistema de inteligência artificial;
- Todo e qualquer dado, antes de ser armazenado, requer que a autorização seja solicitada ao usuário;
- O cliente deve ser informado sobre a finalidade de uso dos seus dados e a duração do tempo em que eles serão utilizados;
- O bot deve ser programado para, a qualquer momento da interação, informar ao usuário que ele poderá solicitar a alteração ou até mesmo a eliminação dos dados já fornecidos;
- O bot que utiliza câmera precisa informar ao cliente que poderá coletar a sua imagem;
- Durante a conversa com o usuário, o bot deve fornecer a possibilidade de contato direto com um humano, como opção de conversação;
- O bot que interage com dados pessoais sensíveis, como informações médicas, políticas ou de cunho religioso, deve ser programado com atenção e rigor redobrados e somente fornecer esse tipo de informação ao próprio titular;
- O bot deve salvar apenas os dados necessários, ou seja, aqueles que foram informados ao cliente que seriam coletados.
Boas práticas a serem adotadas por empresas que contratam chatbots que são desenvolvidos e operados por terceiros.
- Toda a equipe que manuseia o bot precisa ter um contrato de confidencialidade assinado, o chamado NDA (Non-Disclosure Agreement);
- As informações fornecidas durante a interação entre o bot e o usuário só podem ser acessadas por pessoas autorizadas que tenham o contrato assinado;
- A empresa que utiliza bots deve checar a autenticidade de todos os dados fornecidos;
- A empresa deve fortalecer a criptografia e o controle de acesso a dados, de forma a assegurar a proteção dos dados de clientes e usuários.
Boas práticas para agências desenvolvedoras de chatbots
- Desenvolver interfaces transparentes que consigam se comunicar de forma clara com o usuário;
- Implementar logs organizados para que as mensagens possam ser armazenadas de forma clara e segura;
- Utilizarem algum motor externo, se atentarem para o modo como os dados estão sendo processados;
- Tomar cuidado com o treinamento do robô para evitar situações indevidas durante a interação do bot com o usuário;
- Exibir os documentos de proteção de dados para o contratante a fim de evitar problemas futuros.
Fonte: Computerweekly/Luiz Tardelli