Observações sobre Edward em Operação

avatar

Gostaria de compartilhar algumas conclusões que pudemos extrair das interações de usuários com o Edward, um concierge e um serviço de chatbot implantado na rede hoteleira Radisson Blu Edwardian, em Londres. Este post é a continuação dessas observações.

Beautiful asian businesswoman at hotel room

Uma quantidade significativa de interações pode ser resolvida pelo autoatendimento

Ao analisar os dados do Edward, codificamos cada interação com um tipo de solicitação. Observamos a partir desse esforço que 75% das frases enviadas via texto para o Edward poderiam ser desviadas da equipe da recepção. 59% dessas frases eram divididas entre brincadeiras que o Edward poderia responder automaticamente, perguntas gerais que poderiam evocar uma resposta padrão e perguntas de conta personalizadas que exigiam um mergulho nos dados de CRM associados ao número de telefone em questão, mas ainda poderiam ser totalmente automatizadas. Um adicional de 16% foram solicitações de atendimento que poderiam ser encaminhadas para funcionários adequados, como serviço de limpeza de quarto ou manutenção, sem envolver a equipe da recepção. Esse é um forte argumento a favor do sucesso da implantação do Edward. Ele liberou os funcionários atrás do balcão de check-in para lidar com os indivíduos que optaram por ligar ou apresentar suas questões direta e pessoalmente, proporcionando uma experiência de usuário tão satisfatória que alguns hóspedes deixaram gorjetas para o Edward e até mesmo o nomearam o funcionário do mês, confundindo-o com um membro da equipe.

Chatbots e humanos são parceiros na experiência do cliente

É importante ressaltar que o Edward não poderia fazer o que faz sem ajuda.  A Aspect defende fortemente a prática de implantar um chatbot que possa transferir a conversa para um ser humano quando isso é necessário. Nenhum bot pode responder a todas as questões possíveis sem ajuda. Algumas solicitações são muito específicas para serem facilmente reconhecidas por uma inteligência não-humana e alguns pedidos estão fora do escopo de respostas ou ações do bot. A maneira ideal de fornecer suporte humano é encaminhar as solicitações a um agente humano que pode responder diretamente no mesmo canal, como o pessoal do hotel Edwardian é capaz de fazer. Na verdade, uma abordagem muito razoável para a construção de bots, sobre a qual meu colega Tobias Goebel tem escrito, é criar um bot de alcance limitado como uma oferta inicial, com a maior parte das perguntas e solicitações sendo tratadas pela equipe humana respondendo ao vivo como se eles fossem o bot. Esse experimento “Mágico de Oz” fornece uma excelente oportunidade para a sua empresa de coletar dados sobre a natureza das solicitações nesse novo canal e, em seguida, cada versão iterativa do bot pode lentamente assumir cada vez mais as questões que se enquadram na categoria de autoatendimento, até que a equipe humana só esteja lidando com as interações para as quais isso se faça realmente necessário.

No entanto, não sugerimos a falta de transparência de apresentar a resposta de um bot como a de um agente humano. Apesar de os bots estarem se tornando cada vez mais competentes, eles ainda ocasionalmente ficam aquém da verdadeira competência humana na compreensão da linguagem natural. Isso pode afetar negativamente a experiência do cliente se ele acreditar que seu parceiro de conversa é humano, mais do que se ele souber que se trata de um bot, de quem ele tem expectativas ligeiramente inferiores.

Não se trata apenas de processar uma frase, mas também de ter um diálogo

A prática de criar interfaces de usuário conversacionais (CUIs) precisa reconhecer que a compreensão da linguagem natural não pode operar como se cada sentença fosse um evento isolado. Nos dados de Edward, 13% dos enunciados não eram autônomos; eles estavam fornecendo contexto para uma solicitação em outro enunciado, fazendo referência a etapas anteriores no diálogo usando um pronome ou outra anáfora ou cancelando um pedido feito anteriormente. Uma verdadeira CUI precisa ser capaz de lidar com cada um destes cenários:

  • No caso de um cancelamento, precisa haver acesso ao contexto ou ao histórico, para que uma ação possa ser removida de uma fila ou desfeita.
  • Quando pronomes ou outras expressões referenciais são usados, um componente de NLU sofisticado precisa ser capaz de reconhecer a referência à entidade relevante do diálogo anterior.
  • Quando o contexto de uma solicitação é fornecido, esse contexto precisa ser usado para qualquer resolução de anáfora (acima) e armazenado como informação para possivelmente fazer a transferência para um agente humano como parte da mesma solicitação complexa.

Os dados tornam a todos mais inteligentes

Olhar para esses dados ajuda a todos no universo dos bots: criadores de bot, compradores de bot e os próprios bots. Aprendemos com os erros e percebemos o que podemos fazer melhor na próxima vez. Nós evoluímos e nos tornamos mais competentes em fornecer a experiência ideal para o cliente. Estou ansiosa pelo que vou aprender com o próximo bot.