Agente para validar a presença de uma pessoa via vídeo com OTP
Versão: sempre use a versão mais recente disponível.
O Agente de Verificação de Presença é projetado para garantir que a pessoa por trás da tela seja uma pessoa viva e esteja presente durante o processo, sem precisar sair do chat.Recomenda-se usar este agente quando você precisa apenas validar a presença de uma pessoa. Este agente pode ser usado em qualquer país.
Isso não é considerado um processo biométrico completo.
O usuário deve ser capaz de gravar vídeo pelo chat (as permissões de câmera devem estar habilitadas no dispositivo).
Recomendado: defina o fluxo de atendimento caso habilite o Human in the loop (quem revisa, tempos de resposta e o que acontece se não houver resposta).
O usuário vê uma mensagem no chat com os passos a seguir para gravar um vídeo e uma imagem com instruções para uma gravação adequada.
2
Gravar um vídeo selfie
O usuário grava um vídeo curto no qual deve mencionar uma sequência numérica única (OTP).
3
Comunicação constante
O usuário recebe mensagens indicando que seu vídeo está sendo analisado: “Estamos verificando seu vídeo. Isso levará apenas alguns segundos.”
Se a análise for bem-sucedida, verá “Sua verificação de presença foi bem-sucedida.”
Se a análise encontrar erros: “Tivemos um problema ao analisar o vídeo. Por favor, tente o processo novamente.”
O agente contém ferramentas que analisam o vídeo enviado pelo usuário:
Geração de OTP: gera a sequência numérica que o usuário deve dizer ao gravar o vídeo.
Fala para texto: converte o áudio em texto para comparar se corresponde ao código emitido.
Validação de OTP: valida que o código mencionado está correto.
Validação de presença passiva: valida a presença da imagem extraída do vídeo enviado pelo usuário. Este processo identifica e neutraliza deepfakes ou qualquer tentativa de personificação, garantindo a presença de um rosto de pessoa viva.
Validação de lipsync (opcional): valida que o áudio do vídeo corresponde ao vídeo, comparando a frequência de áudio com a frequência do vídeo para confirmar que pertencem à mesma fonte.
Human in the Loop (somente enterprise): se o processo falhar, você pode optar pelo Human in the Loop (HIL), onde o caso será revisado por um operador humano.
Acesse apps.jelou.ai.
Na tela inicial você verá Brain Studio e Connect. No Brain Studio, selecione Marketplace.
2
Encontre o agente no Marketplace
No Marketplace você verá três abas: Catálogo, Instalados e Desenvolvedores.
Clique em Desenvolvedores e use a barra de pesquisa para encontrar o Liveness check agent.
Em seguida, clique no ícone de download para instalá-lo.
3
Confirme a instalação
Se a instalação foi concluída com sucesso, você verá a tag Instalado em verde.
4
Abra o agente no Brain
Vá para o Brain. Na barra lateral você verá suas skills e ferramentas instaladas.
Pesquise pelo Liveness check agent e clique para abri-lo: o fluxo será carregado no seu canvas.
5
Configure a versão e as entradas
Clique no nó de entrada, abra as Configurações avançadas (na parte inferior) e selecione a versão do agente.
Se você usar os valores padrão, não precisa modificar as entradas.
Se for alterar alguma entrada ou personalizar mensagens, revise a seção de Configuração.
6
Configure as saídas
Este agente tem 5 saídas de erro e 1 saída de sucesso.
Você pode direcionar cada saída para:
Uma entrada de texto com uma mensagem personalizada.
Connect (somente se sua organização tiver este módulo).
7
Execute testes
Com a configuração pronta, execute testes usando uma skill ou um agente anterior como “precursor” para acionar o fluxo.
Variável: speechToTextMessages. Mensagens personalizadas para erros de transcrição de áudio.Formato JSON:
Copiar
Perguntar à IA
{ "no_text": { "description": "When you recorded the video selfie we could not capture the sound of your voice. You may be in a very noisy place, or you sent a video without sound.", "advice": "Try again, making sure the video selfie has sound." }, "error_http": { "description": "We're sorry, there was an error in the audio transcription.", "advice": "Try again, making sure the video selfie has sound." }, "error_code": { "description": "We're sorry, there was an error in the audio transcription.", "advice": "Try again, making sure the video selfie has sound." }}
Mensagens de validação OTP
Variável: OTPValidationMessages. Mensagens personalizadas para erros de validação de OTP.Formato JSON:
Copiar
Perguntar à IA
{ "client_error": { "description": "⚠️ The numeric sequence you mentioned is *[transcription]*, and it is not correct.", "advice": "Try again, making sure the numeric sequence is correct." }, "OTP_ERROR": { "description": "⚠️ We're sorry, you exceeded the time limit for us to validate your video selfie.", "advice": "Try again, making sure the numeric sequence is correct." }, "CODE_ERROR": { "description": "We're sorry, an unexpected error occurred in the service.", "advice": "Try again, making sure the numeric sequence is correct." }, "HTTP_ERROR": { "description": "We're sorry, an unexpected error occurred in the service.", "advice": "Try again, making sure the numeric sequence is correct." }}
Mensagens de presença passiva
Variável: passiveLivenessMessages. Mensagens personalizadas para erros de presença passiva.Formato JSON:
Copiar
Perguntar à IA
{ "resp_face": { "description": "We're sorry! We analyzed your video and *could not detect any face*.", "advice": "Try again, making sure the video selfie has a visible face." }, "more_than_one_face": { "description": "We're sorry! We analyzed your video and *detected more than one face*.", "advice": "Try again, making sure the video selfie has only one visible face." }, "face_far": { "description": "We're sorry! We analyzed your video and found that *your face was a little far from the camera*.", "advice": "Try again, making sure the video selfie has your face facing the camera." }, "face_close": { "description": "We're sorry! We analyzed your video and it appears *you moved your face too close to the camera and a complete image could not be captured*.", "advice": "Try again, making sure the video selfie has your face facing the camera." }, "face_cut_covered": { "description": "We're sorry! We analyzed your video and *it seems your face was covered or you were not well centered to the camera*.", "advice": "Try again, making sure the video selfie has your face facing the camera." }, "eyes_closed": { "description": "We're sorry! We analyzed your video and could not detect your eyes well, it seems *you were wearing glasses or your eyes were slightly closed*.", "advice": "Try again, making sure the video selfie has your eyes open." }, "low_quality": { "description": "We're sorry! The video we received is low quality and we could not process it correctly.", "advice": "Try again, making sure the video selfie has adequate quality." }, "code_error": { "description": "We're sorry, an unexpected error occurred in the service.", "advice": "Try again, making sure the video selfie has adequate quality." }, "error_http": { "description": "We're sorry, an unexpected error occurred in the service.", "advice": "Try again, making sure the video selfie has adequate quality." }, "error_general": { "description": "We're sorry, an unexpected error occurred in the service.", "advice": "Try again, making sure the video selfie has adequate quality." }}
A verificação de presença foi concluída com sucesso.Variável:livenessSuccess
Para acessar as informações nesta variável, use o comando $memory.get("response_liveness_success")
Exemplo de resposta:
Copiar
Perguntar à IA
{ "response_liveness_success": { "url_video_liveness": "URL of the video sent by the user", "url_selfie_image": "URL of the frame obtained from the video to validate the user's liveness" }}
Campos importantes:
url_video_liveness: URL do vídeo selfie enviado pelo usuário
url_selfie_image: URL da imagem extraída do vídeo para validar a presença
Informações salvas na Memória:O agente salva automaticamente as seguintes informações em variáveis de memória:
Não, o processo de verificação de presença é apenas uma “etapa” do processo biométrico, portanto não é considerado biometria facial.
Quais documentos são necessários durante a interação do processo de verificação de presença?
Nenhum. A única entrada é o vídeo selfie que o usuário grava com seu telefone.
Posso habilitar um vídeo de instrução?
Sim, você pode habilitar o vídeo de instrução na entrada Habilitar Vídeo de Introdução de Presença (true). As instruções em uma imagem estão habilitadas por padrão.
Posso adicionar minha própria mídia de instrução?
Sim, você pode adicionar seu próprio link de instrução na entrada URL para exibir mídia de introdução de presença, desta forma a imagem ou vídeo padrão é desabilitado.
Se o usuário iniciou seu processo biométrico mas não o concluiu, quanto tempo antes do processo fechar? O usuário pode retomar o processo biométrico do ponto onde parou?
O processo fecha quando passa 1 hora sem atividade no chat. Se o usuário retornar ao chat, deve iniciar o fluxo desde o início.