Início » Implicações práticas (e assustadoras) da tecnologia da fala no RH

Implicações práticas (e assustadoras) da tecnologia da fala no RH

by testcodewp
0 comment

Quando o crítico de cinema Roger Ebert perdeu a capacidade de falar durante o tratamento de câncer de tireoide, a CereProc, uma empresa com sede em Edimburgo, na Escócia, conseguiu criar um programa de conversão de texto em fala usando centenas de horas gravadas do discurso de Ebert, gravadas de seu programa de televisão, para lhe dar voz. Da mesma forma, a empresa trabalhou com o ex-jogador da NFL Steve Gleason para clonar sua voz depois que ele foi diagnosticado com ELA.

A inteligência artificial conversacional não é uma coisa do futuro. Está aqui agora. Agora é possível para a tecnologia replicar artificialmente a voz de um indivíduo para, por exemplo, compartilhar uma mensagem de voz do CEO, responder a perguntas comuns de funcionários, oferecer treinamento orientado por voz ou instrução just-in-time e muito mais.

Mas, embora existam aplicações práticas, também existem algumas assustadoras. Esse tipo de tecnologia de voz pode levar a violações de segurança, como quando a voz do CEO pede uma senha a um funcionário?

Para onde está indo essa tecnologia de voz e quais oportunidades e riscos ela apresenta para o RH?

Aplicações práticas

Linda Shaffer é chefe de pessoas e diretora de operações da Checkr, uma startup de software como serviço e provedora de verificação de antecedentes do empregador. Na Checkr, ela diz, a tecnologia de voz é usada para transcrever automaticamente as sessões de treinamento dos funcionários para criar transcrições pesquisáveis ​​que os funcionários podem acessar a qualquer hora, em qualquer lugar. Isso é, diz ela, “especialmente útil em ambientes de trabalho remotos ou híbridos, onde os funcionários podem não ter acesso fácil aos treinadores”.

Shaffer diz que a empresa descobriu algumas práticas recomendadas que ela recomendaria a outras pessoas:

  • Fornecer treinamento sobre como usar a tecnologia de fala e busca de informações. Nem todos os funcionários se sentem à vontade com a tecnologia de fala.
  • Ofereça versões em áudio das transcrições para funcionários que preferem ouvir em vez de ler.
  • Crie transcrições de perguntas frequentes para que os funcionários possam encontrar rapidamente respostas para perguntas comuns. Isso pode ser útil, por exemplo, durante a temporada de inscrições abertas ou integração de funcionários.

Robb Wilson é CEO e fundador da OneReach, uma plataforma de IA conversacional. Ele diz que esses são apenas alguns casos de uso práticos e poderosos para a tecnologia de voz.

“É fácil pensar em aplicações significativas desse tipo de tecnologia, e há uma fonte de oportunidades”, disse Wilson. Mas, acrescentou, “quanto mais refinado se torna, mais problemáticos e preocupantes os cenários de deepfake se tornam”.

Possibilidades nefastas

SHRM Online relatou sobre implicações de vídeo deepfake; o mesmo conceito pode ser aplicado à voz.

“Tendo sido vinculada a pelo menos dois casos de fraude pública, a tecnologia que cria vozes artificiais agora se tornou parte do arsenal de ataques cibernéticos”, disse Steve Povolny, chefe de pesquisa avançada de ameaças da Trellix, uma plataforma de segurança cibernética. Três anos atrás, disse ele, os hackers se passaram pelo CEO de uma empresa sediada no Reino Unido e tentaram forçar uma transferência de quase um quarto de milhão de dólares. “A tecnologia está evoluindo rapidamente”, acrescentou. “Embora tenha sido usado para ganho financeiro ilegítimo, é igualmente provável que seja usado para roubo de credenciais e invasão cibernética”.

O outro caso, Reportado por Forbes, envolveu um gerente de banco em Hong Kong que recebeu uma ligação (ele pensou) do diretor de uma empresa com a qual havia falado antes. O diretor ficou entusiasmado com a aquisição e disse que precisava que o banco autorizasse transferências no valor de US$ 35 milhões. Foi um golpe de voz deepfake.

Kavita Ganesan, autora, consultora de IA, educadora e fundadora da Opinosis Analytics em Salt Lake City, disse: “No RH, o uso da tecnologia de voz pode ser útil para acelerar a produtividade de certas tarefas, como pesquisa e pesquisa, bem como como funcionários de treinamento. No entanto, desenvolver a capacidade de imitar as vozes dos funcionários pode apresentar mais riscos e questões éticas do que abrir oportunidades.” Por exemplo:

  • A política da empresa pode levar certos funcionários a usar a tecnologia de voz de forma inadequada para colocar funcionários específicos em apuros.
  • A empresa pode responsabilizar o CEO por algo que o CEO não disse voluntariamente.

“À medida que a tecnologia de voz se aproxima cada vez mais de soar mais humana, esses tipos de riscos trazem problemas desnecessários para a empresa quando eles podem usar vozes de não funcionários para realizar tantas tarefas de RH”, disse Ganesan.

Peter Cassat, sócio da Culhane Meadows, onde sua prática se concentra em leis trabalhistas, tecnologia, privacidade e segurança de dados, ressalta que o uso de tecnologia de voz dessa maneira é considerado “phishing” – que geralmente é o uso de e-mail para conseguir que alguém faça algo posando como outra pessoa. Ele diz que ainda não viu muitos litígios relacionados ao local de trabalho relacionados a phishing usando tecnologia de voz.

No entanto, o potencial existe. As organizações precisam se antecipar a esse risco potencial agora, educando os funcionários e implementando políticas e práticas apropriadas.

Políticas e Práticas

Povolny recomenda a instituição de um conjunto padrão de regras para tratar do tipo de informação que os funcionários devem – e não devem – fornecer com base em solicitações de voz. “Ninguém deve pedir que você transfira fundos, forneça credenciais privadas ou [take] qualquer outra ação confidencial sem fornecer um método de autenticação ou verificação de identidade”, disse ele. “É uma nova maneira de pensar confiar, mas verificar quando se trata de áudio, mas é tão válido para uma transação apenas verbal quanto uma transação baseada.”

Deixar de validar com base em qualquer coisa que não seja uma voz, disse Povolny, “pode ​​levar a fundos roubados, acesso privilegiado a sistemas restritos de áreas, violações de rede, adulteração de pessoal e muitos outros cenários prejudiciais”.

Wilson leva isso um passo adiante. “De uma perspectiva de negócios, replicar a voz de um CEO cria muito mais responsabilidade do que oportunidade”, disse ele. “As muitas maneiras enganosas que esse tipo de tecnologia pode ser usada para enganar funcionários e clientes são tão potencialmente prejudiciais que as empresas precisarão declarar explicitamente que nunca a usarão”.

É uma prática comercial comum informar aos clientes que você nunca ligará para pedir informações, observou Wilson. “Isso estende isso ainda mais. As empresas precisarão criar sistemas de comunicação privada que dependam de formas mais substanciais de autenticação em uma era em que as vozes dos indivíduos podem ser recriadas e manipuladas à vontade”.

Wilson também recomendou que as empresas deixem claro para os funcionários quando estão interagindo com uma máquina e não com um humano. “Se um novo funcionário pensa que está interagindo com um humano apenas para descobrir mais tarde que era uma máquina, ele pode se sentir violado e desconfiar de futuras interações dentro da organização”, disse ele.

Educar os funcionários

O risco existe, tanto para sua empresa quanto para seus funcionários. Mesmo atividades aparentemente inocentes, como o uso de aplicativos de álamo como Overdub, explicou Povolny, podem colocar as pessoas em risco de ter suas vozes reais colhidas por jogadores nefastos que planejam usar esses dados de áudio para produzir conteúdo deepfake.

Esses aplicativos não são “necessariamente maliciosos”, disse Povolny, “mas muitas vezes até mesmo os EULAs [end-user license agreements] conterá palavreado que permite à empresa o direito de fazer o que quiser com esses dados, com o seu consentimento.” Povolny recomendou que os funcionários – e, de fato, todos nós – “considerar sua voz e identidades faciais dados protegidos que você t desistir facilmente.”

Wilson concordou. “Embora uma grande parte das soluções de segurança que a replicação de voz tenha começado no lado comercial, logo se tornará uma preocupação de todos”, disse ele.

Lin Grensing-Pophal é escritora freelancer em Chippewa Falls, Wisconsin.

//(function(d, s, id){ // var js, fjs = d.getElementsByTagName(s)[0]; // if (d.getElementById(id)) {return;} // js = d.createElement(s); js.id = id; // js.src = "https://connect.facebook.net/en_US/sdk.js"; // fjs.parentNode.insertBefore(js, fjs); //}(document, 'script', 'facebook-jssdk')); function shrm_encodeURI(s) { return encodeURIComponent(s); } function RightsLinkPopUp() { var url = "https://s100.copyright.com/AppDispatchServlet"; var location = url + "?publisherName=" + shrm_encodeURI("shrm") + "&publication=" + shrm_encodeURI("Legal_Issues") + "&title=" + shrm_encodeURI("Justices Hear ERISA Reimbursement Case") + "&publicationDate=" + shrm_encodeURI("11/11/2015 12:00:00 AM") + "&contentID=" + shrm_encodeURI("6badda72-62e7-49e8-b4bd-ebbd02a72a17") + "&charCnt=" + shrm_encodeURI("7399") + "&orderBeanReset=" + shrm_encodeURI("True"); window.open(location, "RightsLink", "location=no,toolbar=no,directories=no,status=no,menubar=no,scrollbars=yes,resizable=yes,width=650,height=550"); }

You may also like

Sobre nós

Contrate mais fácil, mais rápido e mais eficiente.

Nosso sistema testa e avalia a lógica de programação e o código fonte dos seus candidatos e retorna automaticamente para você com o perfil do profissional e o dashboard dos resultados.

@2022 – All Right Reserved. Designed and Developed by blog.testcode.dev.br