Este áudio é gerado automaticamente. Por favor, deixe-nos saber se você tem retorno.
Na última década, o uso de inteligência artificial em áreas como contratação, recrutamento e vigilância no local de trabalho passou de um tópico de especulação para uma realidade tangível para muitos locais de trabalho. Agora, essas tecnologias têm a atenção do mais alto cargo do país.
Em 4 de outubro, o Escritório de Políticas Científicas e Tecnológicas da Casa Branca publicou um “Plano para uma Declaração de Direitos da IA”. um documento de 73 páginas descrevendo orientações sobre como lidar com preconceitos e discriminação em tecnologias automatizadas para que “as proteções sejam incorporadas desde o início, onde as comunidades marginalizadas tenham voz no processo de desenvolvimento e os designers trabalhem duro para garantir que os benefícios da tecnologia cheguem a todas as pessoas”.
O projeto concentra-se em cinco áreas de proteção para cidadãos dos EUA em relação à IA: segurança e eficácia do sistema; discriminação algorítmica; dados privados; aviso e explicação quando um sistema automatizado é usado; e acesso a alternativas humanas quando apropriado. Segue-se também a publicação em maio de dois documentos de advertência pelo Comissão de Oportunidades Iguais de Emprego dos EUA e a Departamento de Justiça dos EUA abordando especificamente o uso de ferramentas algorítmicas de tomada de decisão na contratação e outras ações de emprego.
O emprego está listado no projeto como um dos vários “domínios confidenciais” que merecem proteção aprimorada de dados e privacidade. Os indivíduos que lidam com informações confidenciais de emprego devem garantir que elas sejam usadas apenas para “funções estritamente necessárias para esse domínio”, enquanto o consentimento para todas as funções não necessárias “deve ser opcional”.
Além disso, o projeto afirma que os sistemas de vigilância e monitoramento contínuos “não devem ser usados em locais de trabalho físicos ou digitais”, independentemente do status de emprego de uma pessoa. A vigilância é particularmente sensível no contexto sindical; o projeto observa que a lei federal “exige que os empregadores, e quaisquer consultores que possam contratar, relatem os custos de vigilância dos funcionários no contexto de uma disputa trabalhista, fornecendo um mecanismo de transparência para ajudar a proteger a organização dos trabalhadores”.
Uma presença crescente
A prevalência de IA e automação focadas no emprego pode depender do tamanho e tipo de organização estudada, embora pesquisas sugiram que uma parcela considerável de empregadores adotou a tecnologia.
Por exemplo, uma pesquisa de fevereiro da Society for Human Resource Management descobriu que quase um quarto dos empregadores usou essas ferramentas, incluindo 42% dos empregadores com mais de 5.000 funcionários. De todos os entrevistados que utilizam IA ou automação, 79% disseram que estavam usando essa tecnologia para recrutamento e contratação, o aplicativo mais comum citado, disse a SHRM.
De forma similar, um estudo da Mercer de 2020 descobriram que 79% dos empregadores já estavam usando, ou planejavam começar a usar naquele ano, algoritmos para identificar os principais candidatos com base em informações publicamente disponíveis. Mas a IA tem aplicações que vão além do recrutamento e contratação. A Mercer descobriu que a maioria dos entrevistados disse que também estava usando a tecnologia para lidar com processos de autoatendimento de funcionários, conduzir gerenciamento de desempenho e funcionários de bordo, entre outras necessidades.
O que o ‘plano’ pode significar para os empregadores?
Os empregadores devem observar que o projeto não é juridicamente vinculativo, não constitui política oficial do governo dos EUA e não é necessariamente indicativo de política futura, disse Niloy Ray, acionista da empresa Littler Mendelson. Embora os princípios contidos no documento possam ser apropriados para os sistemas de IA e automação, o plano não é prescritivo, acrescentou.
“Isso ajuda a aumentar o conhecimento e a liderança de pensamento na área, certamente”, disse Ray. “Mas não chega ao nível de alguma lei ou regulamento.”
Os empregadores podem se beneficiar de um único padrão federal para tecnologias de IA, disse Ray, principalmente porque esta é uma área legislativa ativa para algumas jurisdições. Uma lei da cidade de Nova York que restringe o uso de IA na contratação entrará em vigor no próximo ano. Enquanto isso, uma lei semelhante foi proposto em Washington, DC, e no Fair Employment and Housing Council da Califórnia propôs regulamentos sobre o uso de sistemas de decisão automatizados.
Depois, há o cenário regulatório internacional, que pode representar ainda mais desafios, disse Ray. Por causa da complexidade envolvida, Ray acrescentou que os empregadores podem querer ver mais discussões em torno de um padrão federal unificado, e o plano do governo Biden pode ser uma maneira de iniciar essa discussão.
“Não vamos ter que pular 55 conjuntos de aros”, disse Ray sobre o potencial de um padrão federal. “Vamos ter um conjunto de aros para pular.”
A inclusão de padrões de privacidade de dados e outras áreas no plano pode ser importante para os empregadores considerarem, pois as plataformas de IA e automação usadas para contratação geralmente levam em consideração dados disponíveis publicamente que os candidatos não percebem que estão sendo usados para fins de triagem, disse Julia Stoyanovich. , cofundador e diretor do Center for Responsible AI da New York University.
Stoyanovich é co-autor em um papel de agosto em que um grupo de pesquisadores da NYU detalhou sua análise de dois testes de personalidade usados por dois fornecedores de contratação automatizada, Humantic AI e Crystal. A análise descobriu que as plataformas exibiam “instabilidade substancial nas principais facetas de medição” e concluiu que “elas não podem ser consideradas instrumentos válidos de avaliação de personalidade”.
Mesmo antes de a IA ser introduzida na equação, a ideia de que um perfil de personalidade de um candidato pode ser um preditor de desempenho no trabalho é controversa, disse Stoyanovich. Leis como a de Nova York podem ajudar a fornecer mais transparência sobre como funcionam as plataformas de contratação automatizadas, acrescentou ela, e podem fornecer às equipes de RH uma ideia melhor sobre se as ferramentas realmente servem aos propósitos pretendidos.
“O fato de estarmos começando a regular esse espaço é realmente uma boa notícia para os empregadores”, disse Stoyanovich. “Sabemos que existem ferramentas que estão se proliferando e que não funcionam, e isso não beneficia ninguém, exceto as empresas que estão ganhando dinheiro vendendo essas ferramentas.”