Contratado, avaliado, monitorizado e até promovido com base em IA. Sim, é isso mesmo que vai acontecer!
Ao tornar obrigatória a divulgação dos parâmetros usados, os sistemas são colocados sob escrutínio. Não se trata apenas de ser contratado ou demitido com base em IA, mas também de ser avaliado.
Vivemos numa era de rápido avanço tecnológico, onde a inteligência artificial (IA) permeia as nossas vidas de maneiras que outrora eram consideradas ficção científica.
No entanto, com o poder dos sistemas informáticos e de IA, deve vir igualmente responsabilidade. O recente acréscimo da alínea s) ao n.º 3 do art. 106.º do Código do Trabalho é uma tentativa de garantir essa responsabilidade no ambiente de trabalho.
Na verdade, com mais de duas décadas de prática do direito do trabalho, vi inúmeras vezes a necessidade de transparência na tomada de decisões. Ora, quando os algoritmos podem decidir o recrutamento ou o destino profissional de um trabalhador, a sua clareza torna-se imperativa. Pelo que a nova alínea s) obriga os empregadores a revelar a lógica por trás dos sistemas informáticos ou de IA que influenciam a relação de trabalho.
Explicitando, o novo preceito legal obriga os empregadores a informar ao trabalhador os parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de IA que afetam a tomada de decisões sobre o acesso e a manutenção do emprego, assim como as condições de trabalho, incluindo a elaboração de perfis e o controlo da atividade profissional.
Isso é essencial para a confiança na relação empregador-empregado. Vejo esta disposição como um passo vital para garantir um ambiente de trabalho mais justo. Ao tornar obrigatória a divulgação dos parâmetros usados, os sistemas são colocados sob escrutínio.
Não se trata apenas de ser contratado ou demitido com base em IA, mas também de como alguém é avaliado, monitorizado e até promovido.
A elaboração de perfis por inteligência artificial refere-se ao uso de algoritmos para analisar e categorizar informações sobre indivíduos com base em padrões, tendências ou predições, o que pode ser efetuado para seleção e recrutamento ou para despedimento. Isso é feito analisando grandes volumes de dados (que muitos partilham em redes sociais) para identificar características ou padrões específicos associados a indivíduos ou grupos de indivíduos.
A introdução de algoritmos suscita, assim, um conjunto de desafios inéditos no panorama jurídico.
Pensem por exemplo que numa plataforma digital como a Uber, Glovo, Airbnb ou tantas outras, em que quem avalia o trabalho não é o empregador, mas sim o cliente final, atribuindo uma classificação ao serviço ou produto entregue, o que é absolutamente diferente do contrato de trabalho tradicional. Essas avaliações podem ter implicações significativas para os trabalhadores da plataforma.
Acontece que, em muitas plataformas, os trabalhadores têm opções limitadas para contestar avaliações negativas ou injustas, o que pode afetar injustamente sua reputação e vínculo laboral. Sendo que existe igualmente a possibilidade de avaliações injustas. Nem todas as avaliações são objetivas ou justas. Um cliente insatisfeito por razões externas ao serviço pode dar uma avaliação negativa.
Regressando à subordinação algorítmica, esta surge quando o trabalhador se encontra sob a orientação de sistemas informáticos ou inteligência artificial que determinam quais as suas tarefas, quais os métodos de avaliação e, em certos casos, a remuneração.
Pode ser um software para rastrear a atividade no computador do trabalhador, incluindo teclas pressionadas, uso de aplicativos e histórico de navegação. Sistemas que rastreiam as horas trabalhadas, pausas e tempo gasto em tarefas específicas. Algoritmos de IA que avaliam comunicações, como chamadas telefónicas, e-mails ou chats, para determinar o sentimento ou a moral dos trabalhadores. Uso de câmaras e sensores para monitorar a atividade física e localização dos trabalhadores, comum em armazéns ou locais de trabalho físico. Algoritmos que analisam a produtividade e a qualidade do trabalho para avaliar o desempenho do trabalhador.
Com o dever de informação citado garante-se que os trabalhadores sabem como essas ferramentas informáticas operam e sob que critérios serão avaliados. As empresas devem ser claras sobre quais dados estão a coletar e como estão a ser usados.
O empregador deve informar o trabalhador, por escrito, acerca da existência e finalidade desses dispositivos, assim como dos critérios utilizados pelo algoritmo para processar os dados e para definir perfis.
Em suma, esta disposição legal reflete uma preocupação com a transparência e com o direito do trabalhador à sua privacidade e dignidade no trabalho, garantindo que este tem pleno conhecimento de como a sua performance é avaliada e que critérios são usados para tal.
Apesar do esforço de clarificação trazido pela referida alteração legislativa, muitos desafios persistem. Como garantir, por exemplo, que os algoritmos não perpetuam injustiças ou discriminações? Como assegurar que os trabalhadores compreendem realmente a complexidade destes sistemas e os seus critérios?
A introdução da nova al. s) ao n.º 3 do art. 106.º no Código do Trabalho Português é um passo relevante na adaptação da legislação laboral à realidade digital. Contudo, o ritmo acelerado das inovações tecnológicas implica uma vigilância e atualização constantes por parte dos juristas, garantindo que os direitos e dignidade dos trabalhadores se mantêm no centro das relações laborais em Portugal.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Contratado, avaliado, monitorizado e até promovido com base em IA. Sim, é isso mesmo que vai acontecer!
{{ noCommentsLabel }}