Aconteceu na manhã deste sábado (25/5) o painel “Inteligência Artificial: o impacto nas novas relações de trabalho e na carreira dos trabalhadores e trabalhadoras do PJU e MPU e o impacto da virtualização na qualidade de vida no trabalho – direito à desconexão, saúde mental e assédios”. Participaram da mesa Jorge Souto Maior, que é aposentado no cargo de desembargador do Trabalho do TRT da 15ª Região; Ana Magnólia Bezerra Mendes, que é professora Titular da Universidade de Brasília e pesquisadora colaboradora no Departamento de Psicologia Social e do Trabalho; Fabiano dos Santos, que é coordenador-geral da Fenajufe, servidor da área de tecnologia da informação e comunicação no TRT da 2° região; e Marco Gonsales, que é doutor em Administração de Empresas e pós-doutorado em Sociologia do Trabalho na Unicamp.
As reais intenções da IA
O primeiro painelista, desembargador Souto Maior, participou por meio virtual. Ele começou a conversa com uma provocação: “O que é o certo e o que é o errado? O que é o bom senso?”
O palestrante lembrou que o tema tem sido abordado com frequência pelo presidente do STF e do CNJ, ministro Luis Roberto Barroso. No dia 14 de maio, Barroso gerou polêmica ao defender o uso da IA para escrever sentenças e disse que isso poderá acontecer em breve.
Souto Maior contou aos participantes da plenária que usou o aplicativo de IA ChatGPT para entender como a máquina processa as informações e relatou que travou diálogos com a ferramenta, com perguntas relacionadas ao Poder Judiciário. Ele perguntou, por exemplo, se o aplicativo poderia fazer uma sentença, tal como sugeriu Barroso e o ChatGPT respondeu que poderia fazer, mas completou que recomendava a supervisão humana. “Ele foi cuidadoso”, observou.
O convidado alertou, no entanto, que o presidente do STF sugeriu usar a IA para desafogar os 85 milhões de processos represados no Judiciário. “O discurso em defesa do uso da IA esconde suas reais intenções: a diminuição do papel do servidor público”.
“Não estou dizendo que devemos usar de maneira indiscriminada, mas a IA pode e será usada como ferramenta para determinados fins. Devemos disputar como usar essa ferramenta, inclusive de forma subversiva e de forma a enfrentar a opressão”, continuou.
O palestrante opinou, por fim, que a IA deve ser usada com critério e responsabilidade. “A ferramenta, hoje, não é usada para ser facilitadora do trabalho. Ela não tem por objetivo diminuir a sobrecarga do trabalhador e sim aumentar produtividade”, conclui.
Assédio e direito à desconexão
Também por meio remoto, a professora e pesquisadora Ana Magnólia avaliou o impacto da virtualização na qualidade de vida no trabalho, passando pelas questões de direito à desconexão, saúde mental e assédios.
“Exigem de nós, no cotidiano, a hiperconexão e enquanto estamos assim não pensamos”, disse Ana Magnólia, associando essa pressão à ideologia neoliberal.
Na análise da especialista, a hiperconexão é uma patologia.
Ela sustenta que os aplicativos trazem benefícios interessantes, como exemplo permitir as reuniões híbridas como a que aconteceu nesta plenária. Porém, a pesquisadora ressalta que a tecnologia em excesso tem um lado perverso ao gerar dependência e adoecimento.
“A hiperconexão passa a necessidade de desejo e a pessoa passa a depender dessa tecnologia para sobreviver; as organizações pedem engajamento; a hiperconexão favorece esse modelo de gestão que cobra produtividade. Ela é instrumento de dominação. O trabalhador é usurpado do seu direito de discutir e pensar”, completa.
A professora acrescenta: “nesse ambiente de laços patológicos, são inúmeras as perdas quando o trabalhador adoece”. Ana Magnólia diz que o trabalhador tem que falar e ser ouvido.
IA na rotina do servidor
Para Fabiano dos Santos, o terceiro palestrante, a tecnologia é usada para super explorar o trabalhador.
Ele diz que a IA é usada há muito tempo, por exemplo, quando pedimos um aplicativo Uber.
Fabiano trouxe alguns argumentos para mostrar que o sistema precisa do trabalhador para explorar e apontar culpados quando houver falha.
“A gente acha que vai ser substituído, imagina um cenário apocalíptico e não se preocupa com um cenário que já está aqui colocado nas tecnologias que usamos atualmente: somos usuários intensivos de uma nova sistemática de trabalho. O Congresso Nacional está discutindo isso e vai incluir mudança de regime jurídico inclusive”, apontou.
O painelista disse que é preciso discutir a serviço de quem esses instrumentos vão estar: “Neste momento, as ferramentas estão a serviço de quem explora os trabalhadores. Não estão a serviço da classe trabalhadora”.
Riscos da IA
O doutor em Administração de Empresas Marco Gonsales mostrou alguns perigos da IA. Para ele, a ferramenta evidencia um cenário de precarização. O especialista passou algumas informações sobre este mercado de trabalho. São microtrabalhadores (que ele define como trabalhadores de cliques) de empresas especializadas em treinar e produzir dados para IA.
Para o convidado, a Inteligência Artificial é “burra, racista e machista. Ela não tem capacidade de avançar nas demandas sociais”, declarou.
Na Justiça, Marco informa que a IA já tem sido usada em sistemas. Um exemplo é a plataforma Sinapses, que classifica petições, identifica processos, faz sumários e resume textos.
O professor acrescenta que o ChatGPT mente e inventa respostas. “Inteligência Artificial não é melhor que Inteligência Humana e nunca será. A IA está longe da capacidade humana das interpretações das decisões”, disse o convidado, destacando que enfrentar essa situação é questão de soberania nacional.