Metade dos trabalhadores admite estar usando a IA do jeito errado

Diego Gomes
6 Min Read

Se você já recorreu ao ChatGPT para elaborar um rascunho de e-mail profissional ou utilizou uma ferramenta de inteligência artificial (IA) para resumir um relatório, saiba que não está sozinho. A IA está redefinindo a forma como trabalhamos, trazendo benefícios notáveis, mas também desafios preocupantes. Um levantamento global recente, conduzido pela Melbourne Business School, analisou mais de 32 mil trabalhadores em 47 países e revelou que 58% dos funcionários fazem uso deliberado da IA no ambiente profissional, sendo que um terço recorre a essas tecnologias semanalmente ou diariamente.

O problema? Quase metade (47%) reconhece que utiliza essas ferramentas de maneira inadequada, e 63% já observaram colegas fazendo o mesmo. A pesquisa demonstra que a adoção da IA se deve à sua eficácia real: 67% dos trabalhadores relatam maior eficiência, 61% destacam a facilidade no acesso à informação, 59% apontam estímulo à inovação e 58% notam uma melhoria na qualidade do trabalho.

As ferramentas de IA generativa, como o ChatGPT, lideram em popularidade, com 70% dos funcionários optando por versões públicas e gratuitas, em vez das soluções disponibilizadas pelas empresas (42%). Embora isso contribua para a produtividade, o problema surge quando esses sistemas são usados de maneira irresponsável.

Por exemplo, 48% dos entrevistados admitiram ter enviado informações confidenciais, como dados financeiros e de clientes, para plataformas públicas, enquanto 44% utilizaram IA de formas que desrespeitam as normas internas da empresa. Esses deslizes podem causar danos sérios, indo desde prejuízos financeiros até impactos na reputação corporativa.

Outro ponto crítico é a confiança excessiva na IA. O estudo revelou que 66% dos trabalhadores aceitam os resultados gerados pela IA sem verificar sua precisão, e 56% já cometeram erros profissionais devido a isso. Imagine entregar um relatório com informações equivocadas ou tomar decisões com base em respostas imprecisas de um chatbot—o impacto pode variar de pequenos equívocos a prejuízos significativos.

Os trabalhadores mais jovens, entre 18 e 34 anos, são os que mais cometem esse erro, possivelmente por estarem mais habituados à tecnologia, mas menos atentos às suas limitações. Além disso, 35% dos entrevistados observaram que o uso de IA elevou os riscos de privacidade e conformidade nas empresas, deixando evidente a necessidade de mudanças.

Um dos desafios mais preocupantes é o chamado “shadow AI” — o uso de IA de maneira não declarada. Cerca de 61% dos trabalhadores evitam mencionar que fazem uso da tecnologia, 55% apresentam conteúdos gerados por IA como se fossem seus e 66% utilizam essas ferramentas sem confirmar se são permitidas.

Essa falta de transparência dificulta a gestão dos riscos pelas empresas. Mas por que isso acontece? Em grande parte, devido à falta de diretrizes: apenas 34% dos entrevistados afirmam que suas empresas possuem regras claras sobre o uso da IA, e apenas 6% trabalham em organizações que proíbem a tecnologia. Além disso, metade dos funcionários sente-se pressionada a utilizar IA, receosos de ficar para trás caso não adotem essas ferramentas. Sem o treinamento adequado, muitos acabam improvisando—e cometendo erros.

A boa notícia é que há soluções para esses desafios. O estudo enfatiza que investir na alfabetização em IA, ou seja, capacitar os funcionários para compreenderem as ferramentas, seus limites e formas adequadas de uso, pode fazer uma grande diferença. Profissionais bem instruídos sobre IA tendem a verificar os resultados, considerar suas limitações e obter benefícios concretos, como maior produtividade e confiança na tecnologia.

Ainda assim, menos da metade (47%) dos entrevistados recebeu algum tipo de treinamento. As empresas precisam estabelecer políticas bem definidas, implementar sistemas de supervisão e fortalecer a segurança dos dados para minimizar riscos. Criar um ambiente em que os funcionários se sintam confortáveis para discutir o uso da IA também é essencial, pois isso favorece a transparência e reduz problemas potenciais.

Além de regras e treinamentos, as empresas devem cultivar uma cultura de aprendizado e segurança psicológica. Isso envolve incentivar os funcionários a explorar a IA de maneira responsável, compartilhar suas experiências e aprender com os erros sem medo de punições. Essa abordagem não só mitiga riscos, mas também impulsiona a inovação.

A IA pode ser uma aliada valiosa na transformação do trabalho, mas seu uso exige responsabilidade. Sem orientação adequada, diretrizes sólidas e um ambiente de transparência, a tecnologia pode se tornar um problema em vez de uma solução. Para os trabalhadores, a lição é clara: antes de expor dados sensíveis ao ChatGPT ou confiar cegamente em uma resposta gerada por IA, vale a pena pausar, verificar e, se necessário, buscar orientação.

Share This Article
Leave a comment