Quem usa IA generativa (e por quê?)

Quem usa IA generativa (e por quê?)
  • • A adoção de IA generativa se organiza em perfis: utilitário, exploratório e cauteloso, com motivações e barreiras distintas.
  • • Diferenças de gênero se associam mais à percepção de riscos sociais (privacidade, trabalho, saúde mental e clima) do que a “habilidade técnica”.
  • • Transparência, governança e métricas ambientais claras são fatores-chave para ampliar confiança e uso responsável.

A inteligência artificial (IA) generativa não está sendo adotada de forma homogênea. E isso diz menos sobre “ser nerd”, ter afinidade com tecnologia ou acompanhar tendências, e mais sobre valores, rotinas, profissão, confiança e sobre como cada pessoa avalia riscos e benefícios quando uma ferramenta passa a disputar espaço com hábitos consolidados.

Para entender o cenário, vale começar pelo retrato de quem usa a IA com frequência. Quando olhamos para esse padrão, as diferenças de gênero aparecem com mais nitidez: elas não são um detalhe demográfico, e sim um efeito de percepções distintas sobre o que está em jogo.

Quem está usando IA generativa e para quais finalidades

O usuário recorrente de IA generativa raramente se define como “entusiasta de tecnologia”. Com frequência, é alguém que lida com excesso de tarefas e encontra na IA um apoio para reduzir atrito: escrever e-mails, resumir textos, revisar rascunhos, organizar ideias, estruturar roteiros, comparar opções e preparar apresentações.

Essa lógica ajuda a explicar por que a adoção cresce rápido em ambientes de trabalho e estudo. Atividades textuais, repetitivas e com prazos apertados são um terreno natural para automação parcial. Quando a IA se converte em ganho de tempo e vantagem competitiva, ela tende a virar hábito.

Ao lado desse uso utilitário, há um segundo perfil relevante: pessoas que adotam por exploração e curiosidade. Testam prompts, geram imagens, planejam viagens, simulam cenários, brincam com possibilidades criativas. Esse grupo tem um papel cultural importante, porque transforma a tecnologia em linguagem cotidiana.

E existe um terceiro grupo, menos visível, mas decisivo para entender o debate público: usuários cautelosos. São pessoas que conhecem a ferramenta, talvez já tenham testado, porém não incorporaram no dia a dia. Não se trata de rejeição total, nem de adesão plena. É um uso seletivo, condicionado por dúvidas sobre privacidade, qualidade, efeitos no trabalho, impacto ambiental e possíveis consequências sobre bem-estar. É nesse ponto que as diferenças de gênero tendem a se amplificar.

Um estudo recente, baseado em dados representativos do Reino Unido entre 2023 e 2024, propõe uma explicação que desloca o foco do debate: a diferença de adoção entre homens e mulheres se associa à percepção de riscos sociais ligados à IA, especialmente em saúde mental, privacidade, impacto climático e mercado de trabalho.

O ponto mais relevante não é apenas quem se preocupa. É o que a preocupação provoca. A pesquisa sugere que, entre mulheres, esses receios têm maior probabilidade de se traduzirem em comportamento, reduzindo frequência de uso ou interrompendo a adoção. Ou seja, a divergência não fica no campo opinativo; ela aparece na prática.

Esse padrão aparece também em uma síntese de evidências publicada por pesquisadores da Harvard Business School, que reuniram resultados de múltiplos estudos e contextos. O conjunto dos dados sugere que a diferença entre homens e mulheres no uso de IA generativa se repete em diferentes países e bases analisadas. A diferença não está em “gostar mais” ou “gostar menos” de tecnologia, mas nos filtros usados para avaliar riscos e benefícios.

Três perfis de adoção de IA e seus gatilhos

A diferença está em motivação, contexto e no tipo de risco que cada pessoa aceita.

Perfil utilitário

Usa IA para ganhar tempo e reduzir retrabalho.

Tarefas típicas

Rascunhar e revisar textos, resumir conteúdos, organizar tópicos.

Motivadores

Agilidade, eficiência, entrega rápida, padronização.

Preocupações

Confidencialidade, qualidade e erros em dados sensíveis.

Perfil exploratório

Usa IA para testar possibilidades, criar e aprender.

Tarefas típicas

Brainstorming, imagens, simulações, roteiros e planejamento.

Motivadores

Curiosidade, criatividade, aprendizado e entretenimento.

Preocupações

Desinformação, dependência e superficialidade.

Perfil cauteloso

Só usa quando há garantias e custo-benefício definido.

Tarefas típicas

Uso pontual (não sensível), revisão e estruturação básica.

Motivadores

Controle, segurança, ética e previsibilidade.

Preocupações

Privacidade, bem-estar e impactos ambientais.

Gatilhos de adoção

  • Transparência sobre dados e retenção de prompts

  • Política de privacidade simples e compreensível

  • Modelos menores para tarefas do dia a dia

  • Uso local quando possível (menos exposição)

  • Diretrizes claras e revisão humana obrigatória

Gatilhos de rejeição

  • Opacidade sobre dados, uso e treinamento

  • Medo de substituição ou perda de valor

  • Cobrança por hiperprodutividade constante

  • Percepção de alto impacto ambiental opaco

  • Falta de mecanismos para contestar erros

Quatro preocupações que contam para a decisão de usar ou evitar

Pesquisas que investigam desigualdades de adoção costumam convergir em alguns temas. Eles não são exclusivos de um gênero, mas tendem a pesar de forma diferente e, em certos grupos, geram mudança mais rápida de comportamento.

1) Privacidade e segurança de dados

Aqui o ponto principal não é apenas se a ferramenta é útil, mas sim o que acontece com as informações inseridas. Em muitos cenários, o custo de um vazamento é alto: dados sensíveis, informações de clientes, material confidencial, conteúdos pessoais, registros de saúde, questões jurídicas.

2) Trabalho: substituição, precarização e crédito

IA generativa toca em um tema sensível: autoria e valor do trabalho. Em áreas criativas e de conhecimento, a ferramenta pode ser percebida como assistente, mas também como pressão de mercado para “produzir mais” com o mesmo tempo e a mesma remuneração.

Mesmo quando ajuda, persistem dúvidas: quem leva o crédito? Quem assume a responsabilidade por erros? Quem responde pelos impactos? Essas assimetrias pesam mais quando há insegurança de vínculos e baixa proteção institucional.

3) Saúde mental e cultura de hiperprodutividade

Ferramentas que prometem “otimizar tudo” podem, paradoxalmente, elevar ansiedade e cobrança. Se existe um recurso que sugere sempre, escreve sempre e responde sempre, o parâmetro do que é “suficiente” muda. Isso pode aumentar a autocrítica e intensificar expectativas de desempenho em ambientes competitivos.

No estudo do Reino Unido, preocupações com impactos sobre saúde mental aparecem associadas a uma ampliação da diferença de uso entre homens e mulheres. Isso sugere que o debate não é só técnico, mas também cultural: como o trabalho é organizado, como a produtividade é medida e como limites são respeitados.

4) Impacto ambiental e o “custo invisível” da infraestrutura

Nos últimos anos, IA passou a ser discutida como infraestrutura, não apenas como software. Modelos grandes dependem de data centers, energia, água para resfriamento, cadeias de hardware e logística global. A falta de padronização na transparência amplia a percepção de caixa-preta.

Organismos internacionais vêm chamando atenção para pressões ambientais associadas ao crescimento de data centers e IA. O Programa das Nações Unidas para o Meio Ambiente (PNUMA/UNEP) destaca que a pegada não se limita à energia usada nos servidores, mas envolve um ciclo de vida que inclui consumo de água (especialmente para resfriamento), extração de minerais e aumento de lixo eletrônico, defendendo mais mensuração e transparência para mitigar danos e orientar políticas.

Já o Banco Mundial enfatiza que o “custo hídrico” pode ser direto (resfriamento) e indireto (água utilizada na geração de energia), alertando que o impacto varia muito por clima, tecnologia e localização e que, sem métricas comparáveis e planejamento, a expansão pode agravar estresse hídrico local em regiões vulneráveis.

O custo invisível da IA generativa

Energia

A IA consome eletricidade em duas etapas: no treinamento do modelo e no uso do dia a dia. O ponto decisivo é a escala, porque milhões de interações acumulam consumo.

Água

Data centers precisam controlar temperatura e, em muitos casos, isso envolve água no resfriamento. Além disso, a própria geração de energia pode aumentar a pressão hídrica.

Hardware

A IA depende de chips e equipamentos que exigem extração de minerais e processos complexos. Quando a troca de hardware acelera, cresce também o volume de lixo eletrônico.

Escala

Impactos por ação podem parecer pequenos, mas o uso em massa muda a ordem de grandeza. Quanto mais a IA entra em processos automatizados, maior o impacto agregado.

Por que é difícil medir?

Valores mudam conforme tecnologia e contexto; sem padrões, as métricas tornam-se imprecisas.

Variação por modelo

Modelos diferentes possuem custos energéticos distintos.

Variação por data center

A eficiência da infraestrutura muda conforme a localização.

Variação por tarefa

Uma pergunta simples não equivale a uma instrução complexa.

Dados não padronizados

Métricas nem sempre são divulgadas de forma comparável.

Mais conhecimento = menos uso

Existe uma crença comum de que letramento tecnológico se traduz automaticamente em maior adoção; mas as evidências recentes sugerem que isso nem sempre ocorre.

O estudo do Reino Unido descreve casos em que maior familiaridade com IA não levou a maior uso, e sim ao efeito inverso. Para alguns perfis, entender melhor a tecnologia aumenta o nível de exigência e a percepção de risco, o que reduz a disposição de incorporar a ferramenta rotineiramente.

Como as diferenças de gênero aparecem na prática

Ao combinar os fatores anteriores, o padrão se torna mais compreensível. No estudo do Oxford Internet Institute (2023–2024), os resultados sugerem que, em média, homens tendem a adotar mais rapidamente quando percebem ganhos imediatos de produtividade ou experimentação. Mulheres, por outro lado, tendem a aplicar filtros mais rigorosos relacionados a impacto coletivo, ética, privacidade, bem-estar e externalidades ambientais, e a transformar preocupações em mudanças concretas de uso com maior frequência.

Isso não é uma regra individual, nem um traço fixo. É um fenômeno social: grupos com experiências e pressões diferentes reagem de modo diferente à mesma tecnologia.

E o que essa leitura exige de quem desenha, regula e recomenda tecnologia? Bem, se a desigualdade de uso fosse apenas uma questão de acesso ou habilidade, bastaria ampliar a capacitação. Mas quando a barreira é confiança, o foco muda. Em geral, a confiança se constrói quando o usuário consegue responder a algumas perguntas básicas sobre a tecnologia:

  • 1) O que acontece com meus dados e com o que eu digito? Há retenção de prompts? Por quanto tempo? Pode ser usado para treinar modelos?
  • 2) Que controle eu tenho sobre privacidade? As configurações são simples e seguras por padrão?
  • 3) Quem responde por erros e danos? Existem auditorias, rastreabilidade, contestação e correção?
  • 4) Qual é o impacto ambiental e como ele é medido? Há métricas públicas e compromissos verificáveis de mitigação?
  • 5) Como o uso é orientado para proteger o bem-estar? Existem diretrizes para evitar sobrecarga e hiperprodutividade?

Há também uma oportunidade evidente: soluções que avancem em sustentabilidade, privacidade e responsabilidade tendem a dialogar melhor com o grupo cauteloso, para o qual confiança é condição de uso.

A pergunta mais útil não é como fazer todo mundo usar IA generativa, mas sim o que o padrão de adoção revela sobre a tecnologia e sobre a confiança que ela consegue construir. Quando parte das pessoas reduz o uso por preocupações com clima, privacidade ou saúde mental, isso não é apenas resistência ao novo; é um recado de que utilidade, sozinha, não basta. Para entrar de forma estável na vida cotidiana, a IA precisa oferecer segurança, transparência e governança.

Para quem pensa tecnologia como infraestrutura social, os diferentes padrões de adoção funcionam como um teste de estresse, ajudando a enxergar onde a IA ainda esbarra em valores, riscos e consequências. E lembram que escolhas desse tipo exigem mais do que entusiasmo. Exigem critérios.

Compartilhe esse artigo: