Categories Inova+Posted on 14/08/202514/08/2025AI Harm: quando a IA causa mais do que simples erros O que você vai descobrir a seguir: • O que caracteriza formalmente um “AI harm” segundo especialistas. • Quais são os tipos mais comuns e exemplos reais de impactos negativos. • Como mitigar riscos e equilibrar danos e benefícios dessa tecnologia. Nos últimos anos, a inteligência artificial deixou de ser uma promessa distante para se tornar presença constante em decisões que afetam diretamente indivíduos, empresas e governos. Com isso, surgiram não apenas oportunidades, mas também riscos concretos e, em alguns casos, danos reais. Para dar precisão a esse debate, pesquisadores e organizações criaram um termo específico: “AI harm”, ou dano causado por IA. A definição mais amplamente utilizada vem do Center for Security and Emerging Technology (CSET). Para que um caso seja classificado como AI harm, quatro elementos precisam ocorrer simultaneamente: • Há uma pessoa, grupo ou organização afetada. • Existe um evento ou problema de dano real. • Esse dano pode ser vinculado diretamente ao comportamento de um sistema de IA. • A IA é a causa efetiva do problema. Essa estrutura evita confusões entre riscos, que são situações com potencial para gerar dano, e incidentes, quando o dano já aconteceu. Ao separar esses conceitos, fica mais fácil atribuir responsabilidades e criar políticas mais eficazes. Tipos de danos causados por IA Embora os casos sejam variados, estudos destacam dois tipos recorrentes. O primeiro é o dano de alocação, que ocorre quando sistemas de IA distribuem recursos de forma desigual – como crédito, empréstimos ou seguros – e acabam prejudicando determinados grupos. Essa distorção não é apenas um problema técnico: ela pode reforçar desigualdades históricas, limitar oportunidades e perpetuar exclusões que já existem na sociedade. O segundo é o dano representacional, que acontece quando a IA reforça estereótipos ou desumaniza pessoas, como em sistemas de reconhecimento facial que cometem erros graves ao identificar indivíduos de certos grupos étnicos. Esse tipo de impacto não só afeta diretamente as vítimas, mas também alimenta preconceitos e narrativas nocivas que podem influenciar políticas, práticas institucionais e até a percepção pública sobre comunidades inteiras. Hoje, iniciativas globais buscam mitigar esse cenário. Isso inclui padrões de confiança para IA, como o uso de marca d’água digital e detecção de deepfakes para reduzir desinformação; discussões sobre liberdade de expressão, já que restringir críticas a empresas ou governos também pode configurar um dano indireto, O oposto de AI Harm: quando a IA atua para o bem Se “harm” significa dano, o lado positivo costuma ser discutido no contexto de iniciativas conhecidas como AI for Good, programa global promovido pela União Internacional de Telecomunicações (ITU), agência especializada da ONU, que reúne líderes, governos, empresas e organizações para debater como a inteligência artificial pode gerar impacto positivo e contribuir para os Objetivos de Desenvolvimento Sustentável (ODS). Em termos práticos, esses benefícios se materializam em projetos como: • Monitoramento dos macacos-aranha na Costa Rica, que combina IA e bioacústica para proteger espécies ameaçadas e preservar ecossistemas (ODS 15 e ODS 13). • Data Nutrition Project, que aplica IA para identificar vieses em conjuntos de dados e melhorar a rotulagem nutricional, incentivando escolhas alimentares mais saudáveis e consumo responsável (ODS 12 e ODS 16). • Sistemas de IA para análise de padrões climáticos e prevenção de desastres naturais, com capacidade de prever enchentes e outros eventos extremos, ajudando a salvar vidas e reduzir danos materiais (ODS 11 e ODS 13). No campo mais aspiracional, o termo “Friendly AI” foi cunhado no início dos anos 2000 por Eliezer Yudkowsky, pesquisador e cofundador do Machine Intelligence Research Institute (MIRI). A expressão surgiu para descrever sistemas de inteligência artificial projetados desde sua concepção para agir de forma alinhada aos interesses e valores humanos, promovendo a melhoria da qualidade de vida e fortalecendo direitos e liberdades. No episódio #147 do podcast do InovaSocial, Gabriel Cardoso, gerente executivo do Instituto Sabin, compartilha bastidores e aprendizados de sua participação no AI for Good 2025. Ele fala sobre dados, soberania digital, governança, sustentabilidade e muito mais, oferecendo um panorama completo para entender como equilibrar inovação e riscos. Créditos: Imagem Destaque – Cranium_Soul/Shutterstock Compartilhe esse artigo: