Ética e inteligência artificial: cinco perguntas-chave para ajudar empresas a lidar com esse dilema
Compartilhe

Se uma empresa não consegue explicar publicamente uma decisão apoiada por IA, o problema não é tecnológico, é de governança. Se a responsabilidade não é clara, o risco é inevitável

O presidente do Banco Central dos Estados Unidos, Jerome Powell, afirmou em uma entrevista no final do ano passado que “a criação de empregos está praticamente em zero”. Uma das razões apontadas é a inteligência artificial, que permite produzir mais com menos pessoas. Poucas semanas depois, a Amazon anunciou a demissão de 16 mil funcionários, citando, entre outros fatores, os avanços em IA. Empresas brasileiras, como o Mercado Livre, também começaram a justificar demissões com ganhos de eficiência tecnológica. Porém, a culpa é realmente da tecnologia?

Em janeiro, a Meta firmou contratos para abastecer seus clusters de IA com energia nuclear. A capacidade envolvida deve chegar a 6,6 GW — mais do que toda a demanda de energia do estado americano de New Hampshire. Com investimentos semelhantes de Amazon e Google, a produção de energia nuclear voltada para data centers pode triplicar até 2050. No Brasil, a extensão das licenças de Angra 1 também passou a ser discutida à luz da crescente demanda de IA. Você concorda, de fato, com o uso de energia nuclear para alimentar sistemas de inteligência artificial?

Para aumentar o engajamento dos usuários, o Facebook utiliza algoritmos que identificam e amplificam conteúdos frequentemente extremos ou ligados a teorias da conspiração e à desinformação. O problema não está no algoritmo em si, mas no modelo de negócio que prioriza engajamento acima de tudo. A falha ética não é o código, é o incentivo atrelado ao modelo de negócio.

A maioria dos problemas éticos associados à IA não decorre de “algoritmos errados”, mas de decisões humanas. E quase sempre há um stakeholder que não estava à mesa quando essas decisões foram tomadas: o stakeholder invisível.

Para ajudar empresas a lidar com esses dilemas, proponho um radar ético de IA, com cinco perguntas-chave:

  1. O que estamos otimizando, automatizando ou influenciando com essa tecnologia? Quais incentivos moldaram essa decisão? Quem se beneficia diretamente da implementação?
  2. Quem perde? Quem é afetado, mas não está na sala? Quem é o stakeholder invisível?
  3. Responsabilidade: se a implementação causar danos, quem responde? Somos capazes de explicar a decisão às pessoas afetadas, sem transferir a culpa para a IA?
  4. Desvio de uso: o que acontece se a tecnologia for utilizada para fins para os quais não foi desenhada, inclusive de forma maliciosa?
  5. Teste da legitimidade: eu conseguiria defender essa decisão no Jornal Nacional?

Se uma empresa não consegue explicar publicamente uma decisão apoiada por IA, o problema não é tecnológico, é de governança. Se a responsabilidade não é clara, o risco é inevitável. Mesmo quando uma decisão está dentro da lei, a governança precisa avaliar seus riscos reputacionais e sociais.

Sempre que um sistema de IA afeta pessoas, essas pessoas precisam ajudar a moldar a decisão. As vozes que tipicamente ficam de fora são as de empregados, usuários, pessoas que fornecem dados e a sociedade em geral.

A Microsoft, por exemplo, implementou um padrão de IA responsável e criou um conselho ético com poder real de veto. Todos os lançamentos de novos produtos passam por esse conselho. Nesse modelo, a ética está integrada à governança e garante que stakeholders invisíveis sejam considerados.

A ética da IA não é, no fundo, uma questão tecnológica. É uma questão de desenho organizacional: estruturas que permitam detectar danos, aprender com eles e manter a legitimidade no longo prazo. A governança da sua organização está preparada para o uso da IA?


voltar

SETCESP
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.