Por Cornelia C. Walther
Quando um executivo de marketing usa inteligência artificial (IA) para elaborar uma proposta para um cliente, ele deve divulgar essa informação? E se um médico usá-la para analisar imagens médicas, ou um professor gerar perguntas para discussão? À medida que a IA se integra ao cotidiano profissional, a questão da transparência evoluiu de uma curiosidade filosófica para um imperativo comercial urgente, com repercussões em todos os níveis da sociedade.
O nível individual: onde a ética encontra a identidade
No nível individual, a divulgação da IA toca em algo que tendemos a considerar como garantido: nossa relação com a autenticidade. Quando apresentamos um trabalho gerado por IA como sendo inteiramente nosso, navegamos por um terreno complexo de aspirações, emoções, pensamentos e sensações que compõem a experiência humana. Podemos aspirar a parecer competentes, temer o julgamento, tentar racionalizar o que ‘‘conta’’ como nosso trabalho ou sentir desconforto com uma possível enganação.
Pesquisas revelam essa tensão. 52% dos americanos estão preocupados com a expansão da IA para cada vez mais áreas da vida cotidiana, mas aproximadamente 70% dos trabalhadores do conhecimento usam ferramentas de IA generativa regularmente, sem divulgá-las consistentemente. Essa discrepância entre o desconforto com o uso (oculto) da IA e as práticas reais de divulgação sugere uma dissonância cognitiva em larga escala. Todos nós preferiríamos ter informações claras sobre a contribuição da IA para o conteúdo que consumimos; no entanto, poucos de nós estamos dispostos a trilhar o caminho da divulgação incondicional.
A questão ética aqui não é simples. Considere um designer gráfico que usa IA para gerar conceitos iniciais antes de um extenso refinamento manual. Em que ponto seu trabalho se torna ‘‘assistido por IA’’ o suficiente para justificar a divulgação? A resposta depende, em parte, do que valorizamos: a criatividade humana pura ou a resolução eficaz de problemas, independentemente das ferramentas utilizadas?
Essa análise possui várias camadas, devido ao viés na forma como as pessoas avaliam o conteúdo gerado por IA. Estudos mostram consistentemente que as pessoas tendem cada vez mais a avaliar a qualidade do conteúdo produzido por IA como superior à do conteúdo produzido por trabalho humano – desde que não saibam que foi gerado por IA. Elas julgarão o mesmo conteúdo com severidade assim que descobrirem sua origem em IA.
Um estudo de 2024 descobriu que os participantes classificaram anúncios gerados por IA como mais criativos e atraentes do que os criados por humanos, até que lhes fosse revelado qual era qual. Uma vez identificados como gerados por IA, esses mesmos anúncios foram classificados como menos autênticos, confiáveis e emocionalmente impactantes. Padrões semelhantes emergem na arte: um estudo de 2023 descobriu que as pessoas apreciavam menos obras de arte geradas por IA quando conheciam sua origem, mesmo quando não conseguiam distingui-las de obras de arte criadas por humanos em testes cegos.
Essa ‘‘penalidade por divulgação de IA’’ cria uma estrutura de incentivos perversa. Se o seu trabalho pode ser considerado superior quando o uso de IA é ocultado e inferior quando divulgado, a escolha racional, de uma perspectiva puramente egoísta, é permanecer em silêncio. Deixando de lado as implicações morais do engano tácito, esse cálculo de curto prazo ignora a corrosão da confiança a longo prazo quando o uso não divulgado de IA é eventualmente descoberto. Para as empresas, esse paradoxo exige uma resposta estratégica: cultivar culturas que evoluam organicamente, onde o uso equilibrado de IA seja normalizado e a divulgação não desencadeie uma desvalorização automática.
O nível organizacional: construindo ou corroendo a confiança
Passando para o nível organizacional, a divulgação de informações sobre IA torna-se uma questão de confiança institucional e padrões profissionais. As empresas enfrentam um delicado equilíbrio: incentivar a adoção de IA para obter vantagem competitiva, mantendo, ao mesmo tempo, a confiança das partes interessadas.
A Pesquisa de Negócios de IA de 2024 da PwC (PricewaterhouseCoopers) revelou que, embora a grande maioria das empresas pesquisadas esteja explorando ativamente a IA, 75% delas não possuem uma estrutura de governança de IA. Menos de um terço tem políticas claras sobre a divulgação de informações a clientes.
Essa lacuna de políticas cria um terreno fértil para a erosão da confiança. Quando os clientes descobrem o uso não divulgado de IA, o dano se estende além dos relacionamentos individuais, atingindo reputações profissionais e a credibilidade do setor. Isso já ocorreu em diversos casos jurídicos de grande repercussão, nos quais advogados apresentaram memoriais gerados por IA contendo citações falsas.
Qualquer regime de divulgação enfrenta um desafio fundamental: a verificação. Como podemos confirmar se alguém usou IA? Soluções técnicas como marcas d’água e ferramentas de detecção existem, mas ainda são imperfeitas e facilmente contornáveis. A autodenúncia depende da honestidade, justamente o que os requisitos de divulgação, mesmo que imperfeitos, visam garantir.
As organizações precisam se perguntar: quem é o responsável pela divulgação? O colaborador individual? Seu gestor? A empresa como um todo? Boas práticas estão surgindo: algumas consultorias agora incluem avisos sobre ‘‘assistência de IA’’ nos entregáveis, enquanto outras incorporam a divulgação em seus contratos e cartas de compromisso. A chave é a consistência – abordagens ad hoc geram confusão e suspeita.
O nível nacional: marcos regulatórios e valores culturais
Em âmbito nacional, os países debatem se devem ou não tornar obrigatória a divulgação de informações sobre IA por meio de regulamentação. A Lei de IA da União Europeia (EU) inclui requisitos de transparência para certas aplicações de IA de alto risco, enquanto os Estados Unidos adotaram uma abordagem mais específica para cada setor. As regulamentações da China exigem a divulgação de conteúdo gerado por IA em contextos específicos.
Essas abordagens divergentes refletem diferentes valores culturais em relação à transparência, confiança e inovação. No entanto, compartilham um reconhecimento comum: sem estruturas de divulgação, a confiança pública nas instituições se deteriora. De acordo com o Barômetro de Confiança da Edelman de 2024, a confiança nos negócios e na tecnologia diminuiu globalmente, com 67% dos entrevistados afirmando que precisam de mais transparência sobre como as organizações usam a IA.
O desafio para empresas que operam internacionalmente é navegar por esse mosaico de requisitos, mantendo padrões éticos coerentes. Uma empresa pode legalmente evitar a divulgação de informações em uma jurisdição, enquanto é obrigada a fornecê-las em outra. De qualquer forma, a conformidade legal e a prática ética individual nem sempre estão alinhadas, o que pode levar à dissonância cognitiva pessoal.
Em nível global: a humanidade compartilhada na era da IA
Em nível global, a divulgação de informações sobre IA torna-se uma questão existencial. Ela toca em questões fundamentais sobre a dignidade humana, a natureza do trabalho e o que devemos uns aos outros como espécie em meio à transformação tecnológica.
Quando o uso da IA não é sistematicamente divulgado, corremos o risco de criar um mundo onde as pessoas não conseguem distinguir o trabalho humano do trabalho da máquina, onde a confiança se torna impossível e onde o valor da contribuição humana é fundamentalmente questionado. Por outro lado, exigências excessivas de divulgação podem sufocar a inovação e gerar paranoia sobre a onipresença da assistência tecnológica.
O debate global deve equilibrar múltiplos imperativos: fomentar a inovação, proteger as populações vulneráveis dos danos da IA, preservar o trabalho humano significativo e manter a confiança social necessária para o funcionamento das sociedades. Para além das considerações de ética empresarial, este é um debate civilizacional que deve ser fomentado publicamente.
Uma estrutura 4A para lidar com a divulgação de informações sobre IA
A questão central que norteia a discussão sobre a divulgação ética da IA é como fazê-la de forma a construir, em vez de destruir, a confiança. Num mundo em que as capacidades da IA só tendem a aumentar, as empresas que prosperarão serão aquelas que dominarem esse equilíbrio, utilizando a IA de forma sistemática e, ao mesmo tempo, mantendo a confiança como alicerce do comércio e da comunidade.
Como líder empresarial, você não pode esperar pela clareza regulatória perfeita. Aqui está uma estrutura prática:
Conhecimento
Reconheça que a divulgação do uso de IA é mais do que um mero ônus de conformidade. É uma questão de confiança que afeta todos os níveis, desde relacionamentos individuais até a reputação da sua empresa. Audite onde a IA está sendo usada atualmente na sua organização, seja de forma divulgada ou não.
Apreciação
Compreenda as preocupações legítimas de todos os lados. Os funcionários temem parecer menos competentes se revelarem o uso de IA. Os clientes se preocupam em pagar por trabalho gerado por máquinas. Os órgãos reguladores visam proteger o interesse público. Cada perspectiva tem seu mérito e deve ser considerada.
Aceitação
Aceite que este é um território ambíguo que exige julgamento holístico, não regras rígidas. Um advogado que usa IA para pesquisa pode ter obrigações de divulgação diferentes de um que a usa para elaborar argumentos. O contexto importa. Desenvolva diretrizes que acomodem nuances, ao mesmo tempo que forneçam padrões morais claros.
Responsabilidade
Estabeleça responsabilidades claras para as decisões de divulgação em sua organização. Crie canais seguros para discutir o uso de IA. Faça da divulgação o novo normal, algo esperado e corriqueiro. Quando erros ocorrerem, eles serão tratados de forma transparente, desencadeando uma dinâmica de aprendizado em meio à IA, em vez de punição para a IA.
Em última análise, as respostas podem não estar na aplicação perfeita das normas, mas sim em mudanças de mentalidade individual e na cultura institucional. Assim como as ferramentas de detecção de plágio são menos importantes do que o cultivo da integridade acadêmica, a divulgação de informações sobre IA pode depender mais de normas profissionais do que de vigilância técnica. Chegou a hora de as organizações construírem culturas onde a divulgação seja normalizada, esperada e vista como um sinal de soberania e sofisticação, e não de fraqueza. Isso requer confiança e segurança psicológica.
Quem é Cornelia Walther
Cornelia C. Walther é pesquisadora visitante na Wharton AI & Analytics Initiative. Ela também é diretora da POZE, uma aliança global para mudanças sistêmicas que beneficia as pessoas e o planeta, e é autora de mais de cinco livros sobre influência, impacto e transformação social, incluindo o potencial de alavancar algoritmos aspiracionais para mudanças pró-sociais em escala.
Além disso, Walther passou mais de duas décadas trabalhando para as Nações Unidas em situações de emergência de larga escala na África Ocidental, Ásia e América Latina, com foco em advocacy e mudança social e comportamental. Na Analytics at Wharton, Walther concentrará seu tempo na Wharton Initiative for Neuroscience com foco na AI4IA (Inteligência Artificial para Ação Inspirada).