A ascensão e a evolução da Inteligência Artificial (IA) Generativa trouxeram benefícios significativos, como a otimização de tempo e recursos na comunicação, mas também levantaram preocupações éticas cruciais que exigem reflexão e normatização.
A IA Generativa inclui modelos como o GPT (que domina o mercado atualmente), GANs (Generative Adversarial Networks), VAEs (Variational Autoencoders) e modelos multimodais (que trabalham com texto, áudio e imagem). Embora ferramentas como ChatGPT, DALL·E e Midjourney agilizem a produção de artigos, legendas e imagens, a ética continua sendo uma prerrogativa humana, e não da máquina.
A Ética como Prerrogativa Humana e os Riscos da IA
A ética é definida como a reflexão teórica sobre os princípios que fundamentam a vida moral. Ao discutir ética, é necessário considerar a existência de um sujeito responsável, livre e racional. O jornalista e professor Caio Túlio Costa argumenta que “não há nada de artificial na Inteligência Artificial, pois ela é inspirada por pessoas, criada por pessoas e impacta pessoas”. A IA não possui, por si só, uma dimensão moral.
A IA generativa na produção de conteúdo está associada a diversos desafios éticos e riscos:
- Violação de Direitos Autorais: Modelos de IA são treinados com obras protegidas, podendo gerar conteúdo que as imite ou reproduza, criando uma “zona cinzenta juridicamente” quanto ao uso comercial indevido e o pagamento de royalties.
- Vieses e Discriminação: Como a IA aprende com dados humanos, ela pode reforçar estereótipos (de raça, gênero, religião ou classe social) e produzir respostas parciais, ofensivas ou inadequadas. A detecção e mitigação desses vieses requerem auditorias algorítmicas constantes.
- Desinformação e Deepfakes: A IA pode ser utilizada para criar conteúdo falso de maneira convincente, como fake news e deepfakes, o que compromete a confiança pública e aumenta a polarização social.
- Autoria Difusa e Responsabilidade: Não se sabe quem é o autor de um texto gerado pela IA. A responsabilidade pelo conteúdo gerado não é do sistema, mas sim do usuário ou do profissional que o divulga. O usuário deve garantir que os algoritmos sejam éticos, justos e transparentes.
- Privacidade e Compartilhamento de Dados Sensíveis: Usuários podem inadvertidamente inserir informações pessoais, confidenciais ou estratégicas em sistemas de IA, correndo o risco de vazamento acidental, uso indevido e potencial violação da LGPD (Lei Geral de Proteção de Dados Pessoais).
Princípios para uma Comunicação Ética com IA
Para garantir uma produção de conteúdo ética e responsável, devem-se seguir princípios e boas práticas:
| Princípio | Descrição | Boa Prática |
| Transparência | Informar claramente quando e como o conteúdo foi gerado com auxílio de IA. | Revele sempre o uso da IA, por exemplo: “Este texto foi parcialmente gerado com auxílio de inteligência artificial”. |
| Responsabilidade | O usuário é o responsável final pelo conteúdo que divulga, independentemente de usar IA. | A revisão humana é essencial para validar o conteúdo, garantindo sua adequação ética e factual, pois a IA pode “inventar fatos” (alucinações). |
| Veracidade | Verificar os fatos e evitar replicar inverdades ou conteúdo enviesado gerado pela IA. | A supervisão e o envolvimento humano são cruciais, incluindo a realização de edição adicional e verificação dos fatos antes da publicação. |
| Não Discriminação | Revisar o conteúdo para evitar o reforço de preconceitos e estereótipos. | Evitar linguagem manipuladora ou enviesada e preferir linguagem inclusiva e acessível. |
| Proteção de Dados | Nunca inserir dados sensíveis ou confidenciais no prompt da IA. | Garantir a privacidade de dados. A Administração Pública pode tratar dados pessoais se for necessário para a execução de políticas públicas ou cumprimento de obrigação legal, desde que respeitados os princípios de finalidade, necessidade e minimização de dados. |
| Autoria Intelectual | Não atribuir à IA uma autoria humana; em produções acadêmicas, informe se a IA auxiliou em alguma etapa. |
Organizações jornalísticas globais e brasileiras já implementaram diretrizes que reforçam esses princípios, exigindo revisão humana obrigatória em todas as etapas de produção que utilizam IA, além de sinalizar o conteúdo feito com IA de forma clara para o público.
A IA deve ser integrada como assistente, e não como fonte autônoma. É crucial investir em sistemas que permitam a intervenção humana (supervisão) quando necessário, para corrigir possíveis erros ou vieses algorítmicos.
👉 Quer mais resumos como este? Acompanhe nosso blog e prepare-se para o seu concurso!
