A Inteligência Artificial e seus ônus

Título do Post Incrível
Plataformas de IA generaiva se tornam cada vez mais acessíveis entre o público. Foto: Arquivo

Especialistas em ética de IA discutem as desvantagens de seu uso indiscriminado

Por Lanna Silveira

O uso de ferramentas de Inteligência Artificial generativa, ou IA, tem se tornado popular entre usuários da internet nos últimos anos. Podendo ser utilizada para a fabricação de textos, por meio de plataformas como Chat GPT, ou para a criação de imagens falsas, em sites como o Gemini, esses mecanismos geram materiais a partir do reconhecimento e da combinação de diferentes dados já disponíveis na internet. Esses dados são gerados a partir dos rastros deixados em publicações de qualquer plataforma virtual, que vão de livros, artigos e até mesmo fotos publicadas em redes sociais.

A disseminação da IA fez crescer a preocupação acerca dos possíveis impactos negativos de seu uso. Para compreender esse cenário, o Correio Sul Fluminense conversou com Catharina Doria: uma especialista em ética de IA que, recentemente, alcançou postagens virais nas redes sociais com vídeos que pretendem ajudar o público a entender sobre tecnologia e como se proteger dos malefícios da inteligência artificial.

Atualmente, a circulação de imagens e vídeos produzidos por IA, assim como perfis controlados por automatização em vez de humanos, são cada vez mais comuns nas redes sociais. Catharina Doria observa que uma das tendências mais fortes nessas plataformas é a geração de vídeos artificiais que retratem situações consideradas absurdas, com o objetivo de gerar comoção entre o público e alcançar grande repercussão. Esse tipo de conteúdo é conhecido por especialistas no tema como “AI slop” – sendo “AI” a sigla de “inteligência artificial” em inglês. Outras postagens consideradas como “AI slop” são vídeos de cachorros agindo como humanos, ou fotos falsas de figuras políticas consideradas “inimigas” juntas em momentos de lazer.

Catharina explica que o resultado alcançado pelas plataformas generativas está cada vez mais bem desenvolvido – especialmente no que diz respeito a criação de imagens. De acordo com a especialista, ferramentas mais recentes, como a “Nano Banana Pro”, já são capazes de produzir imagens muito semelhantes ao padrão estético de fotos e vídeos reais, perdendo características que, anteriormente, denunciavam a artificialidade daquele material, como mãos defeituosas, fundos de imagem confusos e texturas de pele perfeitas.

Uma solução para distinguir imagens reais ou fabricadas pode surgir a partir de sites “detectores de IA”, que também podem ser oferecidos de forma gratuita. Entretanto, Catharina alerta que mesmo estes recursos podem não oferecer a segurança esperada: a plataforma “Synth ID”, por exemplo, somente é capaz de identificar se uma imagem foi fabricada pelo modelo generativo do Google; portanto, imagens criadas por outro modelo de IA podem ser identificadas como verídicas pela checagem.

Apesar de uma parcela dos usuários virtuais utilizar a IA para se divertir ou criar postagens virais, já existem plataformas que viabilizam a prática de atividades ilegais por meio do uso da geração de conteúdo artificial. Catharina cita como exemplo a possibilidade da produção de pornografia, em fotos ou vídeos, sem o consentimento da pessoa retratada naquele material, bastando que o criador tenha acesso a fotos e vídeos da vítima. Outras atividades criminosas que têm se associado a ferramentas de IA são: aplicação de golpes e fraudes, por meio de clonagem de voz e “deepfakes” (vídeos artificiais); e geração de fotos e vídeos falsos com fins de difamação ou disseminação de fake news.

O impacto principal da popularização e do aperfeiçoamento da IA, na opinião de Catharina, é o abalo na confiança que o público pode depositar no conteúdo que consome online. “É muito difícil, hoje, saber o que é verdade e o que é mentira”. A alta verossimilhança das imagens artificiais já é um tópico comumente explorado por criadores de conteúdo: uma tendência comum em plataformas como Instagram e Tik Tok são vídeos que questionam ao público se aquela imagem é real ou se foi criada por IA, com o intuito de demonstrar como está se tornando cada vez mais difícil encontrar elementos que denunciem uma imagem falsa.

Danos

Catharina identifica diferentes possibilidades de prejuízos sociais acerca do uso de IA, que já causam impactos atualmente e podem ser potencializados a longo prazo. Um deles é o desenvolvimento da dependência no uso de ferramentas de produção textual para formular qualquer pensamento crítico.

— O raciocínio é como se fosse um “músculo”: você precisa treinar todo dia práticas como escrita e leitura. Hoje em dia muitas pessoas estão usando ferramentas como o Chat GPT, por exemplo, como se fosse um “segundo cérebro”. Em vez de ler, a pessoa pede um resumo do livro para alguma plataforma. Em vez de escrever, pede que a plataforma escreva. Quanto mais as pessoas usam esses artifícios para fazer um trabalho mental, podemos ver uma sociedade que, futuramente, será muito dependente delas para conviver e existir e perde a autonomia de pensar sozinha.

Outra questão levantada por Catharina é o fato de existir uma tendência crescente dos usuários encontrarem em plataformas de IA um espaço para obter conversas pessoais e sessões de terapia. Além desse tipo de experiência isolar o usuário do contato humano e agregar a uma sensação de solidão e falta de tato para agir em situações sociais, Catharina reforça que esse tipo de prática acaba oferecendo uma infinidade de dados pessoais à plataforma, que poderão usados para treinar o algoritmo e, futuramente, construir um perfil daquele usuário para a geração de anúncios personalizados, a partir de seus interesses, gerando um incentivo indireto de consumo.

— Em vez de soar como uma plataforma te vendendo algo, parece simplesmente um amigo te dando uma sugestão. Por isso, pessoas podem acabar comprando coisas sem perceber que estão sendo influenciadas a isso.

Regularização

A necessidade de intervenção e da criação de leis que regulamentem o uso de inteligência artificial generativa e estabeleçam parâmetros sobre situações de risco, responsabilização criminal e deveres de controle tem sido cada vez mais discutida entre a sociedade civil. Alguns avanços já foram alcançados na legislação brasileira ao longo de 2025: na última semana, a Comissão de Constituição e Justiça e de Cidadania da Câmara dos Deputados aprovou um Projeto de Lei que combate o uso de IA e de outras técnicas digitais na produção de conteúdos pornográficos envolvendo crianças e adolescentes. Outros crimes já tipificados, como a violência psicológica contra a mulher, passaram a ter pena agravada caso sejam praticados com o uso de ferramentas de IA.

Para Catharina, outra medida legal que precisa ser estabelecida é a exigência de que qualquer tipo de conteúdo gerado por IA tenha algum tipo de rótulo que indique a sua artificialidade. “É injusto pedir para que uma população de milhões de pessoas esteja sempre extremamente atenta para saber se algo é IA ou não”, complementa.

Enquanto o uso dessas ferramentas ainda é indiscriminado, a especialista pondera que os usuários da internet precisam pensar de maneira mais crítica sobre o uso da IA, entendendo como as plataformas funcionam, como esses conteúdos são gerados e se esforçando para criar hábitos de checagem de informações; especialmente, de fotos e vídeos. Catharina reforça que, ao se deparar com alguma imagem ou informação polêmica, o público sempre deve se atentar ao contexto divulgado naquele material e checar essa informação em fontes confiáveis ou em métodos de pesquisa reversa, que permitem encontrar resultados sobre alguma imagem específica.