Prepare-se: o ChatGPT, o famoso assistente de inteligência artificial, começou a exibir propagandas. A novidade foi anunciada pela OpenAI nesta quinta-feira (16) e vai impactar os usuários do plano gratuito e também do recém-lançado plano ChatGPT Go, que é mais em conta. A empresa explica que a medida visa permitir que mais pessoas aproveitem suas ferramentas com menos restrições, embora não tenha detalhado se haverá mudanças nos limites de uso.
Como os anúncios vão aparecer e o que a OpenAI promete?
Os anúncios serão exibidos na parte de baixo da tela do chat, logo acima do espaço onde você digita suas perguntas. Eles virão como sugestões de produtos que, em tese, estão relacionados ao que você está conversando com a IA. A OpenAI faz algumas promessas para tentar tranquilizar os usuários:
- As propagandas serão claramente identificadas.
- Anunciantes não terão acesso às suas conversas.
- As respostas do chatbot não serão alteradas ou influenciadas para exibir anúncios.
Para quem não quer ver publicidade, a solução é assinar os planos mais completos, como o Plus, Pro ou Enterprise. Além disso, a empresa afirma que usuários menores de 18 anos ou que estiverem conversando sobre assuntos delicados (como política e saúde) não receberão anúncios. Será possível também limpar os dados de uso que sugerem propagandas e desativar a personalização.
A liberação dos anúncios vai começar nas próximas semanas, inicialmente nos Estados Unidos.
Os perigos dos anúncios na inteligência artificial
Apesar das garantias da OpenAI, especialistas em privacidade alertam para os riscos. Mariana Moreti, advogada especialista em propriedade intelectual, explica que a publicidade no ChatGPT traz um tipo de perigo diferente do que vemos na internet comum.
"Quando a resposta parece neutra, mas é influenciada por interesses comerciais, o usuário pode ser induzido ao erro, caracterizando publicidade velada", diz Mariana.
Isso significa que, sem perceber, você pode receber uma recomendação que parece ser do ChatGPT, mas na verdade é patrocinada. Isso pode gerar grandes problemas, especialmente se a informação for usada para decisões importantes nas áreas técnica, médica, jurídica ou financeira. A advogada ressalta que essa situação pode acabar com a confiança no serviço e criar conflitos de interesse.
Outro ponto de atenção é o uso dos seus dados pessoais para direcionar esses anúncios. Muitas vezes, a IA consegue deduzir informações sensíveis sobre você, mesmo que você não as tenha compartilhado diretamente. Isso pode violar a LGPD (Lei Geral de Proteção de Dados) e até levar a uma manipulação das suas emoções ou comportamentos.
Como se proteger e quais informações evitar compartilhar?
Com essa nova realidade, precisamos redobrar a atenção ao usar ferramentas de inteligência artificial. O grande desafio, segundo Mariana Moreti, é que o usuário nem sempre percebe o que está sendo deduzido sobre ele.
Para as empresas, a regra é clara: dados inferidos (aqueles que a IA 'descobre' sobre você) precisam da mesma proteção que os dados que você fornece diretamente. E se esses dados tocarem em assuntos sensíveis – como saúde, sexualidade, religião, política ou renda – devem seguir as regras mais rígidas da LGPD.
Para nós, usuários, os cuidados são preventivos:
- Compartilhe o mínimo: Reduza o compartilhamento desnecessário de informações.
- Revise as políticas: Dê uma olhada nas políticas de privacidade das plataformas.
- Limite permissões: Cuidado com as permissões que você concede aos aplicativos.
- Desconfie: Fique atento a personalizações muito específicas ou que pareçam querer te convencer de algo.
A advogada resume bem o desafio atual:
"A partir de agora o foco não é apenas proteger o que se diz, mas proteger o que pode ser descoberto sobre nós sem que percebamos", alerta Mariana.
Com a capacidade da IA de deduzir características pessoais de interações mínimas, algumas informações merecem cuidado redobrado e devem ser evitadas em contextos não essenciais:
- Descrição de sintomas de saúde fora de consultas médicas.
- Relatos sobre dívidas ou problemas financeiros.
- Detalhes da sua rotina de deslocamento.
- Menções a crenças religiosas ou preferências sexuais em ambientes sem um propósito específico.
- Imagens pessoais em plataformas desconhecidas.
Esses dados, mesmo que pareçam inofensivos sozinhos, quando processados por uma IA, podem virar informações sensíveis e gerar problemas como discriminação por algoritmos, publicidade invasiva e até exploração emocional.
A recomendação final é clara: em ambientes digitais, o mais seguro é compartilhar apenas o que é estritamente necessário para a finalidade desejada e sempre desconfiar de qualquer tecnologia que peça informações íntimas sem uma razão evidente.

