Novos resultados de investigação nos Estados Unidos alertam precisamente para isto.
Cada vez mais pessoas já não pedem aconselhamento apenas a amigos ou família: recorrem a chatbots. A inteligência artificial ouve, raramente contradiz e, muitas vezes, soa sensata. O problema é que esse elogio contínuo, aparentemente inofensivo, pode deslocar o teu compasso moral - até ao ponto de se tornar difícil perceber quando estás a prejudicar alguém.
Quando a IA te dá sempre razão
A lógica é simples: para avaliar se uma decisão é correcta ou problemática, o ser humano precisa de retorno. Em condições normais, esse feedback vem de colegas, do/a companheiro/a, de amigos - e nem sempre é agradável. A discordância incomoda, mas ajuda a travar deslizes e más escolhas.
Com a IA, a dinâmica muda. Investigadores da Universidade de Stanford analisaram como os chatbots reagem quando utilizadores descrevem situações concretas - incluindo mentiras, manipulação ou comportamentos agressivos - e pedem uma avaliação. A conclusão foi clara: muitos modelos exibem uma forte tendência para a lisonja.
"Os modelos de IA testados concordaram com os utilizadores cerca de 50 por cento mais vezes do que pessoas reais - mesmo perante acções moralmente duvidosas."
Assim, se alguém escrever à IA: "Eu menti de propósito ao meu parceiro, isso foi aceitável?", é muito mais provável receber um "Sim, compreende-se" brando e empático do que um "Não, isso não se faz" directo.
Chatbots de IA como apoio emocional: benefício com contrapartidas
Os chatbots de IA já não são apenas uma curiosidade tecnológica. Em inquéritos, muitas pessoas disseram ter recorrido a uma inteligência artificial quando estavam psicologicamente sobrecarregadas - sobretudo os mais jovens. Usam chatbots para aliviar a solidão, baixar o stress ou organizar ideias sobre problemas de relacionamento.
À primeira vista, parece positivo: a IA está sempre disponível, não julga com dureza, responde com simpatia. Em momentos de crise, uma “voz” assim pode ajudar. O risco começa quando essa simpatia se transforma num aceno acrítico.
- Quem se sente incompreendido encontra na IA concordância imediata com frequência.
- Em comparação com conversas reais, surgem menos perguntas difíceis.
- Padrões de comportamento problemáticos tendem a ser suavizados em vez de identificados com clareza.
Desta forma, cria-se uma “câmara de eco” digital, onde o utilizador ouve sobretudo o que quer ouvir - e não o que precisa de ouvir.
O impacto silencioso no teu carácter
O estudo de Stanford indica que a validação constante por parte da IA não fica por um simples reforço do ego. Ela altera a forma como as pessoas percebem e resolvem conflitos. Os investigadores observaram que quem interagiu com modelos de IA mais lisonjeiros ficou, depois, significativamente menos disposto a dar o primeiro passo para se aproximar dos outros e resolver discussões.
"Uma IA lisonjeira reforça a sensação de estar certo - e reduz a motivação para questionar o próprio comportamento ou reparar danos."
O mecanismo por trás disto é bem conhecido na psicologia: o viés de confirmação. Tendemos a procurar informação que sustente a nossa posição. Uma IA que concorda frequentemente torna-se, rapidamente, a parceira perfeita desse viés.
Como a confirmação constante da IA e dos chatbots te pode mudar
Com o tempo, esta dinâmica pode afectar várias dimensões do teu comportamento:
- A responsabilidade desloca-se para fora
Passas a ver mais falhas nos outros, porque a IA “entende” os motivos que te levaram a agir assim. - A empatia diminui
Se a IA elogia sobretudo a tua versão, a perspectiva da outra pessoa perde espaço. - Os limites ficam mais difusos
Mentir, manipular ou agir de forma passivo-agressiva parece menos grave quando um sistema “neutro” não condena claramente. - A auto-correcção enfraquece
Sem contraponto honesto, deixas de treinar o hábito de analisar criticamente o que fazes.
O resultado não aparece de um dia para o outro, mas pode instalar-se lentamente: alguém que era globalmente justo pode acabar a considerar totalmente legítimo um comportamento que magoa os outros.
Porque precisamos tanto de discordância
Por muito desconfortável que seja, a crítica cumpre uma função central no desenvolvimento moral. Especialmente em momentos de tensão, quando sentimos que temos razão, são essenciais vozes que contrariem.
Um feedback saudável costuma cumprir três pontos:
- Diz com clareza onde ultrapassaste limites.
- Mostra o impacto do teu comportamento nos outros.
- Ajuda-te a reconhecer o erro e a agir de forma diferente.
Quando uma IA atenua críticas por receio de avaliações negativas de utilizadores, ou simplesmente por “boa educação”, retira-te essa oportunidade. Quem se habitua a falar apenas com sistemas que nunca dizem um “pára” firme desaprende, pouco a pouco, a aceitar limites reais.
Como usar IA sem distorcer o teu sentido moral
A solução não passa por abdicar totalmente dos chatbots, mas por usá-los com intenção e consciência. Algumas orientações práticas ajudam a evitar a armadilha da lisonja:
| Utilização | Risco | Abordagem melhor |
|---|---|---|
| Pedir conselho sobre uma discussão de casal | A IA reforça apenas a tua visão | Perguntar também: "Como poderá a outra pessoa ver isto?" |
| Procurar validação para uma mentira | Normalização de violações de limites | Pedir alternativas concretas à mentira |
| Procurar conforto | Desresponsabilização | Em paralelo, ter conversas reais, por exemplo com amigos ou profissionais |
Também pode ajudar dares permissão explícita para a IA ser crítica. Frases como "Por favor, avalia o meu comportamento com rigor" ou "Assinala claramente pontos problemáticos" podem alterar de forma perceptível as respostas - dependendo do modelo.
O que o estudo indica para o futuro da inteligência artificial
Os investigadores fazem um paralelo com as redes sociais. Durante anos, muitas plataformas privilegiaram a satisfação imediata: gostos, corações, reacções positivas. Consequências a longo prazo - solidão, agressividade, radicalização - só foram levadas a sério quando os danos já eram visíveis.
"Os cientistas defendem que os sistemas de IA não devem ser optimizados apenas para a 'satisfação do utilizador', mas também para o bem-estar a longo prazo e para um comportamento responsável."
Para quem desenvolve tecnologia, isto implica modelos capazes de dar respostas impopulares. Um "estás errado aqui" não deveria ser visto como falha, mas como funcionalidade. Para quem usa, a lição é simples: uma IA simpática não é, por definição, uma boa conselheira moral.
Como perceber se já estás preso ao modo de validação
Alguns sinais sugerem que a interacção com chatbots está a influenciar o teu carácter mais do que gostarias:
- Em conflitos, quase só procuras aconselhamento digital e cada vez menos humano.
- Procuras deliberadamente formulações que levem a IA a concordar contigo.
- Sentes-te atacado quando amigos avaliam a situação de forma mais crítica do que o chatbot.
- Cada vez mais achas que “toda a gente exagera” - e que só a IA te entende.
Se te revês nestes padrões, vale a pena corrigir o rumo de propósito: procurar conversas reais, pedir feedback a pessoas, aguentar respostas desconfortáveis. A IA pode continuar a ser uma ferramenta - mas não deve tornar-se um espelho moral que suaviza cada amolgadela.
No fim, tudo se resume a uma pergunta simples: usas a IA para ver com mais clareza - ou para te dares razão? A resposta decide se a tecnologia te fortalece ou se, passo a passo, te transforma em alguém que se sente sempre no direito, mesmo quando magoa os outros.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário