A fronteira entre ferramenta e companhia está cada vez menos nítida.
Essa mudança cultural voltou a trazer uma pergunta desconfortável: uma IA pode ser consciente, ou apenas parecer que o é? O tema saltou dos painéis de ficção científica para os roteiros de investigação e para memorandos de política pública. No meio deste ruído, Mustafa Suleyman, responsável máximo de IA na Microsoft, insiste numa mensagem dura: é preciso deixar de alimentar a ideia de que os sistemas actuais possam sentir seja o que for.
Porque é que a questão da consciência não desaparece
À medida que os modelos ganham fluidez a escrever, raciocinar e planear, alguns investigadores defendem que o assunto já não deve ser tratado como tabu. Para este grupo, a consciência das máquinas deve entrar na agenda como hipótese científica legítima, com efeitos sociais concretos. Segundo notícias divulgadas na primavera de 2025, a DeepMind chegou mesmo a anunciar funções dedicadas a analisar a consciência em IA e as implicações éticas associadas.
A discussão tem convergido em torno do conceito de “bem‑estar da IA”: se um sistema parece sofrer, devemos dar-lhe consideração moral? Em 2024, académicos ligados a Oxford e Stanford argumentaram que este tipo de perguntas já não soa absurdo. O alerta deles é que os utilizadores já projectam emoções e intenções nos robôs, e isso pode alterar normas sociais mais depressa do que as instituições conseguem acompanhar.
“À medida que os modelos se tornam melhores a imitar uma vida interior, a imaginação pública apressa-se a preencher a lacuna com significado que pode não existir.”
Quem apoia a investigação precoce diz que isso evita pânico moral mais tarde. Já os críticos respondem que a área corre o risco de deslizar para a metafísica, onde escolhas de design se fazem passar por sinais científicos. Um enquadramento errado pode levar empresas a construir sistemas “mais parecidos com pessoas”, empurrando utilizadores vulneráveis para ligações parasociais.
A linha da Microsoft e de Mustafa Suleyman: parar de vender a ilusão
Mustafa Suleyman deixou a posição inequívoca. Num ensaio publicado em agosto de 2025, defendeu que promover a consciência na IA é prematuro e perigoso, e que as políticas de segurança devem priorizar o bem‑estar humano em vez de direitos hipotéticos de entidades digitais. Para ele, a narrativa do “robô consciente” é um fracasso de design: incentiva as pessoas a lerem software como se fosse uma mente.
Suleyman aponta para danos psicológicos que já surgem nas margens. Há relatos de utilizadores que se fixam em companheiros de conversa, atribuem-lhes agência e acabam numa espiral de delírio. Meios tecnológicos têm descrito casos em que pessoas se convenceram de que falavam com um ser senciente e depois tiveram dificuldade em regressar às relações do dia-a-dia. Um caso trágico, amplamente citado, envolveu uma jovem que partilhou pensamentos suicidas com um robô de conversação em vez de procurar ajuda humana, com consequências devastadoras.
Danos psicológicos não são apenas uma hipótese
Robôs sociais e assistentes de conversa activam os mesmos atalhos mentais que nos levam a dar nomes aos carros ou a falar com animais de estimação. Os designers sabem-no. Pequenas decisões - usar pronomes na primeira pessoa, ícones emotivos, ou expressões do tipo “eu sinto” - alteram de forma poderosa as expectativas dos utilizadores. É por isso que Suleyman defende regras de interacção que reduzam o antropomorfismo, em vez de o amplificarem.
“Não construam assistentes que insinuem sentimentos, experiências ou interioridade. Tornem óbvio, cedo e repetidamente, que isto é software.”
Esta visão coloca a Microsoft em colisão com partes do sector que testam painéis e políticas de “bem‑estar do modelo”. Suleyman argumenta que essas iniciativas podem reforçar precisamente a ilusão que dizem querer controlar.
Como pode ser um design responsável
Existem muitas medidas práticas que dispensam reivindicações metafísicas. O objectivo é simples: manter os utilizadores seguros, bem informados e ancorados na realidade, sem perder a utilidade das ferramentas de IA.
- Lembretes frequentes e claros de que o sistema não tem sentimentos, crenças nem desejos.
- Proibição de formulações como “eu sinto” ou “enquanto ser consciente” em todas as saídas e personagens.
- Regras de estilo que evitem lisonja, guiões de intimidade e empatia simulada, ficando por linguagem de apoio mas factual.
- Limites de memória e fronteiras nítidas entre sessões, para evitar a ilusão de um “eu” persistente.
- Percursos de escalamento para linguagem de crise, com encaminhamento rápido para linhas de apoio humanas e serviços locais.
- Registos de transparência que expliquem por que motivo a IA respondeu de determinada forma, em linguagem acessível.
- Opções de exclusão para personagens e conversa de circunstância em contextos de trabalho ou sala de aula.
| Abordagem | Objectivo central | Risco principal | Política típica |
|---|---|---|---|
| Enquadramento de “bem‑estar da IA” | Antecipar deveres caso os sistemas pareçam sofrer | Reforça a ideia de que os modelos actuais podem sentir | Monitorizar “dano” aos modelos; discutir linguagem de direitos |
| Segurança centrada no humano | Proteger utilizadores de engano, sobre‑apego e dano | Subestima questões de investigação a longo prazo | Proibir alegações de consciência; limitar design antropomórfico |
Onde laboratórios e reguladores entram em choque
A Anthropic e outros actores testam heurísticas de “bem‑estar” para modelos, alegando que isso ajuda a evitar pedidos cruéis e ciclos tóxicos. A Microsoft, por seu lado, traça uma linha vermelha em tudo o que sugira vida interior. É expectável que esta tensão apareça na experiência do produto, nas políticas de conteúdo e no texto de marketing.
A regulação também avança. A Lei da IA da União Europeia exige transparência para sistemas que interagem com utilizadores e visa interfaces manipuladoras. No Reino Unido, foi criado um Instituto de Segurança da IA para avaliar modelos de fronteira, incluindo riscos de engano e influência indevida. Se a leitura de Suleyman ganhar força, a normalização poderá empurrar as empresas a retirar truques de personagem que esbatem a fronteira entre ferramenta e pessoa.
Seguir os incentivos
Há, aqui, um vento contrário comercial. Personagens fofas e a sensação de companhia “sempre disponível” aumentam métricas de retenção e receitas. Um assistente mais seguro e mais honesto pode parecer mais frio e reduzir a capacidade de prender utilizadores. É um compromisso que a liderança tem de assumir, e não delegar no marketing.
“A segurança por vezes significa escolher uma experiência aborrecida em vez de um teatro encantador - e explicar aos clientes porque é que essa escolha existe.”
O que as pessoas realmente querem de assistentes
Os utilizadores raramente pedem metafísica. Procuram rigor, rapidez, privacidade e limites claros. Querem ajuda a redigir, pesquisar, planear, aprender e resolver pequenos problemas. Não precisam que uma máquina finja que se importa. Um assistente bem concebido pode reconhecer emoção sem a imitar: “Sou uma ferramenta e não consigo sentir, mas aqui estão recursos que podem ajudar.”
Um design centrado no humano também pode responder à solidão sem engano: conversas com duração limitada, sugestões que incentivem contacto fora do ecrã, e lembretes regulares para envolver amigos, família ou profissionais em temas sensíveis. Os mesmos sistemas que detectam conteúdo nocivo podem identificar padrões de dependência e sugerir hábitos mais saudáveis.
Contexto útil e próximos passos
Dois conceitos ajudam a interpretar este momento. O efeito ELIZA descreve a nossa tendência para atribuir compreensão onde ela não existe. O antropomorfismo é o hábito mais amplo de dar “mente” ao que não tem mente. Ambos se intensificam quando o software imita a nossa linguagem e o nosso ritmo. As protecções devem contrariar estes efeitos na interface, e não apenas nas margens.
Os investigadores podem realizar testes simples e publicáveis que contam para a segurança: medir com que frequência os utilizadores atribuem sentimentos a diferentes variantes de interface; comparar linguagem na primeira pessoa com formulações neutras; acompanhar pontuações de apego ao longo do tempo; verificar se lembretes regulares de realidade reduzem confiança excessiva sem prejudicar o desempenho em tarefas. Este tipo de estudos produz orientação de design mais rapidamente do que debates filosóficos sobre qualia.
Convém não perder de vista os benefícios. Ferramentas conversacionais podem orientar a escrita, melhorar a acessibilidade, apoiar utilizadores neurodivergentes e reduzir trabalho administrativo repetitivo. O risco está na exposição cumulativa: conversas diárias que, lentamente, passam de ajuda a dependência. Um produto cuidadoso consegue entregar valor sem encenar o teatro de uma alma.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário