Estudo da Virginia Tech: revelar um diagnóstico de autismo pode enviesar conselhos de LLM (GPT-4 e Claude)
Investigadores da Virginia Tech, nos Estados Unidos, analisaram de que forma a revelação, por parte do utilizador, de um diagnóstico de autismo altera os conselhos fornecidos por modelos de linguagem de grande escala (LLM), incluindo o GPT-4 e o Claude. A equipa concluiu que este tipo de “coming out” tende a desencadear recomendações estereotipadas que acabam por restringir a interacção social.
O trabalho foi apresentado em abril na conferência CHI (a 12.ª maior conferência na área da ciência da computação). De acordo com o estudo, a IA ajusta as respostas com base em estereótipos associados ao autismo. Por exemplo, em 70% dos casos, os modelos sugeriram evitar interacções sociais quando o utilizador acrescentou ao contexto pessoal que tinha um diagnóstico de autismo, face a 15% dos casos em que o diagnóstico não foi mencionado.
Metodologia e resultados: 6 LLM, 345,000 respostas e estereótipos sobre o autismo
Para testar o fenómeno, os investigadores avaliaram 6 modelos de linguagem de grande escala, gerando 345,000 respostas a milhares de cenários. Verificaram que o “conhecimento” do modelo sobre o autismo do utilizador frequentemente conduzia a recomendações ancoradas em estereótipos, como introversão, desconforto social ou falta de interesse em relações românticas. Num dos cenários, após a referência ao diagnóstico, o modelo aconselhou desistir de relações românticas em 70% dos casos, comparando com 50% quando esse contexto não era fornecido.
Além disso, a equipa realizou entrevistas com 11 utilizadores com autismo para compreender as reacções a este tipo de aconselhamento. Alguns participantes interpretaram as sugestões como apoio, enquanto outros as consideraram limitativas e estereotipadas. Esta divergência levou à formulação do “paradoxo da segurança e das oportunidades”: conselhos que aparentam ser protectores para um utilizador podem, para outro, traduzir-se numa limitação de opções.
O estudo sublinha a necessidade de sistemas de IA mais transparentes, que permitam aos utilizadores controlar de que forma a sua informação pessoal influencia as respostas. Os investigadores esperam que estes resultados ajudem os programadores a melhorar a personalização da IA sem reforçar estereótipos.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário