Modelos generativos, como o ChatGPT, sempre respondem perguntas com tom de autoridade sobre o assunto, mesmo que a resposta seja errada
O quanto você pode confiar em uma inteligência artificial? A resposta parece simples, mas não é. Os modelos generativos, como é chamada a tecnologia por trás do ChatGPT, são treinados para gerar conteúdo que pareça ter sido escrito por uma pessoa, e não para dar respostas 100% corretas. Por isso, são famosos por errarem com autoridade, ou seja, por emitir respostas incorretas de uma forma que elas pareçam, para um leitor desavisado, verdadeiras. E essa falha acontece com mais frequência exatamente nas perguntas que necessitam de mais profundidade e conhecimento, que são exatamente aquelas em que o usuário vai ter mais dificuldade de detectar um erro.
Segundo Thoran Rodrigues, CEO da BigDataCorp e especialista em inteligência artificial, é impossível utilizar de forma benéfica os modelos generativos sem antes entender como eles funcionam e, principalmente, saber suas limitações. “Utilizar essas tecnologias aceitando cegamente em todas as respostas retornadas é o prelúdio de um potencial desastre social na humanidade,” comenta o especialista.
Os modelos generativos não aprendem como as pessoas. Eles são capazes de analisar bilhões de textos, artigos, imagens, códigos de computador, fórmulas matemáticas e outros tipos de conteúdo, e imitar a forma de escrita deles, mas não existe pensamento por parte da máquina. Ela não está preocupada com o conteúdo ser ou não correto, apenas com a força da associação entre os conteúdos. Se a correlação é forte, o tom é de autoridade, independente do conteúdo ser ou não correto, e a forma como a resposta é escrita, por sua vez, passa para o usuário a percepção de que existe um embasamento por trás do que foi retornado.
Para o especialista é importante que essas limitações e problemas sejam deixados muito claros pelas empresas que estão construindo esses modelos. “A tendência natural das pessoas é antropomorfizar a tecnologia, ou seja, tratar a inteligência artificial como uma outra pessoa. E não podemos esperar que todas as pessoas do mundo entendam como esses algoritmos funcionam, e os riscos associados. É importante que os desenvolvedores deixem explícitas as limitações de suas ferramentas.”
Ainda para Thoran, uma inteligência artificial que fala com um tom de autoridade, combinada com o leitor médio – que é totalmente desavisado – é uma mistura extremamente perigosa. “Esses modelos aprendem com o conteúdo que consumiram, e também com as novas interações com os usuários. Se o usuário assume que a resposta está correta e não corrige a IA, ele reforça a associação, aumentando a propagação de informações falsas de maneira não intencional e até mesmo despercebida.”
Sobre a BigDataCorp
A BigDataCorp é a plataforma de dados da era digital. Líder na América Latina, opera um dos maiores processos de coleta e estruturação de dados do mundo, capturando informações públicas de mais de 1,5 bilhão de fontes globalmente. São mais de 100 petabytes de informação tratadas diariamente para atender empresas de todos os segmentos e portes. Para auxiliar nas mais diferentes demandas, os dados capturados dão origem a três diferentes produtos: o BigBoost, API de consulta de dados de pessoas, empresas e produtos; o BigID, um serviço completo de validação de identidade e prevenção à fraude; e o BigMarket, uma plataforma para estudos de mercado através de dados alternativos. A BigDataCorp é brasileira, foi fundada em 2013 e possui escritórios no Rio de Janeiro, onde está localizada sua sede, e em São Paulo.