Uma recente pesquisa realizada pela startup norueguesa Strise revelou que o ChatGPT pode ser induzido a fornecer conselhos sobre atividades criminosas, incluindo lavagem de dinheiro e evasão de sanções. Os experimentos levantam preocupações sobre a eficácia das medidas de segurança implementadas pelo chatbot da OpenAI para evitar o uso indevido.
Em um dos testes, a Strise solicitou ao ChatGPT dicas sobre como lavar dinheiro em outros países, e em outra situação, recebeu orientações sobre como contornar sanções impostas pelos Estados Unidos, como aquelas dirigidas à Rússia. O software da Strise é utilizado por instituições financeiras para combater a lavagem de dinheiro e identificar indivíduos sancionados, sendo clientes como o banco Nordea e a PwC Noruega.
Marit Rødevand, cofundadora da Strise, alertou que potenciais infratores agora têm acesso facilitado a informações que podem auxiliar no planejamento de atividades ilegais de forma mais rápida e eficiente. Ela comparou a situação a ter “um consultor financeiro corrupto” ao alcance da mão.
Um porta-voz da OpenAI comentou que a empresa está constantemente aprimorando o ChatGPT para prevenir tentativas de enganá-lo, sem comprometer sua utilidade. A OpenAI afirmou que sua versão mais recente é a mais segura até agora, com melhorias significativas na resistência a conteúdos inseguros.
Apesar de a internet já ter fornecido informações sobre como cometer crimes, os chatbots de IA generativa aceleraram o processo de encontrar e consolidar essas informações. Um relatório da Europol, publicado em março de 2023, indicou que ferramentas como o ChatGPT tornam mais fácil para indivíduos mal-intencionados entenderem e realizarem diversos tipos de crime.
Os chatbots são treinados em grandes volumes de dados online, produzindo respostas detalhadas, mas também podem reproduzir preconceitos e desinformação. A OpenAI implementou salvaguardas para evitar abusos, e um experimento da CNN demonstrou que, ao ser questionado sobre como evadir sanções, o ChatGPT se negou a ajudar.
No entanto, a Europol alertou que não faltam soluções alternativas para contornar as barreiras de segurança dos modelos de IA, o que pode ser explorado por usuários mal-intencionados.