25 outubro 2024

Estudo revela que ChatGPT pode ser usado para fornecer conselhos sobre atividades criminosas

spot_imgspot_imgspot_imgspot_img

Uma recente pesquisa realizada pela startup norueguesa Strise revelou que o ChatGPT pode ser induzido a fornecer conselhos sobre atividades criminosas, incluindo lavagem de dinheiro e evasão de sanções. Os experimentos levantam preocupações sobre a eficácia das medidas de segurança implementadas pelo chatbot da OpenAI para evitar o uso indevido.

Em um dos testes, a Strise solicitou ao ChatGPT dicas sobre como lavar dinheiro em outros países, e em outra situação, recebeu orientações sobre como contornar sanções impostas pelos Estados Unidos, como aquelas dirigidas à Rússia. O software da Strise é utilizado por instituições financeiras para combater a lavagem de dinheiro e identificar indivíduos sancionados, sendo clientes como o banco Nordea e a PwC Noruega.

Marit Rødevand, cofundadora da Strise, alertou que potenciais infratores agora têm acesso facilitado a informações que podem auxiliar no planejamento de atividades ilegais de forma mais rápida e eficiente. Ela comparou a situação a ter “um consultor financeiro corrupto” ao alcance da mão.

Um porta-voz da OpenAI comentou que a empresa está constantemente aprimorando o ChatGPT para prevenir tentativas de enganá-lo, sem comprometer sua utilidade. A OpenAI afirmou que sua versão mais recente é a mais segura até agora, com melhorias significativas na resistência a conteúdos inseguros.

Apesar de a internet já ter fornecido informações sobre como cometer crimes, os chatbots de IA generativa aceleraram o processo de encontrar e consolidar essas informações. Um relatório da Europol, publicado em março de 2023, indicou que ferramentas como o ChatGPT tornam mais fácil para indivíduos mal-intencionados entenderem e realizarem diversos tipos de crime.

Os chatbots são treinados em grandes volumes de dados online, produzindo respostas detalhadas, mas também podem reproduzir preconceitos e desinformação. A OpenAI implementou salvaguardas para evitar abusos, e um experimento da CNN demonstrou que, ao ser questionado sobre como evadir sanções, o ChatGPT se negou a ajudar.

No entanto, a Europol alertou que não faltam soluções alternativas para contornar as barreiras de segurança dos modelos de IA, o que pode ser explorado por usuários mal-intencionados.

Veja Mais