Início / Versão completa
Geral

Estudo revela que ChatGPT pode ser usado para fornecer conselhos sobre atividades criminosas

Por Cris Menezes 25/10/2024 10:30
Publicidade

Uma recente pesquisa realizada pela startup norueguesa Strise revelou que o ChatGPT pode ser induzido a fornecer conselhos sobre atividades criminosas, incluindo lavagem de dinheiro e evasão de sanções. Os experimentos levantam preocupações sobre a eficácia das medidas de segurança implementadas pelo chatbot da OpenAI para evitar o uso indevido.

Publicidade

Em um dos testes, a Strise solicitou ao ChatGPT dicas sobre como lavar dinheiro em outros países, e em outra situação, recebeu orientações sobre como contornar sanções impostas pelos Estados Unidos, como aquelas dirigidas à Rússia. O software da Strise é utilizado por instituições financeiras para combater a lavagem de dinheiro e identificar indivíduos sancionados, sendo clientes como o banco Nordea e a PwC Noruega.

Marit Rødevand, cofundadora da Strise, alertou que potenciais infratores agora têm acesso facilitado a informações que podem auxiliar no planejamento de atividades ilegais de forma mais rápida e eficiente. Ela comparou a situação a ter “um consultor financeiro corrupto” ao alcance da mão.

Um porta-voz da OpenAI comentou que a empresa está constantemente aprimorando o ChatGPT para prevenir tentativas de enganá-lo, sem comprometer sua utilidade. A OpenAI afirmou que sua versão mais recente é a mais segura até agora, com melhorias significativas na resistência a conteúdos inseguros.

Publicidade

Apesar de a internet já ter fornecido informações sobre como cometer crimes, os chatbots de IA generativa aceleraram o processo de encontrar e consolidar essas informações. Um relatório da Europol, publicado em março de 2023, indicou que ferramentas como o ChatGPT tornam mais fácil para indivíduos mal-intencionados entenderem e realizarem diversos tipos de crime.

Os chatbots são treinados em grandes volumes de dados online, produzindo respostas detalhadas, mas também podem reproduzir preconceitos e desinformação. A OpenAI implementou salvaguardas para evitar abusos, e um experimento da CNN demonstrou que, ao ser questionado sobre como evadir sanções, o ChatGPT se negou a ajudar.

No entanto, a Europol alertou que não faltam soluções alternativas para contornar as barreiras de segurança dos modelos de IA, o que pode ser explorado por usuários mal-intencionados.

Recomendado
Publicidade
Ver matéria completa no site
Página AMP gerada pelo Tupa AMP Pro com componentes válidos para AMP. Scripts comuns do tema são bloqueados nesta versão para reduzir erros de validação.