OpenAI deixa de usar os seus sistemas para cibercrime
A OpenAI, conhecida por desenvolver soluções generativas de IA como o ChatGPT, anunciou que interrompeu recentemente várias campanhas maliciosas que exploravam os seus serviços para lançar ataques cibernéticos.
Num relatório, a OpenAI informou que até agora, em 2024, interrompeu mais de 20 campanhas fraudulentas em todo o mundo, e estas campanhas eram variadas em natureza, tamanho e objectivos.
Alguns burlões utilizaram os produtos da empresa para depurar malware, enquanto noutros casos foram utilizados para criar conteúdo falso, como artigos, biografias falsas para contas de redes sociais e fotografias de perfil falsas.
Nos seus esforços para encerrar estas operações, a OpenAI observou que as ameaças não fizeram qualquer progresso significativo.
“Os atores maliciosos ainda estão a explorar as capacidades dos nossos modelos, mas não vimos qualquer evidência de que tenham feito progressos significativos na sua capacidade de criar novos malwares”, segundo a empresa.
De referir que 2024 é um ano eleitoral, não só nos Estados Unidos, mas também noutras partes do mundo, e a OpenAI tem observado a exploração do ChatGPT por diferentes partidos que procuram influenciar as campanhas eleitorais.
Entre estes partidos está um grupo conhecido como “Zero Zeno”, uma empresa israelita que publicou comentários nas redes sociais sobre as eleições indianas, uma campanha que a OpenAI encerrou em menos de 24 horas. Este grupo também atuou ativamente na influência de questões relacionadas com as eleições na Índia. guerra em Gaza e na Ucrânia.
A empresa acrescentou que suspendeu outra campanha em Junho deste ano, antes das eleições para o Parlamento Europeu, e que a campanha também incluiu comentários sobre as eleições em França e outras questões políticas em Itália, Polónia, na Alemanha e nos Estados Unidos.
Nenhuma destas campanhas teve muito sucesso e foram completamente encerradas depois de a OpenAI as ter alegadamente banido.