- 13:55Trump lança iniciativa de 500 mil milhões de dólares para desenvolvimento de inteligência artificial
- 12:18Trump está aberto a Elon Musk ou cofundador da Oracle comprarem o TikTok
- 11:24Projectos de energia limpa em África... Marrocos na vanguarda da transição verde.
- 11:00Os preços do ouro sobem à medida que aumentam as preocupações do mercado sobre as políticas comerciais de Trump
- 10:15Marrocos apresenta estratégia antiterrorista no Conselho de Segurança das Nações Unidas
- 09:38Novo Secretário de Estado dos EUA, Marco Rubio, planeia ligação telefónica com Nasser Bourita
- 09:11Marrocos estabelece uma parceria com a Organização para a Cooperação e Desenvolvimento Económico para promover a avaliação da política social
- 08:20Fortalecimento das relações fraternais entre o Bahrein e Marrocos
- 07:40Marrocos: Um pilar da cooperação africana e do desenvolvimento regional
Siga-nos no Facebook
Aviso: O ChatGPT-4o pode ser utilizado para fraude e roubo de fundos
Um estudo recente mostra que a API do assistente de voz ChatGPT-4o da OpenAI pode ser explorada por cibercriminosos para realizar fraudes financeiras, com taxas de sucesso baixas a moderadas.
O ChatGPT-4o é o mais recente modelo de IA da OpenAI, capaz de ingerir e gerar texto, sons e imagens. Para limitar o abuso, a OpenAI integrou vários mecanismos de segurança destinados a detetar conteúdos maliciosos e a prevenir repetições não autorizadas.
À medida que os deepfakes e as ferramentas de conversão de texto em voz se tornam mais difundidos, o problema da fraude de voz é agravado, com perdas estimadas em milhões.
Investigadores da Universidade de Illinois publicaram um artigo de investigação que mostra que as ferramentas técnicas modernas disponíveis ao público carecem de mecanismos de proteção suficientes contra o uso indevido em operações fraudulentas.
O estudo analisou vários tipos de fraude, incluindo transferências bancárias, roubo de cartões-presente, transferências de moeda digital e roubo de redes sociais e dados de contas de e-mail.
Estes esquemas utilizam scripts baseados em voz no ChatGPT-4o para navegar em páginas web, introduzir dados, gerir códigos de autenticação de dois fatores e seguir instruções de fraude. O modelo GPT-4o recusa-se frequentemente a lidar com dados sensíveis, mas os investigadores conseguiram ultrapassar algumas das limitações utilizando técnicas simples para fazer com que o modelo respondesse.
Para comprovar a eficácia da fraude, os investigadores simularam os papéis das vítimas em experiências e utilizaram sites como o “Bank of America” para verificar o sucesso das transferências bancárias, mas não mediram a extensão da capacidade de persuasão do modelo.
As experiências mostraram que as taxas de sucesso variaram entre 20% e 60%, com cada tentativa a exigir até 26 passos consecutivos no browser e a demorar cerca de três minutos em casos complexos. A taxa de sucesso do roubo de dados de contas do Gmail foi de 60%, enquanto a taxa de sucesso das transferências de moeda digital e do roubo de dados do Instagram foi de 40%.
Em termos de custos, o custo da implementação da fraude é baixo; Cada transação bem-sucedida custa cerca de 75 cêntimos de dólar, enquanto as transferências bancárias mais complexas custam apenas cerca de 2,51 dólares.
Num comentário da OpenAI publicado pelo site técnico BleepingComputer, indicou que o seu mais recente modelo “o1-preview” possui elevadas capacidades de resistência a tentativas de fraude, melhorando a segurança em comparação com os modelos anteriores, e alcança também uma elevada classificação nos testes de segurança de 93% , em comparação com 71% nos modelos anteriores.
A OpenAI explicou que a investigação académica, como a apresentada pela Universidade de Illinois, está a contribuir para melhorar o ChatGPT para lidar com utilizações maliciosas. A empresa confirmou o seu compromisso em reforçar os mecanismos de segurança nos seus próximos modelos, e também restringe a geração de vozes em GPT-4o a um conjunto de vozes autorizadas para evitar a falsificação de voz.
Comentários (0)