- 16:20Netflix escolhe Marrocos para filmar a versão francesa de “Love Is Blind”
- 15:30Marrocos vai acolher pela primeira vez o Conselho de Administração do IIO
- 14:00WhatsApp lança funcionalidade de transcrição de texto para mensagens de voz
- 12:35A indústria dos videojogos: crescimento explosivo esperado até 2027
- 12:10Microsoft anuncia nova aplicação de tradução para empresas
- 11:32Alphabet enfrenta pressão regulatória que faz com que perca 100 mil milhões de dólares em valor de mercado
- 11:00O risco das “divisões sociais incessantes”: o debate sobre a evolução da consciência artificial
- 10:30OMS mantém alerta máximo sobre epidemia de Mpox face a propagação preocupante
- 10:00Equador expulsa definitivamente representante da Polisario
Siga-nos no Facebook
Aviso: O ChatGPT-4o pode ser utilizado para fraude e roubo de fundos
Um estudo recente mostra que a API do assistente de voz ChatGPT-4o da OpenAI pode ser explorada por cibercriminosos para realizar fraudes financeiras, com taxas de sucesso baixas a moderadas.
O ChatGPT-4o é o mais recente modelo de IA da OpenAI, capaz de ingerir e gerar texto, sons e imagens. Para limitar o abuso, a OpenAI integrou vários mecanismos de segurança destinados a detetar conteúdos maliciosos e a prevenir repetições não autorizadas.
À medida que os deepfakes e as ferramentas de conversão de texto em voz se tornam mais difundidos, o problema da fraude de voz é agravado, com perdas estimadas em milhões.
Investigadores da Universidade de Illinois publicaram um artigo de investigação que mostra que as ferramentas técnicas modernas disponíveis ao público carecem de mecanismos de proteção suficientes contra o uso indevido em operações fraudulentas.
O estudo analisou vários tipos de fraude, incluindo transferências bancárias, roubo de cartões-presente, transferências de moeda digital e roubo de redes sociais e dados de contas de e-mail.
Estes esquemas utilizam scripts baseados em voz no ChatGPT-4o para navegar em páginas web, introduzir dados, gerir códigos de autenticação de dois fatores e seguir instruções de fraude. O modelo GPT-4o recusa-se frequentemente a lidar com dados sensíveis, mas os investigadores conseguiram ultrapassar algumas das limitações utilizando técnicas simples para fazer com que o modelo respondesse.
Para comprovar a eficácia da fraude, os investigadores simularam os papéis das vítimas em experiências e utilizaram sites como o “Bank of America” para verificar o sucesso das transferências bancárias, mas não mediram a extensão da capacidade de persuasão do modelo.
As experiências mostraram que as taxas de sucesso variaram entre 20% e 60%, com cada tentativa a exigir até 26 passos consecutivos no browser e a demorar cerca de três minutos em casos complexos. A taxa de sucesso do roubo de dados de contas do Gmail foi de 60%, enquanto a taxa de sucesso das transferências de moeda digital e do roubo de dados do Instagram foi de 40%.
Em termos de custos, o custo da implementação da fraude é baixo; Cada transação bem-sucedida custa cerca de 75 cêntimos de dólar, enquanto as transferências bancárias mais complexas custam apenas cerca de 2,51 dólares.
Num comentário da OpenAI publicado pelo site técnico BleepingComputer, indicou que o seu mais recente modelo “o1-preview” possui elevadas capacidades de resistência a tentativas de fraude, melhorando a segurança em comparação com os modelos anteriores, e alcança também uma elevada classificação nos testes de segurança de 93% , em comparação com 71% nos modelos anteriores.
A OpenAI explicou que a investigação académica, como a apresentada pela Universidade de Illinois, está a contribuir para melhorar o ChatGPT para lidar com utilizações maliciosas. A empresa confirmou o seu compromisso em reforçar os mecanismos de segurança nos seus próximos modelos, e também restringe a geração de vozes em GPT-4o a um conjunto de vozes autorizadas para evitar a falsificação de voz.