-
10:30
-
10:13
-
09:45
-
09:21
-
09:00
-
08:28
-
08:15
-
16:30
-
15:45
-
15:00
-
14:21
-
13:51
-
13:39
-
13:00
-
12:15
-
11:30
-
11:21
Siga-nos no Facebook
Vulnerabilidade crítica no ChatGPT ameaça dados do Gmail
Investigadores de cibersegurança descobriram uma vulnerabilidade crítica na ferramenta de pesquisa profunda do modelo de IA ChatGPT, que pode ter permitido aos hackers aceder a dados confidenciais do Gmail dos utilizadores.
O ChatGPT é um dos modelos de IA mais utilizados no mundo, e muitos utilizadores estão ligados às suas contas do Gmail, especialmente os subscritores que utilizam a ferramenta de pesquisa profunda para realizar análises avançadas de grandes quantidades de informação.
De acordo com a Radware, empresa líder em cibersegurança, a vulnerabilidade pode ter permitido aos hackers roubar dados confidenciais de contas pessoais e empresariais do Gmail sem o conhecimento dos utilizadores. Pascal Genis, diretor da Radware, explicou que o perigo da vulnerabilidade reside na sua capacidade de ser explorada secretamente, permitindo aos hackers extrair informações vitais sem que surja qualquer sinal de alerta nas contas.
No entanto, a empresa confirmou que a vulnerabilidade não tinha sido explorada antes do lançamento do patch e que a OpenAI corrigiu a falha imediatamente após a descoberta. Este incidente realça a importância de reforçar as medidas de segurança nas ferramentas de IA, especialmente as associadas a contas de e-mail confidenciais, de acordo com a Bloomberg.
A vulnerabilidade tem como alvo a funcionalidade de Pesquisa Profunda do ChatGPT, que pode aceder a contas do Gmail com a permissão do utilizador para fornecer respostas precisas e rápidas a perguntas complexas. Durante os testes, os investigadores conseguiram enviar instruções ocultas para a ferramenta, instruindo-a para verificar as caixas de entrada em busca de dados pessoais, como nomes e moradas, e depois enviar esses dados para um endereço web externo. Este cenário demonstra até que ponto a informação sensível pode ser comprometida se a vulnerabilidade for explorada.
Este incidente ocorre numa altura em que há uma crescente dependência de modelos de IA na vida quotidiana e profissional, incluindo a automatização empresarial, a análise de dados e a gestão de e-mail. A experiência global indica que qualquer falha nestes sistemas pode representar riscos significativos para a privacidade do utilizador e para a proteção de dados confidenciais, reforçando a necessidade de revisão regular e atualização contínua dos sistemas de segurança.
Em última análise, esta vulnerabilidade sublinha a necessidade de sensibilizar os utilizadores para os riscos de segurança da IA, ativar recursos de proteção nas suas contas do Gmail e evitar a partilha de dados confidenciais com quaisquer ferramentas que possam ter permissões amplas. Destaca também a responsabilidade dos programadores em garantir a segurança dos dados dos utilizadores, especialmente devido à crescente dependência da IA para gerir informações pessoais e profissionais.