-
10:24
-
09:31
-
08:28
-
17:00
-
16:42
-
15:55
-
15:24
-
14:14
-
13:36
-
12:25
-
11:30
-
11:11
-
10:44
Siga-nos no Facebook
'Alucinações' de IA sinalizadas por investigadores da área médica
A gigante tecnológica OpenAI promoveu a sua ferramenta de transcrição baseada em IA, Whisper, como quase alcançando “robustez e precisão a nível humano”.
No entanto, o Whisper tem uma desvantagem significativa: gera frequentemente textos falsos, por vezes frases inteiras, como relatado por entrevistas com mais de uma dúzia de engenheiros de software, programadores e investigadores académicos, segundo a AP.
Este fenómeno, referido na indústria como “alucinações”, pode incluir comentários raciais inadequados, linguagem violenta e tratamentos médicos fabricados.
Os especialistas alertam que estas imprecisões são preocupantes, especialmente porque o Whisper está a ser adotado em vários setores a nível mundial para tarefas como a tradução e transcrição de entrevistas, a geração de texto para tecnologias de consumo populares e a criação de legendas de vídeo.
Particularmente preocupante é a rápida adoção de ferramentas baseadas no Whisper por parte das instalações médicas para transcrever as consultas dos pacientes, apesar dos avisos da OpenAI contra a utilização da ferramenta em “domínios de alto risco”.