- 12:00Elon Musk aumenta incentivo financeiro à petição de apoio aos direitos constitucionais
- 11:40Chefe das Nações Unidas destaca a iniciativa de Marrocos no Saara para a integração económica do Sahel
- 11:20Trump afirma que o fim de Sinwar abre caminho à paz em Gaza e planeia diálogo com Netanyahu
- 11:01Marrocos reforça influência marítima com a vice-presidência do Conselho da Organização Marítima Internacional
- 10:35Stellantis muda de rumo: o boom automóvel de Marrocos levanta questões para a indústria transformadora europeia
- 10:05X Social Media vai partilhar dados de utilizadores para formação em inteligência artificial: uma nova era de monetização de dados
- 09:40Reorganização diplomática de Marrocos: Rei Mohammed VI nomeia novos embaixadores em movimento estratégico
- 09:00Recluso desistiu de permanecer em Marrocos e quer cumprir resto da pena em território nacional.
- 15:30Fortalecer os Laços Marítimos: Marrocos e a Organização Marítima Internacional
Siga-nos no Facebook
X Social Media vai partilhar dados de utilizadores para formação em inteligência artificial: uma nova era de monetização de dados
A partir de 15 de novembro, a X, a plataforma de redes sociais anteriormente conhecida como Twitter, permitirá que as empresas externas acedam aos dados dos utilizadores, incluindo publicações, gostos, favoritos e republicações, com a finalidade de treinar modelos de inteligência artificial. Esta mudança significativa de política foi detalhada num aviso de privacidade atualizado divulgado pela empresa.
A nova política refere que os utilizadores serão automaticamente aceites, a menos que optem por não participar. “Dependendo das suas definições, ou se decidir partilhar os seus dados, poderemos partilhar ou divulgar as suas informações com terceiros”, explica a política. Esclarece ainda que os destinatários podem utilizar estas informações para os seus próprios fins, o que pode incluir a formação de modelos generativos de inteligência artificial.
À medida que o valor dos dados dos utilizadores continua a aumentar, as plataformas de redes sociais reconhecem-nos cada vez mais como um ativo lucrativo. Ritesh Kotak, analista de cibersegurança e tecnologia sediado em Toronto, comentou o panorama competitivo: "Esta é a mais recente corrida ao armamento. Todos estão a trabalhar para a supremacia da inteligência artificial. Quanto mais conjuntos de dados tiver, mais preciso será o o seu modelo."
Esta alteração segue-se à decisão anterior de X de permitir que o seu próprio chatbot Grok utilizasse dados de utilizadores para formação, uma medida que atraiu o escrutínio dos reguladores europeus e resultou num acordo para interromper esta recolha de dados naquela região.
Outras plataformas como o LinkedIn e o Meta também adaptaram as suas políticas para aproveitar os dados dos utilizadores para o desenvolvimento de inteligência artificial. Ajay Shrestha, professor de ciência da computação na Vancouver Island University, observou que estas empresas estão a explorar novos fluxos de receitas, no meio do declínio das receitas publicitárias. Salientou que os métodos tradicionais de monetização estão a tornar-se menos eficazes.
As publicações nas redes sociais são particularmente apelativas para as empresas de inteligência artificial devido ao seu conteúdo emocional e aos insights que proporcionam sobre o comportamento humano. Kotak enfatizou que, embora estas publicações possam carecer de qualidade técnica, oferecem um material rico para a análise de sentimento.
Atualmente, os utilizadores do X não têm a opção de cancelar esta nova política de partilha de dados antes da data da sua implementação. Kotak alertou que a desativação após o início da formação pode não remover efetivamente os dados dos utilizadores do processo de aprendizagem do modelo de inteligência artificial. “Se não está a pagar pelo produto, é o produto”, afirmou sem rodeios.
Para aqueles que estão preocupados com a sua privacidade e como os seus dados podem ser utilizados no treino de inteligência artificial, navegar nas definições do X será crucial. Os utilizadores podem normalmente cancelar ajustando as suas preferências nas definições de privacidade e segurança; no entanto, Kotak advertiu que, uma vez integrados os dados num modelo de inteligência artificial, reverter a sua influência é quase impossível.