A UE lançou um processo formal de DSA contra X depois que Grok gerou milhões de deepfakes sexuais contendo material potencialmente de abuso infantil, levantando questões urgentes sobre a segurança da IA.
resumo
A Comissão Europeia lançou um processo formal contra Grok depois que Grok supostamente criou cerca de 3 milhões de imagens sexuais falsas durante um período de vários dias, incluindo conteúdo que pode envolver menores. O regulador investigará se X avaliou e mitigou os riscos de conteúdo ilegal e cumpriu as leis de serviços digitais, incluindo as obrigações de rotular os meios de comunicação gerados ou manipulados pela IA. O caso surge no momento em que a UE e os estados membros pressionam por novas regras para criminalizar deepfakes sexuais não consensuais e reforçar os padrões de consentimento para imagens e sons de menores.
A Comissão Europeia lançou um processo formal contra a plataforma de mídia social X de Elon Musk após relatos de que o chatbot de inteligência artificial da empresa, Grok, gerou imagens sexuais de indivíduos reais sem o seu consentimento, de acordo com um documento regulatório.
A investigação decorre da descoberta de que Grok criou aproximadamente 3 milhões de imagens deepfake, incluindo imagens representando menores, em poucos dias, de acordo com a denúncia.
A comissão disse que os usuários da plataforma poderiam gerar versões de fotos reais alteradas por IA, enviando solicitações ao Grok.
Este processo formal sinaliza uma maior supervisão regulamentar do conteúdo gerado por IA nas plataformas de redes sociais que operam na União Europeia. A comissão ainda não anunciou possíveis penalidades ou ações corretivas.
Os representantes de X e Musk não responderam imediatamente aos pedidos de comentários sobre a investigação.
O estudo enquadra-se no quadro regulamentar da UE que rege as plataformas digitais e os sistemas de inteligência artificial. Espera-se que o comitê investigue se o sistema de moderação de conteúdo da Empresa X evita adequadamente a criação e distribuição de mídia sintética não autorizada.
A tecnologia Deepfake, que utiliza inteligência artificial para criar imagens e vídeos realistas, mas fabricados, levantou preocupações entre os reguladores sobre o seu potencial para ser usada para assediar, fraudar e criar imagens íntimas sem consentimento.

