Alle Artikel zu diesem Thema auf einen Blick.
Elon Musks KI-Tool Grok darf in bestimmten Ländern keine Bilder von echten Personen mehr bearbeiten, um sie in freizügiger Kleidung darzustellen.
Kaliforniens Generalstaatsanwalt untersucht die Verbreitung von sexualisierten KI-Deepfakes, die von Grok generiert werden.
Länder wie Malaysia und Indonesien haben Grok AI verboten.
Die britische Medienaufsichtsbehörde Ofcom untersucht mögliche Verstöße gegen das britische Gesetz durch X in Bezug auf die Erstellung sexualisierter Bilder.
X hat angekündigt, dass nur bezahlte Nutzer weiterhin Bilder mit Grok bearbeiten können.
Es soll eine Geoblockierung eingeführt werden, um die Erstellung von Bildern in freizügiger Kleidung in bestimmten Gerichtsbarkeiten zu verhindern.
"Internationale Restriktionen und Untersuchungen könnten die Verwendbarkeit von Grok weiter einschränken. Der Druck, Sicherheitsvorkehrungen zu verbessern und gesetzliche Bestimmungen einzuhalten, wächst weltweit."