Das Internet eröffnet viele Chancen. Gleichzeitig sind Frauen online besonders häufig von sexualisierter Gewalt, Ausgrenzung oder Hassrede betroffen. Studien zeigen, dass 98 % aller Deepfakes im Internet mithilfe nicht einvernehmlich erstellter pornografischer Bilder generiert werden. Dies ist nur eine von zahlreichen Bedrohungen, mit denen Frauen im digitalen Raum täglich konfrontiert sind. Der Digital Services Act (DSA) setzt genau hier an. Die Verordnung der Europäischen Union schafft verbindliche Regeln für Online-Plattformen, um Nutzer:innen besser zu schützen und illegale Inhalte schneller zu entfernen. Das Ziel besteht darin, ein faires und sicheres Online-Umfeld für alle zu schaffen. Dies ist jedoch nur möglich, wenn gezielt Maßnahmen zur Bekämpfung geschlechtsspezifischer Gewalt getroffen werden.
Schnellere Reaktion auf Hass und Belästigung
Der DSA verpflichtet Plattformen, wirksame und einfach zugängliche Mechanismen zur Bekämpfung von illegalen Inhalten anzubieten. Hierzu gehört das Angebot niederschwelliger und einfacher Meldeverfahren, die in vielen Fällen bereits eine erste Hilfestellung ermöglicht.
Das bedeutet konkret, dass Anbieter Meldungen zu Inhalten sorgfältig prüfen und klar informieren müssen, warum Inhalte entfernt wurden oder nicht. Gleichzeitig muss die Möglichkeit gegeben werden, direkt beim Anbieter eine Beschwerde gegen diese Entscheidung einzubringen. Gerade in der Bekämpfung von Deepfakes sind diese Melde- und Beschwerdemöglichkeiten besonders wichtig.
Bei sexualisierten Deepfakes werden mithilfe künstlicher Intelligenz Bilder oder Videos erstellt, die reale Personen ohne ihr Einverständnis in pornografischen Situationen darstellen. Die Folgen können gravierend sein: Rufschädigung, psychischer Stress oder sogar berufliche Nachteile. Ein aktuelles Beispiel für die missbräuchliche Verwendung von künstlicher Intelligenz ist die Erstellung von erniedrigenden oder sexualisierten Inhalten durch die Grok-KI auf der Plattform X. Die Europäische Kommission hat im Jänner 2026 diesbezüglich ein Verfahren gegen den Anbieter von X eröffnet. Um konkret Hilfe anzubieten und Beweise für dieses Verfahren zu sichern, ruft die KommAustria Betroffene dazu auf, entsprechende Fälle auch über das Beschwerdeportal der RTR einzureichen.
Die Beschwerden werden an die Europäische Kommission weitergeleitet und dienen als Grundlage für die Beurteilung von Rechtsverletzungen und leisten einen wesentlichen Beitrag zur wirksamen Durchsetzung des DSA. Dieser verpflichtet sehr große Plattformen nämlich dazu, systemische Risiken ihrer Dienste zu analysieren. Hierzu gehören auch Risiken im Zusammenhang mit nachteiligen Auswirkungen auf die Ausübung der Grundrechte oder in Bezug auf geschlechtsspezifische Gewalt sowie den Schutz von Minderjährigen. Plattformen müssen Maßnahmen zur Minderung dieser Risiken entwickeln, wenn ihre Dienste zur Verbreitung solcher Inhalte beitragen und könnten sonst mit hohen Geldstrafen belegt werden.
Ein weiteres Instrument des DSA, von dem Betroffene geschlechterspezifischer Gewalt profitieren können, sind die vertrauenswürdigen Hinweisgeber, die „Trusted Flagger“. Dabei handelt es sich um Einrichtungen mit besonderer Expertise, deren Meldungen über potenziell rechtswidrige Inhalte von Plattformen bevorzugt behandelt werden müssen.
In Österreich ist die KommAustria als Koordinatorin für digitale Dienste dafür zuständig, Trusted Flagger zu zertifizieren. Eine Übersicht der bereits zertifizierten Trusted Flagger finden Sie auf unserer Schwerpunktseite. Im Bereich der geschlechterspezifischen Gewalt weist beispielsweise der Verein ZARA - Zivilcourage und Antirassismusarbeit umfassende Erfahrung auf.
Der Digital Services Act stärkt aber auch die Rechte von Nutzer:innen durch mehr Transparenz über Moderationsentscheidungen und bessere Informationen über Empfehlungsalgorithmen sowie Optionen, Inhalte ohne personalisierte Profiling-Empfehlungen zu nutzen. Diese Rechte sollen es Nutzer:innen erleichtern, ihre Interessen gegenüber Plattformen durchzusetzen und mehr Kontrolle über ihre Online-Erfahrung zu haben.
Da digitale Gewalt zwar von einzelnen Menschen ausgeht, jedoch durch Algorithmen und Plattformdesigns verstärkt werden kann, beispielsweise, wenn gefährdende Inhalte bevorzugt angezeigt werden, verpflichtet der DSA große Plattformen auch dazu, zu analysieren, ob ihre Systeme problematische Inhalte verstärken. Solche Dynamiken finden sich häufig in Online-Netzwerken, in denen antifeministische Inhalte verbreitet werden. Wenn Plattformen feststellen, dass ihre Systeme solche Inhalte begünstigen, müssen sie Maßnahmen ergreifen, um diese Risiken zu reduzieren.
Damit diese Regeln tatsächlich umgesetzt werden, sind Behörden erforderlich, die ihre Anwendung überwachen und als Ansprechpartner für Nutzer:innen, Organisationen und Plattformen fungieren. In Österreich übernimmt diese Aufgabe die KommAustria als Koordinatorin für digitale Dienste.
Sie überwacht nicht nur die Einhaltung dieser Plattformregeln, sondern nimmt auch Beschwerden von Nutzer:innen entgegen. Darüber hinaus arbeitet sie eng mit Behörden in anderen Mitgliedstaaten zusammen und fungiert als Schnittstelle zwischen Nutzer:innen, der Zivilgesellschaft und Plattformen. Ihr Ziel besteht darin, ein digitales Umfeld zu schaffen, in dem Regeln nicht nur auf dem Papier stehen, sondern tatsächlich Wirkung entfalten.
Digitale Gewalt betrifft nicht nur einzelne Betroffene, sondern hat auch gesellschaftliche Folgen, denn sie zielt häufig darauf ab, marginalisierte Gruppen im gesellschaftlichen Diskurs weiter auszugrenzen. Der Digital Services Act ist ein Schritt hin zu einem digitalen Raum, in dem Grundrechte besser geschützt werden und Plattformen mehr Verantwortung übernehmen. Ein Internet, in dem sich jede und jeder sicher fühlen, ihre oder seine Meinung äußern und ihre oder seine Chancen nutzen können, ist letztlich ein Gewinn für die gesamte Gesellschaft.
Kontakt Hilfestellen