DSA-Update mit Svea Windwehr: „Der Digital Services Act ist eine riesige Chance“

Eine Hand hält ein Smartphone umgeben von Icons verschiedener Online-Plattformen
DSA-Update mit Svea Windwehr: „Der Digital Services Act ist eine riesige Chance“
Autorin: Julia Esdar 20.08.2024

Vor einem halben Jahr ist der Digital Services Act (DSA) voll­umfänglich in Kraft getreten. Konnten seitdem die Rechte der Nutzer*innen auf den großen digitalen Plattformen gestärkt werden? Gibt es noch ungenutzte Chancen? AufRuhr hat mit der der Digital­expertin Svea Windwehr vom Center for User Rights gesprochen.

AufRuhr: Der DSA legt einheitliche Regeln zur Moderation von Inhalten auf Online-Plattformen in der EU fest. Was hat sich seit Inkraft­treten verändert – und: Was habe ich als Nutzerin davon?

Svea Windwehr: Für die größten Plattformen gilt der DSA sogar schon seit einem Jahr. An einigen Stellen können das auch die Nutzer*innen bemerken – zum Beispiel können sie auf Social Media nun zwischen einem von der Plattform kuratierten und einem chronologisch angeordneten Feed wählen. Viele Verpflichtungen des DSA wirken aber eher im Verborgenen, und nicht alles davon ist für Nutzer*innen leicht überprüfbar. Inwieweit Platt­formen besseren Zugang zu Daten für die Forschung gewähren, ist beispiels­weise etwas, das den meisten im täglichen Leben nicht auffällt.

Obwohl der DSA bereits seit Monaten gültig ist, fand die deutsche Umsetzung mit der Ernennung der Bundes­netz­agentur als deutsche Aufsichts­behörde (Digital Services Coordinator, DSC) erst einige Monate später statt. Wie kam es dazu?

Es gab eine lange, kritische Diskussion über die Gestaltung der Aufsicht, was viel mit dem Föderalismus in Deutschland zu tun hat. Die Regulierung von Plattformen war auf deutscher Seite schon vor dem DSA komplex: Bereits zuvor waren viele verschiedene Behörden für die Platt­formen relevant und dienten als Ansprech­partner, wie die Landes­medien­anstalten, das Bundes­amt für Justiz und den Bundes­beauftragten für Daten­schutz und Informations­freiheit (BfDI). All das musste mit dem DSA in Einklang gebracht werden.

Wie ist der Stand in anderen EU-Ländern?

Noch nicht alle Mitglieds­staaten haben den DSA umgesetzt – manche sind also „noch“ langsamer als Deutschland. Gerade die großen Mitglieds­länder waren aber insgesamt recht früh dran. Häufig wurde einfach die bereits bestehende Medien­aufsichts­behörde zum DSC ernannt, was wir durch die Aufgaben­verteilung zwischen Bund und Ländern in Deutschland ja gar nicht kennen.

Svea Windwehr
© Bernhard Leitner

Svea Windwehr leitet das Center for User Rights bei der Gesellschaft für Freiheitsrechte. Zuvor war sie Teil des Public-Policy-Teams von Google Deutschland und hat dort Themen rund um das Netz­werk­durch­setzungs­gesetz (NetzDG), den Digital Services Act, den Kinder- und Jugend­schutz und die Regulierung von Künstlicher Intelligenz (KI) betreut. Als Stipendiatin des 11. Jahrgangs des Mercator Kollegs für inter­nationale Aufgaben war Windwehr bei der Electronic Frontier Foundation sowie beim Bundes­ministerium für Arbeit und Soziales tätig.

Welche Rolle spielt die Zivilgesellschaft Ihrer Ansicht nach bei Umsetzung und Aufsicht des Digital Services Act?

Ich würde sagen, eine unterstützende und eine kritische. Auf der einen Seite ist in der Zivil­gesellschaft viel Expertise vorhanden, gerade was die Moderation von Inhalten oder die Wahrung der Grundrechte von Nutzer*innen angeht. Es gibt viele Personen und Organisationen, die gute Einblicke darin haben, was auf den Plattformen passiert – und wo Grundrechte unter Druck geraten.

Auf der anderen Seite finde ich es wichtig, dass die Zivilgesellschaft die Durch­setzung kritisch begleitet, und sowohl die nationalen Aufsichts­behörden als auch die Europäische Kommission zur Verantwortung zieht, wenn nötig. Was ich super finde: In Deutschland wird die Zivil­gesellschaft durch den Beirat der nationalen Aufsichts­behörde aktiv eingebunden und repräsentiert. Er setzt sich aus Vertreter*innen von Zivil­gesellschaft, Wissenschaft und Wirtschaft zusammen und war keine Vorgabe des DSA, sondern ist eine deutsche Innovation. Ich halte es für sinnvoll, etwas ähnliches beim Zusammen­schluss der nationalen Aufsichts­behörden bei der Europäischen Kommission anzusiedeln, weil sie die meisten der großen Platt­formen beaufsichtigt.

Wie sieht eine Online-Plattform aus, die Menschen dazu bringt, positive Inter­aktionen in den Vordergrund zu stellen?

Svea Windwehr

Die Moderation von Inhalten auf Online-Plattformen ist einer der Schwerpunkte des DSA.

Ist der DSA Ihrer Ansicht nach gelungen?

Der DSA schafft einen guten Ausgleich zwischen dem Schutz von Grund­rechten und der Notwendigkeit, skalierbare Regeln für Unternehmen zu haben. Ich bin froh, dass viele Grund­pfeiler des europäischen Rechts­rahmens erhalten geblieben sind, wie z.B. der Haftungs­ausschluss von Plattformen für nutzer­generierte Inhalte. Dieser vermeidet, dass Plattformen Anreize haben, mehr Inhalte zu löschen oder zu stark zu moderieren. In der Praxis wird sich jetzt zeigen, ob die Vorgaben des DSA ausreichen. Und: ob die Plattformen sich daranhalten.

Es gibt jedoch ein paar Stellen, an denen ich Miss­brauchs­potenziale sehe. Zum einen erhält die Europäische Kommission im Zuge des DSA viele neue Aufgaben und damit neue Macht; es gibt z.B. einen Krisen­mechanismus, bei dem die Kommission im Falle von Krisen sehr große Online-Plattformen und Such­maschinen dazu auffordern kann, bestimmte Maßnahmen zu ergreifen. Zudem sind Plattformen dazu verpflichtet, Nutzer*innendaten an Straf­verfolgungs­behörden weiterzuleiten, wenn eine Straftat vermutet wird, die das Leben oder die Sicherheit von Personen in Gefahr bringen kann. Dabei bleibt jedoch unklar, in welchen Fällen genau Daten übermittelt werden sollen.

Angenommen, Sie hätten die volle Macht über die Gestaltung von Plattformen, Such­maschinen, Markt­plätzen und Co.: Wie würde die Online-Welt aussehen, wenn Sie sie frei gestalten könnten?

Generell muss Plattformdesign stärker im Fokus stehen. In den vergangenen Jahren ging es viel darum, wie wir z.B. mit Desinformation und Hass umgehen. Jetzt ist für mich die nächste große Frage: Wie sieht eine Online-Plattform aus, die Menschen dazu bringt, positive Interaktionen in den Vorder­grund zu stellen? Ich würde Empfehlungs­systeme weniger stark auf Engagement optimieren. Aktuell geht es um möglichst viel Interaktion, das tut uns, glaube ich, nicht gut. Es gibt immer wieder alarmierende Hinweise auf den Zusammenhang zwischen Social Media und psychischer Gesundheit. Gleichzeitig ist ein fair gestaltetes Empfehlungs­system, das der Gesellschaft guttut, extrem schwierig zu definieren – welche Inhalte sind wertvoll? Welche nicht? Wollen wir kuratierte Vorschläge, und wenn ja von wem?

Das alles sind subjektive Fragen, die sich nur schwer allgemein­gültig beantworten lassen. Und ich würde den Daten­zugang für Forschende verbessern. Zwar hilft der DSA dabei, aber Forscher*innen kommen weiterhin nur schwer an Daten – bei Anfragen verweisen die Unternehmen oftmals auf Geschäfts­geheimnisse. Aber als Gesellschaft haben wir ein Recht darauf zu verstehen, was im Hinter­grund mit Nutzer*innen­daten passiert.

Was wünschen Sie sich von den Plattformen, von der deutschen Aufsichts­behörde und von der EU, um die Rechte von Nutzer*innen weiter zu stärken?

Der DSA ist eine riesige Chance, Plattformen sicherer zu gestalten. Von den Plattformen wünsche ich mir Offenheit, diese Chance zu verstehen – und sie ernst zu nehmen. Ich verstehe den Wunsch, die eigenen Dienste vor kritischen Nach­fragen schützen zu wollen. Aber auch die Plattformen brauchen Feedback: Zum Teil wissen sie selbst nicht, was bei ihrem Produkt falsch läuft. Wir müssen uns daran gewöhnen, dass die Durch­setzung des DSA und die Weiter­entwicklung von Nutzer*innen­rechten und best practices  ein interaktiver Prozess ist, in dem wir alle miteinander reden müssen. Und, dass ein einzelnes Gesetz nicht alles klärt.

Von der deutschen Aufsichts­behörde wünsche ich mir, dass sie ihre Offenheit und ihr Interesse am Austausch mit der Zivil­gesellschaft beibehält. Dazu wünsche ich mir Mut bei der Durchsetzung – auch, um neue Sachen auszuprobieren.

Ähnlich bei der Europäischen Kommission: Sie hat eine gigantische Aufgabe mit viel Verantwortung übernommen. Damit muss sie verantwortungs­bewusst umgehen. Auch hier ist ein stetiger Austausch mit der Zivil­gesellschaft zentral. Und zwar nicht nur, wenn es passt, sondern auch, wenn es unangenehm ist. Es sollte sich etablieren, dass Fehler gemacht werden können, der Austausch offen und vertrauensvoll ist, und dass Kritik geübt werden kann.


Center for User Rights

Das Center for User Rights wurde mit dem Ziel gegründet, den Digital Services Act durch­zu­setzen und Nutzer*innen­rechte unter dem DSA zu stärken. Neben der Durch­setzung von Nutzer*innen­rechten im Kontext von Inhalte­moderation fokussiert sich die Arbeit des Centers insbesondere auf den Zugang zu den Daten digitaler Plattformen für Forschende sowie auf die Gestaltung von Plattformen im Rahmen kollektiver Nutzer*innen­rechte. Mithilfe von Beschwerden, Klagen und Policy-Arbeit setzt sich das Center for User Rights dafür ein, dass Online-Plattformen transparenter werden und Grund­rechte wie die Meinungs-, Informations- und Wissenschafts­freiheit achten.

https://centerforuserrights.freiheitsrechte.org/

Was kann ich tun, wenn ich digitale Gewalt erlebe oder meine Rechte online eingeschränkt werden?  

Du kannst dich an Organisationen wie die Gesellschaft für Freiheitsrechte (GFF) wenden. Sie setzen sich für die Rechte von Nutzer*innen gegenüber Plattformen ein und können dich auch vor Gericht und gegenüber Behörden vertreten. Das geht auch anonym über das Kontaktformular des Center for User Rights.