Der Beitrag ordnet einen frühen Fall zur Löschung eines Facebook-Kommentars als Hassrede ein. Im Kern geht es um das Verhältnis zwischen Plattformregeln, vertraglicher Bindung und Meinungsfreiheit nach Art. 5 Abs. 1 GG. Für die fachliche Vertiefung plattformbezogener Löschungen, Sperren und Community-Standards ist das Social-Media-Recht die sachnächste Einordnung; bei den angrenzenden Fragen der Veröffentlichung, Meinungsäußerung und Abwehr liegt der nähere Kontext regelmäßig im Medienrecht.
Besprochen wird eine gerichtliche Bestätigung der Löschung eines als Hassrede eingeordneten Kommentars und einer befristeten Kontosperre.
Der Fall markiert eine frühe Linie zur privaten Plattformmoderation, die später durch höchstrichterliche und regulatorische Vorgaben präzisiert wurde.
Relevant ist der Beitrag für Betreiber sozialer Plattformen, Kommunikationsverantwortliche und Nutzer, die Löschungen, Sperren und Beschwerdewege rechtlich einordnen müssen.
Stand April 2026
Die damalige Grundlinie ist für die aktuelle Einordnung weiterhin relevant, muss heute aber präziser gelesen werden: Plattformen dürfen eigene Gemeinschaftsstandards auch unterhalb der Schwelle strafbarer Inhalte durchsetzen. Maßgeblich ist inzwischen jedoch nicht nur die materielle Einordnung eines Posts, sondern auch das Verfahren. Der Bundesgerichtshof hat 2021 klargestellt, dass Nutzer bei Lösch- und Sperrentscheidungen verfahrensrechtlich geschützt werden müssen. Seit dem 17. Februar 2024 gilt zudem der Digital Services Act vollständig; in Deutschland bildet seit dem 14. Mai 2024 das Digitale-Dienste-Gesetz den nationalen Rahmen. Der Digital Services Coordinator prüft die Einhaltung dieser Vorgaben, stellt Inhalte oder Konten jedoch nicht selbst wieder her.
Medienrecht: Facebook sperrt Account wegen Hassrede
Sobald im Internet, beispielsweise auf Twitter oder Facebook, pornografische Fotos landen, werden diese umgehend gelöscht. Bei Hassreden oder Aufrufen zu rassistischem Verhalten war dies bisher schwieriger.
Die EU versucht nun schon seit einigen Jahren die soziale Netzwerke wie Facebook oder Twitter vermehrt dazu zu bringen Hassbotschaften zu löschen. Facebook hatte sich seit 2015 dazu bereiterklärt, rassistische Kommentare schärfer zu kontrollieren und sich auch finanziell an Maßnahmen zu beteiligen.
Die Gegenwart:
So auch geschehen in einem Fall vor dem Landgericht Heidelberg. Facebook hatte den Kommentar der Klägerin gelöscht. Diese kommentierte unter einen Beitrag zum Thema Integration wie folgt:
„Respekt! Das ist das Schlüsselwort! Für fundamentalistische Muslime sind wir verweichlichte Ungläubige, Schweinefresser und unsere Frauen sind Huren. Sie bringen uns keinen Respekt entgegen."
Daraufhin sperrte Facebook die Klägerin für dreißig Tage von der Plattform aus und entferne den Beitrag. Die Klägerin wandte sich im Rahmen des vorläufigen Rechtsschutzes gegen die Sperrung und die Entfernung des Kommentars.
Der Antrag hatte vor dem Landgericht Heidelberg keinen Erfolg. So war Facebook aufgrund seiner Nutzungsbedingungen in Verbindung mit den Gemeinschaftsstandards den streitgegenständlichen Satz zu entfernen und die Klägerin für dreißig Tage von der Plattform auszuschließen.
Facebook untersagt in seinen Gemeinschaftsstandards ausdrücklich Hassreden, die als direkte Angriffe auf Personen aufgrund aufgezählter Eigenschaften, wie ethnische Zugehörigkeit, nationale Herkunft oder religiöse Zugehörigkeit, zu werten sind.
Das Landgericht Heidelberg führt dazu weiter aus, dass diese Gemeinschaftsstandards das Grundrecht der Nutzer auf Meinungsäußerungsfreiheit aus Art. 5 Abs. 1 GG in angemessener Weise berücksichtigen. Art. 5 Abs. 1 GG sei Ausdruck der demokratischen Meinungsbildung des verfassten Rechtsstaats. Jedoch sei Facebook als gewinnorientiertes Unternehmen nicht dazu verpflichtet innerhalb seiner Plattform diesem in gleicher Weise wie der Rechtsstaat zu folgen. Es muss die grundsätzlichen Wertentscheidungen der deutschen Verfassung jedoch beachten.
Dem sei hier auch genüge getan. Nach Ansicht des Landgerichts Heidelberg enthalte die Kommentierung der Klägerin mit der Adressierung des Vorwurfs der Respektlosigkeit an „fundamentalistische Muslime“ eine an religiösen Merkmalen ausgerichtete Fokussierung, die impliziere, dass diese Personen moralische Defizite aufwiesen.
Durch die Benutzung der weiteren Begriffe enthalte die Aussage der Klägerin eine für das Verständnis Ihrer Aussage unnötig scharfe, polemische und aggressive Formulierung, die Ausdrücke der Verachtung, der Abscheu sowie eine entmenschlichende Sprache durch Bezugnahme auf tierische Verhaltensweisen („-fresse“) umfasse, und die damit auch in einer Gesamtschau geeignet sei, einen sachlichen Dialog zu stören und dadurch Ausgrenzungen zu befördern, sowie Gewalt in der realen Welt zu unterstützen. Hassbotschaften dürfen gelöscht werden.
Das Urteil ist noch nicht rechtskräftig. Die Klägerin kann binnen eines Monats Berufung beim Oberlandesgericht Karlsruhe einlegen.
Und die Zukunft?
Es ist erfreulich zu sehen, dass vermehrt versucht wird auch im Internet vermeintlich rechtsfreie Räume mit unseren freiheitlich demokratischen Werten zu füllen und eine Durchsetzung unserer Gesetze auch dort zu forcieren.
Betreibern von sozialen Plattformen wie z.B. Facebook, Twitter, aber auch Internetforenbetreibern, sei geraten ihre Nutzungsbedingungen und die Festlegung von Gemeinschaftsstandards auf entsprechende Passagen hin zu überprüfen um das Verkommen Ihrer Plattform zu einem Pfuhl von Hassreden zu verhindern.
Was davon für die aktuelle Einordnung besonders wichtig bleibt
- Plattformen dürfen Inhalte nicht nur nach Strafrecht, sondern auch nach wirksam einbezogenen Gemeinschaftsstandards bewerten und sanktionieren.
- Im Streit über Löschung oder Sperre zählt nicht nur der Inhalt des Posts, sondern auch die vertragliche und verfahrensrechtliche Ausgestaltung der Maßnahme.
- Bei Accountsperren und Content-Entfernungen sind Begründung, Dokumentation, Stellungnahmemöglichkeit und nachvollziehbare Beschwerdewege praktisch oft entscheidend.
- Für die vertiefte Einordnung von Plattformmaßnahmen, Community-Regeln und Sperrfällen ist das Social-Media-Recht bei ITMR die sachnächste Vertiefung.
Offizielle Quellen und weiterführende Hinweise
- Oberlandesgericht Karlsruhe, Mitteilung zum Beschluss vom 25.06.2018 – 15 W 86/18
Frühe obergerichtliche Einordnung zur Löschung eines als Hassrede bewerteten Kommentars und zu einer befristeten Sperre. - Bundesgerichtshof, Pressemitteilung zu den Urteilen vom 29.07.2021 – III ZR 179/20 und III ZR 192/20
Höchstrichterliche Präzisierung der Anforderungen an Lösch- und Sperrvorbehalte sozialer Netzwerke. - Bundesnetzagentur, Rechtsgrundlagen des Digital Services Coordinators
Überblick zu DSA und DDG sowie zum nationalen Durchsetzungsrahmen seit 2024. - Bundesnetzagentur, Hinweise zu DSA-Verstößen und Beschwerdewegen
Wichtig für die Praxis: Der DSC überwacht die Einhaltung des DSA, stellt Inhalte oder Konten aber nicht selbst wieder her.
Zuständige Rechtsanwälte bei ITMR
Wenn Löschung, Plattformregeln, Accountsperre und medienrechtliche Folgen zusammenlaufen, liegt die fachliche Zuständigkeit typischerweise an der Schnittstelle von Social-Media-Recht und Medienrecht.
Jean Paul P. Bohne, LL.M., MM
Rechtsanwalt, Partner und Fachanwalt für Urheber- und Medienrecht sowie Fachanwalt für IT-Recht. Besonders naheliegend bei plattformbezogenen Konflikten mit starker medien- und verfahrensrechtlicher Komponente.
Emma-Marie Kürsch
Rechtsanwältin mit Tätigkeitsfeldern unter anderem im Medienrecht, Presserecht und Social Media Recht. Sachnah bei Konflikten rund um Veröffentlichungen, Persönlichkeitsbezug und digitale Kommunikationsräume.