De Maizière: Facebook soll Meinungsfreiheit regulieren

Erstveröffentlicht: 
29.08.2016

Thomas de Maizière hat heute Facebook besucht. Danach wiederholte der Bundesinnenminister seine Forderung nach Inhaltsfiltern, mit denen Facebook und andere Unternehmen Inhalte schon vor dem Upload prüfen und im Zweifelsfall löschen sollen. Diese Filter stellen ein großes Problem für die Meinungsfreiheit dar.

 

In einer gemeinsamen Pressekonferenz des Innenministeriums (BMI) und Facebooks hat Bundesinnenminister de Maizière seine Forderung nach der Installation von Uploadfiltern bei Plattformen und Hostern bekräftigt. Facebook und andere Unternehmen haben laut de Maizière die Aufgabe, auch ohne externe Anforderung oder Beschwerde, verbotene Inhalte aus dem Netz zu entfernen.

 

Die Installation von Uploadfiltern gegen „terroristische“ und „radikalisierende“ Inhalte stellt ein ernsthaftes Problem für die Meinungsfreiheit dar – und bedeutet den Aufbau einer mächtigen Zensurinfrastruktur beim dominierenden sozialen Netzwerk. Gleichzeitig betreiben die Innenminister Frankreichs und Deutschlands auf EU-Ebene die Aufweichung des Host Provider Privilegs, was die Einführung dieser Filter noch gefährlicher machen könnte.

 

Dem Innenminister setzt dabei vor allem auf „innovative technische Lösungen“. Er sagt:

 

Wir haben die Erfahrung gemacht, dass im Kampf gegen Kinderpornografie dort sehr erfolgreiche Software gibt, die proaktiv – ohne dass eine Beschwerde gibt – ein solcher Inhalt dann geblockt wird von dem Unternehmen. Und ich habe sehr dazu ermuntert, dass ähnliche Aktivitäten auch in diesem Bereich stattfinden, auch wenn wir wissen, dass [es] dort komplizierter ist. Die Verwendung bestimmter Symbole, die in Deutschland strafbar ist, muss natürlich für Forschungszwecke möglich bleiben, auch für Berichterstattung. Aber das softwaremäßig so aufzufangen, und so dass man selbst mit Juristenteams dann die die illegalen Inhalte aus dem Netz entfernt, ist eine komplizierte Aufgabe, und ich möchte das Unternehmen ermuntern in dieser Arbeit fortzufahren, damit die Debatte über gesetzliche Eingriffe da möglichst vermieden wird.

 

Wer eine Privatisierung der Rechtsdurchsetzung auf Grundlage von Allgemeinen Geschäftsbedingungen forciert, der will private Unternehmen zum Richter über die Meinungsfreiheit machen. Eine rechtsstaatliche Kontrolle findet dann nicht mehr statt. Um nichts Geringeres geht es bei der Einführung von Uploadfiltern für „terroristische“ und „radikalisierende“ Inhalte. Bislang bekannt ist der Einsatz des PhotoDNA-Filters von Microsoft gegen Kinderpornografie, auch auf EU-Ebene wird der Einsatz der Filter diskutiert.

 

Ziemlich kompliziert: Was soll eigentlich vorab herausgefiltert werden?

 

Eines der großen Probleme der automatisierten Uploadfilter ist die Abgrenzung, was eigentlich gelöscht wird. Und da war auch dem Innenminister in der Pressekonferenz nicht ganz klar, ob diese nur strafbare oder auch andere Inhalte löschen sollten. Er sagte wörtlich:

 

Worum es mir natürlich vor allem auch geht, dass ohne eine solche Anforderung, dass Unternehmen von selbst, solche Inhalte, die auch in Deutschland oft strafbar sind, vom Netz nimmt.

 

Darüber hinaus betonte de Maizière, dass die Entscheidung, was herausgefiltert werden solle, kompliziert sei. Für „klare Fälle“ hält er jedoch die folgenden, die alles andere als klar sind:

 

Offener Aufruf zu Hass, das Zeigen von Bildern, die dazu anstacheln sollen, terroristische Anschläge zu begehen, die müssen aus dem Netz.

 

Ist der Stinkefinger von Sigmar Gabriel gegenüber Nazis schon ein Aufruf zu Hass? Aus Sicht der Nazis bestimmt. Und den Straftatbestand der Beleidigung erfüllt so ein Stinkefinger auch. Sollten solche wichtigen Bilder dann nicht mehr auf einer Plattform sichtbar sein, auf der sich 20 Millionen der Bundesbürger täglich informieren? Und was sind eigentlich Bilder, die dazu anstacheln, einen Terroranschlag zu begehen? Muss da eine ohnehin verbotene IS-Fahne zu sehen sein? Oder reichen die Bilder vom Strand in Nizza, auf denen Polizisten eine verhüllte Muslima dazu drängen, sich zu entkleiden? Die Bilder haben vermutlich ein nicht zu unterschätzendes Potenzial zur Radikalisierung.

 

Die Beispiele zeigen, dass automatisierte Uploadfilter die Büchse der Pandora öffnen und sich in kürzester Zeit zu einem gravierenden Problem für die Meinungsfreiheit entwickeln könnten.

 

Das sind die grundsätzlichen Probleme, die sich mit Uploadfiltern auftun:

  1. Die Uploadfilter werden zu viel löschen. Auch strafrechtlich nicht relevante Inhalte geraten in den Fokus der Filter. Es wird mit rechtlich nicht definierten Begriffen wie „Hass“ gearbeitet.
  2. Es wird keine Transparenz geben, was gelöscht wird. Facebook ist heute schon komplett intransparent in seiner Löschpraxis und es besteht wenig Hoffnung, dass sich dies ändern wird.
  3. Wer füttert eigentlich die Datenbanken, in denen steht, was verboten ist? Wer definiert, was verboten ist? Das Unternehmen? Oder mischt der Staat mit?
  4. Die Existenz der Uploadfilter wird weitere Begehrlichkeiten wecken und lädt zur Ausweitung zu löschender Inhalte ein. Dieses Phänomen war bislang bei allen Zensurinfrastrukturen zu beobachten.
  5. Keine rechtsstaatliche Kontrolle, sondern Privatisierung der Rechtsdurchsetzung.
  6. Uploadfilter verhindern im Zweifelsfall Ermittlungen gegen Straftaten

 

Innenminister bleibt nebulös beim Thema Verschlüsselung

 

In der Pressekonferenz äußerte sich der Innenminister auch zum Thema Verschlüsselung:

 

Wir haben am Rand auch über das Thema Verschlüsselung gesprochen, dabei ist ganz klar: Wir wollen Sicherheit durch Verschlüsselung. Äh, ich bin als Bundesinnenminister, als IT-Sicherheitsminister sehr daran interessiert, dass wir soviel Sicherheit wie möglich bekommen, auch eine Ende-zu-Ende-Verschlüsselung von sozialen Diensten und Netzwerken begrüße ich sehr. Sicherheit durch Verschlüsselung ist gut, aber es muss auch Sicherheit trotz Verschlüsselung geben.

 

Gefahrenabwehr und Strafverfolgung darf durch Verschlüsselung nicht unmöglich gemacht werden. Das ist ein gewisses Spannungsverhältnis. Und wir arbeiten auch in Europa daran, wie wir dieses Thema lösen. Und das heißt: keine generelle Eingriffsmöglichkeit für Massenüberwachung, aber unter den rechtsstaatlichen Voraussetzungen im Einzelfall mit Richtervorbehalt muss es auch technisch möglich sein, eine solche Verschlüsselung zu überwinden, wie bei einem Telefon. Der Staat, so habe ich das oft gesagt, muss technisch das können, was er auch rechtlich jetzt schon darf. Das ist eine schwierige Aufgabe und dafür brauchen wir dann ggf auch die Zusammenarbeit mit den Netzwerkbetreibern, die unter den gleichen Voraussetzungen wie jetzt, wenn eine Strafverfolgungsbehörde ein berechtigtes Auskunftsanliegen hat, was nach deutscher Rechtsordnung beantwortet werden muss, dann auch erfolgt, und in solchen Fällen müsste dann eine Zusammenarbeit erfolgen und die wird auch erfolgen, darüber werden wir weiter im Gespräch bleiben.

 

Dieser Absatz ist, auch wenn es ein bisschen so klingt, nicht als ein Hinterlegen von Generalschlüsseln oder Backdoors zu interpretieren, sondern spiegelt die Linie des BMI der letzten Wochen wieder. Problematisch ist jedoch, dass der Prozess in Europa genau diese Backdoors noch bringen kann, wenn man sich die unterschiedlichen Haltungen Frankreichs und Deutschlands in der Verschlüsselungsfrage vor Augen führt.

 

Transkript der Pressekonferenz

 

Wir haben die Aussagen des Innenministers in der Pressekonferenz transkribiert.

de Maizière:

 

[..] sehr guter, konstruktiver, offener Austausch zu all den Fragen, die in diesem Zusammenhang wichtig sind. Dabei will ich jetzt auf zwei Punkte eingehen: das eine ist der Datenschutz. Wir haben lange in Europa verhandelt an einer gemeinsamen Grundverordnung. Die Verhandlungen sind erfolgreich abgeschlossen. Diese Datenschutzgrundverordnung tritt 2018 in Kraft es gibt einen Übergangszeitraum bis wann diese Verordnung in Kraft tritt.

 

Das Ziel dieser DSGV ist ein für die europ. Union einheitliches Datenschutzniveau herzustellen. Das ist die einzige Chance, auch im Wettbewerb zu Amerika und andern Kontinenten ein Datenschutzniveau zu erhalten, was unseren europäischen Traditionen entspricht einerseits, und andererseits auch einen gemeinsamen Raum des Wettbewerbs im Internet zu haben, der auch Entfaltung europäischen Unternehmen ermöglicht.

Und wenn das so ist, dann brauchen wir einheitliche Standards nicht durch die Hintertür wieder 28 verschiedenen europäische Regeln. Und diese Unternehmen und wir sind uns einig, dass das im europäischen Interesse liegt das nach dem Markt-Ort Prinzip das eine Recht was dann in Europa gilt auch überall gleich angewendet wird. Durch die Datenschutzbeauftragten und dann natürlich auch in der Auslegung durch die Gerichte. Das war der erste Punkt, den wir besprochen haben.

 

Der zweite Punkt betrifft die Kooperationen, die Zusammenarbeit im Kampf gegen Terrorismus und gegen Hass und Gewalt im Internet. Da muss man zwei Fallgruppen unterscheiden: Das eine ist die Zusammenarbeit bei der Aufklärung von Straftaten, die stattgefunden haben nach Terroranschlägen oder auf andere Weise. Da gab es ja auch in den letzten Tagen natürlich viele Diskussionen. Ich konnte berichten, dass aus der Sicht der Bundesbehörden es keine Kritik gibt an der Zusammenarbeit mit etwa dem BKA wenn das BKA zur Aufklärung von Straftaten unter rechtsstaatlichen Bedingungen nach deutschem Recht ein Auskunftsersuchen an Facebook stellt, gibt es dort keine Klagen über eine gute Zusammenarbeit. Soweit es sie von Ländern oder Staatsanwaltschaften regional gibt, haben wir besprochen, wie das verbessert werden kann. Facebook ist dort unterwegs und ich kann das gerne auch mit meinen Innenministerkollegen im Einzelnen erörtern.

 

Davon zu trennen ist die Frage, des selbstaktiven Beitrages von Facebook und anderen Unternehmen illegale Inhalte, strafrechtswürdige Inhalte, die nach deutschem Recht verboten sind auch aus dem Netz zu nehmen, ohne dass es Beschwerden gibt. Wenn es Beschwerden gibt, geschieht das sehr schnell, aber Facebook hat eine große ökonomische Verantwortung. Wie jedes große Unternehmen hat es deswegen auch eine große soziale Verantwortung und dazu gehört auch, dass das Unternehmen selbst wie auch in den Allgemeinen Geschäftsbedingungen des Unternehmens selbst niedergelegt ohne Anforderung einen Beitrag dazu leistet, verbotene Inhalte aus dem eigenen Netz zu nehmen. Das erwarten wir und das finde ich ist auch in Ordnung.

 

Ich habe zur Kenntnis genommen, dass das Unternehmen daran arbeitet mit auch innovativen Softwarelösungen. Wir haben ja die Erfahrung gemacht, dass im Kampf gegen Kinderpornographie


dort sehr erfolgreiche Software gibt, die proaktiv, ohne dass es eine Beschwerde gibt, ein solcher Inhalt dann geblockt wird von dem Unternehmen und ich habe sehr dazu ermuntert, dass ähnliche Aktivitäten auch in diesem Bereich stattfinden, auch wenn wir wissen, dass es dort komplizierter ist. Die Verwendung bestimmter Symbole die in Deutschland strafbar ist, muss natürlich für Forschungszwecke möglich bleiben auch für Berichterstattung. Aber das softwaremäßig so aufzufangen und so dass man selbst mit Juristenteams dann die illegalen Inhalte aus dem Netz entfernt, ist eine komplizierte Aufgabe und ich möchte das Unternehmen ermuntern, in dieser Arbeit fortzufahren damit auch die Debatte über gesetzliche Eingriffe dann möglichst vermieden wird.

 

Nun für den Fall, dass ein Bürger oder staatliche Einrichtungen eine Beschwerde bei diesem Unternehmen einreichen, dass irgendwo rassistische Inhalte im Netz verbreitet werden, dass zu Gewalt aufgerufen wird, dass ein Terroranschlag unterstützt wird – dort gibt es alles in allem gute Erfahrungen, dass das dann auch von dem Unternehmen vom Netz genommen wird, geblockt wird.

 

Worum es mir natürlich vor allem auch geht, dass ohne eine solche Anforderung das Unternehmen von selbst solche Inhalte, die auch in Deutschland oft strafbar sind, vom Netz nimmt. Dazu braucht man technische Möglichkeiten, aber auch natürlich Kenntnisse: Wer ist strafbar, welcher Inhalt ist strafbar, was wird rausgenommen? Wo ist die grenze zwischen Meinungsäußerung und Beleidigung? Das ist kompliziert und das ist auch noch nicht gut genug, aber ich habe mit Interesse und Zustimmung zur Kenntnis genommen, dass das Unternehmen mit innovativen Lösungen daran arbeitet auch an diesem Feld. Was schwieriger ist als die Erkennung von kinderpornographischen Bildern auch arbeitet. Das besondere Problem ist, dass die Strafbarkeitsnormen in Europa und in der Welt unterschiedlich sind, deswegen werden das differenzierte und unterschiedliche Teams sein müssen, da wünsche ich mir dass daran weiter und schnell gearbeitet wird und das ist mir heute zugesagt worden.

(Frage Journalist)

Antwort de Maizière:
Natürlich gibt es auch außerhalb des Internets solche Grenzfälle. Über die Frage, wann eine Satire eine Beleidigung ist, haben wir sehr umfangreich diskutiert in den letzten Monaten und natürlich kann nicht die gesamte Last einer solch sehr schwierigen Abgrenzung einem Unternehmen übergeholfen werden.

 

Aber klare Fälle, der offene Aufruf zu Hass, das Zeigen von Bildern, die dazu anstacheln sollen, terroristische Anschläge zu begehen, die müssen aus dem Netz und da hat auch das Unternehmen eine Verantwortung. Das Unternehmen hat ja selber in seinen Allgemeinen Geschäftsbedingungen gesagt: ihr dürft unsere Plattform nur nutzen, wenn ihr keine rechtswidrigen Inhalte verbreitet. Das ist auch richtig so. Eine Allgemeine Geschäftsbedingung und die Kontrolle solcher Allgemeinen Geschäftsbedingungen darf jetzt nicht externalisiert werden auf staatliche Behörden oder Bürger, die eine Beschwerde machen. Sondern dass Allgemeine Geschäftsbedingungen eingehalten werden ist auch eine eigenen Aufgabe eines jeden Unternehmens. Dass es komplizierter ist ist wahr, deswegen habe ich ja auch zur Kenntnis genommen, dass daran innovativ und schnell geaarbeitet wird. Aber ein Unternehmen mit einem sehr guten Ruf der Innovation, wird auch hier den guten Ruf unter Beweis stellen müssen. Dass es komplizierter ist. ist wahr, aber das sollte nicht von der Anstrengung abhalten, gerade in klaren Fällen dann solche Inhalte auch ohne Anforderung zu löschen.

(Frage Journalist)

Antwort de Maizière:
Wir haben am Rande auch über das Thema Verschlüsselung gesprochen und dabei ist ganz klar: Wir wollen Sicherheit durch Verschlüsselung ich bin als Bundesinnenminister, als IT-Sicherheitsminister, sehr daran interessiert, dass wir so viel sichere Kommunikation wie möglich bekommen – auch eine Ende zu Ende Verschlüsselung von sozialen Diensten und Netzwerken begrüße ich sehr. Also Sicherheit durch Verschlüsselung ist gut, aber es muss auch Sicherheit trotz Verschlüsselung geben.

 

Gefahrenabwehr und Strafverfolgung darf durch Verschlüsselung nicht unmöglich gemacht werden. Das ist ein gewisses Spannungsverhältnis. Und wir arbeiten auch in Europa daran, wie wir dieses Thema lösen. Und das heißt: keine generelle Eingriffsmöglichkeit für Massenüberwachung, aber unter den rechtsstaatlichen Voraussetzungen im Einzelfall mit Richtervorbehalt muss es auch technisch möglich sein, eine solche Verschlüsselung zu überwinden, wie bei einem Telefon. Der Staat, so habe ich das oft gesagt, muss technisch das können, was er auch rechtlich jetzt schon darf. Das ist eine schwierige Aufgabe und dafür brauchen wir dann ggf auch die Zusammenarbeit mit den Netzwerkbetreibern, die unter den gleichen Voraussetzungen wie jetzt, wenn eine Strafverfolgungsbehörde ein berechtigtes Auskunftsanliegen hat, was nach deutscher Rechtsordnung beantwortet werden muss, dann auch erfolgt, und in solchen Fällen müsste dann eine Zusammenarbeit erfolgen und die wird auch erfolgen, darüber werden wir weiter im Gespräch bleiben.

(Frage Journalist)

Antwort de Maizière:
Ja, wir haben die Erfahrung gemacht, dass Auskunftsersuchen des BKA schnell und zuverlässig beantwortet werden. Aber wir haben natürlich sehr viele Strafverfolgungsbehörden. Ein Staatsanwalt in irgendeinem Ort muss wissen, wo er sich hinwendet dann muss er ggf. die Sprache können. All das muss organisiert werden und das wollen wir in Zukunft verbessern.