Sehr geehrter Leser,
Sie sind zur Zeit nicht angemeldet. Bitte loggen Sie sich ein,
um das Dokument der Zeitschrift
Kommunikation & Recht
zu lesen.
zum Login
Sind Sie bereits Leser der Zeitschrift und möchten Sie auch die R&W-Online Datenbank dieser Zeitschrift nutzen, dann können Sie die Zeitschrift sofort freischalten.
Bestellen Sie ein Abonnement für die Zeitschrift Kommunikation & Recht, um die R&W-Online Datenbank dieser Zeitschrift zu nutzen. Abonnement abschließen.
Die Fachpublikation Kommunikation und Recht (K&R) ist die monatliche Fachpublikation zu allen nationalen und internationalen Rechtsthemen mit Medienbezug. Im Fokus stehen: Wettbewerbs- und Markenrecht, Medien- und Presse- und Rundfunkrecht, Datenschutzrecht, Urheberrecht, E-Commerce, Computer-, Internetrecht und Telekommunikationsrecht. Praxisnahe Aufsätze und Kommentare anerkannter Branchenexperten, sowie ein hochaktueller Rechtsprechungsteil sind die besondere Stärke der Publikation.
Lesen Sie die K&R 4 Wochen
kostenlos und unverbindlich!
Zur Testphase
Telemedicus
18.02.2019 08:12
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.Spätestens Mady Delvaux hat die Diskussion angestoßen, ob das bestehende Produkthaftungsregime für die mit künstlicher Intelligenz versehenen Produkte ausreichend ist. In einer von ihr initiierten Resolution des Europäischen Parlaments sprachen sich Anfang 2017 396 Abgeordnete für Folgendes aus: „to explore, analyse and consider the implications of all possible legal solutions”, sowie „creating a specific legal status for robots in the long run”. Der Begriff „robot” ist hier als Synonym für Systeme auf Basis künstlicher Intelligenz zu verstehen.
Die Resolution warf also zunächst einmal die Frage auf, ob denn die bisher bestehenden Haftungsregime in der EU ausreichend sind für die bestehenden, aber vor allem für die in der Zukunft vermuteten Eigenschaften von künstlicher Intelligenz. Die Mitglieder des Europäischen Parlaments nahmen zumindest einen Änderungsdruck in der Zukunft an, dem sie nach dem oben zitierten Vorschlag mit einem generischen rechtlichen Status für robots – mit künstlicher Intelligenz versehene Systeme – begegnen wollen. Aus deutscher Sicht bedeutet das in einer Nussschale nicht weniger als die Schaffung einer dritten, rechtlichen relevanten Person neben der natürlichen (der Mensch in seiner Rolle als Rechtssubjekt) und der juristischen Person (Personenvereinigung oder Zweckvermögen mit eigener Rechtspersönlichkeit, am bekanntesten: GmbH oder AG).
Ein großer Wurf also, den die vermeintlich so disruptiven Entwicklungen der künstlichen Intelligenz sogar auf Ebene des Europäischen Parlaments auslösen. Es bietet sich ohne Frage an, die Situation einmal umfassend zu betrachten, um die Entscheidung des Europäischen Parlaments – die übrigens bisher von der Kommission nicht aufgenommen wurde – entsprechend bewerten zu können.
Ausgangspunkt: System der Produkthaftung in der EU
Ausgangspunkt solcher Betrachtungen kann nur das bestehende System der Produkthaftung in der EU sein, das seit 1986 durch die Produkthaftungsrichtlinie 85/374/EWG geprägt ist. Bis auf wenige, hier nicht relevante Ausnahmen, ist die Richtlinie in allen Mitgliedsstaaten der EU umgesetzt. Im Kern schafft die Richtlinie eine verschuldensunabhängige Haftung des Herstellers eines Produktes oder seiner Komponenten gegenüber jedermann auf Schadenersatz.
Der geschädigte Anspruchsteller muss den Fehler nachweisen, den Schaden und deren kausale Verbindung.
Der größte Stolperstein auf dem Weg zu Schadenersatzleistungen ist regelmäßig die Beweislast des Geschädigten beim Nachweis, dass ein Kausalzusammenhang zwischen dem Produktfehler und dem Schaden besteht. Der Europäische Gerichtshof hat dies durch die Akzeptanz nationaler Vorschriften, die dem Geschädigten dabei helfen, diesen Nachweis zu erbringen, erheblich erleichtert. Darüber hinaus hat er den Fehlerverdacht eines Produktes dem Fehler gleichgestellt.
Diskussionen über eine Haftung für künstliche Intelligenz
Diese in Deutschland im Produkthaftungsgesetz (ProdHaftG) umgesetzte Richtlinie bildet derzeit den gesetzlichen Rahmen, an dem sich die Diskussionen über eine Haftung für künstliche Intelligenz entzünden. Ausgangspunkt der Überlegungen vieler Beiträge ist dabei eine angenommene Black Box der künstlichen Intelligenz dahingehend, wie das System auf seine Lösung gekommen ist. Eine fehlende Transparenz der Lösungswege des Systems und die fehlende Möglichkeit eines reverse engineering der durch das System entwickelten Lösungen bilden die Ausgangspunkte der Überlegungen für die Notwendigkeit eines eigenen Haftungsregimes für künstliche Intelligenz. Hinzu tritt die Rolle von – teilweise Unmengen an – Daten in der den Systemen vermeintlich eigenen Lernkurven.
Beide Aspekte führen in der Wahrnehmung der Debatten um das Thema der Haftung für künstliche Intelligenz zur initialen Annahme einer durch den Hersteller nicht mehr kontrollierten und kontrollierba-ren, faktisch selbständigen Weiterentwicklung der ursprünglichen Systeme hin zu einem unbeabsichtigten, zumindest aber nicht geplanten Zustand.
Diese Annahme wird argumentativ aufgegriffen mit der These, der Hersteller könne für die durch die künstliche Intelligenz erreichten Zustände ab einem bestimmten Grad haftungsrechtlich nicht mehr verantwortlich sein; diese lägen weit außerhalb der ursprünglich geplanten Kondition.
Kritische Würdigung
Ich möchte beide Thesen zum Anlass einer kritischen Würdigung nehmen.
In einem ersten Schritt lässt sich spätestens auf Basis der bisherigen Artikel in der Reihe auf Telemedicus über künstliche Intelligenz deutlich ableiten, dass Autonomie des Lernens in Systemen mit künstlicher Intelligenz nicht existiert, sondern mathematische Formeln und Algorithmen hohe Automatisierungsgrade abbilden. Eine eigenständige Weiterentwicklung eines Systems existiert schlicht nicht. Auch die Google AI wird weiterhin reihenweise GO-Spieler schlagen, darin möglicherweise unendlich gut werden, aber keinen eigenen, weiteren Einsatzzweck generieren.
Neben diesem ersten Schritt ist auch die Frage nach der Abhängigkeit von annotierten Daten in den verschiedenen subsymbolischen Lernverfahren sowie die Datenqualität auch in symbolischen Verfahren vertieft zu betrachten. Anknüpfungspunkt der Überlegungen mancher Debattenbeiträge ist die Frage nach der Verantwortlichkeit des Herstellers künstlicher Intelligenz – oder auch des späteren Betreibers – für die Qualität der seine Systeme fütternden Daten.
Hier ist eine kritische Würdigung der Überlegungen ausgehend von einem tieferen Verständnis des bestehenden Rechts erforderlich, was einen Einstieg in den Fehlerbegriff des ProdHaftG voraussetzt.
Fehlerbegriff des ProdHaftG
§ 3 ProdHaftG definiert ein Produkt dann als fehlerhaft,
wenn es nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände, insbesondere
a) seiner Darbietung,
b) des Gebrauchs, mit dem billigerweise gerechnet werden kann,
c) des Zeitpunkts, in dem es in den Verkehr gebracht wurde,
berechtigterweise erwartet werden kann.
Die daraus entstehende Schadenersatzpflicht ist im Übrigen ausgeschlossen, wenn nach § 1 Abs. 2 S. 5 ProdHaftG
der Fehler nach dem Stand der Wissenschaft und Technik in dem Zeitpunkt, in dem der Hersteller das Produkt in den Verkehr brachte, nicht erkannt werden konnte.
Kombiniert man beide Vorschriften, lässt sich unschwer erkennen, dass Maßstab für die Sicherheit eines Produktes zum Zeitpunkt seiner Inverkehrgabe der Stand von Wissenschaft und Technik ist. Dieser Standard muss vom Hersteller herangezogen werden, um die berechtigte Sicherheitserwartung an das Produkt zu erreichen.
Verantwortlichkeit gemäß Stand der Technik
Angewandt auf die Fragestellung nach der Verantwortlichkeit für den Umgang mit „unreinen“ Daten in subsymbolischen Lernverfahren oder symbolischen Entscheidungsmustern lässt sich rechtlich hier also eindeutig festhalten, dass der Hersteller diese Probleme erkennen und nach den verfügbaren Methoden lösen muss, bevor er das Produkt in Verkehr gibt. Es muss demnach eine Form von Validierung von Daten geben, eine Überprüfung von Ergebnissen und eine Eigenkontrolle des Systems; entspricht das dem Stand von Wissenschaft und Technik, ist der Hersteller nach heutigem Stand in den allermeisten Staaten der EU nicht für das Entwicklungsrisiko des mit künstlicher Intelligenz versehenen Produkts haftbar zu machen. Umgekehrt betrachtet geht die Rechtsordnung bereits heute da-von aus, dass der Hersteller alle Möglichkeiten ausschöpft, um sein Produkt im Rahmen des objektiv Erwartbaren abzusichern.
Die bisherigen Feststellungen führen zu der nächsten Voraussetzung der Forderung nach einem neuen Haftungsregime für künstliche Intelligenz, der fehlenden Haftung des Herstellers für Weiterentwicklungen seines Systems außerhalb seiner ursprünglichen Planungen.
Die Produkthaftungsrichtlinie bietet für diese These keine Anhaltspunkte. Vielmehr ist alleine entscheidend, wie sich aus einer retrospektiven Betrachtung die Sicherheit des Produkts zum Inverkehrgabezeitpunkt gemessen am verfügbaren Stand von Wissenschaft und Technik bewerten lässt. Vereinfacht gesagt: kann der geschädigte Anspruchsteller nachweisen, dass das Produkt nicht dem entsprach, was möglich war und hieraus eine Unterschreitung des Sicherheitslevels entsprang, ist der Nachweis gelungen. Inwiefern der Hersteller die Weiterentwicklung der KI vorhersehen konnte oder hätte einkalkulieren müssen, ist für die Betrachtung irrelevant. Relevant ist lediglich, ob der Geschädigte nachweisen kann, dass es technische Möglichkeiten zur Begrenzung eben der eingetretenen Fehlentwicklung gegeben hätte, als das Produkt in Verkehr gegeben wurde. Und auch hier ist vereinfacht gesehen sehr eindeutig, dass der Hersteller nicht jede mögliche Weiterentwicklung vorhersehen, aber im Zweifel alle nicht gewollten programmiertechnisch ausschließen kann.
Damit reduziert sich die Haftung der Hersteller für KI auf Fragen der Darlegungs- und Beweislast. Das ist eine Situation, die bereits seit Geltung der Richtlinie in vielen Fällen Raum greift und keine Neue-rung durch KI darstellt.
Hersteller in der Pflicht
Die Einführung einer eigenen Rechtsperson für KI verknüpft mit einer Pflichtversicherung – denn nur dann macht eine eigene Haftung der KI Sinn – ist damit derzeit nicht notwendig. Deutlich relevanter erscheint hier der entsprechende Umgang der Hersteller – und vor allem auch Importeure – solcher Systeme mit KI mit den bestehenden produkthaftungsrechtlichen Regularien und deren Umsetzung in der Entwicklung der Produkte. Hier kommt es entscheidend darauf an, den Stand von Wissenschaft und Technik bei der Risikobeurteilung des eigenen Produktes anzuwenden und entsprechend über die Serienzeit nachzuhalten. Der reine Verweis auf die Unkalkulierbarkeit entsprechender Systeme wird nach derzeitiger Rechtsordnung nicht ausreichen.

Foto: Alle Rechte vorbehalten
internationale Industrieunternehmen aus der Maschinenbau-, Automobilzulieferer- und Konsumgüterindustrie. Philipp Reusch ist Experte im Bereich (internationaler) Produkthaftung, Produktsicherheit, Compliance- und Rückrufmanagement. Weitere Schwerpunkte seiner anwaltlichen Beratungstätigkeit liegen im Versicherungsrecht, Datenschutz und Cyber Security sowie in der Prozessführung.
Der Lehrbeauftragte für Produkthaftung und Produktsicherheit an der RWTH Aachen ist Autor zahlreicher Fachpublikationen. Er wurde von 2009 bis 2018 von „Best Lawyers“ als Best Lawyer im Bereich Product Liability ausgezeichnet. Finance Monthly zeichnete ihn 2016 als Lawyer of the Year im Bereich Product Liability für Deutschland aus, ebenso wie ihn das Handelsblatt 2016 bis 2018 in seinem Verzeichnis als Best Lawyer im Bereich Produkthaftung
aufführt. Im Rahmen des German Brand Awards 2017 wurde reuschlaw mit einer Special Mention in der Kategorie Corporate Services ausgezeichnet.
17.02.2019 18:51
+++ EU-Urheberrecht: Einigung auf gemeinsamen Reformentwurf+++ Löschpflichten von Host-Providern: Österreichischer OGH legt dem EuGH vor
+++ DSGVO: Bußgeld wegen personenbezogener E-Mail-Adressen im Verteiler
+++ EuGH: Entscheidung zu Videoaufnahmen in Polizeidienststelle
+++ LG Düsseldorf: Bodycam-Aufnahmen als Beweismittel zulässig
EU-Urheberrecht: Einigung auf gemeinsamen Reformentwurf
Der EU-Ministerrat und das EU-Parlament haben sich nach Angaben der EU-Kommission auf einen endgültigen Reformtext der europäischen Urheberrechtsnovelle geeinigt. Danach soll es insbesondere ein Leistungsschutzrecht für Presseverleger geben sowie eine weitergehende Verpflichtung für Plattformbetreiber wie YouTube: Sie müssen zukünftig geschützte Werke lizensieren und auf mögliche Urheberrechtsverletzungen überprüfen, bevor sie auf der Plattform veröffentlicht werden. Kritiker sehen in Letzterem die Einführung von sog. Upload-Filtern und eine erhebliche Einschränkung für das Internet insgesamt. Der Text nimmt insbesondere den Vorschlag von Deutschland und Frankreich auf, dass solche Plattformen ausgenommen sind, die jünger als drei Jahre sind, weniger als 10 Millionen Euro Umsatz haben weniger als 5 Millionen Besucher pro Monat aufweisen können. Die Einigung muss in den nächsten Wochen noch vom Parlament und den Mitgliedstaaten bestätigt werden. Wenn das geschieht, haben die EU-Länder zwei Jahre Zeit, die Regelungen in nationales Recht umzusetzen.
Zur Meldung auf netzpolitik.org.
Zur Pressemitteilung der Kommission.
Löschpflichten von Host-Providern: Österreichischer OGH legt dem EuGH vor
Der österreichische oberste Gerichtshof (OGH) hat dem EuGH die Frage vorgelegt, ob Plattformbetreiber ihre Portale aktiv nach rechtswidrigen Inhalten durchsuchen müssen. Damit wird die Frage der Störerhaftung von Host-Providern grundsätzlich in Frage gestellt. Eine österreichische Partei verklagte Facebook auf Unterlassung wegen diverser Hasskommentare gegen die Ex-Chefin der Partei. Das OLG hatte daraufhin Facebook dazu verurteilt, zum einen die konkret beanstandeten Kommentare als auch sämtliche wort- und sinngleiche Inhalte zu löschen. Der OGH setzte das Revisionsverfahren aus und legte dem EuGH nun die Frage der Auslegung von Art. 15 der E-Commerce-Richtlinie vor. Das Verbot einer sog. proaktiven Prüfpflicht wird von der Rechtsprechung des BGH grundsätzlich eng ausgelegt: Prüfpflichten bestehen erst dann, wenn der Host-Provider auf mögliche rechtswidrige Inhalte hingewiesen wird. Erst dann kann auch im Einzelfall eine Pflicht bestehen, gleichgeartete Inhalte zu löschen. Die nun zu erwartende Entscheidung des EuGH zu dieser Grundsatzfrage könnte im Falle einer weiten Auslegung des Verbots allerdings die europäische Rechtsprechung umkrempeln. Mit einem Urteil wird im Sommer 2019 gerechnet.
Die Einzelheiten auf lto.de.
DSGVO: Bußgeld wegen personenbezogener E-Mail-Adressen im Verteiler
Der Landesbeauftragte für Datenschutz in Sachsen-Anhalt hat mehrere Geldbußen wegen Verstößen gegen die DSGVO verhängt. Grund waren mehrere verunglimpfende E-Mails, die ein Mann als offenen E-Mail-Verteiler verschickt wurden. Dabei waren alle E-Mail-Adressen des Verteilers für alle Empfänger sichtbar. Zwar waren die Verunglimpfungen der Empfänger aus den Bereichen Presse, Wirtschaft, Kommunal- und Landespolitik laut nach Ansicht des Landesbeauftragten von der Meinungsfreiheit gedeckt. Der offene Verteiler stelle aber einen Datenschutzverstoß dar.
Zur Meldung auf mz-web.de.
EuGH: Entscheidung zu Videoaufnahmen in Polizeidienststelle
Der EuGH hat entschieden, dass Videoaufzeichnungen von Polizeibeamten in einer Polizeidienststelle während des Dienstes und die anschließende Veröffentlichung auf Plattformen wie YouTube in den Anwendungsbereich der DSRL und damit wohl auch in den der DSGVO fallen. Nach Ansicht des EuGH greift die sog. „Haushaltsausnahme“ nicht, wonach „ausschließlich persönliche oder familiäre Tätigkeiten“ nicht dem Datenschutzrecht unterliegen. Vielmehr habe hier das Video durch den Upload auf YouTube den persönlichen Bereich des Verantwortlichen verlassen. Auch stellte der EuGH fest, dass Informationen nicht deshalb keine personenbezogenen Daten seien, weil sie „im Kontext einer beruflichen Tätigkeit stehen“. Für die private Meinungsäußerung im Netz könnte die Entscheidung weitreichende Auswirkungen haben – vor allem, weil es in Deutschland keine generelle Ausnahme gibt, wenn zu Zwecken der Meinungsfreiheit personenbezogene Daten verarbeitet werden.
Das Urteil im Volltext.
LG Düsseldorf: Bodycam-Aufnahmen als Beweismittel zulässig
Das LG Düsseldorf hat entschieden, dass Bodycam-Aufnahmen von Polizisten vor Gericht als Beweismittel verwendet werden können. Nach Ansicht der Richter gilt dies sogar dann, wenn es gar keinen Grund gab, eine bestimmte Situation aufzunehmen. Im konkreten Fall ging es um eine Anklage wegen eines Tötungsdeliktes. Den Polizei-Einsatz in der Wohnung der Verdächtigen hatte eine Polizistin mittels einer Bodycam gefilmt. Die Verteidigung sah diese Videoaufnahmen im Prozess als unzulässig an. Vielmehr hätte die Polizistin die Kamera in dem Moment abschalten müssen, als sie die Situation als ungefährlich erkannte. Letzterem stimmte das Gericht zwar zu, allerdings ergebe sich daraus kein Beweisverwertungsverbot, denn es sei „lebensnah“, das Ausschalten der Kamera in der Situation des Einsatzes zu „vergessen“.
Zur Meldung auf lto.de.
13.02.2019 08:58
Die Parteivorsitzende der SPD, Andrea Nahles, hat am Dienstag ein Positionspapier veröffentlicht, in dem sie sich zum digitalen Fortschritt äußert. Darin fordert sie unter anderem ein von ihr sogenanntes „Daten-für-alle-Gesetz” und damit verbunden auch eine „Datenteilungspflicht”. Es handelt sich dabei um einen kreativen Vorschlag mit einigen interessanten Punkten zu einem derzeit noch stark diskutierten Bereich - einiges ist kritikwürdig und es bleiben viele offene Fragen. Was es damit auf sich hat, erkläre ich hier:Worum geht es in dem Positionspapier?
Das Papier beginnt bereits mit einer recht drastischen Darstellung: So werde der digitale Wandel derzeit durch einerseits den libertären US-amerikanischen Kapitalismus und andererseits den chinesischen Zentralismus geprägt. Der erste beruhe „auf kaum regulierten digital-Märkten und geringem Datenschutz” das zweite „auf Zensur ohne Schutz zentraler Menschen- und Bürgerrechte”. Zwischen diesen beiden drohenden Systemen müsse ein Weg auf Basis europäischer Werte gefunden werden. Die weiteren Ausführungen beschäftigen sich im Wesentlichen mit der Bedeutung von Daten für den Wettbewerb und welcher Handlungsbedarf sich hier ergebe, nämlich zunächst allein der, den Zugang zu Daten zu ermöglichen. Hierzu stellt Frau Nahles drei wesentliche Forderungen auf:
• Nutzung von nicht-persönlichen Daten als Gemeingut
• Aufbrechen von Datenmonopolen durch eine Datenteilungspflicht für marktdominante Unternehmen
• Anreize zum Datenteilen schaffen und Etablierung und Ermöglichung eines sicheren europäischen Datenraums unter Wahrung des Datenschutzes
Auszug aus dem Positionspapier von Andrea Nahles
Die erste Forderung bezieht sich auf diejenigen Daten, die eine starke Bedeutung für die öffentliche Bedeutung haben und deshalb frei nutzbar sein sollen. Hierzu zählt Nahles vor allem Daten „in vollständig anonymisierter und aggregierter Form wie Mobilitätsdaten oder Geodaten”. Diese könnten dabei von einer offenen Stelle verwaltet und bereitgestellt werden. Dabei solle der Staat selbst voran gehen und sich für eine offene Verwaltung einsetzen. Damit ginge es vor allem um Datenbereitstellung im Verhältnis zwischen Staat und Bürger. Die dritte Forderung bezieht sich vor allem auf eine aktive europäische Wirtschaftsförderung, indem Anreize für eine Datenwirtschaft geschaffen werden sollen, die aber noch nicht hinreichend konkret sind, als dass man sie hier kommentieren könnte.
Was bedeutet die Datenteilungspflicht?
Besonders interessant ist jedoch die als zweites aufgestellte Forderung nach einer Datenteilungspflicht bestimmter Unternehmen. Nahles hatte dies bereits letztes Jahr in einem Gastbeitrag für das Handelsblatt beschrieben und ihr Konzept dazu angekündigt. Dies geht auf eine Idee von Viktor Mayer-Schönberger und Thomas Ramge aus ihrem Buch „Das Digital” zurück. Dort beschreiben diese die Möglichkeit einer von ihnen sogenannten „progressive Daten-Sharing-Pflicht” als einer ausdrücklich so benannten Kartellrechtsmaßnahme. Diese soll Unternehmen verpflichten ab einem bestimmten Marktanteil einen gewissen Anteil ihrer Feedbackdaten anderen Unternehmen zur Verfügung stellen. Mit steigenden Marktanteilen solle dabei auch die Masse der zu teilenden Daten steigen. Dadurch wollen sie den Feedbackeffekten, die auf Plattformen bestehen können, einen eigenen gesetzlichen Feedbackeffekt entgegensetzen, der mögliche Konzentrationstendenzen abmildern soll. Das Konzept haben die beiden Autoren vor einiger Zeit für die HAZ kurz zusammengefasst.
Diese Idee greift Nahles in ihrem Papier vereinfacht auf. Das geltende Kartellrecht sei einerseits fallbasiert und andererseits reaktiv. Das bedeutet, dass das Kartellrecht mit seinen Per-se-Verboten gerade nicht der Regulierung dient, sondern -mit Ausnahme der prognostischen Fusionskontrolle - erst in Fällen ausdrücklich festgestellter Wettbewerbsbeschränkungen eingreift. Würden aber dennoch Monopolisierungstendenzen auftreten, so solle über den Hebel der Datenteilungspflicht Wettbewerb und Innovation sichergestellt werden. Dabei sollten sachbezogene Daten in jedem Fall geteilt werden müssen, personenbezogene Daten erst nach vollständiger Annonymisierung oder Verhinderung der Re-Identifikation auf anderer Weise. Die Unternehmen sollen dieser Offenlegungspflicht jedoch auch Einwendungen entgegensetzen können, zum Beispiel bei Geheimhaltungspflichten oder sonstigen ausdrücklichen Vorschriften. Nahles spricht auch die Problematik der Preisgabe wettbewerbssensitiver Informationen an. Dabei handelt es sich um Informationsaustausch, der kartellrechtlich verboten sein kann, wenn er den beteiligten Unternehmen eine Wettbewerbsbeschränkung ermöglicht. Nahles will die Anwendbarkeit dieses Gesetzes auf bestimmte „Anwendungsfälle” festlegen und nennt dabei Suchmaschinen und E-Commerce. Die Offenbarung der Daten soll dabei über eine von dem Unternehmen bereitzustellende Schnittstelle erfolgen.
Ergänzend hierzu sollten die Datenschutzbehörden gerade bei diesen Unternehmen darauf achten, dass sie das Recht der Nutzer auf Datenportabilität einhalten. Unklar ist, ob dies im Zusammenhang mit der Gesetzesforderung steht oder aber nur eine politische und nicht weiter konkretisierte Forderung ist. Das Recht auf Datenportabiltät wäre aber jedenfalls nutzerseitig das korrespondierende Recht zu der Datenteilungspflicht. Allerdings stellt sich schon die Frage, ob dies überhaupt Sinn macht, wenn doch die im Rahmen der Datenteilungspflicht behandelten Daten immerhin annonymisiert werden sollen.
Was sind die Kritikpunkte?
Marktdominante Unternehmen
Das Papier geht ebenso wie bereits die Idee von Mayer-Schönberger und Ramge von einer gesetzlichen Aufgreifschwelle aus, die sich an der Marktmacht orientiert. So einfach dies klingt ist es in der Praxis aber nie bei Plattformen. Denn in vielen Märkten in der Digitalwirtschaft lassen sich Märkte als solche nur schwer genau definieren, geschweige denn die auf ihnen vorherrschenden Marktmachtverteilungen analysieren. Die Frage nach dem relevanten Markt ist jedoch eine der entscheidenden Kernfragen des Kartellrechts, denn an ihr entscheidet sich häufig, ob überhaupt z.B. das Marktmachtmissbrauchsverbot zur Anwendung kommt.
Stark verkürzt geht es bei einem Markt um das Aufeinandertreffen von Angebot und Nachfrage. Im digitalen Bereich treten jedoch besonders häufig Plattformen auf, die sich auch als Unternehmen mit mehrseitigen Wirtschaftszweigen beschrieben lassen, manchmal auch vereinfacht „mehrseitige Märkte” bezeichnet. Das Besondere bei diesen ist, dass sie jeweils verschiedene Nachfragen gegenüber unterschiedlichen Nutzergruppen bedienen, dabei aber deren Interessen miteinander verknüpfen. Wie in diesen Konstellationen die jeweiligen relevanten Märkte abgegrenzt werden können und die jeweilige Marktmacht bestimmt werden kann, ist Gegenstand zahlreicher Forschungsvorhaben, Publikationen und auch Dissertationen. [Spoiler: Auch in meiner Arbeit diskutiere ich diese Fragestellungen und versuche eine Annäherung.] Verkürzt und sehr deutlich lässt sich dazu aber sagen, dass Märkte bei Plattformen nicht so ohne weiteres abgegrenzt werden können oder die auf ihnen bestehende Marktmacht mit einem zuverlässigen Wert festgestellt werden kann. Wie die progressive Daten-Sharing-Pflicht respektive Datenteilungspflicht hier noch eine überhaupt praxistaugliche Lösung anbieten wollen, bleibt deshalb schleierhaft.
Zugangsobjekt Daten
Es ist also bereits nicht klar, wie die marktbezogene Aufgreifschwelle rechtssicher angewendet werden könnte. Aber auch das Zugangsobjekt Daten ist problematisch. Mayer-Schönberger und Ramge beziehen sich in ihrem Buch auf sogenannte Feedbackdaten. Zwar wird auch hier in wettbewerbsrechtlicher Hinsicht noch nicht ganz klar, worum es sich dabei handelt. Es könnte sich um diejenigen Informationen handeln, die das Unternehmen gerade daraus gewinnt, dass es Daten miteinander kombiniert und dadurch neue Wertschöpfungsmöglichkeiten erhält. Oder aber es handelt sich um die Daten, die gerade aufgrund der wettbewerblichen Feedback-Effekte bei Plattformen entstehen. Beides jedenfalls krankt daran, dass diese Feedbackdaten nicht als Gegenstand einer möglichen Zugangsvorschrift hinreichend bestimmt werden.
Das Papier greift hier die beliebte These auf, Daten seien alles in der Digitalwirtschaft und allein ihr Teilenmüssen würde einige Probleme lösen. Eine bislang in einem anderen Zusammenhang diskutierte dogmatische Lösungsmöglichkeit wäre, die Frage nach der Marktmacht unmittelbar mit dem jeweiligen Zugangsobjekt zu verknüpfen. Das würde aber die Feststellung einer konkreten (wettbewerblichen) Datenmacht voraussetzen. Dieses Konzept der wesentlichen Einrichtung würde bereits nach geltendem Kartellrecht als Behinderungsmissbrauch unter engen Voraussetzungen kartellrechtliche Zugangsansprüche zu Daten ermöglichen. Dieses ließe sich auch mit dem Konzept der relativen Marktmacht gemäß § 20 Abs. 1 S. 1 GWB bei Plattformen kombinieren. Ich hatte das letztes Jahr in der März-Ausgabe der Zeitschrift NZKart einmal erörtert. Für bestimmte sachbezogene Daten ließe sich danach bereits jetzt ein Zwangszugang begründen. Dies gilt aber nicht bei personenbezogenen Daten und den ansonsten nicht näher konkretisierten großen Datensammlungen - von Andrea Nahles hier als Datensilos bezeichnet -, da sich hier die Möglichkeit zum Ausschluss des Wettbewerbs nicht feststellen lässt. Größe oder ein Datenvorsprung allein begründen noch keine Marktmacht als solche. Da liegt aber auch wieder ein Problem bei diesen Datensammlungen: Niemand außer dem Unternehmen selbst weiß in der Regel, wie viele Daten dieses überhaupt hat und um welche es sich handelt. Auch könnten kleine Datensätze aufgrund ihres jeweiligen konkreten qualitativen Inhaltes ebenso wettbewerblich negativ eingesetzt werden. Die Voraussetzungen für eine rechtssichere und rechtsfehlerfreie Feststellung einer Datenmacht scheinen derzeit nur in sehr engen Anwendungsfällen erfüllbar.
Die Daten-Sharing-Pflicht würde dazu führen, dass Unternehmen zunächst mit allen ihren Daten erfasst wären. Interessant wäre da auch zu wissen, wie nachverfolgt werden soll, ob ein Unternehmen sich an das Gesetz hält und progressiv teilt - also den jeweils vorgeschriebenen Prozentanteil der ihm zur Verfügung stehenden Daten offenlegt. Die betroffenen Unternehmen müssten die jeweiligen Einwände aktiv für sich erheben und begründen. Auch träfe sie eine Annonymisierungspflicht oder mindestens eine Pflicht zu vergleichbaren Maßnahmen. Über den Hebel des Anwendungsbereichs würde also auch ein datenschutzrechtliches Regulierungsinstrument umgesetzt. Diese Unternehmen wären damit neben den allgemeinen Pflichten der Datenteilungspflicht mit einem erheblichen zusätzlichen technischen und bürokratischen Aufwand belastet, der möglicherweise außer Verhältnis zu dem eigentlichen Regulierungszweck des Gesetzes steht, jedenfalls aber eine ungleiche Belastung zu anderen vergleichbaren Unternehmen darstellt. Ambitioniert ist dabei auch das Vorhaben, eine Datenteilungspflicht mit dem Datenschutzrecht überein zu bringen.
Zusätzliches kartellrechtliches Instrument oder Weg in die Regulierung
Richtig bedenklich wird es jedoch bei den möglichen Anwendungsfällen des Gesetzes, die sogar positiv bestimmt werden können sollen. Diese laut Positionspapier festzulegenden Anwendungsbereiche dienen eher dem Zweck, die Wirkung des Gesetzes zielgerichtet zu lenken und damit die bereits eingangs kritisierten US-amerikanischen Plattformunternehmen zu erfassen. So wird zum Beispiel nicht erwähnt, ob die Betreiber autonomer Fahrsysteme oder Hersteller von Fahrzeugen erfasst sein sollen, deren Daten in wettbewerblicher Hinsicht auch interessant sein könnten.
Laut Nahles sollen die Unternehmen die Offenlegung wettbewerbssensitiver Daten verweigern dürfen. Betreffen diese Daten mögliche Lieferung, Gebiete oder sonstige wettbewerbsstrategische Informationen, könnten andere Unternehmen ihr wettbewerbliches Verhalten daran anpassen. Die damit verbundene Fühlungnahme kann für die jeweils beteiligten Unternehmen einen Verstoß gegen das allgemeine Kartellverbot darstellen. Es würde sich dann trotz eines nicht unmittelbaren Austauschs um eine abgestimmte Verhaltensweise handeln, die grundsätzlich verboten ist. Das Problem an der Daten-Sharing-Pflicht ist aber, dass sie Unternehmen zunächst in das Risiko zwingt, durch das angeordnete umfassende Teilen gegen das Kartellverbot zu verstoßen. Die jeweils betroffenen Unternehmen müssten dann selbst prüfen, ob sie aufgrund dieses Risikos die Offenlegung der Daten verweigern können. Diese Prüfung könnte man sicher mit einer Klarstellung erleichtern. Diese würde dann jedoch dazu führen, dass mit einem sehr weitreichenden und unbestimmten Gesetz wettbewerbliche Abstimmungen sogar verlangt werden. Völlig unklar ist an dieser Stelle wieder, wie mögliche Verstöße gegen dieses Gesetz überhaupt festgestellt, geschweige denn verfolgt werden könnten.
Welche Alternativen böten sich an?
Das Instrument Daten-Sharing-Pflicht hat mit Kartellrecht oder Wettbewerb nichts mehr zu tun, sondern ist ein reines politisches Lenkungsinstrument gegenüber den derzeit als Gegner ausgemachten Plattformen. Die zahlreichen wettbewerblichen und rechtlichen Einwände würden auf diesem Wege lediglich platt gefahren und dafür neue geschaffen - aber es träfe nach dem Gedanken des Positionspapiers wohl jedenfalls nicht die falschen.
Gesetzgeberisch könnte hier durch wesentlich mildere Maßnahmen bereits viel erreicht werden. Zum Beispiel könnten Daten als Zugangsobjekte bereits positiv gesetzlich definiert werden, wollte man wirklich eine kartellrechtliche Zwangslizenz regeln. In bestimmten Bereichen gibt es bereits sektorspezifische Datenzugänge, die jeweils bestimmten wettbewerblichen Zwecken dienen. Zum Beispiel gibt es für Fahrzeughersteller die Pflicht zur Bereitstellung spezifischer Informationen, die für andere Geschäftsmodelle erforderlich sind. Es besteht dabei also keine allgemeine Datenteilungspflicht, sondern eine spezifische. Derartige Instrumente ließen sich dabei durchaus übertragen, allerdings auch wiederum nur auf die Fälle, in denen Daten und Informationen das wettbewerbliche Problem sind. Bei den Plattformen aber ließe sich durchaus bezweifeln, ob wirklich die Daten die eigentliche Herausforderung sind oder nicht sogar andere Aspekte, die sich über das geltende Kartellrecht jedenfalls bereits behandeln lassen.
Andrea Nahles' Positionspapier auf den Seiten der SPD.
13.02.2019 08:22
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.Mittlerweile hat künstliche Intelligenz als einst reine Theorie aus der Mathematik auch künstlerische Anwendungsgebiete erreicht: Sie komponiert, malt oder schreibt den achten Band der Harry-Potter-Reihe. Gibt es eigentlich ein Urheberrecht an Romanen, Gemälden oder von Musik, die eine künstliche Intelligenz (eigenständig) geschaffen hat? Und sind Lern- und Schaffensprozesse künstlicher Intelligenz rechtlich unbedenklich?
Auch in Zeiten der digitalen Transformation mag sich Fankultur noch eher an echten Stars aufhängen. Dennoch: Mit kreativen Inhalten wie Musik, Bildern oder Geschichten, die von einer künstlichen Intelligenz (kurz: KI) geschaffen werden, werden wir es vermutlich häufiger zu tun bekommen. Der KI-Song im Stil der Beatles wirkt noch etwas holzschnittartig. Doch schon heute wird Musik von J. S. Bach, die er selbst nie komponiert hat, sondern die allein aus der Reproduktion seines Gesamtwerkes stammen, für einen echten Bach gehalten, und selbst für die ExpertInnen im Podcast „Switched on pop“ ist es ziemlich knifflig, im Blindtest Mensch von Maschine zu unterscheiden.
Wie KI neue Kunst schafft
Damit künstliche Intelligenzen Werke schaffen können, setzen sie die Theorie des maschinellen Lernens um. Eine KI „lernt“ anhand von Beispielen – den Trainingsdaten. Ein solcher Datensatz enthält zum Beispiel Musik wie das Gesamtwerk von Bach, Texte oder digitalisierte Gemälde.
Der Trainingsdatensatz wird beim Einspeisen einem Optimierungsprozess unterzogen: In einem Soll-Ist-Vergleich auf den Trainingsdaten wird zwischen Eingabedaten und erwünschten Ergebnisdaten auf generelle Konzepte, Muster oder Regeln geschlossen. Die Stärke bzw. Priorität einer Regel wird anhand ihrer Häufigkeit implizit im Datensatz festgelegt. Implizit bedeutet, dass die Regeln im Modell der KI verbleiben und sich nicht extrahieren – also explizit abbilden – lassen: Verwendet Van Gogh einen bestimmten Blauton in einem Großteil seiner Werke, so würde auch das generierte Gemälde Nuancen dieses Blaus aufweisen. Schreibt J.K. Rowling bestimmte Kapitel aus der Ich-Perspektive, wirkt sich dies auch auf die Regeln und die spätere Textgenerierung aus. Ein explizites „Regelwerk“ über Blau-Nuancen oder Erzählperspektiven wird aber nicht ausgegeben.
Maschinelles Lernen erkennt Muster und schafft Regeln
Im nächsten Schritt wird das selbstständige Lernen auf Basis des Datensatzes meist mit Positiv- und Negativ-Beispielen durch sogenanntes Labeln gesteuert, sodass die Label das gewünschte Ergebnis schon vorgeben (überwachtes Lernen/supervised machine learning). Dabei werden Daten mit Attributen versehen: Wenn eine Bilderkennung auf Pferde trainiert wird, etikettiert man die Pferdebilder von vornherein mit „Pferd”. Ähnlich könnte eine Programmiererin das Feedback von Kunstkennern und -kritikern einbinden, die die Nähe des später generierten Werks am Original bewerten. So wird das Ergebnis des generierten Werkes noch verfeinert.
KI-Musik: Von FlowMachines und anderen Maschinenkomponisten
In der Musik wird KI vermehrt zum Generieren von Klangmustern und Tonfolgen genutzt. Jüngste Hörbeispiele KI-komponierter Musik wären das Album „Hello World“ oder „I AM AI“ von Taryn Southern. Vereinzelt wird die künstliche Intelligenz aber auch nur als Hilfe, Counterpart oder eigenes Instrument mittels eigens geschriebener Programme genutzt – so geschehen bei Olafur Arnalds. Schaut man unter die Oberfläche von „Hello World“, kann man die Nutzung von FlowMachines als Kompositionshilfe ausmachen – einem KI-Kompositionsprogramm von Sony, das auch den vermeintlichen Beatles-Song „Daddy‘s Car“ komponiert hat.
Die in der Software enthaltene KI wurde mit im Vorfeld mit Musik-Datensätzen aus diversen Genres und Jahrzehnten genährt und hat diese auf charakteristische Tonfolgen, Melodien und ähnliche Merkmale untersucht. So werden auch hier implizite Regeln für das Generieren neuer Tonfolgen und Parameter wie Dauer, Höhe, Lautstärke und Klangfarbe einbezogen. Wählt man nun im Programm das Genre und die gewünschte Tonart aus, generiert das Programm einen ersten Entwurf. Dieser ist bei FlowMachines anpassbar und kann auch partiell neu generiert werden. Damit wirkt das Kompositionstool wie ein Ideenspeicher, der auf Vergangenes zurückgreift und existierende Melodien assoziativ erweitert und entwickelt. Ähnlich funktionierende Programme sind NSynth von Magenta oder Aiva Technologies. Auch sie analysieren Samples und Musik-Datenbanken und ordnen Töne oder Melodien neu an.
Malen im Stile Rembrandts
In der Malerei bilden (digitalisierte) Gemälde einer bestimmten Epoche bzw. Stils oder eines bestimmten Malers den Trainingsdaten für das maschinelle Lernen. Wichtig ist also auch hier, dass sie einer Gruppe oder einem Überbegriff zugeordnet werden können.
Analysiert man die Gemälde von Van Gogh oder Rembrandt, finden sich Übereinstimmungen in Farbauftrag und -ton, typische Motive oder Anordnung von Licht und Schatten in den Werken (nicht unbedingt malerübergreifend). Die Schaffensmetamorphose ist ebenfalls relevant, um ein Bild des „jüngeren“ oder „älteren“ Rembrandt zu erzeugen. Sind die Merkmale ausgemacht, können implizit Regeln für die Generierung neuer Werke gebildet werden. Das heißt jedoch nicht, dass die KI nun ohne weiteren Schritt einen Rembrandt malen könnte. Die aus den originalen Rembrandt-Bildern erlernten Regeln müssen auf einen anderen Datensatz angewendet werden – erfordern also zum Beispiel ein eigenes digitales Bild zum automatisierten Bearbeiten im typischen Stil des Malers. Eine Beispielsanwendung ist „deepart.io”: Dort kann man ein Foto importieren und in ein Kunstwerk von Dalí oder einem Maler seiner Wahl umwandeln lassen.
KI-Texte
Mit den entsprechenden Trainingsdaten kann eine KI sogar Romane schreiben. Für Fans von Harry Potter gibt es die Möglichkeit, nach Band 7 die Geschichte mit Hilfe einer KI weiter zu erzählen – auf Basis der Bände 1-7. Die Apps „Botnik“ und „predictive writer“ geben diese Möglichkeit ohne Vorkenntnisse. Dabei kommt auch Klamauk wie „Harry Potter und der Stein auf dem Boden“ heraus, „geschrieben” mit dem Datensatz des ersten Harry-Potter-Buches.
Die Welt KI-geschaffener Werke ist also sehr vielfältig. Doch ist das KI-Geschaffene (urheber)rechtlich geschützt? Ist also die Kontrolle über Kopie, Sendung, Verbreitung, Veränderung und wirtschaftliche Ausbeute möglich? Oder ist all das genannte Material rechtefrei?
Der Werkschutz von KI-Geschaffenem
Unterscheiden muss man den Schutz von KI-Geschaffenem vom Schutz „der KI selbst”, also von Programmcode und Trainingsergebnissen. Zumindest Programme zum Trainieren und Ausführen trainierter Netze können unter urheberrechtlichen Softwareschutz fallen (siehe Ehinger/Stiemerling in CR 2018, 761). Vermutlich werden beim Schutz von Trainingsergebnissen aber Geheimhaltung und Geschäftsgeheimnisse relevanter sein als das Urheberrecht. Wir möchten diesen Aspekt hier aber ausklammern und uns auf den Output konzentrieren, also die KI-Kunst.
Das Geschaffene sind unter anderem Bilder, Texte und Musik. Bei all diesen Werkkategorien greift urheberrechtlicher Schutz, wenn es sich um persönliche geistige Schöpfungen handelt, § 2 Abs. 2 UrhG. Bei den meisten rechtlichen Auseinandersetzungen über den Schutz eines Textes, einer Melodie oder einer Zeichnung (oder Fragmenten daraus) wird darüber gestritten, ob das Werk originell genug ist und sich vom „bloßen Handwerk“, dem „Alltäglichen“ abhebt. Gerade in Plagiatsprozessen wird immer wieder minuziös untersucht, ob Text- und Musikfragmente, Fotomotive oder Romanfiguren vor der Übernahme anderer geschützt sind.
Die KI-geschaffenen Werke mögen zwar teils hölzern wirken. Aber was wir dort schon hören, lesen und sehen können, würde ein Urheberrechtler in aller Regel als ausreichend originell bewerten. Es steht eine andere Grundfrage des Urheberrechts im Raum: Kann eine KI überhaupt Schöpferin von Werken sein?
Nur Menschen sind SchöpferInnen
Klar ist: Das deutsche (und das kontinentaleuropäische) Urheberrecht erkennen die Maschine als Schöpferin von Werken nicht an. Werke schaffen kann nur ein Mensch, denn Werke müssen etwas persönlich Geschaffenes sein. Das Urheberrecht ist traditionell stark am Persönlichkeitsrecht aufgehängt (droit d‘auteur): Mein Roman, mein Lied, meine Zeichnung sind Ausdruck meines Wesens, das in meiner Einzigartigkeit und in meiner Lebenssituation Wörter, Töne und Pinselstriche einmalig auswählt und variiert. Als UrheberIn steht es mir neben der wirtschaftlichen Kontrolle übers Werk zu, dass ich entscheiden kann, wann und wie es in die Öffentlichkeit geht (§ 12 UrhG), ob und wie mein Name daran steht (§ 13 UrhG) und dass es nicht entstellt wird (§ 14 UrhG).
„Urheber ist der Schöpfer des Werkes.”
§ 7 UrhG
An der Anforderung „Mensch als Schöpfer” kommt man also nicht vorbei.
Wer nun einen Werk-Erzeugen-Button drückt und die Maschine das „neue“ Beatles-Album oder einen Harry Potter-Nachfolger erzeugt, schafft allein durch diesen Akt kein Werk – auch dann nicht, wenn in das Antrainieren der KI viel Arbeit geflossen ist. Und für den schöpferischen Beitrag des Menschen genügt der Knopfdruck allein nicht. Was den Werkschutz betrifft, wäre es urheberrechtlich erst mal gemeinfrei – jede/r dürfte also kopieren, aufführen, verändern.
Fremde, schon bestehende Rechte im Generierten
KI-Werke können allerdings fremdes, seinerseits geschütztes Material enthalten: zum Beispiel, wenn per KI aus einem Fotomotiv eine Malerei generiert wird – und das Fotomotiv so individuell ist, dass sein Schutz auch noch in der „Malerei“ steckt.
Dasselbe gilt, wenn fremde Aufnahmen oder geschützte Handlungsverläufe und Romanfiguren enthalten sind, die unverändert oder unfrei bearbeitet übernommen werden. Wer diese Werke dann zugänglich macht, haftet dafür nach den etablierten Zurechnungsregeln. Dasselbe gilt für Melodien, Soundschnipsel oder Textfragmente. KI-generierte Werke sollten also nicht bedenkenlos ohne Plagiatskontrolle ins Netz gestellt werden.
Wenn man von fremden Rechten spricht, ist die Frage, wo man die Grenze zieht. So sind Ideen, Stilrichtungen und Genres nicht Gegenstand des Urheberrechts und dürfen daher frei übernommen werden. Die schwierige Grenze liegt da, wo die Trainingswerke verblassen.
Ob nun ein Album einer KI-Madonna, das zwar keine Kompositionen und keine echten Tonaufnahmen von ihr verwendet, sondern „nur“ klingt wie sie und dabei täuschend echt wirkt, erlaubt veröffentlicht und vermarktet werden darf, ist nicht nur eine Frage des Urheberrechts. Möglicherweise macht man sich hier geschützte verwertbare Teile ihres Persönlichkeitsrechts und ihres wettbewerbsrechtlichen Leistungsschutzes als Star zu Eigen – was sie oder er übers Schadensersatz-, Bereicherungs- und Wettbewerbsrecht untersagen und abschöpfen kann.
Investitionsschutz oder Wertzuordnung
Würde man Schutz der KI-Werke bejahen, stellte sich die Frage, wem Rechteinhaberschaft und Nutzungsrechte am KI-geschaffenen Werk zufallen würden. Denn schließlich hat eine Maschine keine Rechtspersönlichkeit. Ansetzen könnte man hier beim Investitionsschutz, der keine Schöpferperson voraussetzt, sondern Hersteller eines Immaterialguts schützt, die dafür Investitionen getätigt haben. Das Datenbankschutzrecht aus §§ 87a ff. UrhG ist ein solches Schutzrecht. Es belohnt Investitionen in Sammlungs- und Strukturierungsleistungen von „unabhängigen Elementen“ in einer Datenbank. Vollkopien dieser Datenbanken und wesentliche Entnahmen daraus sind dann erlaubnispflichtig. Der Datenbankschutz passt aber für (KI-)Werke nicht, weil Songs, Texte, Bilder etc. nicht aus unabhängigen Elementen bestehen, die einzeln zugänglich sind (vgl. auch Hetmank/Lauber-Rönsberg in GRUR 2017, 574, 579).
Wem gebührt der Wert?
Doch es existiert noch ein weiterer Ansatz: der Schutz der Ausbeute der KI. So geht in der Diskussion um ein Dateneigentum die Idee um, wertvolle Informationen ähnlich wie Erzeugnisse nach §§ 99, 100 BGB oder sonstige Rechte nach § 823 Abs. 1 BGB zu schützen.
Die eigentliche Frage ist nicht, wer der Urheber ist, sondern wem der Wert des Bildes gebührt. Relevant sind neben dem UrhG auch Rechtsfragen rund um §§ 99/100 und §812 ff. BGB. Bislang gibt es dazu m.W. keine höchstrichterliche Rechtsprechung. https://t.co/uXlvSvMTvR
— Simon Assion (@sas_assion) 6. Januar 2019
Demnach könnte man ein KI-Werk als Rechtsfrucht bzw. das Erzeugnis der Rechte aus dem Code/aus dem KI-Modell sehen: Wer ein Softwareurheberrecht oder das Geschäftsgeheimnis innehat, würde der Ertrag zustehen, der sich mit den KI-Werken erzielen lässt. Dieser Ansatz würde nicht zum selben Schutz führen wie ein Werkurheberrecht. Aber zumindest könnte sich nach diesem Ansatz der „Erzeuger“ die wirtschaftliche Ausbeute aus den Werken über das Bereicherungsrecht zurückholen und Gewinne für sich abschöpfen. Das ist alles hoch umstritten – hier ist noch nichts abschließend geklärt.
Übrigens behandelt das britische Recht computer-generated works: SchöpferIn ist die Person by whom the arrangements necessary for the creation of the work are undertaken (Section 9(3) des Copyright, Design and Patents Act). Eine AnwenderIn oder ProgrammiererIn hat dort das Urheberrecht inne.
KI nur als Hilfsmittel
Tatsächlich wird in vieles, was KI-generiert ist, noch einmal kreativ eingegriffen. Das führt uns zur Schnittstelle zwischen maschinenkreativer Schöpfung und menschengesteuerter Maschine.
Dass mit Photoshop oder einer Audio-Workstation geschaffene Illustrationen oder Musik geschützt sein können, ist unumstritten – sofern der Mensch die Maschine steuert, also bloß als Hilfsmittel einsetzt. Wenn die Musik-App zum Beispiel ein Harmoniegerüst vorschlägt, weil es Harmonielehre versteht, schafft ein Werk, wer (als Mensch) darüber eine Melodie komponiert. Und der menschengedichtete Text über einem maschinengeschaffenen Song (so bei „Daddy’s Car”) ist natürlich schutzfähig, schon weil der Text ein eigenes Werk ist.
Setzt aber der Mensch einen Schaffensprozess lediglich in Gang, bei dem allein die Maschine die Kunst beherrscht, wendet also allein die Maschine das Gelernte an und ist aus Bedienersicht das konkrete Werk zufällig, ist die Maschine kein bloßes Hilfsmittel mehr. Gibt der Mensch nur Stilrichtungen vor – Ideen und Stile sind ja nicht geschützt –, kommt kein Werkschutz in Frage.
Doch wie grenzt man hier bei Mensch-Maschinen-Hybriden ab? Die Hürde zur persönlichen geistigen Schöpfung kann ein solcher Hybrid nehmen,
- wenn der Mensch die Maschine zumindest teilweise kreativ steuert und in einem (mehraktigen) Schaffensprozess kreative Auswahlentscheidungen durch den Menschen fallen; oder
- wenn die KI so programmiert ist, dass die Vorgaben, die ihr ein Mensch macht – indem er Motiv und weitere Parameter wählt – so individuell vorgezeichnet sind, dass beim Ingangsetzen der KI über den gewählten Stil hinaus kein reines Zufallswerk mehr entsteht. Je beschränkter die KI in ihrer eigenen Auswahl kreativer Variablen und je geringer die Zufälligkeit, desto mehr Raum ist für die persönliche Schöpfung, wenn die menschliche Kreativität am Ende im Werk zum Ausdruck kommt; oder
- wenn ein KI-geschaffenes Zufallswerk durch einen Menschen kreativ überarbeitet wird. Das kann durch Umstellungen oder Ergänzungen passieren: Bringt ein Mensch einen KI-geschaffenen Handlungsstrang in Schönschrift, ordnet ihn neu, schmückt er Personen darin mit Phantasie aus und verpasst ihren Dialogen neue Töne, komponiert er Songs um und sind die Änderungen nicht nur simpler Art (gehen also über bloßes Ändern von Tonart, Mix und Instrumentierung hinaus), ist Schutz denkbar.
Es fragt sich noch, wer von außen bei einem fertigen Werk die Anteile von Mensch und Maschine noch voneinander abgrenzen kann. Genauer Einsatzgrad von KI und der Grad des menschlichen Beitrags werden vermutlich oft ein Geheimnis bleiben. So ist es auch bei dem erwähnten Album von Skygge und der Einbindung von FlowMachines: Welche Teile nur generiert, welche dagegen abgeändert wurden, ist trotz der „Aufklärungsvideos“ nicht ersichtlich und nur schwer hörbar. Sollte diese Prämisse des Menschen als Werkschöpfer bald bröckeln, geriete auch die Verwertungspraxis ins Wanken – in der nur vergütet werden muss, was schutzfähig ist.
Vorphase: Die Maschine lernt mit Vorhandenem
Schließlich sollte die Frage im Auge behalten werden, ob eine Maschine grenzenlos „inspiriert“ werden darf. Denn die Maschine muss immerhin mit Datensätzen gefüttert werden, um trainiert zu werden – darunter geschützte Texte, Bilder und Musik. Hier kann es auf verschiedenen Ebenen zu Vervielfältigungen (§ 16 UrhG) kommen, wenn Material digitalisiert, in die Lern-Datenbank eingespeist und in andere Formate überführt wird.
Für eine Kopieerlaubnis im Vorfeld zum Erkenntnisgewinn kommt die neue Text und Data-Mining-Schranke (TDM) ins Spiel: Nach § 60d UrhG darf eine „Vielzahl von Werken“ (sogenanntes Ursprungsmaterial) automatisiert und systematisch vervielfältigt werden, um daraus „insbesondere durch Normalisierung, Strukturierung und Kategorisierung ein auszuwertendes Korpus zu erstellen“. Privilegiert ist der Zweck der automatisierten Auswertung für die wissenschaftliche Forschung. Die TDM-Schranke zielt auf den Erkenntnisgewinn aus großen Datenbeständen ab – Muster, um Regeln zu bilden, sind ein Anwendungsfall, und damit durchaus die kunstlernende KI. Man darf hier also alle geschützten Werke einer Malerin vervielfältigen, um mit einer Big Data-Analyse ihren Stil daraus zu destillieren. Für Kopien zum Zweck dieser Lernprozesse passt die Schranke ganz gut. Nur: Auf § 60d UrhG darf sich nur die nicht-kommerzielle Forschung stützen. Alles andere muss gesondert lizenziert werden – wofür gezielte Lizenzierungsmodelle bei Massenanalysen unerlässlich sind.
Von einer generellen Inspirationserlaubnis für KI kann man also im Urheberrecht nicht sprechen.
Fazit
Eine KI kann nach geltendem Recht keine Schöpferin von Werken sein. Allerdings ist die Diskussion noch nicht erschöpft. Und zwischen Maschinen- und Menschengeschaffenem ist viel Raum für Zwischentöne.
Wir danken Prof. Dr. Harald Sack (Professor am Karlsruher Institut für Technologie (KIT) und Bereichsleiter für Information Service Engineering bei FIZ Karlsruhe – Leibniz-Institut für Informationsinformationsinfrastruktur) für die freundliche Unterstützung zum technischen Hintergrund.

11.02.2019 08:15
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.I. Einleitung
Anfang des Jahres 2017 warf ein Vorfall bei der Verwendung von Amazons „Echo“ die Frage nach der Verantwortlichkeit von über virtuelle Assistenten ausgeführte Bestellungen auf: Ein Nachrichtensprecher erzählte von einem Kind, das mit „Alexa“ sprach und dabei versehentlich ein Puppenhaus und dänische Butterkekse bestellte. Seine Beschreibung dieses Vorgangs führte wiederum in den Haushalten, die das Echo verwendeten und die Nachrichtensendung verfolgten, dazu, dass Alexa auch dort versuchte, ein Puppenhaus zu bestellen.
Automatisiert agierende, virtuelle Assistenten wie „Alexa“ helfen uns, unkompliziert und sprachgesteuert Bestellungen im Netz zu tätigen. Stärker automatisierte Systeme, wie der „Instant Ink“ Tinten-Lieferservice von HP, nehmen Bestellungen sogar ohne konkrete menschliche Interaktion vor, agieren dabei aber jedenfalls noch nach voreingestellten Bedingungen. Gänzlich autonom agierende Systeme werden aller Voraussicht nach künftig auch ohne derartige Voreinstellungen in der Lage sein, Entscheidungen für ihren Inhaber zu treffen. So wird dem autonomen Kühlschrank zwar auch ein Ziel vorgegeben. Er wird allerdings nicht aufgrund vorherig festgelegter, deterministischer Parameter tätig, sondern gibt sich eigene Regeln. Der autonome Kühlschrank, der mit den restlichen Smart Devices seines Inhabers vernetzt ist, kann den digital geführten Kalender abrufen und bei dort vermerkten Ereignissen durch die Bildung eigener Algorithmen entsprechend reagieren. Auf diese Weise ermittelt der Kühlschrank, welche Lebensmittel er wann in welcher Menge ordern muss, prüft deren Verfügbarkeit bei verschiedenen Online-Lieferservices, vergleicht Preise und Lieferzeiten und tätigt die Bestellung.
Künstliche Intelligenz und maschinelles Lernen bilden die technischen Grundlagen, die es einem System erst erlauben, automatisiert oder autonom zu agieren. Die rechtlichen Grundlagen, die die Einbindung automatisiert oder autonom agierender Systeme in Rechtsgeschäfte ihrer Inhaber konkretisieren, stehen weitestgehend noch zur Diskussion. Der vorliegende Artikel wirft einen Blick auf Vertragsfragen im Zusammenhang mit KI.
II. Automatisiert agierende Systeme
Bestellt Alexa nun ein Puppenhaus und Butterkekse, stellt sich ich vor allem die Frage, ob die vom virtuellen Assistenten zunächst generierte und anschließend abgegebene Erklärung als eigene Willenserklärung des Inhabers erachtet oder diesem jedenfalls zugerechnet werden kann. Im Zeitpunkt der Bestellung durch das automatisiert agierende System liegt – anders als bei der Übermittlung von Erklärungen durch bloße elektronische Bestellhilfen – zumindest kein Erklärungsbewusstsein und Geschäftswillen der hinter dem System stehenden Person vor, da diese bei Inbetriebnahme noch nicht weiß, was das System wann wem gegenüber erklären wird. Es ist allerdings auch nicht zwingend erforderlich, dass alle Elemente der Willenserklärung im Zeitpunkt der Erklärung vorliegen. Da automatisierte Systeme deterministisch den durch den Menschen bei Inbetriebnahme vorgegebenen Regeln folgen, ist diesem Vorgang zumindest ein abstrakter Wille zu entnehmen, durch das automatisiert agierende System zu einem späteren Zeitpunkt einen Bestellvorgang auszulösen und damit eine entsprechende Willenserklärung abzugeben. Der Erklärungsakt lässt sich durch den arbeitsteiligen Prozess zwischen Mensch und Maschine auf den Systeminhaber zurückführen.
Aus technischer Sicht löst Alexa auch bei einer Anweisung durch einen Minderjährigen oder einer indirekten Ansprache durch einen Nachrichtensprecher den Bestellvorgang aus, da die Spracherkennung von Alexa bei entsprechenden Schlüsselworten aktiviert wird. Doch wer ist aus rechtlicher Sicht in diesen Konstellationen Vertragspartner?
Bei Inbetriebnahme hat der Systeminhaber den abstrakten Willen, jede über das Gerät übermittelte Erklärung als eigene Willenserklärung gelten lassen. Tätigt nun das minderjährige Kind oder der Nachrichtensprecher eine Bestellung mittels Alexa, könnte dieser Dritte – ähnlich wie derjenige, der sich unter fremder Kennung bei eBay einloggt und Einkäufe tätigt – aufgrund der Relevanz der Identität für den Vertragspartner entsprechend eines Stellvertreters behandelt werden. Der Nachrichtensprecher will allerdings gar keine Willenserklärung abgeben. Ihm fehlt das Erklärungsbewusstsein. Da ihm wohl auch nicht zu unterstellen ist, dass er bei Anwendung der im Verkehr erforderlichen Sorgfalt hätte erkennen und vermeiden können, dass seine Äußerung nach Treu und Glauben und der Verkehrssitte als Willenserklärung aufgefasst werden durfte, fehlt es im Rahmen der Stellvertretung bereits an einer abgegebenen eigenen Willenserklärung. Das generelle Erklärungsbewusstsein des Kindes würde hingegen grundsätzlich den Anforderungen der Stellvertretung genügen. Da es ohne Vertretungsmacht handelt, könnte es als falsus procurator in Regress genommen werden. Eine Haftung des Kindes entfällt allerdings wegen seiner Minderjährigkeit nach § 179 Abs. 3 BGB.
Konsequent wäre damit, dass der Vertragspartner die vertragsrechtlichen Risiken des Einsatzes automatisiert agierender Systeme trüge. Dies erscheint jedoch unbefriedigend, sofern dieser nicht in der Lage ist, zu erkennen, wer dem virtuellen Assistenten Aufträge erteilt und somit auf Seiten des automatisiert agierenden Systems mit ihm kontrahiert. Soll das Risiko dem Inhaber des automatisiert agierenden Systems auferlegt werden, so scheint auch dies jedenfalls dann unangemessen, wenn der automatisiert agierende Agent Erklärungen abgibt, die nicht sein Inhaber, sondern Drittanwender veranlasst haben. Im Ergebnis sollten die Risiken auch denjenigen treffen, der die Vorteile aus der Systemaktion zieht. Im Falle virtueller Assistenten handelt es sich dabei neben dem Nutzer insbesondere um den Hersteller.
An dieser Stelle kann sich daher zusätzlich zur rechtlichen Klarstellung eine Technikregulierung als sinnvoll erweisen, die die Risiken zwischen Hersteller und Inhaber automatisiert agierender Systeme sowie den jeweiligen Vertragspartnern angemessen verteilt. Demnach könnten Willenserklärungen, die von einem automatisiert agierenden System übermittelt werden, einem Einwilligungserfordernis seines Inhabers unterworfen werden. Jeder Bestellvorgang, der über Alexa getätigt wird, bedarf also zwingend der Autorisierung durch diesen. Hierzu erforderlich wäre, dass der virtuelle Assistent in der Lage ist, seinen Inhaber anhand der Stimme zu identifizieren. Durch technische Voreinstellungen ließe sich ferner ermöglichen, dass die individuelle, auf der Erkennung der Stimme des Inhabers beruhende Zustimmung zu jeder von Alexa übermittelten Willenserklärung für Kaufangebote bis zu einem bestimmten Betrag nicht erforderlich ist. Die entsprechende technische Voreinstellung wäre als genereller Handlungswille und generelles Erklärungsbewusstsein für jedes über Alexa übermittelte Kaufangebot auszulegen.
Dem Inhaber stünden bei derartiger Regulierung der technischen Anforderungen im Falle fehlerhafter Konstruktion, Fabrikation oder Instruktion als Ausgleich Ansprüche gegen den Hersteller zu, die auf die Produkt- oder Produzentenhaftung gestützt werden können.
III. Autonom agierende Systeme
Anders als bei automatisiert agierenden Systemen, kontrolliert der Inhaber eines autonom agierenden Systems lediglich die technischen Rahmenbedingungen, die der Systementscheidung zugrunde liegen. Er hat bei Abgabe der Erklärung nicht einmal abstrakt Kenntnis davon, wann, mit welchem Inhalt oder aus welchem Grund diese abgegeben wird. Die Grundsätze, die auf eine Arbeitsteilung durch konkrete Voreinstellungen des Inhabers abstellen und hieraus ein generalisierendes Erklärungsbewusstsein ableiten, können hier mangels ausreichenden menschlichen Beitrags nicht herangezogen werden.
1. Autonom agierendes System als Bote?
Es stellt sich folglich die Frage, ob die durch das autonom agierende System abgegebene Erklärung seinem Inhaber dennoch zugerechnet werden kann. Eine Botenstellung des autonom agierenden Systems kann bereits vor dem Hintergrund nicht vorliegen, dass es an einer konkreten (fremden) Willenserklärung des Systeminhabers fehlt, die zu übermitteln wäre. Das autonom agierende System erzeugt diese Erklärung vielmehr selbst, wobei ihm auch ein eigener „Beurteilungsspielraum“ zukommt.
2. Autonom agierendes System als Stellvertreter?
Dem Wesen autonom agierender Systeme würde die Anwendung der Grundsätze zur Stellvertretung viel mehr Rechnung tragen. Das autonom agierende System übermittelt eine eigene, durch Algorithmen erzeugte Erklärung. Die Erteilung der Vertretungsmacht ist in der Inbetriebnahme des autonom agierenden Systems zu sehen. Dabei ist dem Inhaber bereits bewusst, dass es Erklärungen abgeben könnte. Unbekannt ist ihm lediglich, welche konkrete Gestalt die Systemerklärungen annehmen werden.
Zur Wahrung des Offenkundigkeitsprinzips muss das autonom agierende System sich als solches zu erkennen geben und auch die Identität seines Inhabers aufdecken, damit der Vertragspartner selbst entscheiden kann, ob er mit dem System als Vertreter der hinter ihm stehenden Person kontrahieren will. Eine solche Pflicht ist insbesondere relevant, sofern das autonom agierende System weder als rechts- noch geschäftsfähig anerkannt wird und allenfalls der § 165 BGB im Stellvertretungsrecht anwendbar sein könnte. Dies gilt jedenfalls, sofern die Fähigkeit zur (menschlichen) Willensbildung als unabdingbare Voraussetzung der Personenlehre angesehen wird, wonach nur der Mensch rechtsfähig ist.
Qualifiziert man hingegen die Fähigkeit, Träger von Rechten und Pflichten zu sein anhand von Zweckmäßigkeitserwägungen – so wie es im weiteren Sinne auch bei der juristischen Person der Fall ist –, ist es nur konsequent auch diejenigen Rechtssätze auf autonom agierende Systeme anzuwenden, deren Voraussetzungen sie erfüllen. Bei einem solchen funktionellen Verständnis von Rechtsfähigkeit ließen sich die Gedanken der Stellvertretung durchaus auch für autonom agierende Systeme fruchtbar machen, da diese in dem spezifischen Kontext einen Mehrwert für den Rechtsverkehr bedeuten.
Auf diese Weise wäre das autonom agierende System wie ein minderjähriger Vertreter, § 165 BGB, zu behandeln, wobei seine Minderjährigkeit nicht ins Gewicht fällt, da er aufgrund seines fremdnützigen Tätigwerdens lediglich rechtlich neutrale Geschäfte eingeht. Anders ist dies allerdings mit Blick auf § 179 Abs. 3 BGB. Mangels eigener Vermögensmasse kann das autonom agierende System ebenso wenig haften wie ein Minderjähriger. So lange technisch nicht sichergestellt werden kann, dass das autonom agierende System seine Vertretungsmacht nicht überschreitet (was aufgrund der eigenständig entwickelten Entscheidungsalgorithmen durchaus möglich erscheint), muss dem Vertragspartner die Möglichkeit gegeben werden, Vertragsschlüsse mit autonom agierenden Systemen erkennen und ablehnen zu können.
3. Autonom agierendes System als elektronische Person?
Es wird insbesondere aus diesem Grund über eine Anerkennung autonom agierender Systeme als so genannte elektronische Personen mit eigenem Rechtsstatus nachgedacht. Dies erscheint jedoch weder als ideale Lösung der Zurechnungsproblematik noch zwingend erforderlich. Auf diese Weise würden autonom agierende Systeme nicht nur mit den für den Abschluss fremdnütziger Verträge notwendigen Pflichten, sondern darüber hinaus auch mit einer Reihe von Rechten ausgestattet, die nicht mit ihrem Wesen korrespondieren.
Deutlich geworden sein sollte zudem, dass die Stellvertretungsregeln die Problematik der Zurechnung von durch autonom agierenden Systemen abgegebenen Erklärungen angemessen erfassen. So ist eine Eigenhaftung der elektronischen Person und eine damit einhergehende Ausstattung mit eigenen Vermögenswerten nicht angezeigt. Im hier entworfenen Modell des minderjährigen Stellvertreters kommt die elektronische Person bereits aufgrund § 179 Abs. 3 BGB als Haftungssubjekt nicht in Betracht. Als sinnvoll würde sich daher allenfalls eine gesetzliche Festschreibung einer entsprechenden Anwendbarkeit der Regelungen des Stellvertreterrechts auf Vertragsschlüsse unter Beteiligung autonom agierender Systeme erweisen. Da humanoide, autonom agierende Systeme nach dem derzeitigen Stand der Technik allerdings noch nicht existieren, ist insofern keine Eile geboten.
IV. Fazit
Es ist nur noch eine Frage der Zeit, bis die Vollautonomisierung intelligenter Systeme gelingt. Wichtig ist daher zunächst, automatisiert und autonom agierende Systeme hinreichend voneinander abzugrenzen. Kernaspekt dieser Unterscheidung ist der Grad der Selbstständigkeit, der sich anhand des Vorhandenseins und der Komplexität eines Entscheidungsalgorithmus ermitteln lässt. Ist dieser vorgegeben, handelt es sich regelmäßig um ein automatisiert agierendes System. Ist das System dazu in der Lage, einen im Ergebnis noch nicht vollständig nachvollziehbaren Algorithmus selbstständig zu erlernen, agiert es autonom.
Während die von automatisiert agierenden Systemen erzeugten und abgegebenen Erklärungen als eigene Willenserklärungen des Systeminhabers behandelt werden, die sinnvollerweise in technischer Hinsicht einem zwingenden Einwilligungserfordernis des Inhabers zu unterwerfen sind, ist es mangels eines ausreichenden menschlichen Beitrags fehlgehend, die Erklärungen autonom agierender Systeme als eigene Willenserklärung ihres Inhabers zu erachten. Interessengerechter ist es, diese Systemerklärung dem Nutzer über eine Anwendung der Stellvertretungsregelungen zuzurechnen.

Foto: Alle Rechte vorbehalten
10.02.2019 19:13
+++ BKartA: Facebook darf keine Daten aus Drittquellen zusammenführen+++ BVerfG: Scan von KfZ-Kennzeichen teils verfassungswidrig
+++ EU-Urheberrecht: Verhandlungen zur Richtlinie gehen weiter
+++ BVerfG: Eilantrag gegen Test für Zensus 2021 gescheitert
+++ Ermittlungen wegen angezapfter Stromnetze und geschürfter Bitcoin
BKartA: Facebook darf keine Daten aus Drittquellen zusammenführen
Das Bundeskartellamt hat Facebook per Beschluss untersagt, Nutzerdaten ohne freiwillige Einwilligung aus Drittquellen mit eigenen Daten zusammenzuführen. Nutzer können Facebook nur unter der Voraussetzung verwenden, dass Facebook Daten von Drittquellen sammeln und dem Facebook-Konto zuordnen kann. Zu Drittquellen zählen Websites, die mit dem Gefällt-mir-Button oder Analysetools von Facebook eine Schnittstelle zu Facebook vorhalten, Apps von Drittanbietern, aber auch die Facebook-eigenen Dienste Whatsapp und Instagram. Das Bundeskartellamt sieht in dieser Datenverarbeitungspraxis einen Missbrauch einer marktbeherrschenden Stellung und schränkt sie deshalb weitreichend ein. Facebook muss dem Kartellamt nun innerhalb von vier Monaten Lösungsvorschläge vorlegen und hat ein Jahr Zeit zur Umsetzung. Der Beschluss ist das Ergebnis eines Verwaltungsverfahrens, das das Kartellamt 2016 eingeleitet hatte. Die Fachdiskussion dreht sich vor allem um die Frage, inwieweit das Kartellamt datenschutzrechtliche Wertungen berücksichtigen darf – und wie Facebooks Marktmacht einzustufen ist, auch angesichts anderer sozialer Netzwerke wie Snapchat und Twitter. Facebook hat angekündigt, Rechtsmittel einzulegen.
Zur Pressemitteilung des BKartA.
Zu einer Einschätzung von Sebastian Louven auf Telemedicus.
BVerfG: Scan von KfZ-Kennzeichen teils verfassungswidrig
Das automatisierte Scannen von KfZ-Kennzeichen in Bayern, Baden-Württemberg und Hessen ist in Teilen verfassungswidrig. Das hat das Bundesverfassungsgericht in zwei nun veröffentlichten Beschlüssen entschieden (Az. 1 BvR 142/15). Danach greifen solche Kontrollen in das Grundrecht auf informationelle Selbstbestimmung aller Personen ein, deren Kennzeichen erfasst und abgeglichen werden. Dies gelte auch im Falle von Nichttreffern; insoweit hat das BVerfG seine frühere Rechtsprechung geändert. Gerechtfertigt sei die Erfassung nur anlassbezogen und zum Schutz von Rechtsgütern von zumindest erheblichem Gewicht, also etwa zur Abwehr von Gefahren von Leib, Leben und Freiheit. Die Länder müssen die Vorschriften bis Jahresende ändern.
Zur Pressemitteilung des BVerfG.
EU-Urheberrecht: Verhandlungen zur Richtlinie gehen weiter
Bei den Verhandlungen über die europäische Urheberrechtsreform werden die Gespräche im Trilog nächste Woche wieder aufgenommen. Nachdem ein Zustandekommen der Richtlinie noch vor der EU-Wahl immer unwahrscheinlicher wurde, haben sich Deutschland und Frankreich auf einen Kompromiss geeinigt und den Weg für weitere Verhandlungen frei gemacht. Die Auseinandersetzung entzündet sich neben dem Presse-Leistungsschutzrecht vor allem am Thema Uploadfilter: Viele profitorientierte Plattformen würden für Anwenderuploads von Inhalten haften, die nicht lizenziert sind. Der Kompromiss besagt grob, dass jüngere Kleinunternehmen hiervon nicht erfasst sind, sondern erst nach Hinweisen auf einzelne Rechtsverletzungen haften. Befrieden konnte der Kompromiss den Streit nicht: Befürworter Axel Voss (CDU) fordert weitere Verschärfungen, Gegnerin Julia Reda (Piraten) hält den jetzigen Entwurf für den „extremsten“.
Mehr mit weiteren Quellen bei Heise.de.
Zur Kritik von allen Seiten auf Heise.de.
BVerfG: Eilantrag gegen Test für Zensus 2021 gescheitert
Der Eilantrag der Gesellschaft für Freiheitsrechte (GFF) gegen den Test der Volkszählung 2021 (Zensus 2021) vor dem Bundesverfassungsgericht ist gescheitert (Az. 1 BvQ 4/19). Die GFF wollte mit dem Antrag die testweise Übermittlung echter personenbezogener Daten aus allen Melderegistern an das Statistische Bundesamt (§ 9a Zensusvorbereitungsgesetz 2021) außer Kraft zu setzen. Nach Ansicht des BVerfG überwiegt aber der mögliche Nachteil einer unverhältnismäßigen Speicherung nicht mit der erforderlichen Deutlichkeit gegenüber dem Interesse daran, den Zensus 2021 vorab zu testen; die Verwendungszwecke seien eng begrenzt, die Vorgaben zur Geheimhaltung streng. In der Hauptsache hat das BVerfG nicht entschieden, der Ausgang einer Verfassungsbeschwerde wäre also noch offen.
Zur Pressemitteilung des BVerfG.
Ermittlungen wegen angezapfter Stromnetze und geschürfter Bitcoin
Die Staatsanwaltschaft Zwickau verdächtigt sechs Personen, öffentliche Stromnetze angezapft zu haben, um mit einer Computeranlage Kryptowährungen zu schürfen. Bei einer Durchsuchung sei eine Installation entdeckt worden, mit der sich offenbar Stromzähler umgehen ließen; die Anlage mit fast 50 Rechnern und 80 verbauten Grafikkarten habe ungefähr so viel verbraucht wie 30 Haushalte. Das Schürfen (oder Mining) von Kryptowährungen wie Bitcoin zieht viel Strom. Im Raum steht der Straftatbestand der Entziehung elektrischer Energie (§ 248c StGB) bei einem Schaden von über 220.000 Euro für den Energieversorger.
Pressemitteilung der StA Zwickau.
07.02.2019 12:59
Heute hat endlich das Bundeskartellamt sein Verfahren gegenüber Facebook abgeschlossen. Demnach werden dem Unternehmen bestimmte Datenverarbeitungen hinsichtlich Drittquellen untersagt. Die Entscheidung bietet Potenzial für angeregte Diskussionen. Hier eine erste Einschätzung und Antworten auf die wesentlichen Fragen:Worum geht es in dem Verfahren des BKartA gegenüber Facebook?
Facebook steht bereits seit längerem in der öffentlichen Kritik. Zwei Vorwürfe sind dabei prägend auch für dieses Verfahren: Erstens, das Unternehmen verstoße massenhaft gegen Datenschutzrecht. Zweitens, das Unternehmen sei marktmächtig, gar ein Monopolist.
2016 hat das Bundeskartellamt in einer Pressemitteilung bekannt gegeben, ein förmliches Kartellverwaltungsverfahren gegenüber Facebook eingeleitet zu haben. Dabei sollte untersucht werden, ob das Unternehmen gegen geltendes Kartellrecht verstieße, nämlich insbesondere einen sogenannten Konditionenmissbrauch begehe. Dies stellte die Behörde in einen Zusammenhang mit einem möglichen (festzustellenden) Verstoß gegen das geltende Datenschutzrecht. Die Erwartungen waren entsprechend groß, dass das Bundeskartellamt nunmehr den Datenschutzbehörden unter die Arme greift und ihnen hilft, das Datenschutzrecht durchzusetzen.
Ende 2017 gab das Bundeskartellamt erste Zwischenergebnisse und seine vorläufige Einschätzung in dem Verfahren bekannt. Demnach verfüge das Unternehmen über eine marktbeherrschende Stellung, und zwar auf dem abgegrenzten Markt für identitätsbasierte Netzwerke. Auf diesem Markt missbrauche das Unternehmen seine marktbeherrschende Stellung, indem es sich einen „umfangreichen Spielraum bei der Verarbeitung von personenbezogenen Daten“ einräumen lasse. Gleichzeitig stellte die Behörde klar, dass sich das Verfahren nicht auf die Datennutzung auf Facebook selbst, also innerhalb des sozialen Netzwerks beziehe. Stattdessen gehe es um Vertragskonditionen im Zusammenhang mit Daten aus sogenannten Drittquellen, womit die Behörde alle Webseiten außerhalb des sozialen Netzwerks meint. Das betrifft auch Dienste, die zwar zum Facebook-Konzern gehören, aber als separates Angebot ausgestaltet sind. In diesem Fall werden die Daten über Schnittstellen an Facebook weitergeleitet. Ein bekanntes Beispiel hierfür ist der Facebook-Like-Button, der sich auf Webseiten einbinden lässt. Außerdem stellt das BKartA in einem Hintergrundpapier seine rechtliche Einschätzung dar, dass bei der Bewertung des möglichen Kartellverstoßes „datenschutzrechtliche Wertungen“ zu berücksichtigen seien.
Das Bundeskartellamt setzt das Kartellrecht durch, geht es hier aber nicht um Datenschutz?
Der letzte Punkt ist die eigentliche Kernfrage des Verfahrens: Kann über den Hebel des Kartellrechts auch das Datenschutzrecht als solches durchgesetzt werden? Kommt es also für einen Kartellrechtsverstoß auf einen positiv festgestellten Datenschutzrechtsverstoß an?
Der rechtliche Anknüpfungspunkt dieses Verfahrens ist das kartellrechtliche Verbot des Missbrauchs einer marktbeherrschenden Stellung. Dieses verbietet stark verkürzt einem marktmächtigen Unternehmen, seine Marktstellung missbräuchlich auszunutzen. Es muss also erstens überhaupt eine marktbeherrschende Stellung vorliegen und zweitens muss gerade diese missbräuchlich ausgenutzt werden. Neben diesem Marktmachtmissbrauchsverbot gibt es im Kartellrecht noch das allgemeine Kartellverbot und die Fusionskontrolle, die beide in diesem Verfahren nicht betroffen sind.
Eine Fallgruppe des Marktmachtmissbrauchsverbots ist der Ausbeutungsmissbrauch. Dieser verbietet es dem Unternehmen, missbräuchlich von der Gegenseite Vorteile zu erlangen, die ihm nicht zustehen. Dies kann entweder dadurch erfolgen, indem sich das Unternehmen einen Preis einräumen lässt, der unter wettbewerblichen Umständen nicht verlangt werden könnte. Stark vereinfacht ist dies bei hohen Preisen eines Marktbeherrschers der Fall, die dieser allein aufgrund seiner Marktstellung durchsetzen kann.
Die andere Variante des Ausbeutungsmissbrauchs ist der auch in diesem Verfahren von der Behörde untersuchte Konditionenmissbrauch. Damit werden neben dem Preis auch andere Bedingungen erfasst, die sich das marktbeherrschende Unternehmen einräumen lässt. Auch hier kommt es darauf an, ob das Unternehmen Vorteile erhält, die ihm unter wettbewerblich geprägten Umständen nicht zustehen. Diese Vorteile bestehen jedoch nicht in einem Preis, sondern in den sonstigen Geschäftsbedingungen des Unternehmens. Zu diesen können grundsätzlich auch diejenigen Bedingungen zählen, die sich auf die Verarbeitung personenbezogener Daten beziehen. Im Rahmen des Konditionenmissbrauchs kann also grundsätzlich untersucht werden, ob ein marktbeherrschendes Unternehmen seine Marktgegenseite im Zusammenhang mit Datennutzungen ausbeutet.
Welche konkreten Problemstellungen ergeben sich da?
Die bedeutsamste Frage ist in diesem Verfahren, wie ein Konditionenmissbrauch im Zusammenhang mit den Datennutzungen festgestellt werden könnte. Kann es hierbei wirklich darauf ankommen, dass ein marktbeherrschendes Unternehmen gegen ausdrückliche datenschutzrechtliche Vorschriften verstößt? Dann würde das geltende Datenschutzrecht den alleinigen Maßstab setzen. Der Kartellrechtsverstoß könnte danach also durch einen Datenschutzrechtsverstoß erfüllt werden, wäre also in dieser Konstellation akzessorisch.
Dieses einfache Vorgehen wäre jedoch aus mehreren Gründen kritisch, wie auch ein sehr banales Beispiel zeigt: Würde es allein auf den positiven Rechtsverstoß des marktbeherrschenden Unternehmens ankommen, ließen sich ihm zahlreiche andere Verstöße ebenso zurechnen. Ein marktbeherrschendes Unternehmen dürfte also auch aus kartellrechtlichen Gründen nicht gegen umweltrechtliche, arbeitsrechtliche und viele andere Vorschriften verstoßen. Das wäre nicht nur rechtsstaatlich bedenklich. Dies ergibt sich auch aus dem Wortlaut der kartellrechtlichen Vorschriften zum Marktmachtmissbrauchsverbot, der die missbräuchliche Ausnutzung gerade der marktbeherrschenden Stellung verlangt. Es kann also nicht jeder Rechtsverstoß eines Marktbeherrschers gleichzeitig dessen kartellrechtliche Haftung auslösen.
Doch wo liegt das Korrektiv für eine derart exzessive Auslegung des Ausbeutungsmissbrauchs? Einerseits könnte man dies in den jeweiligen Vorschriften selbst suchen. So wird vielfach argumentiert, Rechtsverstöße könnten jedenfalls dann einen Ausbeutungsmissbrauch darstellen, wenn die zugrundeliegende Rechtsnorm „einen Wettbewerbsbezug“ hat. Das würde beim Datenschutzrecht bedeuten, dass dieses auf seinen Wettbewerbsbezug hin überprüft werden müsste. Teilweise wird dies mit einem Verweis auf das in Art. 1 Abs. 1 DSGVO festgelegte Ziel eines freien Verkehrs personenbezogener Daten angenommen. Das wäre jedoch zu leicht und würde bedeuten, dass allein durch einen entsprechenden objektiven Vermerk in einem Gesetz bereits dessen Wettbewerbsbezug hergestellt werden könnte.
Dass auch die Behörde eine rein akzessorische Prüfung nicht befürwortet, lässt sich bereits aus den veränderten Formulierungen in den Pressemitteilungen mit fortlaufendem Verfahren entnehmen. So sprach das Bundeskartellamt noch 2016 von einem „Verdacht auf Marktmachtmissbrauch durch Datenschutzverstöße“ und einem „Anfangsverdacht, dass die Nutzungsbedingungen von Facebook gegen datenschutzrechtliche Vorschriften verstoßen“. In den Ende 2017 bekannt gegebenen Zwischenergebnissen war nur noch die Rede von Verstößen gegen „zwingende europäische Datenschutzwertungen“. Was diese Wertungen sind und wie diese im Rahmen des Konditionenmissbrauchs herangezogen werden können, blieb bislang offen. So ließe sich argumentieren, das positive Datenschutzrecht forme jedenfalls einen Standard in Form einer äußeren Grenze des rechtlich Zulässigen, der im Wettbewerb eingehalten werden muss. Dies entspricht einem Wohlfahrtsdenken. Hielte ein marktbeherrschendes Unternehmen also den vorgegebenen positiven Rechtsrahmen ein, so wäre dies auch kartellrechtlich unbedenklich. Ob dies noch mit einem wirksamen Wettbewerb vereinbar ist, der ja zunächst frei agieren können soll, ist aber fraglich.
Die andere wichtige Frage ist die nach der Marktmacht des Unternehmens Facebook. Eine Antwort hierauf ist nicht derart trivial, wie dies gerade in der letzten Zeit immer wieder kolportiert wird. Zum einen bietet Facebook seine Dienste an den Endnutzer ohne ein preisliches Entgelt an. Dass hierdurch nicht der relevante und damit kartellrechtlich untersuchbare Markt entfällt, wurde bereits gesetzlich klargestellt. Aber auch ansonsten lässt sich bei Plattformen gerade deshalb eine Marktbeziehung annehmen, dass sie die vermeintliche Unentgeltlichkeit dadurch erzielen können, dass sie ihre Kosten auf eine andere Nutzergruppe verlagern, in diesem Fall unter anderem Werbekunden. Letzteren wird als Leistung dann die Reichweite über das Netzwerk angeboten, die entsprechend preislich vergütet wird. Dafür, dass die Endnutzer Teil dieses Netzwerks sind und damit die „verkaufbare“ Reichweite stärken, müssen sie kein Entgelt bezahlen. Sie erhalten also gewissermaßen einen Rabatt dafür, dass sie überhaupt Teil des Netzwerks sind. Diese Mehrseitigkeit derartiger Plattformen führt aber auch dazu, dass zwischen den einzelnen Nutzergruppen starke Zwischenwirkungen bestehen. Deren Bedeutung in kartellrechtlichen Zusammenhängen ist noch nicht hinreichend geklärt, sodass auch hier das Facebook-Verfahren Neuigkeiten bringen wird.
Wie hat nun die Behörde entschieden?
Das Verfahren war von Beginn an nicht auf ein Bußgeld ausgerichtet. Wie erwartet und nicht überraschend hat das Bundeskartellamt dem Unternehmen die bisherige Sammelpraxis insoweit untersagt, als dass Daten von anderen Plattformen auf Facebook ohne ausreichende Einwilligung der Nutzer zusammengeführt werden. Liegt diese Einwilligung nicht vor, so dürfen die Datensätze nicht kombiniert werden. Der Präsident des Bundeskartellamtes, Andreas Mundt, erklärte dies mit einer „Art inneren Entflechtung“ Facebooks. Die Datensammelpraxis auf der Plattform Facebook selbst hat das Bundeskartellamt nicht bewertet.
Wie hat das Bundeskartellamt nun den Konditionenmissbrauch durch Facebook dogmatisch begründet? Eine unmittelbare Anwendung datenschutzrechtlicher Vorschriften ergibt sich jedenfalls nicht aus der bisherigen Mitteilung. Der Nutzer habe danach nicht die Möglichkeit, sich eine Datenverarbeitung zu entziehen, die er nicht überblicken kann. Darin sieht die Behörde einen Eingriff in das grundrechtlich geschützte Recht auf informationelle Selbstbestimmung. Diese Formulierung wirkt nicht unüberlegt, sondern deutet auf ein anderes Vorgehen hin, als eine lediglich akzessorische Anknüpfung des Konditionenmissbrauchs an das Datenschutzrecht. Ich hatte bereits 2016 in einem Aufsatz in der Zeitschrift WRP argumentiert, dass nicht der positive Rechtsverstoß gegen außer-kartellrechtliche Vorschriften maßgeblich sein kann, sondern bereits die Regelungen zum Konditionenmissbrauch ausreichend Möglichkeiten für eine Entscheidung bieten. Die Einschätzung nämlich, was einen Missbrauch bei der Ausnutzung der markbeherrschenden Stellung darstellt, hängt von einer Abwägung ab. Das bedeutet, die Behörde muss eine Entscheidung anhand der konkreten Interessen und Umstände treffen. Als Interessen können dabei wiederum diejenigen Prinzipien in die Abwägung einbezogen werden, die auch die Freiheit des Wettbewerbs betreffen. Insoweit kann dies auch das Recht auf informationelle Selbstbestimmung treffen. Eine kartellrechtliche Abwägungsentscheidung kann hierbei zu denselben Ergebnissen kommen, wie die rechtlichen Vorgaben anderer außer-kartellrechtlicher Vorschriften, sofern die jeweiligen Interessen oder Schutzzwecke kongruent sind.
Auf diese Weise ist auch die von dem Bundeskartellamt angeführte Rechtsprechung des BGH zunächst zu verstehen. Diese nimmt nämlich ebenso nicht einen Konditionenmissbrauch durch jeden Rechtsverstoß an, wie in dem Wort „kann“ in der Entscheidung „VBL-Gegenwert I“ des BGH vom 6.11.2013 (Az.: KZR 58/11)deutlich wird. Vielmehr kommt es immer noch auf eine originär kartellrechtliche Wertung an. Allerdings erwähnt die Behörde auch, dass sie die Unangemessenheit der Bedingungen anhand der gesetzlichen positiven Wertungen „geprüft“ habe. Dies deutet wiederum wieder auf eine akzessorische Bewertung hin. Insbesondere verweist die Behörde auch auf die Regelungen der DSGVO. Warum sie dann jedoch nicht gleich auch deren „Wertungen“ vollständig übernommen hat, wird nicht deutlich. Die Behörde scheint bei ihren Wertungen also „irgendwie auch“ Datenschutzrecht geprüft zu haben, aber ob diese Prüfung datenschutzrechtlich rechtsfehlerfrei erfolgte, kann ohne den Volltext der Entscheidung nicht bewertet werden. Niko Härting hat jedenfalls ebenso in einem ersten Kommentar im CR-Blog starke Kritik an der datenschutzrechtlichen Konsistenz der Entscheidung des Bundeskartellamts geübt.
Die Marktstellung des Unternehmens hat die Behörde nicht mehr nur anhand von Marktanteilen untersucht. Stattdessen unterscheidet sie anhand qualitativer Merkmale, vor allem der Aktivität der Nutzer und der Nutzeranteile. Das ist durchaus nachvollziehbar, wenn man sich vor Augen hält, dass nicht die allein registrierten Nutzer die besondere Wirkung eines Netzwerks ausmachen. Ein besonders prägnantes Beispiel könnten die wahrscheinlich noch zahlreichen Nutzerkonten bei ehemals stark genutzten Plattformen wie zum Beispiel StudiVZ sein, die mittlerweile jedoch eher unbedeutend sind. Außerdem sind gerade diese aktiven Nutzer der Faktor, der den Wert einer auf Reichweite ausgerichteten Plattform ausmachen. Nach dem ergänzenden Papier der Behörde zu dem Verfahren hat sie die Marktstellung auch nach den in § 18 Abs. 3a GWB seit 2017 neu aufgenommenen Kriterien bewertet.
Welche Konsequenzen hat diese Entscheidung nun für Facebook und die Nutzer?
Die Behörde gibt Facebook nun ein Jahr Zeit, sein Geschäftsmodell anzupassen und seine Nutzungsbedingungen zu überarbeiten. Bereits in vier Monaten soll das Unternehmen jedoch ein Lösungskonzept ausarbeiten und vorlegen. Das Unternehmen hat bereits angekündigt, gegen die Entscheidung des Bundeskartellamts Beschwerde beim OLG Düsseldorf einzulegen.
Eine erste Entwicklung hat sich auch bereits vor wenigen Wochen angekündigt. Facebook plant demnach laut öffentlichen Quellen, die Nachrichtendienste seiner verschiedenen Angebote zusammenzuführen. Das würde WhatsApp, Instagram und Facebook also an sich bereits unter einem Dienst vereinen. Bleibt es bei der Entscheidungspraxis, dass die umfangreichen Verarbeitungsspielräume außerhalb des Dienstes einen Konditionenmissbrauch darstellen, so könnte sie bereits mit diesem einfachen Integrationsschritt umgangen werden. Allerdings hat das Bundeskartellamt auch schon klargestellt, dass eine Zusammenführung auch nur mit einer Einwilligung der Nutzer erfolgen kann.
Eine weitere Frage ergibt sich aus der Begründungsweise der Entscheidung des Bundeskartellamts. Wenn es nämlich auch eine kartellrechtliche Bedeutung hat, ob und wie die Nutzer in die umfangreiche Verarbeitung personenbezogener Daten eingewilligt haben, bedeutet dies jedenfalls für marktmächtige Unternehmen einen zusätzlichen Prüfaufwand. Sie müssen also nicht nur die Vorschriften der DSGVO über die Rechtmäßigkeit vor allem einer Einwilligung einhalten, sondern ebenso eine eigenständige Abwägung ihrer kartellrechtlichen Risiken. Denn selbst wenn im Einzelfall eine Einwilligung datenschutzrechtlich zulässig wäre, ist damit die Frage der kartellrechtlichen Angemessenheit noch nicht vorweggenommen. Dies sieht Facebook anders, wie aus seinem Verweis auf die umgesetzte DSGVO deutlich wird.
Zur Pressemitteilung des Bundeskartellamts vom 7.2.2019.
Zu den zusammengefassten Hintergrundinformationen des Bundeskartellamts zum Abschluss des Verfahrens.
Ausführliche Bresprechung der kartellrechtlichen Fragestellungen auf Basis der PM von 2016 in der WRP.
05.02.2019 09:15
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.Anfang des Jahres haben wir die Artikelreihe „Künstliche Intelligenz” gestartet. Wir wollen damit „über den Tellerrand” schauen und versuchen, in das umfangreiche Thema „Künstliche Intelligenz” aus verschiedenen fachlichen Blickwinkeln kurz und prägnant einzuführen. Was gab es bisher zu lesen und was kommt als Nächstes? Ein Zwischenstand.
Was bisher geschah
Man konnte bisher etwas zu den technischen Grundlagen von KI allgemein und Machine Learning erfahren. Es wurden vier wesentliche Teilbereiche von KI aus technischer Sicht dargestellt und beschrieben: „Mustererkennung”, nämlich das Erkennen von Regelmäßigkeiten in Sprache, Bildern, „Maschinelles Lernen”, also die Konzeptbildung, Hypothesen, Regelgenerierung, „Expertensysteme”, also regelbasiertes Schließen, Bewertung von Sachverhalten sowie „Maschinelles Planen” und Handeln: autonome Fahrzeuge, Robotik.
Sodann wurde Machine Learning als wesentliches Element von KI dargestellt und mit vielen Beispielen erläutert. Machine Learning ist die Methode, mit der KI-Systeme geschaffen werden können, die „selbst lernen“ (das heißt maschinell lernen). Zwar wurden die Algorithmen für „Machine Learning“ bereits in den 90ern des vergangenen Jahrhunderts vervollständigt, der Durchbruch kam aber erst um das Jahr 2014 herum. Die Voraussetzungen zum effektiven Einsatz von Machine Learning waren bis etwa 2014 nicht gegeben: große Mengen an Daten, schnelle Computer und schneller und großer Massenspeicher – und alles zu einem akzeptablen Preis.
Weiter ging es mit einem Überblick über "Künstliche neuronale Netzwerke". Das maschinelle Lernen umfasst eine Vielzahl von Ansätzen, unter denen die sogenannten künstlichen neuronalen Netzwerke „artificial neural networks (ANNs)“ eine bedeutende Rolle einnehmen, da es hier vor allem in den letzten Jahren bedeutsame Fortschritte gegeben hat. In diesem Zusammenhang wurden der Aufbau sowie die Funktionsweise der ANNs erläutern. Des Weiteren wurden die aktuellen Herausforderungen der ANNs und der KI diskutiert und mögliche Lösungsansätze erläutert.
Abgerundet wurde die technische Betrachtung mit der Erklärung, was Algorithmen eigentlich genau sind und was neu daran ist, wenn wir über KI reden. Es wurden verbreitete Vorurteile dargestellt und drei wesentliche Missverständnisse zur Funktionalität und den Möglichkeiten von KI erläutert, nämlich im Zusammenhang mit der Anthropomorphisierung, mit der so genannten Blackbox-Analogie sowie mit dem relationalen, infrastrukturellen Charakter von Algorithmen.
Zudem gab es eine Übersicht über wirtschaftliche Auswirkungen und Anwendungsgebiete von KI. Die Leistungsfähigkeit von Computern, Cloud-Computing und die Sammlung von immensen Datenmengen haben dazu geführt, dass sowohl die Forschung als auch Anwendung von KI-Technologien in den letzten Jahren rapide zugenommen hat. Hierzu wurden insbesondere Herausforderung der Datenorganisation und Anwendungsfälle des steigenden Einsatzes von KI beschrieben. Als praktisches Beispiel wurden dynamische Preissetzung dank Algorithmen sowie der Zusammenhang zwischen KI und IoT erläutert.
Schließlich gab es im Interview mit der „Rechtswissenschaftlichen Gesellschaft für Künstliche Intelligenz und Robotik e.V. / Robotics & AI Law Society (RAILS) e.V.” einen Überblick zur Vernetzung von Wissenschaft und Praxis bei KI. RAILS wurde 2017 gegründet, um eine Diskussion über die rechtliche Gestaltung smarter Robotik und künstlicher Intelligenz anzustoßen. Mitte dieses Jahres sind KI-Strategiepapiere auf nationaler und europäischer Ebene veröffentlicht worden. RAILS hat es sich zum Ziel gesetzt, die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für KI und Robotik in (rechts-)wissenschaftlicher Hinsicht aktiv mitzugestalten.
Was noch kommt
In den nächsten Wochen widmen wir uns nun intensiv den rechtlichen Fragestellungen im Zusammenhang mit Anwendungen der KI. Wir freuen uns besonders, neben den bereits von Anfang an avisierten Themen noch drei weitere Autoren und damit drei weitere Themen in der Artikelreihe platzieren zu können.
Ursprünglich vorgesehene Themen
• Rechtsfragen: Chatbots (Adrian Schneider, Telemedicus/Osborne Clarke, Köln)
• Rechtsfragen: Urheberschutz für KI-Werke (Fabian Rack, Telemedicus/FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur/Nolte Pustejovsky Rechtsanwälte, Freiburg; Oliver Vettermann, FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur/Lehrstuhl Prof. Gersdorf, Universität Leipzig)
• Rechtsfragen: Kartellrechtlicher Algorithmen-TÜV (Sebastian Louven, Telemedicus/Carl von Ossietzky Universität Oldenburg/louven.legal)
• Rechtsfragen: Künstliche Intelligenz und Datenschutzrecht (Fritz Pieper, Telemedicus/Taylor Wessing, Düsseldorf)
Neu hinzugekommene Themen
• Die größte Verwundbarkeit ist die Unwissenheit (Claudia Otto, COT Legal, Frankfurt am Main)
• Vertragsfragen im Zusammenhang mit KI (Sophie Herold, Lehrstuhl für Bürgerliches Recht, Informations- und Datenrecht, Universität Bonn)
• Künstliche Intelligenz und Produkthaftung (Philipp Reusch, Reusch Rechtsanwaltsgesellschaft mbH, Berlin)
Wir wünschen weiterhin viel Spaß beim Lesen!
03.02.2019 19:59
+++ BVerfG: Verpflichtung zum "Loggen" von IP-Adressen nicht verfassungswidrig+++ OLG Frankfurt a.M. entscheidet zu Beleidigungen im engsten Familienkreis
+++ beA: Kanzleipostfach soll kommen
+++ Österreichische Datenschutzbehörde zur Löschung durch Anonymisierung
+++ Apple sperrt vorübergehend Apps von Google und Facebook
BVerfG: Verpflichtung zum „Loggen” von IP-Adressen nicht verfassungswidrig
Es verstößt nicht gegen das Grundgesetz, wenn ein E-Mail-Provider auf Anordnung IP-Adressen seiner Nutzer protokollieren und an Ermittlungsbehörden herausgeben muss. Das hat das Bundesverfassungsgericht (BVerfG) vergangene Woche bestätigt (Az. 2 BvR 2377/16). Hintergrund des Falls: Das Amtsgericht Stuttgart hatte den E-Mail-Provider Posteo im Rahmen einer Telekommunikationsüberwachung (§§ 100a, 100b StPO, § 110 TKG) dazu verpflichtet, auch die IP-Adressen zu loggen (d.h. zu speichern), über die auf einen bestimmten Account zugegriffen wurde. Posteo verweigerte dies mit dem Argument, es speichere die IP-Adressen seiner Kunden nicht und könne aufgrund seiner Netzwerkarchitektur auch nicht ohne weiteres darauf zugreifen. Die zuständigen ordentlichen Gerichte folgten diesem Argument nicht und verhängten gegen Posteo ein Ordnungsgeld. Diese Entscheidungen verstießen nicht gegen spezifisches Verfassungsrecht, entschied nun das BVerfG. Es sei verfassungsrechtlich nicht zu beanstanden, wenn ein Gesetz einen Mailprovider verpflichte, gegebenenfalls auch IP-Adressen zu speichern und herauszugeben - selbst dann, wenn er im üblichen Geschäftsbetrieb solche IP-Adressen normalerweise nicht speichert. Weil das BVerfG seinen Entscheidungen nur spezifisches Verfassungsrecht zugrunde legt, hat es sich nicht mit der Frage beschäftigt, ob E-Mail-Provider überhaupt Telekommunikationsdiensteanbieter sind und somit der Telekommunikationsüberwachung unterfallen können. Diese Frage ist streitig und liegt dem EuGH vor.
Zur Pressemeldung des BVerfG.
OLG Frankfurt a.M. entscheidet zu Beleidigungen im engsten Familienkreis
Beleidigungen bei WhatsApp können zivilrechtlich nicht untersagt werden, wenn sie im Familienkreis begangen werden. Das hat das Oberlandesgericht Frankfurt a.M. Mitte Januar entschieden (Az. 16 W 54/18). Der Fall: Ein Familienvater wollte seiner Schwiegermutter untersagen, per WhatsApp im Familienkreis zu behaupten, er misshandle sein Kind. Ein Unterlassungsanspruch bestehe jedoch nicht, so das Oberlandesgericht. Die Kommunikation innerhalb von Familien sei ein „ehrschutzfreier Raum”. Es müsse in der Familie möglich sein, sich mit seinen Verwandten frei auszusprechen, ohne gerichtliche Verfolgung befürchten zu müssen.
Die Einzelheiten bei LTO.
beA: Kanzleipostfach soll kommen
Das Bundesjustizministerium (BMJ) plant nach Medienberichten die Einführung eines besonderen elektronischen Anwaltspostfachs (beA) für Kanzleien. Bisher sind die elektronischen Postfächer personengebunden, d.h. jeder Anwalt erhält ein persönliches Postfach. Ein Postfach für ganze Kanzleien oder Teams gibt es nicht. Gerade für größere Kanzleien führt das zu erheblichem Organisationsaufwand bei Stellvertreterregelungen, gemeinsam bearbeiteten Mandaten oder Kanzleiwechseln einzelner Anwälte. Diese Probleme sollen nun durch ein kanzleiweites Postfach gelöst werden, und zwar laut den Medienberichten „noch diese Legislaturperiode”.
Die Details bei JUVE.
Österreichische Datenschutzbehörde zur Löschung durch Anonymisierung
Wer datenschutzrechtlich verpflichtet ist, Daten zu löschen, kann diese stattdessen auch anonymisieren. Das hat die österreichische Datenschutzbehörde entschieden. Hintergrund war die Beschwerde eines Betroffenen, dessen Daten auf seinen Antrag nach Art. 17 DSGVO von einem Unternehmen nicht vollständig gelöscht, sondern teilweise nur anonymisiert wurden. Eine Löschung im Sinn des Art. 17 DSGVO setze aber keine vollständige Vernichtung der Daten voraus, so die Datenschutzbehörde. Auch eine Anonymisierung sei ausreichend – vorausgesetzt, dass weder der Verantwortliche selbst, noch ein Dritter ohne unverhältnismäßigen Aufwand den Personenbezug wiederherstellen könne. Dem Verantwortlichen stehe ein Auswahlermessen zu, ob er die Daten vernichtet oder anonymisiert.
Die Hintergründe bei De lege data.
Der Bescheid im Volltext.
Apple sperrt vorübergehend Apps von Google und Facebook
Apple hat vergangene Woche die Zertifikate für Googles und Facebook Enterprise-Accounts gesperrt. Während der Sperrung waren interne Apps der Unternehmen sowie einige wenige öffentlich verfügbare Apps nicht mehr im App Store abrufbar. Grund waren Apps der Unternehmen, mit denen Nutzer freiwillig ihre Smartphone-Nutzung durch Google und Facebook tracken lassen können und hierfür teilweise Belohnungen erhalten. Dies verstoße jedoch gegen die Richtlinien des App Store, so Apple. Zudem wurden die Tracking-Apps durch Accounts veröffentlicht, die eigentlich nur für interne Apps gedacht sind. Google und Facebook haben ihre beanstandeten Apps zwischenzeitlich zurückgezogen und Apple hat die Sperrung aufgehoben.
Weiter bei Heise online.
30.01.2019 08:38
Dieses Interview ist Teil der Artikelreihe „Künstliche Intelligenz”.Künstliche Intelligenz ist seit Jahrzehnten ein beliebtes Forschungsthema. Angeblich war es sogar ein Forschungsprojekt, das den Begriff „Künstliche Intelligenz” erfunden und das Thema als Forschungsdisziplin etabliert hat: das Dartmouth Summer Research Project on Artificial Intelligence. Auch hierzulande forscht beispielsweise das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) seit 1988 zu den Methoden der Künstlichen Intelligenz. Die „Strategie Künstliche Intelligenz der Bundesregierung” soll explizit „die Forschung stärken” und „den Transfer von Forschungsergebnissen in die Wirtschaft beschleunigen”.
„Künstliche Intelligenz” ist ein interdisziplinäres Thema. Wie funktioniert das Zusammenspiel von Forschung, Rechtswissenschaft und Praxis in Deutschland? An dieser Stelle setzt RAILS an. RAILS steht für „Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik e.V. / Robotics & AI Law Society (RAILS) e.V.”. Der Verein will die Diskussion um den Rechtsrahmen für Künstliche Intelligenz und Robotik in wissenschaftlicher Hinsicht begleiten. Wir haben mit dem Vorstandsmitglied Tina Krügel gesprochen.
Warum gibt es RAILS und was wollt ihr erreichen?
RAILS wurde 2017 gegründet, um eine Diskussion über die rechtliche Gestaltung smarter Robotik und künstlicher Intelligenz anzustoßen. Der Einsatz künstlicher Intelligenz und smarter Robotik wird in allen Lebensbereichen vorangetrieben und bringt rechtliche, ethische, gesellschaftspolitische und soziale Herausforderungen mit sich, deren Tragweite zum jetzigen Zeitpunkt noch nicht zu überschauen ist.
Mitte dieses Jahres sind KI-Strategiepapiere auf nationaler und europäischer Ebene veröffentlicht worden. Das zeigt, dass die Diskussion auch auf gesetzgebender Ebene angekommen ist. RAILS hat es sich zum Ziel gesetzt, die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für KI und Robotik in (rechts-)wissenschaftlicher Hinsicht aktiv mitzugestalten. Wir möchten die Entwicklung verantwortungsvoller intelligenter Systeme vorantreiben. Dabei soll ein etwaiger zukünftiger Rechtsrahmen die technologische Entwicklungen nicht ausbremsen, sondern befördern. Gleichzeitig sollen aber Diskriminierungen vermieden, demokratische Grundprinzipien geschützt und eine angemessene Teilhabe aller Akteure an den wirtschaftlichen Ergebnissen der Digitalisierung eröffnet werden. Das alles unter einen Hut zu bekommen, ist eine große, internationale Herausforderung.

Welche Themenbereiche der KI sind für RAILS besonders interessant und warum?
Im Grunde ist alles interessant. Trotzdem haben wir uns für den Anfang natürlich auf ein paar Themengebiete festlegt. Insgesamt sind dabei fünf Fachsektionen entstanden: „Industrial Systems“, „Legal Tech“, „Autonomous Transportation“, „Personal Systems“ und „Grundsatzfragen“. Letztere adressiert dabei sektionsübergreifende Fragen. Mit den anderen Sektionen haben wir Bereiche aufgegriffen, in denen smarte Robotik und KI bereits vermehrt eingesetzt werden.
Wie stehst du zur Unterscheidung „schwache KI“ und „starke KI“? Siehst du bereits jetzt Einschränkungen auf einen Bereich oder Entwicklungen in beide Richtungen? Und wie glaubst du würde dies den rechtswissenschaftlichen Diskurs beeinflussen?
Diese Unterscheidung ist ein Versuch, den Begriff „künstliche Intelligenz“ trennschärfer zu machen. „Künstliche Intelligenz“ ist zur Zeit das Schlagwort. Ohne den entsprechenden technischen Hintergrund zu haben, ist für mich der Eindruck entstanden, dass sämtliche Verfahren des Maschinellen Lernens, Deep Learnings, neurale Netze, etc. unter diesem Begriff zusammengefasst werden, sie unterscheiden sich aber ganz erheblich. Eine Kategorisierung von „KI" ist daher sicher sinnvoll, um die Fähigkeiten des konkret eingesetzten Verfahrens beschreiben zu können.
Auch die Unterscheidung in starke und schwache KI ist aus meiner Sicht aber ein Ansatz, der im Ergebnis zu undifferenziert ist und somit keine in der momentanen Situation hilfreiche Trennschärfe liefert. Insbesondere da existierende Systeme und auch die Systeme der näheren Zukunft wohl der „schwachen KI” zu zuordnen sind. Von einer „starken KI“ sind wir in der Forschung und Entwicklung noch weit entfernt. Letztlich kann das aber ein Informatiker viel besser beurteilen als ich.
Aus rechtswissenschaftlicher Sicht werden Herausforderungen, Auswirkungen und Regulierungsansätze im Hinblick auf (schwache) KI jedenfalls vornehmlich vor dem Hintergrund des jeweiligen Anwendungsbereiches diskutiert. Dies spielgelt sich auch in unseren Fachsektionen wider. Trotzdem ist es aber erforderlich und unser erklärtes Ziel, über diesen anwendungsbezogenen Ansatz hinauszugehen. Denn letztlich wird man über einen generell-abstrakten, durch die anwendungsbezogenen Erkenntnisse bereicherten Rahmen nachdenken müssen. Hier setzt RAILS mit der Fachsektion „Grundsatzfragen und Regulierung” an, die quasi als Querschnittssektion fungiert.
Wie siehst du generell die Vernetzung von Wissenschaft und Praxis im Bereich der KI?
Ich glaube, dass das sehr von der Disziplin abhängt. Im Bereich der Informatik und Robotik ist die Vernetzung mit der Praxis nach meinem Eindruck deutlich ausgeprägter als etwa in den Rechtswissenschaften. Bei uns ist das Thema - noch - überwiegend wissenschaftlich getrieben und auch das erst in den letzten paar Jahren. Eine Ausnahme ist wohl der Bereich „Legal Tech“, der schon seit längerem durch eine immer größer werdende Zahl an Startups befördert wird und den die Wissenschaft erst anfängt zu adressieren.
Tatsächlich ist also gerade aus juristischer Sicht noch viel zu tun, um den Austausch zwischen Wissenschaft und Praxis voranzutreiben. RAILS besetzt, um diese Vernetzung zu fördern und eine Rückkopplung in die Praxis zu gewährleisten, den Beirat mit Unternehmen. Bislang haben wir hierfür drei Großkanzleien gewinnen können, weitere Unternehmen werden angesprochen. Selbstverständlich können Unternehmen bei uns auch Mitglied werden. Einige Legal Tech Unternehmen durften wir in unseren Reihen bereits begrüßen.
Zudem wollen wir den Austausch durch das Tech & Law Camp fördern, das zwei Mal im Jahr mit wechselnden Kooperationspartnern aus dem Legal Tech Bereich stattfindet. Und selbstverständlich wird der Austausch durch Tagungen vorangetrieben. Die nächste RAILS-Fachtagung wird am 5. April 2019 in Berlin stattfinden. Vertreter aus Politik, Praxis und Wissenschaft werden zu dem Thema „Governance of AI and Robotics: A European Approach?“ diskutieren. Die Resonanz ist gut und wir sind schon sehr gespannt.
Welchen Stellenwert hat der Austausch zwischen Rechtswissenschaften und anderen Disziplinen im Bereich der KI?
Gerade im Bereich von KI und smarter Robotik ist der Austausch mit anderen Disziplinen, allen voran der Informatik und Robotik entscheidend. Denn nur, wenn wir Juristen den Untersuchungsgegenstand und seine Funktionsweise verstehen, sind wir auch in der Lage angemessen über Auswirkungen und Regulierungsmöglichkeiten nachzudenken. Aus diesem Grund ist RAILS interdisziplinär aufgestellt, was sich insbesondere in dem Umstand widerspiegelt, dass mit Sami Haddadin einer der weltweit renommiertesten Robotikforscher zum Vorstandsteam zählt.
Aber auch gesellschaftspolitische, soziologische und ethische Perspektiven müssen in die Betrachtung einbezogen werden. RAILS ist gerade dabei, auch diese und weitere Disziplinen für unser Ziel zu begeistern und in die Arbeit einzubeziehen.
Was kann man deiner Meinung und Erfahrung nach alles tun, um den Austausch überhaupt anzustoßen oder besser zu fördern?
Es muss das gegenseitige Verständnis für die jeweils andere Disziplin gestärkt werden. Dies kann insbesondere durch interdisziplinäre Graduiertenkollegs, gemeinsame Forschungsprojekte, Workshops oder Konferenzen erreicht werden, bei denen Rechtswissenschaftler, Informatiker, Soziologen, Philosophen und Psychologen, um nur einige Disziplinen zu nennen, sich vernetzen und versuchen, eine gemeinsame Sprache zu finden. Ziel muss es sein, gemeinsam aus unterschiedlichen Fachrichtungen an der gleichen Forschungsfrage zu arbeiten und wissenschaftlich zu publizieren.
Aktuell schauen alle Disziplinen hauptsächlich auf ihre eigenen Probleme, ohne zu verstehen, welche Ursachen, Lösungsansätze aber auch Auswirkungen sich in den anderen Disziplinen ergeben. Insbesondere auch in den Rechtswissenschaften fangen wir allerdings gerade erst an, uns diesem interdisziplinären Ansatz über entsprechend aufgesetzte Doktorandenprogramme mit Betreuern aus unterschiedlichen Disziplinen und der Beteiligung an interdisziplinären Forschungsprojekte zu nähern. Hier herrscht nach wie vor viel Skepsis. Es kann und muss also noch viel getan werden, aber wir sind dran.
Liebe Tina, herzlichen Dank für dieses Interview.

Foto: Alle Rechte vorbehalten
28.01.2019 08:29
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.Künstliche Intelligenz (KI) wird häufig mit sehr futuristischen Anwendungen wie Robotern oder selbstfahrenden Autos assoziiert. Dabei steckt die KI-Technologie dieser Anwendungsfälle noch in den Kinderschuhen. Im Gegensatz dazu stoßen wir in unserem Alltag bereits häufiger auf KI als wir vielleicht denken, beispielsweise wenn wir bei Google Maps den schnellsten Weg suchen, mit Freunden kommunizieren oder Online-Einkäufe tätigen. Warum aber investieren Facebook, Google und Co. Milliarden in die Weiterentwicklung solcher Technologien?
Allgemein gesagt, kann KI aus einer Vielzahl von scheinbar ungleichen Datenquellen verborgene Muster erkennen und automatisiert Entscheidungen treffen, ohne vorher explizit dafür programmiert worden zu sein. Das eröffnet einer Vielzahl von Branchen das Potential von Effizienzgewinnen und neue Ertragsmöglichkeiten. Ausschlaggebender Faktor dafür sind zum einen die Daten, mit denen die KI lernt und zum anderen die Algorithmen, die bestimmen, wie der Lernprozess ablaufen soll. Im Folgenden wird ein kurzer Überblick darüber gegeben, welche Auswirkungen das auf die verschiedenen Branchen heute schon hat und in Zukunft haben kann.
Was kann KI?
Dafür ist zunächst wichtig zu verstehen, was KI kann und welche Bedingungen erfüllt sein müssen, damit solche Technologien eingesetzt werden können. Der Begriff der Künstlichen Intelligenz beschreibt die Fähigkeit von Maschinen Aufgaben auszuführen, die für die menschliche Intelligenz charakteristisch sind – also Dinge wie Planung, Sprachverständnis, Erkennen von Objekten und Geräuschen, Lernen und Problemlösen.
Dabei ist das Konzept der KI keine Erfindung von Apple, Netflix oder Google, sondern beschäftigte schon Gottfried Wilhelm Leibniz (17. Jahrhundert), George Boole (19. Jahrhundert) und Alan Turing (Anfang 20. Jahrhundert), um nur einige zu nennen. Seitdem ist viel passiert und die Leistungsfähigkeit von Computern, Cloud-Computing und die Sammlung von immensen Datenmengen haben dazu geführt, dass sowohl die Forschung als auch Anwendung von KI-Technologien in den letzten Jahren rapide zugenommen hat.
Damit Maschinen intelligent agieren können, müssen sie entweder so programmiert worden sein, oder sie müssen gelernt haben, wann sie in welcher Situation wie handeln sollen. Die Maschinen passen ihre Reaktion auf neue Ereignisse an, erkennen Muster und sind somit durch Wiederholungen immer besser in der Lage bestimmte Aufgaben zu erfüllen. Je mehr Daten sie für ihre Lernprozesse bekommen, desto intelligenter können sie potenziell werden, je nachdem wie ihr Lernverhalten programmiert wurde (also welchem Algorithmus sie folgen). Dieser Prozess wird auch maschinelles Lernen (engl. Machine Learning) genannt. Maschinen können auch ohne maschinelles Lernen intelligent erscheinen, indem ihre Verhaltensregeln in den Code geschrieben werden. Tatsächlich beruhen aktuell viele Technologien im Bereich selbstfahrende Autos und Chatbots auf regelbasierter KI und sind größtenteils (noch) nicht oder nur teilweise aus maschinellem Lernen entstanden.
Von dieser regelbasierten KI mal abgesehen, ist maschinelles Lernen der Weg um intelligente Maschinen zu erhalten. Auf Grundlage von Trainingsdaten kann eine KI durch maschinelles Lernen Muster innerhalb der Daten erkennen, die es der KI ermöglichen Vorhersagen über neue Daten zu treffen. Wenn der Trainingsdatensatz beispielsweise aus einer Reihe von Bildern besteht und einige das Label "Das ist eine Katze" und andere "Das ist keine Katze" tragen, dann erkennt der Computer Muster innerhalb der Pixel, die ihm helfen zu entscheiden ob auf einem neuen Bild eine Katze abgebildet ist oder nicht.
Herausforderung der Datenorganisation
Dieses Beispiel stellt auch die Bedeutung von Daten dar: Wenn der Trainingsdatensatz beispielsweise relativ klein ist oder die Daten falsch „gelabelt ”sind, dann kann die Maschine nur schwer relevante Muster erkennen, wobei jeder weitere Dateninput dazu führt, dass die Maschine intelligenter wird, sodass anfängliche „Fehler” im Trainingsdatensatz durch die Menge ausgeglichen werden können. Diese sehr vereinfachte Logik lässt sich auf viele Anwendungsgebiete übertragen, wobei neben der Qualität und dem Umfang der Daten vor allem deren Aufbereitung entscheidend ist. Denn nur, wenn Daten aus den verschiedenen Quellen intelligent aufbereitet und abgelegt sind, können sie als Input für statistische Verfahren herangezogen werden.
Wenn es beispielsweise darum geht einem Nutzer einen für ihn relevanten Online-Artikel vorzuschlagen, um ihn so auf der Website zu halten, muss das Profil des Lesers in Zusammenhang mit den Informationen zu den Artikeln gebracht werden. Die Herausforderung liegt in diesem Fall darin, dass die hier verwendeten Daten aus verschiedenen Quellen (Nutzungsverhalten, Inhalt der Artikel) kommen und unterschiedliche Formate (Textdaten, Zahlen, etc.) besitzen. Die Fähigkeit Daten aus unterschiedlichen Quellen zu sammeln und zu verbinden ist ein ausschlaggebender Faktor für die Wettbewerbsfähigkeit von Unternehmen. Viele Unternehmen besitzen beispielsweise Tonnen von Textdaten, die entweder aus dem Internet gecrawlt, aus Social Media-Seiten, Foren usw. extrahiert wurden oder im Kundensupport entstanden sind. Diese Daten sind in der Regel ziemlich chaotisch, aber sie enthalten eine Menge Informationen, die Unternehmen helfen können, mit Hilfe von Natural Language Processing (NLP) Erkenntnisse zu gewinnen, die sie nutzen können, um ihre Marktposition zu stärken.
Um die Herausforderung der Datenorganisation zu bewerkstelligen, stellen verschiedene Cloud-Dienstleister eine Infrastruktur zur Verfügung, welche neben der Organisation auch die Vorverarbeitung der Daten, sowie das Training und Bewertung für KI-Modelle abdecken. Die Analyseergebnisse können dann über REST-APIs mit der unternehmensinternen IT-Infrastruktur verknüpft werden. Der Sammelbegriff für diesen Service ist Machine Learning as a Service (MLaaS) und die bekanntesten Anbieter sind Amazon Machine Learning Services, Azure Machine Learning, Google Cloud AI und IBM Watson.
Steigender Einsatz von KI
Branchen, in denen eine Unmenge an Daten aus unterschiedlichen Quellen gesammelt und aufbereitet werden, setzen mit ziemlicher Sicherheit jetzt schon KI ein oder werden es in den nächsten Jahren tun. Mit KI Technologien können eine Reihe von Vorhersagen und Entscheidungen automatisiert werden, beispielsweise im Produktionsprozess, im Finanz- und Aktienmarkt oder bei Krankheitsbildern. Vor allem intelligente Techniken zur Vorhersage menschlichen Verhaltens sind in vielen, sehr unterschiedlichen Branchen ein wichtiger Faktor geworden.
Zu diesen Branchen zählen vor allem Banken und Finanzdienstleister, die Werbebranche und natürlich digitale und sozialen Medien. Für Versicherungen und Banken eröffnet die KI Technologie die Möglichkeit Entscheidungen über Policen und Kredite auf Grundlage detaillierter Kundenprofile zu treffen. Für den Handel mit Konsumgütern spielen diese Vorhersagen eine wichtige Rolle, wenn es darum geht, Markttrends zu analysieren und neue Geschäftsfelder zu erschließen. Medienangebote können auf Grundlage dieser Analyse bessere Empfehlungen für ihre Kunden geben (z.B. Netflix, Spotify oder Online Nachrichtenportale).
Viele Medienangebote sind neben Inhalteanbietern auch Plattformen, die den Werbemarkt mit dem Markt verbindet, der die Inhalte konsumiert. Gleiches gilt für soziale Medien, bei denen der Werbemarkt mit dem Konsumenten dieser Medien verbunden wird. Hier schafft KI die Möglichkeit Werbung zielgerichteter zu platzieren, um so die Netzwerkeffekte zu stärken und so den Nutzen, mindestens für den Werbemarkt, zu optimieren. Aber auch die andere Marktseite, die Konsumenten der Inhalte oder des sozialen Mediums, profitieren davon, wenn sie die für sie relevante Werbung erhalten und so informiert werden.
Dynamische Preissetzung dank Algorithmen
Aber nicht nur die Produkte, Dienstleistungen und Werbung lassen sich durch das Profiling von Kunden optimieren, sondern auch die Preissetzung, sodass Preisdiskriminierung erleichtert wird. So kann es beispielsweise vorkommen, dass jemand, der mit seinem iPhone in Hamburg nach einem Produkt sucht einen anderen Preis angezeigt bekommt, als jemand, der in Berlin an seinem Laptop nach dem selben Produkt sucht. Auch die dynamische Preissetzung, also die Anpassung der Preise an externe Faktoren (beispielsweise die Preise der Wettbewerber), wird durch Preissetzungsalgorithmen vereinfacht. Zwar haben Unternehmen ihre Preise auch schon vorher nach impliziten oder expliziten Regeln angepasst, der Einsatz von computergestützter Software erlaubt es aber, eine größere Menge an Daten schneller auszuwerten und so die Preissetzung dynamischer zu gestalten.
Eine solche algorithmische Preisgestaltung an sich kann natürlich grundsätzlich wettbewerbsfördernd sein, indem sie eine schnelle, wettbewerbsorientierte Reaktion ermöglicht. Dass die Preise als Reaktion auf Wettbewerb oder Verbrauchernachfrage durch den Einsatz von Computerisierung schneller steigen oder fallen, entspricht sogar eher dem Grundprinzip des freien Wettbewerbs. Da die Algorithmen und die Software, mit der sie ausgeführt werden, immer ausgeklügelter werden, kann es jedoch vorkommen, dass koordiniertes Verhalten ohne ausdrückliche „Anweisung” durch den Menschen häufiger auftritt. Die Anfechtung von Verhaltensweisen, bei denen die Rolle des Menschen bei der Entscheidungsfindung weniger klar ist, kann nach geltendem Recht schwieriger sein. Während die explizite Absprache beispielsweise illegal ist, ist das bei der bloßen bewussten Parallelität nicht der Fall. Die Unterscheidung zwischen beiden Fällen ist bereits dann eine Herausforderung, wenn die Preise durch Personen gesetzt werden, und wird durch computergestützte Preissetzung noch erschwert.
Zusammenhang zwischen KI und IoT
Ein weiterer wichtiger Bereich der zusammen mit KI an Bedeutung gewinnt ist das sog. Internet der Dinge (IoT, engl. Internet of Things). IoT bedeutet, dass physische Geräte wie Fahrzeuge oder Haushaltsgeräte mit Hilfe von Sensoren und Software systematisch Daten sammeln. Der Zusammenhang zwischen KI und IoT kann mit der Beziehung zwischen dem menschlichen Gehirn und dem Körper verglichen werden: Unser Körper sammelt Sinneseindrücke wie Sehen, Hören und Berühren. Unser Gehirn nimmt diese Daten und versteht sie, verwandelt Licht in erkennbare Objekte und Geräusche in verständliche Sprache. Unser Gehirn trifft dann Entscheidungen und sendet Signale an den Körper zurück, um Bewegungen wie das Aufnehmen eines Objekts oder das Sprechen zu steuern. Auch selbstfahrende Fahrzeuge zählen zu dem Bereich IoT.
Wie bereits erwähnt agiert die KI hier eher regelbasiert was natürlich auch an den rechtlichen und ethischen Bedenken liegt, die auftauchen, wenn eine KI-Technologie im Fahrzeug darüber entscheidet ob am Zebrastreifen gebremst wird oder nicht. Dass es hier in naher Zukunft weitere technologische Fortschritte geben wird zeigen zum einen die Investitionstätigkeiten in diesem Bereich, und zum anderen die Tatsache, dass immer mehr Daten (zum Beispiel über Sensoren im Fahrzeug oder Verkehrsdaten bei Google) gesammelt werden, mit deren Hilfe die KI immer intelligenter werden kann.
Zusammenfassung
Wie wir gesehen haben, ist KI in vielen Branchen bereits allgegenwärtig und wird für die Analyse von aggregierten Daten verwendet, um so neue Einblicke in die für die Branche relevanten Bereiche zu erlangen. Auch dort, wo Daten existieren, deren Aufbereitung und Analyse aufgrund fehlender Expertise und Strukturen bis dato aber schwierig ist, wird KI in den kommenden Jahren eine wichtige Rolle spielen. Der Aufbau dieser Strukturen, sowie der entsprechenden Expertise zu Datenauswertung und Modellbildung werden ausschlaggebende Faktoren für die Wettbewerbsfähigkeit von Unternehmen sein.

Foto: Alle Rechte vorbehalten.
27.01.2019 20:40
+++ DSGVO: 50 Millionen EUR Bußgeld gegen Google+++ KG zu Schleichwerbung und Meinungsfreiheit bei Influencern
+++ Google führt Datenschutz-Änderungen für zahlreiche Dienste ein
+++ 5G-Frequenzen: Vier Bieter beantragen Teilnahme an Auktion
+++ Klage gegen Facebook: Wiener Gericht hält sich für unzuständig
DSGVO: 50 Millionen EUR Bußgeld gegen Google
Die französische Datenschutz-Aufsichtsbehörde CNIL hat vergangene Woche gegen die amerikanische Google LLC ein Bußgeld in Höhe von 50 Millionen EUR verhängt. Es ist das erste bekannte Bußgeld in Millionenhöhe seit Geltung der Datenschutz-Grundverordnung. Die Behörde wirft Google vor, über personalisierte Werbeangebote nicht transparent zu informieren. Zudem seien die von Google eingeholten Einwilligungen nicht ausreichend. Google hat angekündigt, gegen den Bußgeldbescheid Rechtsmittel einzulegen.
Pressemeldung der CNIL.
Analyse von Tim Wybitul bei lto.de.
KG zu Schleichwerbung und Meinungsfreiheit bei Influencern
Sind Empfehlungen von Influencern auch dann Werbung im Sinne des Wettbewerbsrecht, wenn sie ohne den Auftrag eines Unternehmens erfolgt? Mit dieser Frage hat sich das Kammergericht Berlin (KG) Anfang Januar befasst, wie vergangene Woche bekannt wurde (Az. 5 U 83/18). Hintergrund war die Abmahnung eines Wettbewerbsvereins gegen eine Influencerin. Diese hatte auf Instagram einige Produkte empfohlen. Diese hatte die Influencer selbst erworben und war nicht von den Herstellern der Produkte mit Werbung beauftragt. Das Landgericht Berlin hatte dennoch eine kennzeichenpflichtige Werbung angenommen. Das KG relativierte diese Entscheidung nun: Ist mit überwiegender Wahrscheinlichkeit anzunehmen, dass für die Posts keinerlei Entlohnung für Influencer verbunden ist, liege keine wettbewerbsrechtlich relevante Werbung, sondern ein redaktioneller Inhalt vor. Eine generelle Vermutung, dass alle Posts von Influencern Werbung seien, gebe es nicht.
Meldung bei juris.de.
Google führt Datenschutz-Änderungen für zahlreiche Dienste ein
Google hat vergangene Woche einige datenschutzrechtliche Änderungen an zahlreichen seiner Dienste vorgenommen. Ab dem 22. Januar 2019 ist für Nutzer im Europäischen Wirtschaftsraum (EWR) sowie der Schweiz nicht mehr die US-amerikanische Google LLC, sondern die irische Google Ireland Ltd. datenschutzrechtlich verantwortlich. Der Wechselt gilt auch dann, wenn Google nicht eigenständig verantwortlich ist, sondern als Auftragsverarbeiter für Kunden agiert, bspw. bei Google Analytics.
Zur Ankündigung im Blog von Google.
5G-Frequenzen: Vier Bieter beantragen Teilnahme an Auktion
Im März beginnt die Auktion der Mobilfunkfrequenzen für den neuen Standard 5G. Vergangene Woche haben vier Unternehmen beantragt, für die Auktion zugelassen zu werden. Neben den Branchengrößen Telekom, Vodafone und Telefónica hat auch der vergleichsweise kleine Anbieter 1&1 Drillisch (United Internet) eine Zulassung zur Auktion beantragt. Die Bundesnetzagentur muss nun entscheiden, ob die Unternehmen die Zulassungsvoraussetzungen erfüllen. Mit einer Entscheidung wird im Laufe des Februar gerechnet.
Die Hintergründe bei Heise online.
Klage gegen Facebook: Wiener Gericht hält sich für unzuständig
Das Landesgericht für Zivilrechtssachen Wien hat entschieden, nicht für die Klage von Datenschutzaktivist Max Schrems gegen Facebook zuständig zu sein. Schrems klagt seit Jahren gegen verschiedenste Aspekte der Datenverarbeitung bei Facebook. Das Gericht begründet seine Entscheidung damit, dass für die Prüfung der Verarbeitungspraxis seit Geltung der DSGVO zunächst die österreichische Datenschutzbehörde zuständig sei, nicht die Zivilgerichte. Schadensersatzforderungen seien zudem vor dem Handelsgericht und nicht vor dem Zivilgericht einzufordern. Schrems hat angekündigt, gegen die Entscheidung Rechtsmittel einzulegen.
Die Hintergründe beim ORF.
23.01.2019 08:38
Dieser Artikel ist Teil der Artikelreihe „Künstliche Intelligenz”.Algorithmen sind nicht mit Software gleich zu setzen. Sie sind formalisierte Vorschriften, die endlich, eindeutig, verständlich, ausführbar und allgemeingültig für einen bestimmten Problembereich ausgestaltet sind. Wie diese Vorschriften notiert sind, ist nicht entscheidend. Algorithmen können mit Spielregeln verglichen werden: Ob sie als Kartenspiel, Brettspiel oder Software umgesetzt werden, ist nicht konstitutiv für die Definition eines Algorithmus.
Algorithmen sind die Basis eines Automatisierungsprozesses. Automatisierung ist so allgegenwärtig, dass sie kaum mehr auffällt. Autos, Ampeln, Geldautomaten, Türen in vielen Supermärkten, Treppen in der U-Bahn, der Fokus der Kamera und sogar Thermostate sind Beispiele für Automatisierung. Worin liegt nun die Brisanz des Themas „Algorithmus”? Was ist heute neu?
Was ist heute neu?
Neu sind vor allem zwei Sachen:
1) Neu ist die Größe der Datenbanken, die Algorithmen bedienen können. Algorithmische Prozesse können nicht nur sehr viele Daten prozessieren, sondern unstrukturierte Daten (Daten abgelegt ohne strukturierte Form in Mails, Office-Daten, PDFs in allen möglichen Formaten) und
2) neu ist die Implementierung von bestimmten Formen von komplexeren Algorithmen im kommerziellen Kontext. Gemeint sind damit Algorithmen, die das konstituieren, was mancher heutzutage schwache KI nennt.
Doch auch künstliche Intelligenz und Automatisierung sind nicht ganz das gleiche. Automatisierung bedeutete bisher, dass sehr konkrete Regeln programmiert werden müssen, damit eine Maschine oder Software eine sehr konkrete Aufgabe ausführen können, beispielsweise „suche den kürzesten Weg auf der Landkarte von Berlin nach Speyer”.
Künstliche Intelligenz automatisiert auf abstrakterer Ebene: Sie definiert Effizienzkriterien und verschiedene Aktionsrahmen und je nach Lage wird jene Aktion ausgeführt, die effizienter wirkt: „Fahre den schnellsten Weg von Berlin nach Speyer und bedenke dabei temporäre Verkehrszeichen, Baustellen und unvorhersehbare Faktoren wie Unfälle oder Wetter”.
Dieser Grad der Komplexität und Abstraktion ist ein riesiger Meilenstein und ermöglicht die Einbettung von Automatisierung überall da, wo es Prozesse gibt. Alle Sachverhalte, die sich in einem Prozess abbilden lassen, können (teil)automatisiert werden.
Wie das Beispiel verdeutlicht, wird der ebenfalls prozessuale Charakter beim Design eines komplexeren Automatisierungsverfahrens in der so genannten künstlichen Intelligenz sichtbar: es geht hier nicht nur um das Design eines Algorithmus, sondern um einen Prozess. Zunächst muss der Teil des menschlichen oder analogen Prozesses, der automatisiert werden soll, formalisiert werden. Anschließend müssen die mathematischen Regeln (die Algorithmen), die als Lösung oder Aktion in dem Kontext pertinent erscheinen formuliert und die Art der Daten, die diesen Prozess informiert steuern sollen, definiert und in Software umgesetzt werden. Anschließend erfolgt eine Trainingsphase. Die Software produziert dann statistische Auswertungen, keine Ergebnisse, die von einem Mensch interpretiert werden müssen und in einem Gesamtentscheidungsprozess integriert werden. Zuletzt ist das Design eines Feedbackverfahrens zu berücksichtigen, das Auswertungen evaluiert und danach die Software nachjustiert.
Für all diese Schritte sind verschiedene Berufsprofile verantwortlich und jeder dieser Schritte bedarf menschlicher Interpretation oder Vorstellungen des Sozialen (Was versteht man unter Effizienz oder Optimum oder Gleichheit? Ist vergangenes Verhalten ein guter Proxy für Vorhersagen über zukünftiges Verhalten? Orientieren sich Empfehlungsmodelle an Ähnlichkeiten zwischen ähnlichen Profilen oder an den Unterschieden?).
Drei Missverständnisse über komplexe Algorithmen können vor diesem Hintergrund hervorgehoben werden.
Missverständnis Nr. 1: Anthropomorphisierung
Technische Automatisierungsverfahren gründen auf mathematischen Modellen, die auf der Basis eines Datenbestandes und eines Kommandoregelwerks Wahrscheinlichkeiten berechnen und nach Wahrscheinlichkeiten Tätigkeiten ausführen. Diese Technologien führen folglich a priori von Menschen getroffene Entscheidungen aus und setzen eine „Datafizierbarkeit” des Sachverhalts voraus. Für die Ausführung verfügen diese Systeme über eine beschränkte Anzahl von Optionen, um ihre Ergebnisse zu optimieren. Sie treffen selbst keine Entscheidung. Die Entscheidungen werden zunächst im System- und Datendesign sowie in der Datenauswahl von Menschen abstrakt-generell vorab getroffen.
Diese Trennung im Handlungsstrang zwischen Entscheidung und Ausführung erscheint zuweilen befremdlich – sind doch Ausführungen immer Ausdruck einer Entscheidung des Ausführenden. Infolgedessen wird im Kontext von Automatisierungsverfahren eine anthropomorphisierende Semantik verwendet (maschinelles Lernen, künstliche Intelligenz, autonome Systeme), die jedoch in nicht zutreffenden Annahmen über die Fähigkeiten von Automatisierungssystemen mündet.
Künstliche Intelligenz, maschinelles Lernen, künstliche neuronale Netze, deep learning, … Keines dieser Modelle ahmt menschliches Denken oder Lernen nach. Sie automatisieren zwar, sind aber nicht autonom, denn sie besitzen keinen freien Willen und haben keine Absichten. Autonomie oder Selbstbestimmung sind aber Ausdruck eines freien Willens, der rational eigene Interessen und Absichten verfolgt.
Formen der sogenannten künstlichen Intelligenz wie künstliche neuronale Netze mögen ein biologisches Vorbild haben, sie sind jedoch eher eine Verallgemeinerung eines statistischen Regressionsmodells. Lernende Algorithmen sind daher ein Euphemismus für das Prinzip „je mehr Daten vorhanden, desto akkurater die Wahrscheinlichkeitsparameter“ des Algorithmus. Die sogenannten lernenden Algorithmen sind lediglich als Prozess der Anpassung komplexer statistischer Modelle an riesige Datenmengen zu verstehen. Beispielsweise können Algorithmen fein granulare Objekte besser als Menschen identifizieren1 – etwa Hunderassen. Das geschieht durch das Trainieren dieser komplexen Algorithmen mit einer massiven Anzahl digitaler Bilder, die von Menschen kategorisiert wurden. Der Algorithmus muss dafür Begriffe wie Pudel oder Dackel nicht darstellen und verstehen. So wie Regressionsmodelle das Einkommen eines Individuums anhand von Faktoren wie Ausbildung, soziale Kontakte und Wohngegend einschätzen können, ohne diese Konzepte verstehen zu müssen.
Demgegenüber steht die menschliche Fähigkeit des Spracherwerbs. Im Kindesalter erlernt der Mensch seine Muttersprache mit erstaunlich wenigen Daten (Wörtern). Bereits im kindlichen Alter beweist der Mensch seine Fähigkeit, Hypothesen und begriffliche Vorstellungen anhand weniger Beispielen zu entwickeln.
Können Lernen und Verstehen automatisiert werden?
Die sogenannte künstliche Intelligenz basiert auf statistischer Schlussfolgerung. Eine statistische Schlussfolgerung ist eine Verallgemeinerung von vielen Einzelfällen auf das Allgemeine. Sie kann deswegen nicht zur hundertprozentigen Sicherheit führen. Diese Herangehensweise wird fachlich als „Induktion” bezeichnet. Die Verwendung des Begriffs der „Logik” wurde in diesem Zusammenhang schon früh kritisiert. Unter anderem monierte der Philosoph Rudolf Carnap die Verwendung des Begriffs Logik bei induktiven Verfahren als Abkehr vom Grundverständnis der Logik. Denn der Grundbegriff von Logik ist Wahrheit. Da Gewissheit bei induktiven Schlussfolgerungen nicht gegeben ist, kann der Grundbegriff von induktiver Logik nicht Wahrheit, sondern Wahrscheinlichkeit sein. Induktive Schlussfolgerungen sind also keine logischen Schlussfolgerungen im strengen Sinne, sondern Wahrscheinlichkeitsschlüsse.
Es gibt viele Handlungen in der menschlichen Welt, die nur durch Kontextualisierung und deduktives Vorgehen funktionieren. Sprechen, bewerten, sich in einen anderen Menschen logisch hineinversetzen, ihn interpretieren oder verstehen – diese Art von Tätigkeiten setzt die Fähigkeit der Kontextualisierung voraus. Mit anderen Worten: Nein, mit dieser Technologie kann Lernen und Verstehen nicht automatisiert werden.
Missverständnis Nr. 2: Die Blackbox-Analogie
Erklärungen für politische und rechtliche Zwecke haben eine andere Funktion als wissenschaftliche Erklärungen über das technische Verfahren. Auch wenn die einzelnen Berechnungen des Algorithmus nicht immer rekonstruiert werden können sondern nur Plausibilisierungen. Durch Input/Output Analyse kann durchaus das Verfahren an sich nachvollzogen werden. Es handelt sich hierbei um eine alte, bekannte und sehr wohl akzeptierte Methode, um in Wirtschaftswissenschaften den Markt zu analysieren. Die Spezifikationen für das, was eine Erklärung konstituiert sind allzu sehr auf die technischen Abläufe der Datenverarbeitung und zu wenig auf soziale Interaktion und Auswirkungen fokussiert. Letztere sind aber durchaus messbar und ergründbar. Sie sind umso notwendiger, um Verzerrungen in den Berechnungen verstehen zu können. So ist regelmäßig eine gravierende Diskrepanz zwischen der vom Entwicklungsteam konzipierten Funktionalität einer Software und der Nutzung derselben Software beim Endanwender festzustellen.
Ein Beispiel ist Youtube als Plattform, die als Broadcastplattform entwickelt wurde und vom algorithmischen Design so konzipiert wurde, dass Nutzer möglichst lange auf der Plattform bleiben. Das steht in Kontrast zu der Google-Suche, die als Suchmaschine algorithmisch so entwickelt wurde, dass die Plattform möglichst rasch verlassen wird. Denn eine gute Suchmaschine lässt Nutzer schnell das finden, was sie suchen, sodass sie nicht lange auf der Suchmaschinen-Webseite bleiben müssen. Das Feedback, das für Youtube und Google-Suche statistisch entworfen wurde, ging von diesen zwei verschiedenen Funktionalitäten aus. Google hat Jahre gebraucht um zu verstehen, dass Nutzer Youtube auch als Suchmaschine verwenden. Das stellt Youtube algorithmisch vor eine Herausforderung, denn die zwei Funktionalitäten konnten kaum gegensätzlicher sein. Vor allem zeigt dies, dass es nicht auf die formelle mathematische Relevanz bestimmter in der Statistik inhärenten Bias und Dilemmata ankommt, sondern auf auf die soziale Relevanz, die bei der Nutzung dieser Software entsteht und generell andere statistische Verzerrungen aufzeigt.
Bei Automatisierungsprozessen ist es viel leichter als bei menschlichen Entscheidungen zu dokumentieren, wer was wann im System geändert hat. Sie sind zudem in ihrer Konsistenz besser als Menschen. Denn sie lassen sich in der Ausführung nicht von externen Faktoren wie dem Wetter, Hunger, oder weiteren emotionalen Aspekten beeinflussen.
Die Frage der Konsistenz ist besonders relevant. Nicht nur aus ökonomischer Sicht, sondern auch ethisch kann fehlende Konsistenz eine Auswirkung haben. Es ist wirtschaftlich ineffizient und/oder unfair, wenn Mitarbeiter der Bundesagentur für Arbeit, je nach Wetterlage unterschiedlich über zwei ähnliche Anträge auf Arbeitslosengeld entscheiden – oder Manager zwei gleiche Sachverhalte vor und nach dem Essen anders bewerten. Bei der Herstellung von Konsistenz können algorithmische Verfahren in geeigneten Kontexten, etwa der Vorbereitung von Standardentscheidung nach festgelegten Parametern oder auch im Bereich des Controlling, einen Mehrwert leisten und wiederum Assistenz leisten, um menschliches Verhalten besser verstehen und erklären zu können. Denn zunächst sind Algorithmen die Formulierung menschlicher Ansichten und Vorstellungen der Welt in einer formalisierten Sprache. Die algorithmische Sprache ist daher genauso wenig neutral wie die konventionelle Sprache, in der sich Menschen verständigen. Daraus folgt, dass algorithmische Verfahren von jenen Menschen beeinflusst werden, die in ihre Gestaltungsprozesse involviert sind. Diese menschlichen Beeinflussungen können durchaus von Vorurteilen und Bias behaftet sein. Andererseits stellten die Studien von Paul Meehl bereits in den 1950er Jahren fest, dass die Prognosen einfacher algorithmischer Verfahren regelmäßig die Vorhersagen menschlicher Experten in vielen Bereichen schlagen. Paradoxerweise scheinen Algorithmen folglich nicht nur Quelle von Bias, sondern zugleich Hilfsinstrument, um menschliche Urteile von Vorurteilen zu befreien.
Missverständnis Nr. 3: Der relationale, infrastrukturelle Charakter von Algorithmen
Algorithmen kennen das einzelne Individuum nicht. Rein konzeptionell repräsentieren sie eine Vorstellung des Sozialen. Sie analysieren Muster nie mit absoluten, sondern in Relation zu anderen. Algorithmen stellen Menschen in aussagekräftigen Gruppen zusammen, sodass die Identität der Individuen keine Relevanz mehr hat.
Zwar wird Personalisierung beim Anwender als eine sehr individuelle Erfahrung wahrgenommen, doch technisch bedeutet Personalisierung die Einordnung dieses Individuums zu einem sehr spezifischen Kollektiv von Personen mit ähnlichen Profilen und Interessen. Dabei wird dem Betroffenen nicht notwendigerweise klar, dass er qua algorithmischer Zuordnung Teil eines fein-ziselierten Kollektivs ist. Infolge dieser Zuordnung und Management der verschiedenen Gruppierungen können algorithmische Verfahren mit Bias bestimmte Kollektive schlechter stellen und zwar ohne, dass ein einzelner Schaden feststellbar wäre.
Demokratien kennen wiederum rechtsdogmatisch nur das Individuum. Sie gewährleisten individuelle Grundrechte und nur in einzelnen Rechtsbereichen (beispielsweise im Arbeitsrecht) erfassen sie die kollektivistische Dimension von Diskriminierung. In der Zukunft werden bei der Anwendung von komplexeren Algorithmen diese Phänomen stärker zu beobachten sein – und zwar in allen Sektoren: sei es in der Verteilung von Energie oder Strom, im Konsum- oder Gesundheitssektor oder in der sozialen Sicherung. Dabei wird der Nachweis eines individuellen Schadens deutlich erschwert. Nur mit einem architektonischen Blick werden Unterschiede unter verschiedenen Kollektiven feststellbar. Dass Diskriminierung nicht nur im Arbeitssektor vorhanden, und dass die Einsetzung dieser Technologien in allen Sektoren erfolgen wird, zeigt auf eine der offenen rechtlichen Lücken hin, die durch neue Technologien greifbarer wird.
Algorithmen automatisieren Prozesse indem sie technisch Abläufe und Vorschriften mathematisch standardisieren. Dabei kreieren sie eine neue Form von Infrastruktur in Sektoren, die wir davor nicht als Infrastruktur betrachtet hätten. So könnten wir Google als Informationsinfrastruktur betrachten, oder Facebook unter anderem als soziale Infrastruktur. Sie vernetzen soziale Punkte oder Informationen miteinander. Das wirft normativ folglich ganz andere Fragen auf, beispielsweise die Frage der Versorgungssicherheit im Katastrophen- oder Krisenfall. Und es eröffnet interessante neue Herangehensweisen, um mit KI-gesteuerten Plattformen umzugehen.

Foto: Alle Rechte vorbehalten
2018 erhielt sie mit der Initiative AlgorithmWatch die Theodor Heuss Medaille „für ihren Beitrag zu einer differenzierten Betrachtung von Algorithmen und deren Wirkmechanismen“.
1. Auch wenn Algorithmen bei konkreten Datensätze bessere Ergebnisse als Menschen erzielen (beispielsweise bei der Erkennung von Hunderassen), ist die maschinelle Erkennung von Objekten im Allgemeinen nicht besser als die eines Menschen. Ganz im Gegenteil, Algorithmen machen bei der Erkennung von Objekten Fehler in Fällen, die ein kontextuelles Verständnis benötigen. Diese Fälle sind in der Regel für Menschen wiederum trivial (vgl. die Microsoft Studie Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, https://arxiv.org/pdf/1502.01852v1.pdf).
21.01.2019 15:02
+++ 22. Jan.: Grundrechte im Zeitalter der Digitalisierung, Berlin+++ 24. Jan.: Filesharing - Aktuelle Entwicklungen, Bochum
+++ 25. Jan.: OSE Symposium: Recht.Digital.Escrow, München
+++30. Jan.: Digitaler Salon: Zahlen, die malen, Berlin
+++ 30. Jan/1. Feb.: CDCP, Brüssel
+++ 1. Feb.: ZUM-Symposion: EU-Urheberrechtsreform, München
+++ 4. Feb.: Privatheit & informationelle Selbstbestimmung von Kindern, Passau
+++ 5. Feb.: Frankfurter Gespräche zum Informationsrecht, Frankfurt
+++ 12. Feb.: PhDnet@CAIS. Gesellschaft und Digitalisierung, Bochum
+++ 13. Feb.: Wem gehört unser digitales „Ich“?, Berlin
+++ 14. Feb.: Göttinger Forum IT-Recht, Göttingen
+++ 18./19. Feb.: 2019 Europe Conference (INTA): Embracing Change, Paris
+++ 22. Feb.: 8. DialogCamp, München
+++ 19.-22. Feb.: 59. Assistententagung, Frankfurt
Grundrechte im Zeitalter der Digitalisierung
Am Abend des 22. Januar wird Dr. Katarina Barley, Bundesministerin der Justiz und für Verbraucherschutz, im Festsaal der Huboldt-Universität einen Vortrag zum Thema "Grundrechte im Zeitalter der Digitalisierung" halten. Im Anschluss steht die Bundesministerin zur Diskussion zur Verfügung. Der Vortrag erfolgt auf Einladung des Instituts für Gesetzgebung und Verfassung (IGV).
Termin: 22. Januar 2019, ab 19 Uhr
Ort: Humboldt-Universität zu Berlin, Unter den Linden 6, Senatssaal, 10099 Berlin
Anmerkungen: Kostenfrei, keine Anmeldung erforderlich
Nähere Informationen.
Filesharing – Aktuelle Entwicklungen in Gesetzgebung und Rechtsprechung
Durch Novellen des Telemediengesetzes 2016 und 2017, mit denen u.a. offene WLANs gefördert werden sollten, haben sich die rechtlichen Rahmenbedingungen des Filesharings geändert. Auch in der Judikatur zeichnen sich neue Entwicklungen ab, z.B Bezug auf Beweisfragen oder hinsichtlich der Pflichten des Anschlussinhabers bei der Mitnutzung eines privaten Internetanschlusses durch Familienmitglieder oder Freunde. In der Veranstaltung sollen typische Fallkonstellationen aus Sicht der Betroffenen analysiert und Argumentationsspielräume aufgezeigt werden. Es referieren Prof. Dr. Renate Schaub, LL.M. (Univ. Bristol) und Dr. Anke Thiedemann, LL.M., Rechtsanwältin und Fachanwältin für Gewerblichen Rechtsschutz sowie für IT-Recht.
Termin: 24. Januar 2019, ab 17 Uhr
Ort: Justizzentrum Bochum, Josef-Neuberger-Str. 1, 44787 Bochum
Anmerkungen: Kostenfrei, Anmeldungen bitte bis zum 17. Januar 2019
Nähere Informationen und Anmeldung.
OSE Symposium: Recht.Digital.Escrow
Einen Großteil der Veranstaltung machen Vorträge über praktische Erfahrungen mit der DSGVO aus: Vom Problemkreise Persönlichkeitsrecht und Selbstregulierung über Hinweise der Aufsichtsbehörden bis hin zu Beschäftigtendatenschutz und Datennutzungs- und Datenschutzaspekten bei Fahrzeugdaten. Am Nachmittag stehen die neuen Regelungen zum Geheimnisschutz auf dem Programm, die Know-how-Richtlinie und das GeschGehG. Den Abschluss der Veranstaltung bildet ein Einblick in die ITechLaw-Studie „The Cybercrime Regulations of the World”.
Termin: 25. Januar 2019
Ort: Haus der bayerischen Wirtschaft, Max-Joseph-Straße 5, 80333 München
Anmerkungen: Kostenpflichtig, Anmeldung erforderlich
Nähere Informationen und Anmeldung.
Digitaler Salon: Zahlen, die malen, Berlin
Im Digitalen Salon im Januar dreht sich alles um Kunst und Künstliche Intelligenz (KI). Dabei steht die Behauptung im Raum, dass KI auch Kunst könne. Wer ist dann aber kreativ – Mensch oder Maschine? Und sind ProgrammiererInnen die neuen KünstlerInnen? Die Diskussion darüber findet im Rahmen vom "Vorspiel 2019" der transmediale & des CTM Festivals statt.
Termin: 30. Januar 2019, ab 19 Uhr
Ort: Humboldt Institut für Internet und Gesellschaft, Französische Straße 9, 10117 Berlin
Anmerkungen: Kostenfrei, keine Anmeldung erforderlich
Nähere Informationen und Anmeldung.
CDCP: Data Protection and Democracy
Die diesjährige Computers, Privacy & Data Protection (CDCP) steht unter dem Motto Datenschutz und Demokratie. An drei aufeinander folgenden Tagen wird in vier bis sechs gleichzeitig stattfindenen Tracks das Konferenzthema ausgiebig beleuchtet werden. Das vollständige Programm findet sich hier.
Termin: 30. Januar bis 1. Februar 2019
Ort: Les Halles de Schaerbeek, Rue Royale-Sainte-Marie 22, 1030 Brüssel, Belgien
Anmerkungen: Kostenpflichtig, mit Anmeldung
Nähere Informationen und Anmeldung.
ZUM-Symposion: EU-Urheberrechtsreform – Ergebnisse & Analysen
Der Vorschlag zum Urheberrecht im digitalen Binnenmarkt befindet sich zur Zeit im Trilogverfahren. Das Symposium möchte einen ersten Blick auf Themen wie das europäische Leistungsschutzrecht, den Schrankenkatalog und die Sonderregelungen für vergriffene Werke werfen. Auf der Veranstaltung wird außerdem der Heinrich-Hubmann-Preis der VG WORT verliehen.
Termin: 1. Februar 2019
Ort: Literaturhaus München, Salvatorplatz 1, 80333 München
Anmerkungen: Kostenfrei, Anmeldung erforderlich
Nähere Informationen und Anmeldung.
Privatheit & informationelle Selbstbestimmung von Kindern im digitalen Kontext
Zu diesem Thema wird Prof. Dr. phil. Christoph Schickhardt vor dem DFG-Graduiertenkolleg "Privatheit und Digitalisierung" einen Vortrag halten. Ist das Recht eines Säuglings auf Leben oder Gesundheit dem entsprechenden Recht eines Erwachsenen gleich zu achten? Können Säuglinge oder Kleinkinder, welche gar nicht verstehen, was Rechte sind, überhaupt Rechte haben? Ist es richtig, dass eine Mutter ihrer noch minderjährigen schwangeren Tochter eine Abtreibung untersagen kann? Derartige Fragen zur Kinderethik sowie den zu ihrer fundierten Erörterung notwendigen moralphilosophischen Grundlagen werden Thema sein.
Termin: 4. Februar 2019, ab 18 Uhr
Ort: HS 4, Philosophicum der Universität Passau, Innstraße 25, 94032 Passau
Anmerkungen: Kostenfrei, keine Anmeldung erforderlich
Nähere Informationen und Anmeldung.
Frankfurter Gespräche zum Informationsrecht
Gleich zwei internationale Gäste werden beim o.g. "brown bag lunch" referieren. Prof. Dr. Danilo Doneda vom brasilianischen Institut für Öffentliches Recht zu "Foundations and implementation of the new Brazilian data protection law" und Prof. Dr. Juliano Maranhao von der University of São Paulo Law School und Humboldt Fellow zu "Artificial Intelligence and the right to explanation of automated decisions". Die Frankfurter Gespräche zum Informationsrecht richten sich an Wissenschaft, Wirtschaft und Praxis. Sie wollen ein Forum für den Austausch über aktuelle Problemstellungen, aber auch Grundsatzfragen aus allen Bereichen des
öffentlichen Informationsrechts bieten.
Termin: 5. Februar 2019, 12 Uhr
Ort: Seminarhaus – Raum 2.101 (Campus Westend), Max-Horkheimer-Straße 4, 60323 Frankfurt/Main
Anmerkungen: Kostenfrei, keine Anmeldung erforderlich
Nähere Informationen und Anmeldung.
PhDnet@CAIS. Gesellschaft und Digitalisierung
Zur Vernetzung von NRW-DoktorandInnen zum Thema Digitalisierung lädt das Center for Advanced Internet Studies (CAIS) nach Bochum. In der Kick-off Veranstaltung des neuen Nachwuchsnetzwerkes PhDnet@CAIS gibt es neben einer Keynote "Zwischen Targeting und Television. Der US-Wahlkampf zu den Midterm Elections 2018" vor allem viel Zeit zum wissenschaftlichen Speed Dating und Networking.
Termin: 12. Februar 2019
Ort: Center for Advanced Internet Studies, Universitätsstr. 104, 44799 Bochum
Anmerkungen: Kostenfrei, keine Anmeldung erforderlich
Nähere Informationen und Anmeldung.
Wem gehört unser digitales „Ich“?
Die Frage nach der eigenen Identität beschäftigt Menschen seit je her. Richard David Precht hat die Frage in seinem Bestseller erweitert auf: „Wer bin ich und wenn ja wie viele?“ Dies ist der Ausgangspunkt für die Diskussionsrunde um Precht die Fragen vor dem Hintergrund der Digitalisierung noch breiter zu formulieren: Wie stark wird unsere Identität heute in der digitalen Welt geprägt? Wem gehört unser digitales „Ich“? Wie behalten wir die Kontrolle darüber? Wie sieht die Zukunft digitaler Identität aus und welche Chancen ergeben sich daraus für jeden Einzelnen und für die Gesellschaft?
Termin: 13. Februar 2019
Ort: Telefonica BaseCamp, Mittelstraße 51-53, 10117 Berlin
Anmerkungen: Kostenfrei, mit Anmeldung
Nähere Informationen und Anmeldung.
5. Göttinger Forum IT-Recht
"Mit Recht in die digitale Zukunft – Smart Data, Smart Solutions, smarte Regulierung?" lautet das Oberthema des Göttinger Forum IT-Recht. Neben einem großen Block zum Datenschutzrecht befasst sich die Tagung mit den rechtlichen Implikationen von Virtual und Augmented Reality sowie mit Künstlicher Intelligenz.
Termin: 13./14. Februar 2019
Ort: Tagungs- und Veranstaltungshaus Alte Mensa, Wilhelmsplatz 3, 37073 Göttingen
Anmerkungen: Kostenpflichtig, mit Anmeldung
Nähere Informationen und Anmeldung.
Europe Conference (INTA): Embracing Change
Die europäische Konferenz der International Trademark Association (INTA) steht unter dem Motto "Embracing Change". Themen werden sein: Marken in der digitlaisierten Welt, der Aufstieg der Online Influencer, Datenschutz und die Zukunft des Urheber- und Immaterialgüterrechts in Europa.
Termin: 18./19. Februar 2019
Ort: The Westin Paris-Vendôme, 3 Rue de Castiglione, 75001 Paris, Frankreich
Anmerkungen: Kostenpflichtig, mit Anmeldung
Nähere Informationen und Anmeldung.
8. DialogCamp
Wie bei BarCamps üblich wird das Konferenzprogramm am Tag der Veranstaltung in einem morgendlichen Plenum der Teilnehmenden zusammengestellt. Neben einer Session zu Games Law stehen bisher nur einige Tech Workshops fest sowie ein Lunchtalk mit Lesung eines Kriminalromans. Den Abscluss des Tages bildet eine Fragestunde mit verschiedenen Datenschutzaufsichtsbehörden zum Stand der DSGVO Umsetzung.
Termin: 22. Februar 2019
Ort: Neue Hopfenpost, Arnulfstr. 30, 80335 München
Anmerkungen: Kostenpflichtig, Anmeldung erforderlich
Nähere Informationen und Anmeldung.
59. Assistententagung im Öffentlichen Recht: Verfassungen - ihre Rolle im Wandel der Zeit
Auf der mehr als viertägigen Assistentagung im Öffentlichen Recht wird es darum gehen, die Herausforderungen, die sich für Verfassungen im Laufe der Zeit ergeben, zu beleuchten. Besonderes Augenmerk soll dabei auf ihre Wandelbarkeit und Beständigkeit im Angesicht gesellschaftlicher und technischer Veränderungen gelegt werden. Am Donnerstag findet ein Wissenschaftliches Panel zur "DigitalisierungsVerfassung" statt. Ein buntes Rahmenprogramm rundet die Tagung ab.
Termin: 19.-22. Februar 2019
Ort: Goethe-Universität Frankfurt, 60323 Frankfurt/Main
Anmerkungen: Kostenpflichtig, Anmeldung erforderlich
Nähere Informationen und Anmeldung.
Sollten Sie Ihre Veranstaltung hier nicht wiederfinden, obwohl sie einen Bezug zu den Themenbereichen Informations-, Urheber- & Medien- oder Datenschutzrecht aufweist, bitten wir um einen entsprechenden Hinweis.
20.01.2019 22:23
+++ BGH zum presserechtlichen Informationsschreiben+++ BNetzA entscheidet über TAL-Standardangebot
+++ LG Berlin: Noah Becker erhält 15.000 € wegen rassistischen Tweets
+++ Router-Hacking: BNetzA geht gegen Missbrauch vor
+++ 5G-Ausbau: Bundesregierung erwägt Ausschluss von Huawei
BGH zum presserechtlichen Informationsschreiben
Der BGH hat vergangene Woche in einer Entscheidung über die Zulässigkeit eines presserechtlichen Informationsschreibens entschieden. Diese stellen ein geeignetes Mittel dar, um präventiv etwaige Verletzungen des allgemeinen Persönlichkeitsrechts durch Berichterstattung zu verhindern. Soweit dies als Möglichkeit genutzt wird, dem Betroffenen bereits im Vorfeld einer Berichterstattung Gehör zu verschaffen und dadurch Rechtsverletzungen zu verhindern, seien diese auch entgegen dem ausdrücklichen Wunsch eines Presseunternehmens zulässig, keine derartigen Informationsschreiben zu erhalten. Dies gilt jedoch nicht, wenn das Schreiben keine Informationen enthält, mittels derer das Presseunternehmen eine mögliche Verletzung der Persönlichkeitsrechte durch eine etwaige Berichterstattung erkennen könnte. Da diese Voraussetzungen eines rechtmäßigen Informationsschreibens auch in dem konkreten Rechtsstreit nicht vorlagen, erkannte der BGH dieses als rechtswidrig an.
Zur Pressemitteilung des BGH.
BNetzA entscheidet über TAL-Standardangebot
Vergangene Woche hat die Bundesnetzagentur in dem aktuellen Standardangebotsverfahren über den regulierten Zugang zur Teilnehmeranschlussleitung (TAL) entschieden. Darüber berichtet Spiegel-Online ausführlich. In dem Verfahren werden die grundsätzlichen vertraglichen Regelungen festgelegt, zu denen das zugangsregulierte Unternehmen den Zugang ermöglichen muss. Das ist in diesem Fall die Telekom, die mit Vectoring-Technologien eine möglichst lange wirtschaftliche Verwertung herkömmlicher Kupferleitungen anstrebt. Die BNetzA-Entscheidung enthält auch eine umstrittene Regelung, wonach die Telekom ein Vorrecht vor ihre Leitung störenden Signalen anderer Unternehmen erhält.
Zum ausführlichen Bericht bei spiegel.de.
Die Entscheidung der BNetzA im Sharepoint des Breko.
LG Berlin: Noah Becker erhält 15.000 € wegen rassistischen Tweets
Noah Becker, der Sohn des Tennis-Spielers Boris Becker, kann von dem AfD-Politiker Jens Maier ein Schmerzensgeld in Höhe von 15.000 € nebst der Erstattung außergerichtlicher Anwaltskosten verlangen. Dies hat das LG Berlin vergangene Woche entschieden. Hintergrund ist ein rassistischer Tweet über Becker, der von Maiers Twitter-Account versendet wurde. Der Politiker hatte zuvor das Angebot Beckers abgelehnt, die Hälfte des nunmehr gerichtlich zugesprochenen Betrags an eine karitative Einrichtung zu spenden.
Zur Nachricht bei lto.de.
Router-Hacking: BNetzA geht gegen Missbrauch vor
Die Bundesnetzagentur ist im Januar gegen mehrere Fälle sogenannten Router-Hackings vorgegangen. Dabei werden Telefonanlagen derartig manipuliert, dass sie massenhaft ausländische oder sonstige kostenpflichtige Verbindungen aufbauen und dadurch für den Inhaber erhebliche vermeintliche Kosten verursachen. So wurden in einigen Fällen Beträge in sechsstelliger Höhe aufgerufen. Die Behörde hat hieraufhin Auszahlungs- und Inkassoverbote, die eine Abwicklung der somit erzielten unberechtigten Entgelte über die Telefonrechnung verhindern sollen.
Zur Pressemitteilung der BNetzA.
5G-Ausbau: Bundesregierung erwägt Ausschluss von Huawei
Die Bundesregierung prüft derzeit den Ausschluss des chinesischen Unternehmens Huaweis von einem technischen Ausbau von 5G-Netzen in Deutschland. Dies geht aus einer Antwort des Bundesinnenministeriums auf eine parlamentarische Anfrage hervor, wie golem diese Woche unter Verweis auf die Nachricht beim Handelsblatt berichtete. Demnach gehe es vor allem um sicherheitsrelevante Anforderungen, die alle Unternehmen erfüllen müssten, um am Ausbau teilzunehmen. Zuletzt hatte noch das BSI Zweifel an der Sicherheitskritik gegenüber Huawei geäußert und keine hinreichenden Beweise für den unterstellten Spionageverdacht gesehen. Das Unternehmen ist in der deutschen Mobilfunkbranche etabliert und rüstet alle großen Netzbetreiber aus, die vor einem Bann warnten.
Zur Berichterstattung bei golem.de.
Zur Nachricht beim Handelblatt (€).
Verlag | Kontakt | Impressum | Mediadaten | Datenschutz | AGB | Autorenhinweise