Home Newsletter Datenbank News Berater-Magazin Abo Bücher eBooks Veranstaltungen
Logo ruw-online
Logo ruw-online
 
 
INTER 2019, 77
Gräfe 

Bericht der @kit-Tagung: „Künstliche Intelligenz“

Hans-Christian Gräfe*

Die @kit-Tagung „Künstliche Intelligenz“ (KI) fand als Thementag im Rahmen der alljährlichen Konferenz des Bayreuther Arbeitskreises für Informationstechnologie, Neue Medien, Recht e. V.(@kit) am 27. März 2019 statt. Veranstaltungsort waren die kurz zuvor eröffneten Räumlichkeiten von Google in Berlin.

Der Chefredakteur der „Kommunikation & Recht“ Torsten Kutschke (Deutscher Fachverlag, Frankfurt/Main) eröffnete die Tagung. Bereits im Rahmen des letztjährigen @kit-Kongresses sei die Idee aufgekommen, dem trending topic „Künstliche Intelligenz“ einen eigenen, größeren Part zu widmen. Dabei habe man sich vorgenommen, das Thema aus möglichst vielen rechtlichen Perspektiven zu beleuchten. Mit Rechtsanwalt Prof. Dr. Thomas Klindt (Noerr, München) sei schnell ein versierter Technikrechtler gefunden worden, der die Tagung moderieren würde. Sodann begrüßte der Leiter der Rechtsabteilung des Gastgebers Dr. Arnd Haller (Google, Berlin) die Teilnehmenden. Künstliche Intelligenz sei zu Recht in der breiten gesellschaftlichen Debatte angekommen. Neben der technischen Entwicklung spiele zunehmend die Frage, wie sie ausgestaltet und eingesetzt werden darf, die zentrale Rolle. Google habe sich dessen mit seinen AI principles1 angenommen.

Als erste Rednerin trat Politik- und PR-Referentin Anna-Verena Naether (Google, Berlin) auf. In ihrem Vortrag „Politische Perspektiven auf Künstliche Intelligenz in Deutschland und der EU“ beleuchtete sie vor allem drei Punkte: Welche Themen beim politischen Diskurs in Deutschland im Vordergrund stünden, wer die politischen Akteure seien und wie sich die deutsche KI-Strategie in gemeinsame europäische Interessen einbette. Dabei könne festgehalten werden, dass der Gedanke, „die zweite Phase der Digitalisierung nicht zu verschlafen“, in den Köpfen der Politik angekommen sei. Den Forschungsstandort Deutschland und Europa zu stärken, sei nötig, um so zum Innovationstreiber zu werden. Entwickelt und in die Wirtschaft transferiert werden solle dabei eine wertebasierte KI „made in Germany“ bzw. „made in Europe“. Verschiedene Gremien sollen dabei Erkenntnisse liefern und Vorschläge zur Umsetzung erarbeiten.2

Getreu dem Motto, den ersten Schritt vor dem zweiten zu tun (vgl. InTeR 2018, 105 f.), bildete ein technischer Vortrag die Grundlage für das weitere Tagungsprogramm.3 Computer Scientist und Doktorand Oliver Groth (Oxford Robotics Institute, Oxford) räumte in „Künstliche Intelligenz in 2019: Wo ist mein Hoverboard?“ mit verbreiteten Fehlvorstellungen über KI auf. Er lieferte zunächst eine juristengerechte Erklärung der einzelnen Spielarten der Automatisierungstechnologien wie z. B. von neuronalen Netzwerken, Machine Learning (ML) und Deep Learning (DL). Wir müssten uns einerseits klarmachen, dass KI kein singuläres Ereignis sei, sondern ein Prozess, der die Gesellschaft insgesamt kognitiv leistungsfähiger mache. Andererseits beruhe derzeitiges ML vor allem auf Schätzungen und Statistik und sei nicht intelligent im Sinne menschlicher Intelligenz.

Einen Einblick in die Vielzahl aktueller Anwendungsbereiche lieferte Rechtsanwalt Peter Hense (Spirit Legal, Leipzig). Sein Vortrag „The New Machine Age: Sensor Data, Machine Learning, Machine Bias, Discrimination, Inferred Data. Aktuelles von der Frontlinie technischer und juristischer Entwicklungen rund um das Thema ‚Künstliche Intelligenz’“ glich einem Parforceritt: Dynamic Pricing biete zwar die Möglichkeit zur Differenzierung, könne aber diskriminierend sein. Predictive Consumer Analytics und Voice/face Recognition könnten zu einem biometrischen Profiling führen. Bei Conversational Commerce über Sprachassistenten stelle sich die Frage nach einer Werbekennzeichnung. Auch aufgrund weltweiter Entwicklungen wie InTeR 2019 S. 77 (78)der Social-Credit-Systeme und der Sorge um Machine Biases brauche es Prinzipien für berechenbare Algorithmen. Zuletzt kam Hense auf das Problem der aus Daten ableitbaren Entscheidungsmöglichkeiten zu sprechen.4 Er zog das Fazit, dass die datenschutzrechtlichen Begriffe „personenbezogen“, „besondere Arten“ und „sensibel“ überholt seien.

Dass verbindliche ethische Leitlinien schnellstmöglich entwickelt werden müssten, war eines der Ergebnisse von Syndikus-Rechtsanwalt Nils Bremann, LL.M. (d.velop, Gescher). In seinem Vortrag „Künstliche Intelligenz, Ethik und Recht – Herausforderungen der Regulierung von KI-Innovationen“ unterstrich er die universale Geltung von Ethik und plädierte für deren Beachtung in der Entwicklung. Chancen der Wirtschaft müssten ethischen Werten immer untergeordnet sein.5

Mit dem urheberrechtlichen Schutz von KI am Beispiel Neuronaler Netze6 beschäftigte sich Rechtsanwalt Dr. Patrick Ehinger (CMS Hasche Sigle, Köln). Er kam zu dem Ergebnis, dass „trainierte“ sowie „untrainierte“ neuronale Netze als Computerprogramme gem. § 69a UrhG geschützt sein können. Die abstrakte Grundstruktur müsse hingegen urheberrechtlich ungeschützt bleiben.7 Die Erzeugnisse neuronaler Netzwerke könnten als persönlich geistige Schöpfungen geschützt sein, wenn der Mensch den Schöpfungsprozess beherrscht und die Software dabei bloßes Hilfsmittel ist. Entscheidend für den urheberrechtlichen Schutz sei also die wirkungsvolle Einflussnahmemöglichkeit des Nutzers.8

Um „Vertragliche Probleme beim Einsatz von Künstlicher Intelligenz“ ging es bei Rechtsanwalt Fritz-Ulli Pieper, LL.M. (Taylor Wessing, Düsseldorf).9 Mit Verweis auf Lit.10 und Rspr.11 stellte Pieper sich drei Fragen: Gibt es Anwendungsfälle von KI, die wirklich originäre rechtliche Probleme aufwerfen? Wird es irgendwann „starke“ KI geben? Ist die „Zurechnungsdebatte“ nur eine Scheindebatte? Er plädierte vor diesem Hintergrund dafür, die bestehenden Wertungen des Zivilrechts zu Willenserklärungen und Zurechnung im Blickfeld zu haben und sich vor Augen zu führen, auf welchem Entwicklungsstand die Technik tatsächlich gerade ist.

Wer die eingesetzte KI nicht beherrsche, der verletze das Berufsrecht. Zu diesem Fazit kam Rechtsanwalt Sascha Kremer (Kremer Rechtsanwälte, Köln). In seinem Vortrag „KI vs. höchstpersönliche Leistungserbringung: Dürfen Anwalt oder Arzt sich durch KI vertreten lassen?“ stellte er außerdem heraus, dass „starke KI“ aufgrund der Pflicht, Leistungen persönlich zu erbringen, in den genannten Berufsfeldern gar nicht eingesetzt werden dürfe.12

Die bestehenden produkthaftungsrechtlichen Regularien genügten, um die rechtliche Komplexität heutiger KI vollständig abzudecken. Zu dieser These kam Rechtsanwalt Philipp Reusch (reuschlaw, Berlin) in seinem Vortrag „Künstliche Intelligenz, Deep Learning und Big Data im produkthaftungsrechtlichen Kontext“.13 Der Betreiber sei für die Datenreife verantwortlich und hafte für daraus entstehende Schäden. Die sog. E-Person sei – im Zusammenspiel mit einer Pflichtversicherung – eine innovationsfördernde Haftungsbegrenzung, aber keine rechtliche Notwendigkeit.

Rechtsanwalt Dr. Axel von Walter (Beiten Burkhardt, München) schloss die Tagung. Auf seinen Vortragstitel „Gedrosselte Intelligenz? KI und der europäische Datenschutz“ antwortete er mit einem bedauernden „ja“. Die DSGVO sei im Moment der Klotz auf der Bremse, aber nicht allumfassend.14 Daher sei eventuell eine bereichsspezifische KI-Regulierung notwendig.

Nach einem facettenreichen Tag bleibt festzuhalten: Die politische und gesellschaftliche Debatte über ethische Werte und Probleme beim Einsatz von sog. KI findet Widerhall in der juristischen Debatte. Dabei ist für eine sinnbringende rechtliche Betrachtung eine genaue technische Einordnung des behandelten Anwendungsfalles nötig. Viele Rechtsfragen um derzeitige KI sind de lege lata gut lösbar. Eine Ausnahme bildet hierbei das Datenschutzrecht, was wohl am geltenden, praktischen Belangen oft nicht gut dienenden Datenschutzregime liegen mag. Zumindest die technische Entwicklung und den Einsatz von KI-Technologien (außerhalb Europas?) wird es aber nicht aufhalten. Auf der juristischen Ebene ist die Diskussion jedenfalls differenzierter geworden und wird anhand der einzelnen Anwendungsfälle geführt. Das haben die praktischen Ansätze der @kit-Tagung zu KI gezeigt – genauso wie die vielen Diskussionen in Lehre und Forschung, die bereits entstanden bzw. gerade im Entstehen sind.

*

Mehr über den Autor erfahren Sie auf Seite III.

1

S. https://www.blog.google/technology/ai/ai-principles/ (zuletzt abgerufen am 14.4.2019).

2

Auf nationaler Ebene die „Enquete-Kommission zu KI“ des Bundestages, der „Digitalrat der Bundesregierung“ sowie die „Datenethikkommission“ der Bundesministerien des Innern (BMI) und der Justiz (BMJV).

3

S. ebenfalls Stiemerling, Einführung in das Thema „Künstliche Intelligenz“, telemedicus.info, 8.1.2019, abrufbar unter http://www.telemedicus.info/article/3378-Einfuehrung-in-das-Thema-Kuenstliche-Intelligenz.html (zuletzt abgerufen am 14.4.2019); Herberger, „Künstliche Intelligenz“ und Recht, NJW 2018, 2825.

4

Vgl. Wachter/Mittelstadt/Russell, Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR, Harvard Journal of Law and Technology, 31 (2), 2018.

5

Vgl. zum Thema generell Ullrich/Weiß, Sozialverträgliche KI-Strategie, Informatik Spektrum 1/2019, Preprint abrufbar unter https://www.cytizen.de/stefanullrich/publication/sozialvertraegliche-ki-strategie/ (zuletzt abgerufen am 14.4.2019).

6

S. ebenfalls Lauber-Rönsberg, GRUR 2019, 244; Rack/Vettermann, KI-Kunst und Urheberrecht – die Maschine als Schöpferin?, Telemedicus.info, 13.2.2019, abrufbar unter http://www.telemedicus.info/article/3353-KI-Kunst-und-Urheberrecht-die-Maschine-als-Schoepferin.html (zuletzt abgerufen am 14.4.2019).

7

Zur Vertiefung s. Ehinger/Stiemerling, Die urheberrechtliche Schutzfähigkeit von Künstlicher Intelligenz am Beispiel von neuronalen Netzen, CR 2018, 761.

8

Zur Vertiefung Ehinger/Grünberg, Der Schutz von Erzeugnissen künstlicher Kreativität im Urheberrecht, K&R 2019, 232.

9

Pieper, Die Vernetzung autonomer Systeme im Kontext von Vertrag und Haftung, CR 2016, 188; s. ebenfalls Herold, Vertragsfragen im Zusammenhang mit KI, telemedicus.info, 11.2.2019, abrufbar unter http://www.telemedicus.info/article/3391-Vertragsfragen-im-Zusammenhang-mit-KI.html (zuletzt abgerufen am 14.4.2019).

10

Bräutigam/Klindt, Industrie 4.0, das Internet der Dinge und das Recht, NJW 2015, 1137; Kirn/Müller-Hengstenberg, Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie? Verselbstständigung technischer Systeme, MMR 2014, 225; Schücker, Künstliche neuronale Netzwerke, telemedicus.info, 16.1.2019, abrufbar unter https://www.telemedicus.info/article/3382-Kuenstliche-neuronale-Netzwerke.html (zuletzt abgerufen am 14.4.2019); Solak, Machine Learning als wesentliches Element von KI, telemedicus.info, 14.1.2019, abrufbar unter https://www.telemedicus.info/article/3379-Machine-Learning-als-wesentliches-Element-von-KI.html; Jaume-Palasí, KI und Algorithmen, telemedicus.info, 23.1.2019, abrufbar unter https://www.telemedicus.info/article/3384-KI-und-Algorithmen.html.

11

BGH, 16.10.2012 – X ZR 37/12.

12

Vgl. zum Einsatz von KI in anderen Berufsfeldern Linardatos, Künstliche Intelligenz und Verantwortung, ZIP 2019, 504; Söbbing, Deep Learning: Wenn künstliche Intelligenz lernt, kann das durchaus rechtliche Relevanz haben, K&R 2019, 164; Herold, Algorithmisierung von Ermessensentscheidungen durch Machine Learning, InTeR 2019, 7.

13

Vgl. Reusch, Künstliche Intelligenz und Produkthaftung, telemedicus.info, 18.2.2019, abrufbar unter http://www.telemedicus.info/article/3394-Kuenstliche-Intelligenz-und-Produkthaftung.html (zuletzt abgerufen am 14.4.2019).

14

Vgl. Gausling, Künstliche Intelligenz im Anwendungsbereich der Datenschutz-Grundverordnung, PinG 2019, 61.

 
stats