R&W Abo Buch Datenbank Veranstaltungen Betriebs-Berater
Logo ruw-online
Logo ruw-online
Suchmodus: genau  
 
 
KI und Recht (2024), S. IX 
Inhaltsverzeichnis 
Hans-Jörg Fischer, Esther Bollhöfer, Matthias Amort 

IX Inhaltsverzeichnis

  1. Vorwort der Herausgeber
  2. Bearbeiterverzeichnis
  3. Abkürzungsverzeichnis
  4. Kapitel 1 Einleitung – Verständnis von Künstlicher Intelligenz (KI)
    1. A. Bedeutung von KI heute
    2. B. Geschichte der KI
    3. C. KI als wissenschaftliche Disziplin
      1. I. Ansätze und Ziele
        1. 1. Menschliches Handeln: der Ansatz des Turing-Tests
        2. 2. Menschliches Denken: der Ansatz der kognitiven Modellierung
        3. 3. Rationales Denken: der Ansatz des logischen Denkens
        4. 4. Rationales Handeln: der Ansatz des homo oeconomicus
      2. II. Beitrag der Philosophie
      3. III. Beitrag der Mathematik
      4. IV. Beitrag der Psychologie
      5. V. Beitrag der Computertechnik
      6. VI. Beitrag der Linguistik
    4. D. KI in der Anwendung
    5. E. KI-Einsatz und Recht
    6. F. Zusammenfassung
    7. Literaturverzeichnis
  5. Kapitel 2 Haftung für Schäden durch Künstliche Intelligenz (KI)
    1. A. Einführung
    2. B. KI-System: Definitionsversuche
    3. C. Haftung: Begriffsklärung und Eingrenzung
    4. D. Praxisfall 1: Die Reinigungsmaschine
      1. I. Sachverhalt
      2. II. Risiken von KI-Systemen
        1. 1. Überblick
        2. 2. Autonomierisiko
        3. 3. Opazitätsrisiko
      3. III. Zuordnung des Autonomierisikos
        1. 1. Überblick
        2. 2. Grundsatz: Risikotragung durch Geschädigten
          1. a) Vertragliche Haftung (§ 280 Abs. 1 BGB)
          2. b) Deliktische Haftung gemäß § 823 Abs. 1 BGB
        3. 3. Ausnahme: Gefährdungshaftung
          1. a) Einordnung
          2. b) § 7 Abs. 1 StVG
          3. c) § 1 Abs. 1 Satz 1 ProdHaftG
          4. d) § 833 Satz 1 BGB analog bzw. § 836 Abs. 1 Satz 1 BGB analog
          5. e) Gesamtanalogie zu den bestehenden Gefährdungshaftungstatbeständen
      4. IV. Zuordnung des Opazitätsrisikos
        1. 1. Vertragliche Haftung
        2. 2. Deliktische und Produkthaftung
      5. V. Zwischenergebnis
        1. 1. Schadensverursachung durch (autonomes) KI-System
        2. 2. Schadensverursachung durch Hersteller, Anbieter oder Nutzer eines KI-Systems
    5. E. Vorschläge für unionale Rechtsakte
      1. I. Überblick
      2. II. Geplante unionale KI-Haftungsrichtlinie
        1. 1. Überblick
        2. 2. Erleichterung der Beweisführung des Klägers
        3. 3. Kein neuer Haftungstatbestand
        4. 4. Deliktische Ansprüche
        5. 5. Wirkungen auf vertragliche Ansprüche
        6. 6. Auskunftsanspruch bei Hochrisiko-KI-Systemen (Art. 3 Abs. 1 der geplanten KI-Haftungsrichtlinie)
          1. a) Einordnung
          2. b) Anspruchsinhalt
          3. c) Vermutung einer Sorgfaltspflichtverletzung (Art. 3 Abs. 5 der geplanten KI-Haftungsrichtlinie)
          4. d) Möglichkeit zur Sicherung der Beweismittel (Art. 3 Abs. 3 der geplanten KI-Haftungsrichtlinie)
          5. e) Widerlegbare Vermutung der Kausalität zwischen Verschulden und KI-Ergebnis (Art. 4 Abs. 1 der geplanten KI-Haftungsrichtlinie)
            1. aa) Ziel der Vorschrift
            2. bb) Erste Voraussetzung: Sorgfaltspflichtverstoß (= Verschulden)
            3. cc) Zweite Voraussetzung: KI-Ergebnis oder dessen Fehlen
            4. dd) Dritte Voraussetzung: Möglichkeit der Kausalität des Verschuldens für das KI-Ergebnis
            5. ee) Vierte Voraussetzung: Nachweis der Kausalität zwischen KI-Ergebnis und Schaden
            6. ff) Besonderheiten bei Nicht-Hochrisiko-KI-Systemen
            7. gg) Besonderheiten bei nicht-beruflichen KI-Nutzern
            8. hh) Rechtsfolge des Art. 4 Abs. 1 der geplanten KI-Haftungsrichtlinie
            9. ii) Gleichstellung mit fehlendem KI-Ergebnis
        7. 7. Kritische Würdigung
      3. III. Geplante neue Produkthaftungsrichtlinie
        1. 1. Überblick
        2. 2. KI-System als Produkt
        3. 3. Produktfehler
          1. a) Kriterien
          2. b) Maßgeblicher Zeitpunkt
          3. c) Schaden
          4. d) Regelungen zum Zivilprozess
            1. aa) Offenlegung von Beweismitteln
            2. bb) Beweiserleichterungen für den Geschädigten
        4. 4. Kritische Würdigung
    6. F. Gesamtwürdigung
    7. G. Praxisfall 2: Die Halbleiter
      1. I. Sachverhalt
      2. II. Anspruch der X-AG gegen V auf Schadensersatz in Höhe von 120.000 EUR gemäß § 93 Abs. 2 Satz 1 AktG
        1. 1. § 93 Abs. 1 Satz 1 AktG als spezieller Sorgfaltspflichtenmaßstab
        2. 2. Die sogenannte Business Judgement Rule (§ 93 Abs. 1 Satz 2 AktG)
          1. a) Unternehmerische Entscheidung versus Legalitätspflicht
          2. b) Angemessene Informationsgrundlage
          3. c) Einsatz von KI
          4. d) Erlaubtheit der Nutzung von KI
          5. e) Pflicht zur Nutzung von KI
          6. f) Pflichten bei Nutzung von KI
      3. III. Kritische Würdigung
    8. Literaturverzeichnis
  6. Kapitel 3 Künstliche Intelligenz (KI), Verschulden und Zurechnung: Autonome KI-Systeme als Erfüllungsgehilfen?1
    1. A. Einführung
    2. B. KI: Begriff, Anwendungsfelder und technische Hintergründe
      1. I. Zum Begriff der KI und den Definitionen auf europäischer Ebene
      2. II. Anwendungsfelder KI
      3. III. Starke und schwache KI
      4. IV. Zur Autonomie von KI: KI als Blackbox
    3. C. KI-Systeme als Erfüllungsgehilfen?
      1. I. Keine direkte Anwendung des § 278 BGB
      2. II. Die analoge Anwendung des § 278 BGB
        1. 1. Funktionen des § 278 BGB
        2. 2. KI im Spiegel der Funktionen des § 278 BGB
      3. III. Zu einigen Einwänden
        1. 1. Fehlende Verschuldensfähigkeit
        2. 2. KI als Rechtsperson?
    4. D. Zu den Voraussetzungen des Verschuldens von KI
    5. E. Schlussbemerkung
    6. Literaturverzeichnis
  7. Kapitel 4 Der AI-Act – Implikationen für den Einsatz von Künstlicher Intelligenz (KI) in Unternehmen
    1. A. Einführung
    2. B. AI-Act
      1. I. Gegenstand
      2. II. Ziele
      3. III. Systematik des AI-Act
        1. 1. Persönlicher Anwendungsbereich
        2. 2. Räumlicher Anwendungsbereich
      4. IV. Definition von „KI-System“ im AI-Act
    3. C. Klassifizierung von KI-Systemen im AI-Act
      1. I. Verbotene Systeme
        1. 1. Manipulative Beeinflussung
        2. 2. Biometrische Identifizierung
        3. 3. Kategorisierung von Personen
        4. 4. Weitere Verbote
      2. II. Hochrisiko-KI-Systeme
        1. 1. Bestimmung über Annex II
        2. 2. Annex III
      3. III. Systeme mit begrenztem Risiko
      4. IV. Systeme mit geringem Risiko
      5. V. Systeme mit allgemeinem Verwendungszweck (Allzweck-KI/GPAI)
        1. 1. Allzweck-KI ohne systemisches Risiko
        2. 2. Allzweck-KI mit systemischem Risiko
    4. D. KI in Unternehmen
      1. I. KI zur Unterstützung im Tagesgeschäft
      2. II. KI im Bereich Beschäftigung und Personalmanagement
      3. III. KI-Anwendungen in produktionsnahen Bereichen
    5. E. Implikationen und Handlungsbedarfe
      1. I. Betreiber eines Hochrisiko-Systems
      2. II. Allzweck-KI
      3. III. Einsatz von KI-Tools
    6. F. Fazit
    7. Literaturverzeichnis
  8. Kapitel 5 Grundrechte in der KI-Verordnung
    1. A. Einführung
    2. B. KI-Verordnung und Grundrechte
      1. I. Grundrechte im Normtext der KI-Verordnung
        1. 1. Schutzzweck der KI-Verordnung
        2. 2. Anwendungsbereich
        3. 3. Begriffsbestimmungen
        4. 4. Der Einsatz biometrischer Echtzeit-Fernidentifikationssysteme durch Strafverfolgungsbehörden
        5. 5. Hochrisiko-KI-Systeme
        6. 6. Grundrechte-Folgenabschätzung nach Art. 27 KI-Verordnung
        7. 7. Notifizierung
        8. 8. Harmonisierung von Normen und Konformität
        9. 9. KI-Reallabore
        10. 10. Zusammenarbeit der Behörden
      2. II. Grundrechte in den Erwägungsgründen der KI-Verordnung
        1. 1. Grundlagen und Zweck der Verordnung
        2. 2. KI-Praktiken
        3. 3. Hochrisiko-KI-Systeme
        4. 4. Sonstiges
    3. C. Bewertung des Grundrechtsschutzes durch die KI-Verordnung
      1. I. Grundrechtsschutz als Leitgedanke
      2. II. Ziel der Europäischen Harmonisierung
    4. D. Fazit und Kritik
    5. Literaturverzeichni
  9. Kapitel 6 Die Fischer/Reeck’sche Schwelle zur „elektronischen Person“ – eine Untersuchung zu Kriterien und Messbarkeit einer starken Künstlichen Intelligenz (KI)
    1. A. Einführung
    2. B. Die technologische Singularität nach Kurzweil – von der schwachen zur starken KI
      1. I. Allgemeines
      2. II. Starke KI als Ereignishorizont
    3. C. Die elektronische Person
      1. I. Einführung des Begriffs durch das Europäische Parlament
      2. II. Kritik, Diskurs und EU-KI-Verordnung
    4. D. Die Kriterien der Schwelle zur elektronischen Person
      1. I. Allgemeines: Was macht eine menschenähnliche Rechtspersönlichkeit aus?
      2. II. Bewusstsein
      3. III. Intelligenz (formal-objektive und kreative Aspekte)
      4. IV. Erkennen von Emotionen?
      5. V. Freier Wille – Entscheidungs- und Reflexionsfähigkeit
      6. VI. Eigene Ausdrucksfähigkeit – Entäußerung einer Willenserklärung
    5. E. Ansätze zur Messbarkeit der Erreichung der Schwelle zur elektronischen Person
      1. I. Allgemeines
      2. II. Turing-Test
      3. III. Metzinger-Test
      4. IV. Lovelace 2.0/Riedl-Test
      5. V. Analogie zur Kardaschew-Skala
      6. VI. Woodcock-Johnson IV-Test
      7. VII. Lloyd: Turing-Test des freien Willens
      8. VIII. Gemeinsamer Europäischer Referenzrahmen für Sprachen (CEFR) – Ausdrucksfähigkeit
      9. IX. Die Fischer/Reeck’sche Schwelle und Vorschwellen – ein Vorschlag für Kriterien zur Messbarkeit der elektronischen Person – die „Big Four“
    6. F. Schlussbetrachtung und Ausblick
    7. Literaturverzeichni
  10. Kapitel 7 Künstliche Intelligenz (KI) und Finanzunternehmen – eine Untersuchung der aufsichtsrechtlichen Prinzipien zur risikoorientierten Anwendung von KI
    1. A. Einführung
      1. I. Problemstellung und Motivation
      2. II. Zielsetzung des Beitrags
    2. B. Grundlagen der KI im aufsichtsrechtlichen Verständnis
      1. I. Allgemeines
      2. II. Definition und Abgrenzung von KI
      3. III. Anwendungsbereich und Technologien der KI bei Finanzunternehmen
    3. C. Rechtliche und regulatorische Grundlagen der KI
      1. I. Europäischer Rechtsrahmen für KI
      2. II. Aufsichtsrechtliche Anforderungen an KI
        1. 1. Regulierung von KI-Systemen
          1. a) Voraussetzungen zur Regulierung von KI-Systemen
          2. b) Freigabe- und Zulassungsverfahren
          3. c) Überwachung und Kontrolle
          4. d) Sanktionen bei Verstößen
        2. 2. Allgemeine Governance
        3. 3. Datengovernance
        4. 4. KI-Ergebnisdiskussion
        5. 5. Dokumentationsvorgaben, Kalibrierung und Validierung
    4. D. Herausforderungen und Zukunftsperspektiven
      1. I. Ethische und gesellschaftliche Herausforderungen
      2. II. Zukünftige Entwicklungen und Trends
    5. E. Fazit
    6. Literaturverzeichnis
  11. Kapitel 8 Künstliche Intelligenz (KI) und Strafrecht
    1. A. Einführung
    2. B. Gegenstand und Historie
    3. C. Strafrechtliche Verantwortlichkeit
      1. I. Strafbarkeit von KI-Systemen
      2. II. Strafbarkeit von Menschen
    4. D. Begehung von Straftaten mittels KI
      1. I. Daten und Fakten
        1. 1. Studien und Statistiken
        2. 2. Dunkelfeld
        3. 3. Tatmittel Internet
        4. 4. Underground Economy
      2. II. KI-gestützte Straftaten
        1. 1. Cybercrime im engeren Sinne
          1. a) Typische Erscheinungsformen
          2. b) Erhöhtes Gefahrenpotenzial
        2. 2. Cybercrime im weiteren Sinne
          1. a) Betrugsdelikte
          2. b) Verbreitung pornografischer Inhalte
          3. c) Verletzungen des Urheberrechts
          4. d) Erhöhtes Gefahrenpotenzial
    5. E. Verfolgung von Straftaten mittels KI
      1. I. Anwendungsszenarien
        1. 1. Biometrische Echtzeit-Fernidentifizierung
        2. 2. Datenauswertung
        3. 3. Texterkennung und -verarbeitung
        4. 4. Auswertung von Bild- und Videomaterial
        5. 5. Predictive Policing
      2. II. KI-Verordnung der EU
      3. III. KI-Konvention des Europarates
    6. F. Aburteilung von Straftaten mittels KI
      1. I. KI in der Justiz
        1. 1. Deutschland
        2. 2. USA
        3. 3. China
        4. 4. Ausblick
      2. II. Rechtsfindung mittels KI
        1. 1. Kernbereich der richterlichen Tätigkeit
        2. 2. Richterliche Assistenz
    7. G. Fazit
    8. Literaturverzeichnis
 
stats