Beitragsreihe „Input Control – Datenqualität und Datenvalidität als Grundlage rechtlicher Automatisierungsprozesse“, Abschnitt „Allgemeines“
4. Mai 2020

ISSN 2699-8084

Artikel
Legal Tech
Lesezeit 5 Min.
Prof. Dr. Thomas Riehm | Prof. Dr. Kai von Lewinski
Prof. Dr. Thomas Riehm: Lehrstuhl für Deutsches und Europäisches Privatrecht, Zivilverfahrensrecht und Rechtstheorie, Universität Passau | Prof. Dr. Kai von Lewinski: Lehrstuhl für Öffentliches Recht, Medien- und Informationsrecht, Universität Passau

Wohl kaum jemals ist die Bedeutung der Qualität von Daten und des Umgangs mit diesen so deutlich vor Augen getreten wie während der gegenwärtigen COVID-19-Pandemie. Täglich sehen wir neue Zahlen aus unterschiedlichen Quellen (RKI, Johns Hopkins Universität, …), täglich wird deren Aktualität und Qualität bekräftigt oder in Zweifel gezogen, ihre Kontextbezogenheit betont oder geleugnet, ihre Relevanz unterstrichen oder bestritten. Gleichzeitig sind es genau diese Daten, mit denen die wohl einschneidendsten staatlichen Maßnahmen begründet und gerechtfertigt werden, die jemals in neuzeitlichen Demokratien von Regierungen getroffen wurden. Deutlicher als in dieser gegenwärtigen Debatte kann man die Bedeutung von Daten in jedermanns Alltag nicht wahrnehmen. Die Auswahl der relevanten Parameter, die Kriterien ihrer Ermittlung, die Relevanz des Kontextes, in welchem sie erhoben wurden, ihre Aktualität und Zeitbezogenheit – kurz: ihre Validität und Qualität – entscheiden über die Beurteilung ihrer Verfassungs- und Rechtmäßigkeit der getroffenen staatlichen Maßnahmen ebenso wie über ihre gesellschaftliche Akzeptanz.

 

Ursprünglich wollten sich am 20. März 2020 in München Referentinnen und Referenten aus Wissenschaft und Praxis ganz unabhängig von der gegenwärtigen COVID-19-Pandemie auf einer Tagung „Input Control – Datenqualität und Datenvalidität als Grundlage rechtlicher Automatisierungsprozesse“ der Frage widmen, welche Rolle Daten und ihrer Qualität angesichts der zunehmenden Digitalisierung der Rechtsanwendung und -durchsetzung spielen. Ironischerweise hat das Coronavirus zugleich dem Tagungsthema, wie einleitend bemerkt, eine besondere Aktualität und Brisanz verliehen, und die Tagung als solche in ihrer ursprünglich geplanten physischen Form an der LMU München vereitelt. Der Bedeutung des Themas tat dies jedoch keinen Abbruch, und so haben sich die Veranstalter gemeinsam mit den Referenten und Referentinnen der Tagung dafür entschieden, die Referate zu einem „Online-Symposium“ zusammenzufügen, das ab heute als tägliche Serie von Beiträgen hier im „LEGAL REVOLUTIONary“ erscheinen wird.

 

 

 

Gewichtsverschiebung von Algorithmen zu Daten

 

Der ursprüngliche Gedanke hinter dem Symposium „Input Control“ reicht weit hinter das aktuelle Beispiel Corona-Statistiken zurück: Die Digitalisierung durchdringt immer mehr Bereiche des Lebens, einschließlich der Rechtspraxis. Rechte und Ansprüche werden zunehmend automatisiert geltend gemacht und geprüft. Online-Plattformen und Apps ermöglichen es, bequem vom heimischen Sofa aus durch Eingabe weniger Daten zu ermitteln, ob für eine bestimmte Flugverspätung eine Entschädigung verlangt werden kann, ob im Falle eines mit einem manipulierten Dieselmotor ausgelieferten Fahrzeugs eine Schadenersatzzahlung mit Aussicht auf Erfolg begehrt werden kann, ob nach einer Kündigung eines Arbeitsverhältnisses mit einer Abfindung gerechnet werden kann, oder zu viel bezahlte Miete zurückverlangt werden kann. Mit denselben Software-Tools können die so ermittelten Ansprüche häufig auch direkt beim Schuldner geltend gemacht werden; ggfs. übernimmt der Anbieter sogar die gerichtliche Geltendmachung. Im großen Stil ist das nur möglich, weil die jeweiligen Anbieter die zugrundeliegenden Rechtsfragen algorithmischer abgebildet haben und neben den Eingaben der Nutzer auf z.T. umfangreiche weitere Daten zurückgreifen, die entweder selbst generiert oder extern zugeliefert werden. Diese Daten reichen von Wetterinformationen über Flugbewegungsdaten bis hin zur detaillierten Rechtsprechungspraxis einzelner Spruchkörper bei Gericht.

 

Auch auf Seiten der Schuldner dieser automatisiert geltend gemachten Ansprüche wird die Verteidigung in ähnlicher Weise automatisiert. Auch hier ermitteln Algorithmen anhand der von den Anspruchsstellern gelieferten Daten und weiterer Datenquellen die Erfolgsaussichten der geltend gemachten Ansprüche und bestimmen anhand der jeweiligen Verteidigungsstrategie des Schuldners die Reaktion auf die geltend gemachten Ansprüche.

 

Die Automatisierung ist selbstverständlich nicht auf die privatrechtliche Durchsetzung von Ansprüchen beschränkt. Die Finanzverwaltung praktiziert die automatisierte Bearbeitung von Steuererklärungen schon deutlich länger, als es automatisierte privatrechtliche Anspruchsprüfungen gibt. Gleiches gilt für die Bearbeitung von Rentenbescheiden oder Anträgen auf Leistungen nach dem SGB II. Bei Predictive Policing, das in anderen Ländern schon eingesetzt wird, steuern Algorithmen datengestützt Lagepläne und Polizeistreifen, in (US-amerikanischen) Gerichtssälen „helfen“ KI-Systeme bei der Bestimmung der Sanktion, insbesondere mit Blick auf die Resozialisierung und Delinquenzwahrscheinlichkeit. Und Raum- und Umweltplanung basierten schon immer auf Datenmodellen.

 

Eine ganz neue Qualität erhält der Einfluss von Daten auf das Rechtsleben im Bereich der Blockchain-Technologie (Distributed Ledger Technology – DLT) und der sogenannten Smart Contracts. Dabei handelt es sich nach einer gängigen Definition um „eine Software, die rechtlich relevante Handlungen (insbesondere einen tatsächlichen Leistungsaustausch) in Abhängigkeit von digital prüfbaren Ereignissen steuert, kontrolliert und/oder dokumentiert, mit dessen Hilfe aber unter Umständen auch dingliche und/oder schuldrechtliche Verträge geschlossen werden können.“[1] Derartige Smart Contracts sind also vollständig von „digital prüfbaren Ereignissen“ abhängig, mit anderen Worten: von Daten, mit denen sie gefüttert werden. Die dadurch ausgelösten rechtlich relevanten Handlungen können von der praktischen Bedeutungslosigkeit bis hin zur Übertragung ganzer Immobilienportfolios reichen. Gerade wenn Smart Contracts – wie häufig – im Rahmen einer Blockchain ausgeführt werden, deren Transaktionen grundsätzlich nicht reversibel sind, und die ohne jedes menschliche Zutun allein aufgrund bestimmter „digital prüfbarer Ereignisse“ ausgelöst werden, kommt die zentrale Rolle der Qualität der verwendeten Daten zu.

 

Infolge der „Durchalgorithmisierung“ der Rechtsanwendung in bestimmten Bereichen kommt es im Ergebnis zu einer Gewichtsverschiebung von Algorithmen hin zu Daten. Die Abbildung eines konkreten Rechtssatzes durch einen Algorithmus ist meist eine verhältnismäßig triviale Aufgabe. Rechtssätze, wie sie in der Praxis für bestimmte typische Fallkonstellationen entwickelt werden, sind in der Regel als Wenn-Dann-Beziehungen konstruiert – wie Algorithmen auch. Die Umsetzung ist, solange die Rechtssätze ihrerseits nicht allzu komplex sind, insbesondere keine Abwägungsentscheidungen erfordern, eine lineare Aufgabe ohne besondere Schwierigkeiten. Die so geschaffenen Algorithmen sind allerdings „dumm“ in dem Sinne, dass sie die produzierten Ergebnisse nicht selbst hinterfragen können. Sie sind dadurch anfällig für die Beschickung mit fehlerhaften Daten. Es gilt der altbekannte IT-Grundsatz „rubbish in – rubbish out“. In der Folge kommt den Daten selbst und damit den Datenquellen eine ganz besondere Bedeutung für die Qualität des Gesamtprozesses zu. Ähnlich wie im Alltag von Gerichtsverfahren die Schwierigkeit der Praxis selten in der Ermittlung und Anwendung der einschlägigen Rechtssätze liegt, sondern in der Ermittlung des streitgegenständlichen Sachverhalts, liegt bei der automatisierten Rechtsanwendung die wesentliche Schwierigkeit darin, die richtigen Input-Daten zu verwenden. Mit anderen Worten: Wer über die Daten bestimmt, hat die Macht über das Ergebnis.

 

Wie diese Macht gesteuert und rechtlich eingehegt werden soll, dem widmet sich das Online-Symposium „Input Control“.


Überblick über die Beiträge

 

Die Tagung wollte und dieses Online-Symposium will sich des Themas in drei Blöcken annehmen:

 

Zunächst soll in den Abschnitten „Allgemeines“ und „Input“ betrachtet werden, wie Daten grundsätzlich (auch offline) qualitätsgesichert erlangt werden können und wer für eine Verfügbarkeit und Validität einstehen muss. Nach einem Überblick über die datenschutzrechtlichen Grundsätze und die Betroffenenrechte im Hinblick auf Datenrichtigkeit (Hennemann) untersucht Fries die Pflichten der nächsten „Marktstufe“ der Datenwirtschaft, nämlich der Datenverwender. Rossi beleuchtet anschließend die Pflichten des Staates, wenn er selbst als Lieferant von Informationen fungiert.

 

Der folgende Abschnitt „Throughput“ befasst sich mit der Frage, wie die Informationen aus der „realen Welt“ rechtssicher und zuverlässig in ein Legal-Tech-System übertragen und verarbeitet werden können. Hierfür behandelt Deichsel die Tatsachenfeststellung in der automatisierten Streitschlichtung, etwa bei den Streitbeilegungsplattformen von eBay oder PayPal und untersucht Quarch die Bedeutung von Daten für die Geltendmachung von Verbraucherrechten. Als eine technische Möglichkeit der Umsetzung wird dann in die Grundlagen der Distributed Ledger Technology (Urbach/Völter) eingeführt.

 

Der abschließende Abschnitt „Output“ befasst sich mit der konkreten Verwendung von Daten für einzelne Legal-Tech- und Smart-Contract-Dienstleistungen, in dem Voß die Technologie und die Herausforderungen anhand zweier Beispiele aus der anwaltlichen bzw. Aufsichtspraxis schildert.

 


[1] Kaulartz/Heckmann CR 2016, 618; näher auch zu anderen Definitionen, Braegelmann/Kaulartz, in: dies. (Hrsg.), Rechtshandbuch Smart Contracts, 2019, Kap. 1 Rn. 9 ff.