Jura und Künstliche Intelligenz – ein kompakter Überblick
Analyse der Grenzen von KI, typischer Fehlerquellen und der Frage, welche juristischen Aufgaben trotz KI menschliche Bewertung erfordern.
Jura und Künstliche Intelligenz – ein kompakter Überblick
Kim Kardashian ist durch das California Bar Exam, die Anwaltsprüfung in Kalifornien, gefallen. Schuld daran ist unter anderem laut ihrer Aussage auch ChatGPT. Sie habe dieses genutzt, wenn sie keine Antwort auf Fragen gewusst habe und alle Antworten wären falsch gewesen. (1)
Was für viele unter der Rubrik „Promi-News“ abgehakt werden dürfte, hat aber einen interessanten Aspekt – nicht die Frage, ob ChatGPT-Nutzung in Prüfungssituationen Betrug ist, sondern wie Künstliche Intelligenz mit juristischen Fragestellungen umgeht.
Jobmessen Jura
Karrieremessen von IQB & Myjobfair
Unsere Jobmessen & Karrieremessen für Juristen finden als Präsenzveranstaltung oder online statt und bieten Berufseinsteigerinnen und Berufseinsteigern die ideale Orientierung in Sachen Karrierechancen.
Einordnung: Was moderne KI-Systeme leisten können
ChatGPT, Claude, Gemini und viele weitere KIs sind seit 2022 aus dem Boden geschossen. Plötzlich spricht alles vom Zeitalter der künstlichen Intelligenz, dem Aussterben aller möglichen Berufen, inklusive der juristischen Berufe. Geschäftsmodelle werden infrage gestellt und es wird behauptet, KI könne alles schneller und gründlicher erledigen. Doch stimmt das auch?
LLMs: Funktionsweise und Einordnung
Bei den oben genannten KIs handelt es sich um sogenannte LLMs. LLM steht hierbei nicht für Master of Laws, sondern für Large Language Model. Ein LLM ist eine KI, die mit riesigen Textmengen trainiert wird, um Sprache zu verstehen und zu erzeugen. Sie erkennt Muster, beantwortet Fragen, fasst Texte zusammen und führt Dialoge, indem sie statistisch das nächste passende Wort vorhersagt. Gesteuert wird dies über sogenannte „Prompts“, das heißt die Eingabebefehle. Je besser der Prompt, umso besser wird das Ergebnis.
Um Intelligenz wie die meisten Menschen sie wohl verstehen (einen allgemeingültigen Intelligenzbegriff gibt es nicht), nämlich als die Fähigkeit, Probleme zu lösen oder Situationen zu bewältigen, handelt es sich dabei nicht. Vielmehr sind LLMs extrem leistungsfähige Statistikrechner. Es gibt Experimente, wie ChatGPT gegen einen Atari 2600 von 1977 im Schach verliert. Das ist auch erwartet – ChatGPT ist einfach als Programm nicht fürs Schachspielen ausgelegt. Eine Universal-KI, wie es der Computer in Star Trek ist, ist ChatGPT nicht.
Durch die Art der Interaktion mit LLMs – man stellt eine Frage und erhält darauf eine Antwort, die von der eines Menschen auf den ersten Blick nicht zu unterscheiden ist – kann der Eindruck entstehen, man kommuniziere wie mit einem Menschen. Daher auch die Angewohnheit von vielen, sich für eine Antwort zu bedanken oder schon die Frage höflich zu formulieren. Empfehlenswert ist hierzu auch ein Artikel aus der FAZ über Kosten und den hohen Stromverbrauch von LLMs. (2)
Studium
Kann ChatGPT eine Hausarbeit schreiben?
Können Chatbots Jurastudierenden bei der Erstellung von Hausarbeiten und Gutachten helfen? Wir haben uns das mit ChatGPT mal genauer angeschaut und die Möglichkeiten und Auswirkungen untersucht.
Wie falsche Daten KI-Ergebnisse verfälschen
Doch wie „lernen“ KIs bzw. LLMs? Nun, da gibt es viele Möglichkeiten. Die KI wird mit Materialien aus dem Internet gefüttert, also u. a. Online-Enzyklopädien, Websites, Forenbeiträge, Blogs, Social Media, durch lizensierte Datenbanken oder auch durch digitalisierte Bücher. (3)
Die Möglichkeiten sind weitgehend, KI kann auch von KI generierten Inhalten lernen. Das bedeutet aber auch: Sind in den Quellen Fehler, werden auch die Antworten fehlerhafter. Nicht weil die KI wie ein Mensch denkt, dass eine Antwort richtig ist und sich irrt, sondern weil jede Information gleichrangig behandelt wird und sich Wahrscheinlichkeiten durch die Gabe von Fehlinformationen ändern. Und zur Verfälschung reichen schon kleine Mengen – eine Studie kam zu dem Schluss, dass bereits 250 „vergiftete“ Dokumente genügen können um Fehler zu erzeugen. (4)
Halluzinationen: Wenn KI überzeugend falsch liegt
Ein weiteres Phänomen sind die sog. Halluzinationen. Die KI ist so gestaltet, dass sie möglichst überzeugende Antworten gibt. Diese Antwort gibt sie aber dann nicht, weil sie objektiv richtig oder falsch ist, sondern weil die Antwort die wahrscheinlichste ist – egal wie falsch sie sachlich sein mag.
Diese faktisch falsche Antwort wird vom System erzeugt, weil es darauf trainiert ist, eine Antwort zu geben. Hinterfragen kann das System seine Antworten nicht von allein. Wer sich dessen nicht bewusst ist und KI Ergebnisse konsequent hinterfragt, läuft Gefahr, falsche Antworten zu übernehmen – wie Kim Kardashian.
Künstliche Intelligenz
Themenschwerpunkt KI
Der Einsatz von Künstlicher Intelligenz hat erhebliche Auswirkungen auf unser berufliches Leben. Wir schauen uns die Vor- und Nachteile genauer an.
Künstliche Intelligenz im juristischen Alltag
Doch Kim Kardashian ist nicht allein mit ihren Problemen. Tatsächlich ist schon eine Vielzahl von Anwälten mit KI-Schriftsätzen aufgefallen, die falsche Fundstellen und unbrauchbare Aussagen enthielten. In Deutschland war soweit ersichtlich der erste „Ertappte“ ein Anwalt vor dem AG Köln (v. 02.07.2025 – 312 F 130/25).
Aber auch in anderen Ländern häufen sich die Fälle von Schriftsätzen, die mit falschen Fundstellen oder unbrauchbarer Argumentation hantieren. Auf der Website des französischen Juristen Damian Charlotin findet sich eine Übersicht von 500+ internationalen Fällen von „court hallucinations“. (5)
Aber warum arbeiten die Systeme so fehlerhaft?
Fehlerquellen bei KI-gestützten juristischen Texten
Diese falschen Ergebnisse haben mehrere Ursachen. Die erste sind die Trainingsdaten. LLMs sind nicht spezifisch juristisch trainiert, weil ihnen der Zugriff auf die Daten fehlt bzw. der Zugriff auf die richtigen Daten in einer Menge falscher Informationen untergeht. Weil LLMs wie oben ausgeführt, mit Wahrscheinlichkeiten arbeiten ist es nahezu ausgeschlossen, dass sie Antworten auf konkrete Fälle findet bzw. sich darauf beschränkt. KI denkt gerne Punkte dazu oder lässt andere weg. Anders als Menschen, die einen Fall darstellen, wird eben nicht nur das Wesentliche berücksichtigt.
Fehlerhafte Dokumente finden sich auch in juristischen Datenbanken und können entsprechend zu Fehlern in KI Ergebnissen führen.
Dinge, die im Prompt nicht erwähnt werden, kann die KI ebensowenig berücksichtigen. Aber man kennt es – manche Aspekte gewinnen erst im Prozess des Schreibens an Bedeutung. Also liegen auch in diesem Bereich Risiken. Ebenso sollte man eines beachten: Das Arbeiten mit Wahrscheinlichkeiten bedeutet, dass nicht der konkrete Fall bearbeitet wird – sondern der nach den Angaben wahrscheinlichste.
Selbst, wenn aber der Zugriff auf alle juristischen Dokumente seitens der KI bestünde, käme noch etwas hinzu: Der Faktor Mensch. Auch Menschen haben sich in Urteilen, Aufsätzen und Kommentaren vertippt oder in juristischen Diskussionen schlussendlich Unvertretbares behauptet. Solche fehlerhaften Dokumente finden sich dann aber auch in juristischen Datenbanken und können entsprechend zu Fehlern in KI Ergebnissen führen.
Berufsrechtliche Risiken bei KI-Einsatz im Anwaltsberuf
Die Nutzung von LLMs wurde einem Anwalt in dem bereits erwähnten Fall vor dem AG Köln zum Verhängnis. Er hat einen offensichtlich mit KI geschriebenen Schriftsatz eingereicht, der mit Fehlern und falschen Zitaten gespickt war. Der zuständige Amtsrichter ließ sich ausführlich zu dem KI-Schriftsatz aus und schrieb unter anderem:
„Der Verfahrensbevollmächtige hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen.“
Weiter wird ausgeführt:
„Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43 a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen.“
Das Gericht sieht also die Nutzung eines KI-Schriftsatzes durchaus als mögliche berufsrechtliche Verletzung an. Ob dies tatsächlich der Fall ist, wird fleißig diskutiert, eine entsprechende Entscheidung existiert noch nicht. Aber natürlich kann das Verhalten, sofern es als Berufspflichtverletzung angesehen wird, u.a. mit Geldbußen sanktioniert werden. Ebenso kann man in diesen Fällen sicherlich eine Anwaltshaftung mit guten Gründen andenken, die ebenfalls finanzielle Konsequenzen hat. Schließlich ist es anwaltliche Aufgabe rechtlich zu beraten und nicht etwa eine KI zu befragen und ihr Material ungeprüft herauszugeben.
Dessen sollte man sich bewusst sein – KI ist keine Abkürzung für vertiefte Recherche oder das Erstellen von Schriftsätzen und Gutachten.
Berufsbilder
Sinnvolle Berufe für Juristen
Juristen finden sinnstiftende Berufe in NGOs, Umweltschutz oder Politik. Wer sich rechtzeitig spezialisiert oder engagiert, sichert sich „Good Jobs“ mit Einfluss.
Sinnvolle Einsatzfelder von KI in der juristischen Arbeit
Die Antwort auf die Frage, ob man KI nicht nutzen soll, ist klar: Die heutige Berufswelt verlangt, dass man KI nutzt. Doch es muss bewusst erfolgen. LLMs können sehr gut Muster in riesigen Datensätzen erkennen. Bei Aufgaben, wo dies gefragt ist, ist KI ein großartiger Helfer.
Ebenso ist KI gut geeignet, große Textmengen zusammenzufassen. Gerade für Vorbereitungen kann dies sehr hilfreich sein, um sich schnell einen Überblick zu schaffen. Bei einer Due Diligence kann KI eine große Hilfe sein und die Vielzahl an Dokumenten auswerten und in Übersichten einfügen.
Ebenso kann sie bei Anmeldungen von Patenten hilfreich sein, z. B. um zu prüfen, ob bereits ein vergleichbarer Eintrag eingereicht wurde. Es sind also in erster Linie administrative Aufgaben, in denen KI eine große Rolle spielen und unterstützen kann. Diese Fähigkeiten sind es, die man sich in der juristischen Arbeit zunutze machen kann und soll. Ob sich die KI bei der Fallanalyse weiterentwickelt, kann man aktuell nicht sagen, wahrscheinlich ist jedoch auch das.
Jura Examen
Jura Klausuren und Prüfungsthemen
Klausurrelevante Themen für Jurastudierende haben wir unter dem Schlagwort „Jura Prüfungsthemen“ für euch gebündelt.
Warum KI menschliche juristische Entscheidungen nicht ersetzt
Heißt das aber in der Konsequenz, dass auf lange Sicht die juristischen Berufsbilder verschwinden werden? Ich glaube es nicht. Selbst wenn die KI sich weiterentwickelt, gibt es viele Punkte, die eine KI meines Erachtens niemals ersetzen kann. Dazu gehören die Einschätzung des Gegenübers und die Risikobereitschaft bei Verhandlungen.
Ebenso die Feststellung der individuellen Schuld im Strafrecht im konkreten Einzelfall – ein schematisches Vorgehen verbietet sich hierbei und kann von einer KI meines Erachtens auch in Zukunft nicht geleistet werden. Der menschliche Faktor ist in Jura einfach wichtiger, als man denkt. KI agiert nach Mustern, der Mensch kann diese durchbrechen, um ein Ziel zu erreichen.
Ebenso kann nur ein Mensch die notwendige Empathie aufbringen, um Lösungen für komplizierte Fälle zu finden. Man denke nur an den sog. Haustyrannenfall (BGH 48, 255). Eine KI hätte an dieser Stelle mit der schematischen Lösung sicherlich nicht zum richtigen Ergebnis gekommen, nämlich die Möglichkeit des entschuldigenden Notstandes anstelle einer Verurteilung aufgrund von Mord durch Heimtücke – wer den Fall jetzt nicht parat hat: Lesen! Es handelt sich um einen der Standardfälle, die man im Studium kennen muss. (6)
Jura Examen & Prüfungen
Themenschwerpunkt Jura-Examen
Schwierige Hürde oder schaffbare Herausforderung? Man kann die Examen in Jura so oder so sehen. Sicher ist: für alle Studierenden sind die Vorbereitungen auf diese Prüfungen eine ganz besonders intensive Zeit. Deshalb bieten wir Euch hier spannende Artikel rund um das große Finale des Studiums.
Abschließende Einschätzung zur Rolle der KI in der Rechtswelt
KI wird auch die juristische Welt verändern – aber wahrscheinlich nicht so, wie viele denken und wahrscheinlich auch nicht so, wie ich es mir denke. Die Entwicklung ist rasant und an vielen Stellen unvorhersehbar. Dennoch denke ich nicht, dass der Mensch in der Juristerei ersetzt wird.
KI muss man als Arbeitshilfe einsetzen können, in der Administration oder wie oben beschrieben bei geeigneten Aufgaben – nicht wie Kim Kardashian, um sich juristische Fragen beantworten zu lassen. Ich weiß für mich, dass ich meine Beiträge lieber selbst schreibe und die Rechtsprechung und Kommentare lese und nicht blind zitiere.
Quellen & Weblinks
- (1) Kim Kardashian gibt KI Schuld für verpatzte Juraprüfungen, SPON 4.11.2025
- (2) Freundlichkeit bei ChatGPT kostet OpenAI Geld! , SWR3 22.04.2025
- (3) Milliardenvergleich in KI-Streit, FAZ 5.09.2025
- (4) Data Poisoning bei LLMs: Feste Zahl Gift-Dokumente reicht für Angriff
- (5) Damian Charlotin, Court Hallucinations
- (6) Haustyrannen-Fall – BGHSt 48, 255, strafrecht-online.org
Mehr KI & Legal Tech
Juraportal
Spannende Jobs und Praktika findest du im Juraportal, dem Stellenmarkt für Juristinnen und Juristen
Stellenmarkt JuraKommende Jura Events
Fakultätskarrieretag Mainz Jura
Juracon München – Karrierekongress für Juristen
Fakultätskarrieretag Heidelberg Jura
Juracon Frankfurt – Karrierekongress für Juristen
Fakultätskarrieretag Osnabrück – Jura & Wiwi
Alle Events anzeigen
Karriereziel Jura – Follow us on Instagram
Karrieremessen Jura
Unsere Jobmessen für Juristinnen und Juristen finden als Präsenzveranstaltung oder online statt.
Jobmessen für Juristen