Künstliche Intelligenz: Experimente zum Einsatz in der Justiz
Nordrhein-Westfalen und Bayern entwickeln und erproben nach eigenen Angaben gemeinsam ein juristisches KI-Sprachmodell. Noch handelt es sich aber nur um ein Forschungsprojekt. Man will herausfinden, wie mit dem Generativen Sprachmodell der Justiz (GSJ) ein Large-Language-Model für die Justiz in Zukunft aussehen und für welche Zwecke es eingesetzt werden könnte.
Auf wissenschaftlicher Ebene wird das Projekt von der Universität zu Köln und von der Technischen Universität München erarbeitet. Zur Finanzierung des Forschungsvorhabens werden Nordrhein-Westfalen und Bayern Mittel aus der Digitalisierungsinitiative für die Justiz beantragen. Das Modell soll anhand von mehreren Pilotprojekten, deren Ausgestaltung anhand der Anwenderbedürfnisse unter Anwendung von Legal-Design-Thinking-Methoden erfolgt, erprobt werden.
Mal sehen, was das am Ende so heißen soll bzw. ob dabei etwas Brauchbares herauskommt. Ziel sei es auch, „langfristig den Zugang zum Recht zu vereinfachen“. Außerdem erhofft man sich eine Entlastung der Gerichte.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Solange man das gegenprüft spricht ja kaum was dagegen. Recherche sollte so um einiges flotter vonstatten gehen, wenn die KI einen versteht.
Wenn ich aber dran denke was ChatGPT anfangs für Müll erfunden hat….
Oder es kommt sowas bei raus:
https://www.spiegel.de/netzwelt/apps/new-york-anwalt-blamiert-sich-mit-fake-urteilen-aus-chatgpt-a-8935d1c8-b6c2-4079-8ecd-1cf4c2d33259
>>Zur Finanzierung des Forschungsvorhabens werden Nordrhein-Westfalen und Bayern Mittel aus der Digitalisierungsinitiative für die Justiz beantragen.
Ob das Geld nicht besser zur allgemeinen Digitalisierung der Justiz aufgewendet wäre?
FaxGPT?
Wie soll ein typischer Richter das denn prüfen, was die KI da ausgearbeitet hat? Nach meinen bisherigen Erfahrungen sind die schon bei sehr niederschwelligen technischen Sachverhalten hoffnungslos aufgeschmissen und definieren sich die Welt wie sie ihnen gerade so passt…
Nu ja, der Richter prüft ja nicht die KI an sich, sondern dass „Juristische“ Ergebnis der KI. Hoffen wir für uns alle, dass er das kann…
Also wenn ich mir das durchlese: https://stadt-bremerhaven.de/ki-assistenten-test-zeigt-dass-nutzermeinungen-durch-algorithmen-beeinflusst-werden/
wird mir ganz anders, wenn KI im juristischen Bereich eingesetzt werden sollte. Wenn eine dritte, juristische Partei zwischengeschaltet wird, die das alles dann nochmal prüft, okay. Aber dann wäre doch wieder nichts gewonnen…