Δικαστής χρησιμοποίησε το εργαλείο τεχνητής νοημοσύνης ChatGPT σε απόφασή του

Εφαρμογές των Μαθηματικών στα Νομικά
(…) Σε πολλές δικαστικές αποφάσεις, ειδικά των αμερικανικών δικαστηρίων, διαπιστώνουμε ότι για τον σχηματισμό της δικανικής απόδειξης επιχειρείται, όταν κρίνεται χρήσιμη, η προσφυγή στη χρήση της Στατιστικής, της Θεωρίας των Πιθανοτήτων, της Θεωρίας Παιγνίων αλλά και άλλων κλάδων των εφαρμοσμένων Μαθηματικών (ας σημειωθεί, παρεμπιπτόντως, ότι αρκετοί δικαστές στις ΗΠΑ διαθέτουν πρώτο πτυχίο στα Μαθηματικά ή σε κάποια από τις θετικές επιστήμες).
Πιο συγκεκριμένα, στο συναρπαστικό βιβλίο της καθηγήτριας της Φιλοσοφίας αλλά και του Δικαίου στο Πανεπιστήμιο του Μαϊάμι Susan Haak, με τίτλο Evidence Matters – Science, Proof, and Truth in the Law (Haak 2024), εξετάζονται ουσιώδη ζητήματα που άπτονται της σχέσης που έχει η έννοια της επιστημονικής απόδειξης (scientific evidence) με τα κριτήρια και τη μεθοδολογία βάσει των οποίων θεωρούμε ότι υπάρχει δικανική απόδειξη (proof in the Law). Tίθενται, εν προκειμένω, ενδιαφέροντα ερωτήματα, όπως π.χ., εάν είναι δυνατόν οι διαφορετικοί βαθμοί της δικανικής απόδειξης να προσδιοριστούν με βάση τη Μαθηματική Θεωρία των Πιθανοτήτων ή το πώς μπορεί να χρησιμοποιηθεί η Στατιστική στην αποδεικτική διαδικασία (…)
Χαρακτηριστική είναι η περίπτωση της αμερικάνικης απόφασης του έτους 1968, People vs Collins,…, που αφορούσε σε ληστεία σε βάρος μιας γυναίκας που διαπράχθηκε από ένα ζεύγος κακοποιών με τα ακόλουθα χαρακτηριστικά, σύμφωνα με τις διαθέσιμες μαρτυρίες: Ένας μαύρος άνδρος με γενειάδα και μουστάκι και μια λευκή γυναίκα με ξανθή αλογοουρά που επέβαιναν σε ένα κίτρινο καμπριολέ αυτοκίνητο. Στη δίκη που έγινε σε βάρος ενός ζεύγους κατηγορουμένων με χαρακτηριστικά που ανταποκρίνονταν στην πιο πάνω περιγραφή, εξετάστηκε ως μάρτυρας ένας καθηγητής Μαθηματικών, ο οποίος στήριξε την ενοχή τους, πολλαπλασιάζοντας τις συχνότητες με τις οποίες συναντώνται το καθένα από τα χαρακτηριστικά αυτά στον πληθυσμό της Καλιφόρνιας (ένας στους δέκα οδηγούν κίτρινο αυτοκίνητο, ένας στους τέσσερις άνδρες έχει μουστάκι, μια στις δέκα γυναίκες έχει αλογοουρά, μια στις τρεις γυναίκες είναι ξανθή, ένας στους δέκα μαύρους τρέφει γενειάδα, ένας στα χίλια μικτά (λευκή με έγχρωμο) ζευγάρια εμφανίζονται ανοιχτά σε καμπριολέ αυτοκίνητο). Από τον πολλαπλασιασμό αυτόν (10x4x10x3x10x1.000) προέκυπτε, υποτίθεται, ότι η πιθανότητα να ήταν κάποιο άλλο ζευγάρι, και όχι οι συγκεκριμένοι κατηγορούμενοι, που ετέλεσε την πράξη ήταν μόλις ένα στα … δώδεκα εκατομμύρια! Κατόπιν αυτού οι ένορκοι εκήρυξαν ενόχους τους κατηγορούμενους. Όμως, το Ανώτατο Δικαστήριο της Καλιφόρνιας ακύρωσε την εν λόγω καταδίκη για μια σειρά από λόγους (μεταξύ άλλων γιατί θεώρησε αστήρικτες τις επιμέρους συχνότητες -π.χ., οι περισσότεροι έγχρωμοι με γενειάδα τρέφουν μούσι και μουστάκι – που έθεσε ως βάση των υπολογισμών του ο καθηγητής των Μαθηματικών, του οποίου, άλλωστε, η παρουσία στην ποινική δίκη με την ιδιότητα του μάρτυρα εκρίθη εν γένει ως προβληματική από το Ανώτατο Δικαστήριο).
Αυτό που πρέπει να υπογραμμιστεί εν προκειμένω είναι ότι το Ανώτατο Δικαστήριο, με την παραδοχή του ότι οι περισσότεροι έγχρωμοι με γενειάδα τρέφουν και μουστάκι, δέχτηκε ότι κακώς ο μαθηματικός πολλαπλασίασε τις εν λόγω πιθανότητες, αφού είναι αλληλοεξαρτώμενες (dependent). Κατενόησε το Ανώτατο Δικαστήριο ότι ο μαθηματικός έκανε εσφαλμένη εφαρμογή της στοιχειώδους «Θεωρίας των Πιθανοτήτων». Δεν απέρριψε, δηλαδή, a priori τη Θεωρία των Πιθανοτήτων ως μέσο δικανικής απόδειξης (ή έστω δημιουργίας ισχυρής ένδειξης), αλλά αντέκρουσε τη συγκεκριμένη εφαρμογή της ως εσφαλμένη, με μαθηματικούς όρους.
απόσπασμα από το βιβλίο
«Θεωρητικές και Θετικές Επιστήμες», του Γιώργου Λ. Ευαγγελόπουλου. ΠΕΚ

Eκτός λοιπόν από την χρήση των μαθηματικών στη λήψη των δικαστικών αποφάσεων, τώρα συναντάμε για πρώτη φορά στην ιστορία της Νομικής επιστήμης και την χρήση της τεχνητής νοημοσύνης!
Ένας δικαστής στην Κολομβία χρησιμοποίησε το εργαλείο τεχνητής νοημοσύνης ChatGPT για να εκδώσει μια δικαστική απόφαση, όπως αναφέρει ρεπορτάζ του «Vice». Π΄ροκειται για τον δικαστή Χουάν Μανουέλ Παντίγια Γκαρσία δήλωσε ότι χρησιμοποίησε το εργαλείο σε απόφασή του που αφορούσε στην κάλυψη των ιατρικών εξόδων ενός παιδιού με αυτισμό από ασφαλιστική εταιρεία.

«Ο σκοπός της συμπερίληψης αυτών των κειμένων που παρήγαγε η τεχνητή νοημοσύνη δεν είναι να αντικαταστήσει την απόφαση του δικαστή», έγραψε ο Γκαρσία. «Αυτό που πραγματικά επιδιώκουμε είναι να μειώσουμε τον χρόνο που απαιτείται για τη σύνταξη αποφάσεων μετά την επιβεβαίωση των πληροφοριών που παρέχονται από την τεχνητή νοημοσύνη».

Ο Γκαρσία συμπεριέλαβε τις απαντήσεις του chatbot στην απόφασή του, σηματοδοτώντας την πρώτη φορά που ένας δικαστής παραδέχεται ότι κάνει κάτι τέτοιο. Ο δικαστής συμπεριέλαβε επίσης τις δικές του απόψεις σχετικά με τα ισχύοντα νομικά προηγούμενα και δήλωσε ότι η τεχνητή νοημοσύνη χρησιμοποιήθηκε για να «επεκτείνει τα επιχειρήματα της εκδοθείσας απόφασης».

Ένα από τα ερωτήματα που έθεσε στο ChatGPT ο Κολομβιανός δικαστής ήταν το εξής: «Απαλλάσσεται ένας ανήλικος με αυτισμό από την καταβολή εξόδων για την θεραπεία του;»

Ο Γκαρσία κατέληξε στο συμπέρασμα ότι το σύνολο των ιατρικών εξόδων και των εξόδων μεταφοράς του παιδιού πρέπει να καλυφθεί από το ιατρικό του πρόγραμμα, καθώς οι γονείς του δεν μπορούσαν να ανταπεξέλθουν οικονομικά.

Η κολομβιανή νομοθεσία δεν απαγορεύει τη χρήση της τεχνητής νοημοσύνης σε δικαστικές αποφάσεις, αλλά συστήματα όπως το ChatGPT είναι γνωστό ότι δίνουν απαντήσεις που είναι προκατειλημμένες, μεροληπτικές ή απλά λανθασμένες. Αυτό συμβαίνει επειδή το γλωσσικό μοντέλο δεν κατέχει καμία πραγματική κατανόηση του κειμένου – απλώς συνθέτει προτάσεις με βάση τις πιθανότητες από τα εκατομμύρια παραδείγματα που χρησιμοποιούνται για την εκπαίδευσή του.

Οι δημιουργοί του ChatGPT έχουν εφαρμόσει φίλτρα για να εξαλείψουν ορισμένες από τις πιο προβληματικές απαντήσεις. Ωστόσο, οι προγραμματιστές προειδοποιούν ότι το εργαλείο εξακολουθεί να έχει σημαντικούς περιορισμούς και δεν πρέπει να χρησιμοποιείται για τη λήψη σοβαρών αποφάσεων.

Αξίζει να σημειωθεί ότι η νεοφυής επιχείρηση DoNotPay επιχείρησε πρόσφατα να χρησιμοποιήσει ένα ρομπότ- δικηγόρο σε μια δικαστική αίθουσα. Αναγκάστηκε όμως να ακυρώσει τα σχέδιά της όταν οι εισαγγελείς απείλησαν με φυλάκιση τον διευθύνοντα σύμβουλο της εταιρείας εάν έφερνε ένα ρομπότ-δικηγόρο σε μια δικαστική αίθουσα.

ΠΗΓΗ: https://www.ertnews.gr/eidiseis/diethni/kolomvia-dikastis-xrisimopoiise-chatgptse-apofasi-tou/



Κατηγορίες:ΜΑΘΗΜΑΤΙΚΑ, ΡΟΜΠΟΤ

Ετικέτες:

2 replies

  1. Η «μαθηματικοποιηση»της νομικης επιστημης και κατ’επεκταση της διαδικασιας ληψης δικαστικων αποφασεων, συνιστα στρεβλωση του βαθυτερου νοηματος της δικαιοσυνης και μια οιωνει ανατροπη θεμελιωδων αξιων της,οπως η περαν πασης ευλογης αμφιβολιας ενοχη του κατηγορουμενου,προκειμενου να ληφθει καταδικαστικη αποφαση εις βαρος του.Δεν χρειαζεται βεβαια να πω οτι η περιφημη ατακα πολλων ποινικολογων «καλυτερα εκατο ενοχοι εξω απο τη φυλακη παρα ενας αθωος μεσα»,παει περιπατο σε περιπτωση που παγιωθει αυτη η αδιανοητη κατα τη γνωμη μου διαδικασια

Σχολιάστε

Ο ιστότοπος χρησιμοποιεί το Akismet για την εξάλειψη των ανεπιθύμητων σχολίων. Μάθετε πως επεξεργάζονται τα δεδομένα των σχολίων σας.