Δικηγόρος της Νέας Υόρκης βρίσκεται αντιμέτωπος με δικαστική ακρόαση καθώς παραδέχθηκε πως η εταιρεία που εκπροσωπούσε χρησιμοποίησε το ChatGPT για νομική έρευνα!
Ένας δικαστής δήλωσε ότι το δικαστήριο βρέθηκε αντιμέτωπο με μια «πρωτοφανή κατάσταση», αφού διαπιστώθηκε ότι σε μια κατάθεση αναφερόταν σε παραδείγματα νομικών υποθέσεων που δεν υπήρχαν.
Ο δικηγόρος που χρησιμοποίησε την τεχνητή νοημοσύνη δήλωσε στο δικαστήριο ότι «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Θα πρέπει να σημειωθεί ότι το ChatGPT δημιουργεί πρωτότυπο κείμενο κατόπιν αιτήματος, αλλά συνοδεύεται από προειδοποιήσεις ότι μπορεί να «παράγει ανακριβείς πληροφορίες».
Όπως μεταδίδει το BBC η αρχική υπόθεση αφορούσε έναν άνδρα που μήνυσε μια αεροπορική εταιρεία για έναν υποτιθέμενο τραυματισμό του. Η νομική του ομάδα υπέβαλε υπόμνημα που παρέπεμπε σε διάφορες προηγούμενες δικαστικές υποθέσεις σε μια προσπάθεια να αποδείξει, χρησιμοποιώντας δεδικασμένο, γιατί η υπόθεση θα έπρεπε να προχωρήσει.
Όμως, οι δικηγόροι της αεροπορικής εταιρείας απευθύνθηκαν στον δικαστή για να του πουν ότι δεν μπορούσαν να βρουν αρκετές από τις υποθέσεις που αναφέρονταν στο υπόμνημα.
«Έξι από τις υποβληθείσες υποθέσεις φαίνεται να είναι ψεύτικες δικαστικές αποφάσεις με ψεύτικα παραθέματα και ψεύτικες εσωτερικές παραπομπές», έγραψε ο δικαστής Castel ζητώντας εξηγήσεις.
Κατά τη διάρκεια αρκετών καταθέσεων, προέκυψε ότι η έρευνα δεν είχε εκπονηθεί από τον Peter LoDuca, τον δικηγόρο του ενάγοντος, αλλά από έναν συνάδελφό του στην ίδια δικηγορική εταιρεία. Ο Steven A. Schwartz, ο οποίος είναι δικηγόρος για περισσότερα από 30 χρόνια, χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοιες προηγούμενες υποθέσεις.
Στη γραπτή δήλωσή του, ο Schwartz διευκρίνισε ότι ο LoDuca δεν είχε συμμετάσχει στην έρευνα και δεν γνώριζε τον τρόπο διεξαγωγής της.
Πρόσθεσε ότι «λυπάται πολύ» που βασίστηκε στο chatbot, το οποίο, όπως είπε, δεν είχε χρησιμοποιήσει ποτέ πριν για νομική έρευνα και «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Ορκίστηκε να μην χρησιμοποιήσει ποτέ στο μέλλον τεχνητή νοημοσύνη για να «συμπληρώσει» τη νομική του έρευνα «χωρίς απόλυτη επαλήθευση της αυθεντικότητάς της».
Τα στιγμιότυπα οθόνης που επισυνάπτονται στην κατάθεση φαίνεται να δείχνουν μια συνομιλία μεταξύ του Schwarz και του ChatGPT.
Η efsyn.gr θεωρεί αυτονόητο ότι οι αναγνώστες της έχουν το δικαίωμα του σχολιασμού, της κριτικής και της ελεύθερης έκφρασης και επιδιώκει την αμφίδρομη επικοινωνία μαζί τους.
Διευκρινίζουμε όμως ότι δεν θέλουμε ο χώρος σχολιασμού της ιστοσελίδας να μετατραπεί σε μια αρένα απαξίωσης και κανιβαλισμού προσώπων και θεσμών. Για τον λόγο αυτόν δεν δημοσιεύουμε σχόλια ρατσιστικού, υβριστικού, προσβλητικού ή σεξιστικού περιεχομένου. Επίσης, και σύμφωνα με τις αρχές της Εφημερίδας των Συντακτών, διατηρούμε ανοιχτό το μέτωπο απέναντι στον φασισμό και τις ποικίλες εκφράσεις του. Έτσι, επιφυλασσόμαστε του δικαιώματός μας να μην δημοσιεύουμε ανάλογα σχόλια.
Σε όσες περιπτώσεις κρίνουμε αναγκαίο, απαντάμε στα σχόλιά σας, επιδιώκοντας έναν ειλικρινή και καλόπιστο διάλογο.
Η efsyn.gr δεν δημοσιεύει σχόλια γραμμένα σε Greeklish.
Τέλος, τα ενυπόγραφα άρθρα εκφράζουν το συντάκτη τους και δε συμπίπτουν κατ' ανάγκην με την άποψη της εφημερίδας