«100% των AI είναι ψυχοπαθείς – Αλλά μόνο το 1% των ανθρώπων» – Τι υποστηρίζει καθηγητής διοικητικού δικαίου

«100% των AI είναι ψυχοπαθείς – Αλλά μόνο το 1% των ανθρώπων» – Τι υποστηρίζει καθηγητής διοικητικού δικαίου

O Τζούλι Πόνσε Σολέ, 57 ετών, είναι καθηγητής διοικητικού δικαίου στο Πανεπιστήμιο της Βαρκελώνης. Δημοσίευσε ένα βιβλίο για την κατάλληλη χρήση του ΑΙ στη δημόσια διοίκηση, με μακροσκελή τίτλο: Ο κανονισμός της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη του 2024, το δικαίωμα στη χρηστή ψηφιακή διοίκηση και ο δικαστικός έλεγχός του στην Ισπανία.

Όπως και σε πολλά άλλα επαγγέλματα, οι δημόσιοι υπάλληλοι θα ωφεληθούν αλλά και θα υποφέρουν από την τεχνητή νοημοσύνη. Όμως, λόγω της ευαίσθητης φύσης της εργασίας τους, οι απαιτήσεις αυξάνονται. Ο καθηγητής πιστεύει ότι «η έλλειψη ενσυναίσθησης και άλλων συναισθημάτων σημαίνει ότι δεν μπορούν να λάβουν αποφάσεις που επηρεάζουν τους ανθρώπους».

Ακολουθεί η συνέντευξη στην El Pais

Πώς χρησιμοποιεί ένας καθηγητής διοικητικού δικαίου το ChatGPT;

Το χρησιμοποιώ και ενθαρρύνω τους φοιτητές μου να το χρησιμοποιούν, διότι ξέρω ότι θα το χρησιμοποιήσουν σε κάθε περίπτωση. Τους δίνω κατευθυντήριες γραμμές σχετικά με τις δυνατότητες και τους περιορισμούς του. Η νομολογία είναι σημαντική για τους δικηγόρους. Το ChatGPT είτε το επινοεί είτε είναι πιο ειλικρινές και σας λέει ότι δεν έχει πρόσβαση σε βάσεις δεδομένων νομολογίας, γεγονός που αποτελεί σημαντική έλλειψη. Είναι πολύ χρήσιμο, πάνω απ’ όλα, για να σας βοηθήσει να προσανατολιστείτε.

Δεν ακούγεται τόσο χρήσιμο.

Ορισμένα νομικά περιοδικά των οποίων είμαι μέλος της συντακτικής επιτροπής μας έχουν ήδη ρωτήσει διακριτικά για το πώς χρησιμοποιούμε τo AI στα πανεπιστήμια, επειδή βρίσκουν όλο και περισσότερα άρθρα επιστημονικής έρευνας που βασίζονται στο ΑΙ. Δεν γνωρίζω το ποσοστό, αλλά είναι κάτι που υπάρχει και είναι ανησυχητικό.

Χρησιμοποιούν και οι αξιωματούχοι αυτά τα εργαλεία;

Βρισκόμαστε σε μια εποχή… Άγριας Δύσης. Στο πανεπιστήμιό μου, ρώτησα αν υπάρχουν κριτήρια, ηθικά πρωτόκολλα για τη χρήση της τεχνητής νοημοσύνης και μου είπαν όχι. Νομίζω ότι είναι κάτι γενικό. Δεν έχω υπόψη μου οποιεσδήποτε κατευθυντήριες γραμμές ή οδηγίες. Ο καθένας κάνει αυτό που θεωρεί καλύτερο. Εξαρτάται από τον κάθε δημόσιο υπάλληλο.

Φοβάστε αυτή την έλλειψη ελέγχου του ΑΙ στη δημόσια διοίκηση;

Η τεχνητή νοημοσύνη δεν πρέπει να φοβάται, αλλά μάλλον να γίνεται σεβαστή και να αντιμετωπίζεται με προσοχή. Η τεχνητή νοημοσύνη απαιτεί τεράστιες ποσότητες δεδομένων και οι δημόσιες διοικήσεις πρέπει να λαμβάνουν υπόψη τους τη νομοθεσία περί προστασίας δεδομένων. Μια άλλη προφύλαξη είναι τα σημερινά όρια της τεχνητής νοημοσύνης, τα οποία είναι στενά ή αδύναμα. Έχει περιορισμούς, και αν οι ανώτεροι υπάλληλοι την χρησιμοποιούσαν στη λήψη αποφάσεων, θα ήταν λάθος και παράνομο.

Οι άνθρωποι κάνουν επίσης λάθη, αλλά αυτό δεν σημαίνει ότι μιλάμε για παρανομίες

Είναι αλήθεια, οι άνθρωποι κάνουν λάθη και έχουν συγκεκριμένο πρόβλημα με τις γνωστικές προκαταλήψεις, επειδή μόνο εμείς έχουμε εγκέφαλο. Οι μηχανές δεν μπορούν να έχουν αυτές τις προκαταλήψεις, αλλά έχουν άλλες, όπως οι ψευδαισθήσεις. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη. Αλλά η τεχνητή νοημοσύνη είναι ικανή να επαναλάβει το λάθος της χιλιάδες ή εκατοντάδες χιλιάδες φορές. Είναι θέμα επεκτασιμότητας. Η τεχνητή νοημοσύνη, αν λειτουργεί καλά, θα επιταχύνει τη διαχείριση. Αλλά, από την άλλη πλευρά, θα υπάρχει ένα τίμημα που θα πρέπει να πληρώσει αν λειτουργεί με κακό τρόπο.

Λέτε ότι τα συναισθήματα σχετίζονται με τις αποφάσεις. Εφόσον η τεχνητή νοημοσύνη δεν τα έχει, οι αποφάσεις της είναι παράνομες;

Δεν ξέρω αν θα έχει ποτέ συναισθήματα. Σίγουρα όχι τώρα- ούτε μεσοπρόθεσμα, και μακροπρόθεσμα, θα το δούμε.

Αλλά μιμείται τα συναισθήματα.

Είναι σαφές ότι η τεχνητή νοημοσύνη δεν έχει συναισθήματα, δεν έχει εγκέφαλο, δεν έχει ενσυναίσθηση επειδή δεν έχει νευρώνες καθρέφτη. Το 100% των μηχανών τεχνητής νοημοσύνης είναι ψυχοπαθείς επειδή δεν έχουν ενσυναίσθηση. Οι άνθρωποι, πράγματι, κάνουν λάθη, αλλά μόνο το 1% είναι ψυχοπαθείς. Εκεί μπαίνουμε σε ένα ενδιαφέρον πεδίο που ξεπερνά κατά πολύ το νόμο και μας αφορά όλους. Η απόφαση μιας μηχανής θα μπορούσε να μας στείλει στη φυλακή, κάτι που θα ήταν ο πιο ορατός κίνδυνος για τον μέσο πολίτη. Είναι μια συζήτηση που είχαμε ήδη με τους ανθρώπους πριν έρθει η τεχνητή νοημοσύνη.

Ο Ομπάμα επέλεξε τη δικαστή Σόνια Σοτομαγιόρ για το Ανώτατο Δικαστήριο και δήλωσε ότι την διόρισε επειδή εκτιμούσε την ικανότητά της για λήψη αποφάσεων με ενσυναίσθηση. Υπήρχε ένα σχίσμα εκεί. Εμείς οι δικηγόροι έχουμε εκπαιδευτεί να συνδέουμε το νόμο με τον ψυχρό ορθολογισμό. Είναι μια κληρονομιά που μεταφέραμε από τον Διαφωτισμό. Αυτό το μοντέλο έχει αμφισβητηθεί εδώ και χρόνια. Η παράδοση είναι ότι τα συναισθήματα έπρεπε να απομονωθούν για να ληφθούν καλές αποφάσεις. Αλλά ο νευροεπιστήμονας Αντόνιο Νταμάσιο υποστηρίζει το αντίθετο: δεν είναι δυνατόν να ληφθούν καλές αποφάσεις χωρίς συναισθήματα. Πρέπει να υπάρχει μια ισορροπία. Υποστηρίζει επίσης ότι τα συναισθήματα συνδέονται με την ύπαρξη φυσικού σώματος στους ανθρώπους, το οποίο δεν έχουν οι μηχανές. Δεν είμαι σίγουρος ότι θέλω μια μηχανή ανίκανη να έχει οποιοδήποτε είδος συναισθήματος, να επιδεικνύει ενσυναίσθηση και επομένως ανίκανη να επιδεικνύει δικαιοσύνη, να αποφασίζει για μένα. Η δικαιοσύνη αποτελεί μέρος του Αστικού μας Κώδικα εδώ και πολλά χρόνια- οι κανόνες πρέπει να μετριάζονται, πρέπει να προσαρμόζονται στην περίπτωση. Δεν θα ένιωθα πολύ άνετα.

Αυτό είναι λογικό.

Με την τεχνολογία που διαθέτουμε σήμερα, είναι απλώς παράνομο να χρησιμοποιούμε μηχανές για τη λήψη αποφάσεων που αφορούν περιθώρια εκτίμησης, τα οποία πρέπει να λαμβάνουν υπόψη τα συμφέροντα και τα δικαιώματα των ανθρώπων.

Συχνά υπάρχουν παράπονα για δικαστές των οποίων οι αποφάσεις είναι πάντα προκατειλημμένες προς την ίδια κατεύθυνση ή που αντιμετωπίζουν τα θύματα με κακή μεταχείριση.

Δεν χρειάζεται να επιλέξουμε. Πρέπει να είμαστε έξυπνοι στο να συνδυάζουμε το καλύτερο και από τους δύο κόσμους. Το ιδανικό θα ήταν μια συνεργασία μεταξύ των μηχανών ως βοηθών και των ανθρώπων ως τελικών φορέων λήψης αποφάσεων. Ο κανονισμός της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη αναλαμβάνει μια σημαντική δέσμευση: η τεχνητή νοημοσύνη δεν μπορεί να κρίνει. Μπορεί μόνο να βοηθήσει τον δικαστή. Και προσθέτει ότι η λειτουργία της κρίσης είναι εγγενώς ανθρώπινη. Αυτό δεν σημαίνει ότι η τεχνητή νοημοσύνη δεν μπορεί να χρησιμοποιηθεί, απλώς ότι μια μηχανή δεν μπορεί να έχει τον τελικό λόγο.

Θα ήταν μια σημαντική αλλαγή.

Ακούγεται πολύ λογικό, διότι η μέση λύση είναι πάντα η μέση λύση. Αλλά θα κάνω και τον δικηγόρο του διαβόλου. Η παρουσία ενός ανθρώπου στο τέλος κατευνάζει τις συνειδήσεις. Αλλά υποφέρουμε από μια προκατάληψη που ονομάζεται αυτοματοποίηση: τείνουμε να εμπιστευόμαστε υπερβολικά τις μηχανές. Και υπάρχει και ένα άλλο σημαντικό ανθρώπινο στοιχείο: η σκέψη είναι εξαντλητική. Αντί ο άνθρωπος να επιβλέπει και να αποφασίζει, αυτό που μπορεί τελικά να συμβεί είναι ότι ο άνθρωπος υπογράφει μόνο ό,τι του έχει πει η τεχνητή νοημοσύνη. Αν ένας δικαστής πρέπει να εκδώσει, για παράδειγμα, 30 ποινές σε ένα μήνα, μπορεί να είναι πολύ προσεκτικός στην πρώτη, ίσως και στη δεύτερη- αλλά όταν δει ότι το AI λειτουργεί σχετικά καλά ως βοηθός, στην 300ή, πιθανώς θα την υπογράψει και θα προχωρήσει σε κάτι άλλο. Είναι ένας κίνδυνος που πρέπει να γνωρίζουμε.

Μήπως οι άνθρωποι κρύβονται πίσω από τις αποφάσεις της τεχνητής νοημοσύνης για να αποφύγουν την ευθύνη;

Είναι ένας κίνδυνος σε ένα πλαίσιο όπου αναδύεται ένα φαινόμενο που ονομάζεται αμυντική γραφειοκρατία, ο φόβος της υπογραφής. Έχει δημιουργηθεί ένας ορισμένος φόβος υπογραφής, για να μην έχεις προβλήματα με ένα λογιστικό όργανο ή στα ποινικά δικαστήρια. Η χρήση της τεχνητής νοημοσύνης μπορεί να επιδεινώσει αυτό το πρόβλημα, διότι αν φοβάμαι, το πιο εύκολο πράγμα είναι να πάρει μια μηχανή την απόφαση. Έχουμε την τάση να προστατεύουμε τους εαυτούς μας και να αποφεύγουμε τα προβλήματα. Και αυτό είναι απαράδεκτο. Η ευθύνη αυτού που λαμβάνει την απόφαση πρέπει να είναι πολύ σαφής.

Εάν τα πράγματα συνεχίσουν να εξελίσσονται όπως εξελίσσονται στον ιδιωτικό τομέα, ίσως χρειαστούμε λιγότερους δημόσιους υπαλλήλους.

Είναι πολύ πιθανό να χρειαστούν λιγότεροι δημόσιοι υπάλληλοι.

Οι δημόσιοι υπάλληλοι δεν εξαιρούνται από αυτή την εικασία.

Θα υπάρξουν παρόμοιες εξελίξεις τόσο στον δημόσιο όσο και στον ιδιωτικό τομέα. Στο βιβλίο αναπτύσσω την έννοια του αποθεματικού της ανθρωπότητας. Την είχα ήδη προτείνει πριν από χρόνια. Ο δημιουργός της Eliza (ένα από τα πρώτα chatbots) είπε στη δεκαετία του 1960 ότι υπάρχουν πράγματα που δεν μπορούν να αφεθούν στις μηχανές. Αυτή η διαίσθηση εξακολουθεί να ισχύει. Το απόθεμα ανθρωπιάς δεν είναι ένα απόθεμα για να σωθούν οι θέσεις εργασίας των τελευταίων ανώτερων υπαλλήλων του δημόσιου τομέα. Έχω κάνει αυτές τις συζητήσεις με ανθρώπους που ειδικεύονται στον ιδιωτικό τομέα και σε διοικητικά συμβούλια. Υπάρχει μια ορισμένη συναίνεση ότι ένα αποθεματικό ανθρωπιάς πρέπει να δημιουργηθεί για ένα σύνολο λειτουργιών και καθηκόντων που επηρεάζουν πολύ ευαίσθητα δικαιώματα και συμφέροντα των πολιτών: ποινικό δίκαιο, χορήγηση πιστώσεων, μεγάλα πρόστιμα.

Ο ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη είναι ένα καλό παράδειγμα κανονισμού που αρνείται να γίνει άκαμπτος. Είναι γεμάτος πόρτες και παραθυράκια για προσαρμογή. Η κακή χρήση της τεχνητής νοημοσύνης, η ακατάλληλη χρήση, θα μας οδηγούσε στο αντίθετο από αυτό που θέλουμε. Δεν είμαι τεχνο- απαισιόδοξος ή αντι-τεχνολογικός, το αντίθετο μάλιστα. Πρέπει να βρούμε μια ισορροπία. Το να κάνουμε μεγαλόστομες διακηρύξεις ότι η τεχνητή νοημοσύνη θα λύσει όλα μας τα προβλήματα ή ότι θα δημιουργήσει επικές καταστροφές είναι απλό και κάνει καλό πρωτοσέλιδο. Αλλά η πραγματικότητα είναι η ήσυχη δουλειά που θα πρέπει να γίνει τα επόμενα χρόνια. Στα δικαστήρια, πώς χρησιμοποιείται η τεχνητή νοημοσύνη; Για ποιες υποθέσεις; Ποιος θα είναι ο ρόλος του δικαστή; Ή στον πολεοδομικό σχεδιασμό, τι ρόλο μπορεί να παίξει; Ποιος θα λάβει την τελική απόφαση;

Δεν φαίνεται να υπάρχει εύκολη απάντηση.

Υπάρχουν πολύ μεγάλα ζητήματα τα οποία συζητούσαμε ήδη πριν από την ΑΙ, τα συζητάμε και τώρα και θα συνεχίσουμε να τα συζητάμε. Όταν μιλάμε για την Τεχνητή Νοημοσύνη, αντίθετα, μιλάμε για το τι σημαίνει να είσαι άνθρωπος, τι σημαίνει να παίρνεις μια καλή απόφαση: τι πλεονέκτημα συνεισφέρει ο άνθρωπος σε σχέση με τη μηχανή και τι πλεονέκτημα συνεισφέρει η μηχανή σε σχέση με τον άνθρωπο; Έχω ήδη διαβάσει προεκλογικές υποσχέσεις που έλεγαν ότι θα αυτοματοποιήσουν για να εξοικονομήσουν 15 δισεκατομμύρια ευρώ. Τα συστήματα τεχνητής νοημοσύνης δεν κουράζονται, δεν αρρωσταίνουν, δεν παίρνουν διακοπές, δεν μπαίνουν σε συνδικάτα, δεν προκαλούν προβλήματα. Είναι πολύ ελκυστικό να λες ότι θα αποφύγεις αυτούς τους τεμπέληδες δημόσιους υπαλλήλους. Αλλά θα προσπαθήσουμε να αποφύγουμε τις δυστοπίες.

Η τεχνητή νοημοσύνη πρέπει να ενσωματωθεί, και ήδη αργούμε πολύ. Οι δημόσιες διοικήσεις θα πρέπει να χρησιμοποιούν πολύ περισσότερο την τεχνητή νοημοσύνη για να προσφέρουν εξατομικευμένες και προληπτικές υπηρεσίες. Ακριβώς όπως και στον ιδιωτικό τομέα, εντοπίζουν και προβλέπουν τι μπορεί να χρειαστείς, προφανώς με σκοπό το κέρδος. Οι δημόσιες διοικήσεις θα μπορούσαν να κάνουν το ίδιο: να εντοπίζουν ποια παιδιά στις σχολικές καφετέριες χρειάζονται το επίδομα και να μην περιμένουν να υποβάλουν αίτηση οι γονείς, οι οποίοι μπορεί να μην γνωρίζουν καθόλου για το επίδομα ή να θεωρούν δύσκολη την αίτησή του.

Πηγή: El Pais

Ετικέτες

Documento Newsletter