Παζάρια πανίσχυρων κολοσσών πίσω από τις κλειστές πόρτες των Βρυξελλών χτίζουν χωρίς φραγμούς και αιδώ ένα μέλλον στο οποίο οι «ανίσχυροι» θα αποκλείονται
Είμαστε στα πρώτα στάδια μιας νέας εποχής. Της εποχής της τεχνητής νοημοσύνης. Μπορεί να πρόκειται για όρο που φαντάζει φουτουριστικός ή που μας φέρνει στο μυαλό κάποιο ρομπότ, η πραγματικότητα όμως είναι πολύ διαφορετική. Η τεχνητή νοημοσύνη έχει ήδη αρχίσει να εφαρμόζεται σε πάρα πολλούς τομείς της οικονομίας και φαντάζει αυτονόητο ότι βρισκόμαστε ακόμη στην αρχή. Αναμένεται τα επόμενα χρόνια να αποτελέσει νευραλγικό κομμάτι της ανθρώπινης καθημερινότητας. Γνωρίζοντας όμως τον τρόπο λειτουργίας της, η ευρεία χρησιμοποίησή της είναι ενδεχόμενο που προκαλεί έντονες ανησυχίες σε πλήθος ειδικών.
Οπως άλλωστε έχουν επισημάνει κορυφαίοι εμπειρογνώμονες, είναι η πρώτη τεχνολογία στα χρονικά που μπορεί να δημιουργήσει από μόνη της ιστορίες, να προπαγανδίσει, να παραβιάσει προσωπικά δεδομένα, να αποκλείσει ακόμη περαιτέρω ήδη περιθωριοποιημένες κοινωνικές ομάδες. Είναι η πρώτη φορά που η ανθρωπότητα κατασκεύασε μια τεχνολογία που δεν εκτελεί, αλλά αντιθέτως μαθαίνει ώστε να εκτελεί. Η δίψα της τεχνητής νοημοσύνης για δεδομένα είναι αστείρευτη κι αυτός ακριβώς είναι ο λόγος που το μέλλον της ανθρωπότητας φαντάζει ζοφερό εάν δεν μπουν αυστηροί κανόνες αναφορικά με τη λειτουργία της.
Είναι ενδεικτικό ότι, όπως είπε μεταξύ άλλων ο διάσημος Ισραηλινός ιστορικός και φιλόσοφος Γιουβάλ Χαράρι, η τεχνητή νοημοσύνη «είναι μια απειλή περισσότερο για τις δημοκρατίες απ’ ό,τι για τα αυταρχικά καθεστώτα, επειδή οι δημοκρατίες βασίζονται στη δημόσια συζήτηση… Στην πραγματικότητα η δημοκρατία είναι συνομιλία, άνθρωποι που μιλούν μεταξύ τους. Αν αυτήν τη συζήτηση την αναλάβει η τεχνητή νοημοσύνη, τότε η δημοκρατία έχει τελειώσει», υποστηρίζοντας παράλληλα πως «δεν ξέρω αν η ανθρωπότητα θα μπορούσε να επιβιώσει μέσα σε κάτι τέτοιο».
Η τεχνητή νοημοσύνη έχει μπει στη ζωή μας με πάταγο τους τελευταίους μήνες εξαιτίας του chatbot τεχνητής νοημοσύνης ChatGPT. Η φύση αυτού του διαδικτυακού chat τεχνητής νοημοσύνης αποδεικνύει ξεκάθαρα πόσο ισχυρό εργαλείο είναι, καθώς ήδη μπορεί να βοηθήσει σε πλήθος τομέων, όπως στη δημοσιογραφία, την εύρεση πηγών, ακόμη και τη συγγραφή ενός ποιήματος. Οσο όμως τροφοδοτούμε τους αλγόριθμους της τεχνητής νοημοσύνης με νέα δεδομένα τόσο πιο ευάλωτη γίνεται η ασφάλειά μας, καθώς τέτοιου είδους chatbots δύνανται να αντλήσουν απείρως περισσότερα στοιχεία συγκριτικά με τις διαδικτυακές μηχανές αναζήτησης. Ακόμη κι αν αυτά τα στοιχεία αφορούν το διαδικτυακό –και όχι μόνο– προφίλ μας. Βοηθάει άλλωστε το γεγονός ότι αυτά τα chatbots σε κάνουν να πιστεύεις ότι μιλάς με άνθρωπο.
Εξίσου σημαντικό είναι ποιος είναι υπεύθυνος για το περιεχόμενο με το οποίο τροφοδοτούνται τα συστήματα τεχνητής νοημοσύνης. Για παράδειγμα, αν λαμβάνουν ως δεδομένο ξενοφοβικές αντιλήψεις, τότε αυτές ενδέχεται στο μέλλον να λαμβάνονται από την τεχνητή νοημοσύνη –ή ακόμη χειρότερα από την ανθρωπότητα– ως κοινά αποδεκτές. Συγκεκριμένα, αν δείξεις σε ένα σύστημα τεχνητής νοημοσύνης χίλιες φωτογραφίες με σκύλους και του υποδείξεις ότι αυτές οι φωτογραφίες απεικονίζουν γάτες, τότε αυτό ακριβώς θα θεωρήσει ως δεδομένο. Κι αυτό αποτελεί απλώς ένα παιδικό παράδειγμα.
Θα περίμενε κάποιος ότι η αλματώδης χρησιμοποίηση της τεχνητής νοημοσύνης το τελευταίο χρονικό διάστημα θα είχε ήδη ανησυχήσει τους ανώτατους πολιτικούς αξιωματούχους. Οχι όμως. Σύμφωνα με μελέτη του Παρατηρητηρίου της Ευρώπης των Πολυεθνικών που δημοσιεύει σήμερα το Documento, η ΕΕ είναι ακόμη μια φορά έρμαιο στο λόμπινγκ των πλέον ισχυρών τεχνολογικών εταιρειών στον κόσμο. Αιτία είναι ότι αυτές ασκούν λυσσαλέο λόμπινγκ πίσω από τις κλειστές πόρτες των Βρυξελλών προκειμένου να ελαχιστοποιηθούν οι περιορισμοί στη σχετική νομοθετική ρύθμιση που θα ψηφιστεί την ερχόμενη Πέμπτη 11 Μαΐου από το Ευρωπαϊκό Κοινοβούλιο αναφορικά με τη χρήση της τεχνητής νοημοσύνης. Ακόμη μια φορά και για ακόμη ένα τόσο σοβαρό ζήτημα η ΕΕ δείχνει να μην ενδιαφέρεται για κάτι άλλο παρά μονάχα να προασπίσει τα συμφέροντα των πολυεθνικών.
«Παραμέρισαν τα ανθρώπινα δικαιώματα»
Το παρατηρητήριο βασίστηκε σε έγγραφα που απέκτησε τα οποία καταδεικνύουν ότι η «πρωτοποριακή πρωτοβουλία της ΕΕ» αναφορικά με την προσπάθεια ρύθμισης της τεχνητής νοημοσύνης αντιμετώπισε σφοδρό λόμπινγκ από αμερικανικές πολυεθνικές εταιρείες. Η πολυετής αυτή πίεση πραγματοποιήθηκε μέσω μυστικών ομάδων χρηματοδοτούμενων από τεχνολογικές εταιρείες εμπειρογνωμόνων, ακόμη και από την κυβέρνηση των ΗΠΑ. Μέσω αυτής της πίεσης οι τεχνολογικές εταιρείες έχουν μειώσει «τις υποχρεώσεις ασφάλειας, παραμέρισαν τα ανθρώπινα δικαιώματα και τις ανησυχίες κατά των διακρίσεων, ενώ εξασφάλισαν ρυθμιστικές εξαιρέσεις για ορισμένα από τα βασικά προϊόντα τεχνητής νοημοσύνης τους».
Ακόμη και σήμερα όταν ακούμε τον όρο τεχνητή νοημοσύνη φανταζόμαστε κάποιο σενάριο ταινίας επιστημονικής φαντασίας. Στην πραγματικότητα όμως, όπως επισημαίνει το παρατηρητήριο, έχουν ήδη αναπτυχθεί μορφές τεχνητής νοημοσύνης «στο παρασκήνιο της καθημερινότητάς μας, από τους αλγόριθμους που αποφασίζουν τι βλέπουμε στις ροές των μέσων κοινωνικής δικτύωσης μέχρι τις διαφημίσεις που εμφανίζονται με βάση τις διαδικτυακές συμπεριφορές μας».
Πλέον όμως η τεχνητή νοημοσύνη αρχίζει να εφαρμόζεται σε σχεδόν όλους τους τομείς της οικονομίας, όπως σε αυτοκίνητα και ιατρικές συσκευές. Η ολοένα πιο εκτεταμένη χρήση της οδήγησε τον Απρίλιο του 2021 τους επιτρόπους της ΕΕ Μαργκαρέτε Βεστάγκερ και Τιερί Μπρετόν να παρουσιάσουν μια πρόταση σχετικά με ένα ευρωπαϊκό νομοθετικό πλαίσιο που θα αφορά την τεχνητή νοημοσύνη. Πρόκειται για εξέλιξη η οποία χαιρετίστηκε ως η πρώτη προσπάθεια για τη θέσπιση ρυθμιστικού συστήματος της τεχνητής νοημοσύνης, για την οποία η Ευρωπαϊκή Επιτροπή παρατήρησε ότι «θα έχει τεράστιο αντίκτυπο στον τρόπο που οι άνθρωποι ζουν και εργάζονται τις ερχόμενες δεκαετίες».
Εφαρμογές «υψηλού κινδύνου»
Τα πράγματα γίνονται όμως ακόμη πιο περίπλοκα καθώς η τεχνητή νοημοσύνη αποκτά ολοένα πιο κεντρικό ρόλο σε τεράστιες τεχνολογικές εταιρείες, όπως οι Google, Microsoft και Meta (μητρική του Facebook). Είναι χαρακτηριστικό ότι, σύμφωνα με το παρατηρητήριο, η Google σε κατ’ ιδίαν συναντήσεις που είχε με την Ευρωπαϊκή Επιτροπή περιέγραψε τον εαυτό της ως «πρωτίστως εταιρεία τεχνητής νοημοσύνης», ενώ η τεχνητή νοημοσύνη «καθοδηγεί όλα τα προϊόντα της». Η επιτροπή έχει προτείνει μια νομοθετική ρύθμιση αναφορικά με τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, καθώς «όσο αυξάνεται ο κίνδυνος τα συστήματα τεχνητής νοημοσύνης πρέπει να συμμορφώνονται σε αυστηρότερους κανόνες».
Για παράδειγμα, σύμφωνα με το παρατηρητήριο, οι εφαρμογές τεχνητής νοημοσύνης που αφορούν τα chatbots, όπως το chatGPT, «θα μπορούσαν να χαρακτηριστούν “περιορισμένου κινδύνου”. Στο υψηλότερο, “απαράδεκτο” επίπεδο κινδύνου, οι εφαρμογές θα πρέπει να απαγορεύονται πλήρως», όταν για παράδειγμα βαθμολογούν και επιβραβεύουν την αξιοπιστία των ανθρώπων βάσει της διαδικτυακής συμπεριφοράς τους και άλλων προσωπικών δεδομένων.
Παράλληλα υπάρχουν και άλλες εφαρμογές, όπως η βιομετρική ταυτοποίηση ή η χρήση τεχνητής νοημοσύνης σε κρίσιμες υποδομές, στην εκπαίδευση, την επιβολή του νόμου και τη μετανάστευση, οι οποίες βάσει της επίμαχης πρότασης της επιτροπής θα μπορούσαν να θεωρηθούν «υψηλού κινδύνου». Τα συστήματα αυτά, που εκτιμάται ότι θα αποτελούν το 10-15% του συνόλου των συστημάτων τεχνητής νοημοσύνης, «θα πρέπει να περάσουν από “αξιολόγηση συμμόρφωσης” προκειμένου να διασφαλιστεί ότι είναι αξιόπιστα προτού μπορέσουν να διατεθούν στην αγορά».
Βάσει των εγγράφων που αποκτήθηκαν από το παρατηρητήριο, εταιρείες τεχνολογίας κυρίως από τις ΗΠΑ επιδίωξαν «να μειώσουν τις απαιτήσεις αναφορικά με συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου και να περιορίσουν το πεδίο εφαρμογής της νομοθέτησης». Συγκεκριμένα, οι λομπίστες μεγάλων εταιρειών επιδίωξαν να εξαιρέσουν από την επίμαχη ρύθμιση τη νεοεισαχθείσα έννοια «συστήματα τεχνητής νοημοσύνης γενικού σκοπού». Τα συγκεκριμένα συστήματα, που «συνήθως παράγονται από γίγαντες της Silicon Valley, χρησιμοποιούνται ή ενσωματώνονται σε ποικίλες χρήσεις από άλλες εταιρείες». Είναι οι ίδιοι τεχνολογικοί γίγαντες «που θέλουν οι κανονισμοί να μην ισχύουν για τον δημιουργό της τεχνολογίας αλλά μόνο για τις εταιρείες που τα χρησιμοποιούν με διάφορους τρόπους».
Τι είναι η τεχνητή νοημοσύνη
Αναφορικά με το τι ακριβώς είναι η τεχνητή νοημοσύνη, το παρατηρητήριο επισημαίνει πως πρόκειται για κάτι «εξαιρετικά περίπλοκο» να προσδιοριστεί επακριβώς, καθώς και ότι πρόκειται για αρκετά αμφισβητούμενο θέμα. Πάντως οι περισσότερες τεχνολογίες στις οποίες αναφερόμαστε ως τεχνητή νοημοσύνη είναι μια εκδοχή της μηχανικής μάθησης. Δηλαδή «ενώ τα παραδοσιακά λογισμικά προγραμματίζονται προκειμένου να εκτελέσουν μια εργασία, η τεχνητή νοημοσύνη είναι προγραμματισμένη να μαθαίνει να εκτελεί μια εργασία.
Με απλά λόγια, η μηχανή –ένας υπολογιστής, ένα λογισμικό πρόγραμμα ή ρομπότ– εκπαιδεύεται να επεξεργάζεται μεγάλες ποσότητες δεδομένων. Χρησιμοποιεί περίπλοκη “ωμή βία” και μαθηματικά για να βρει μαθηματικές συσχετίσεις κι έτσι καταλαβαίνει πώς να φτάσει στα απαιτούμενα αποτελέσματα. Η μηχανή ορίζει εσωτερικούς κανόνες και βήματα που πρέπει να ακολουθήσει και όταν λαμβάνεται μια νέα είσοδος ακολουθεί αυτά τα βήματα για να λάβει μια απόφαση».
Ζητήματα ηθικής φύσης
Αξίζει να σημειωθεί πως σύμφωνα με το παρατηρητήριο ένας από τους κινδύνους που ελλοχεύουν είναι ότι αρκετά συχνά τα αναπτυγμένα συστήματα τεχνητής νοημοσύνης δεν λειτουργούν. Ακόμη υπάρχει το φαινόμενο «των αλγόριθμων του Facebook που λογοκρίνουν λανθασμένα φωτογραφίες κρεμμυδιών για “γυμνό” και “σεξουαλικά προσβλητικό” περιεχόμενο, αλλά μπορεί να έχουν πιο σοβαρούς κινδύνους, όπως ένα “ρομπότ υγείας” που παρέχει λανθασμένες ιατρικές συμβουλές».
Και έπειτα είναι τα ζητήματα ηθικής φύσης. Για παράδειγμα, αν τα συστήματα τεχνητής νοημοσύνης αντανακλούν τις υπάρχουσες κοινωνικές προκαταλήψεις και προβλήματα, τότε διαστρεβλώνονται τα αποτελέσματά τους. Επίσης η τεχνητή νοημοσύνη «δεν είναι ικανή να λάβει ηθικές αποφάσεις, οπότε μπορεί να παραγάγει αποτελέσματα που αντικατοπτρίζουν τις ανθρώπινες προκαταλήψεις –π.χ. για τη φυλή, την ηλικία, το φύλο, την αναπηρία, την τάξη, τη σεξουαλικότητα– βασιζόμενη σε δεδομένα που διαθέτει». Η τεχνητή νοημοσύνη δεν ρωτάει αν κάτι είναι δίκαιο ή αν υπάρχει μεροληψία στα αρχικά δεδομένα. Απλώς μαθαίνει να εκτελεί το έργο της.
«Στρατιωτική τεχνητή νοημοσύνη»
Είναι προφανές ότι η τεχνητή νοημοσύνη είναι πανίσχυρο εργαλείο που σε πολλές περιπτώσεις μπορεί να χρησιμοποιηθεί –ή χρησιμοποιείται ήδη– και για πολύ σκοτεινούς σκοπούς. Σύμφωνα με το παρατηρητήριο, «η ΕΕ έχει δαπανήσει περισσότερα από 340 εκατ. ευρώ στην έρευνα για την τεχνητή νοημοσύνη για σκοπούς ελέγχου των συνόρων κι ενώ η στρατιωτική τεχνητή νοημοσύνη είναι μια από τις χρηματοδοτικές προτεραιότητες του Ευρωπαϊκού Ταμείου Αμυνας. Υπάρχουν πραγματικές ανησυχίες σχετικά με τις ανομοιογενείς επιπτώσεις των αστυνομικών και στρατιωτικών εφαρμογών τεχνητής νοημοσύνης και επιτήρησης δεδομένων σε πληθυσμούς οι οποίοι ήδη παρακολουθούνται σε μεγάλο βαθμό και υφίστανται διακρίσεις στην Ευρώπη».
Ενας άλλος κίνδυνος που έχει αναδειχθεί από τους ερευνητές εντοπίζεται σε συγκεκριμένα μεγάλα γλωσσικά μοντέλα. Μερικά παραδείγματα είναι «η παραγωγή εξτρεμιστικού περιεχομένου ή σεξουαλικές εικόνες μη λευκών γυναικών. Η αποκάλυψη προσωπικών πληροφοριών προέρχεται από το διαδίκτυο, όπως και η παροχή εντελώς ψεύτικων αλλά πειστικών επιστημονικών συμβουλών – σύμφωνα με το Google ήταν “παραισθήσεις” των chatbots». Επίσης, τα γλωσσικά μοντέλα «μπορεί να μην αναγνωρίζουν την άρνηση, όπως το να δίνουν στους ανθρώπους λανθασμένες συμβουλές για παράδειγμα στον τομέα της ιατρικής… Και οι “γρήγορες λύσεις” που χρησιμοποιούνται για να αντιμετωπιστούν αυτά τα προβλήματα είναι βαθιά προβληματικές και απίθανο να τα λύσουν. Για παράδειγμα, το OpenAI πλήρωσε εργάτες από την Κένυα λιγότερα από 2 δολάρια την ώρα για να κάνει το ChatGPT “λιγότερο τοξικό”».
«Τεράστιο κενό στη ρύθμιση»
Εντός των κόλπων της ΕΕ έχει πραγματοποιηθεί ένα τεράστιο και σκοτεινό ντιμπέιτ αναφορικά με το αν η τεχνητή νοημοσύνη γενικού σκοπού πρέπει να μείνει εκτός του σχεδίου κανονισμού που πρότεινε η επιτροπή. Και αυτό γιατί η Κομισιόν αρχικά θεωρούσε ότι έπρεπε να συμπεριληφθούν στη ρύθμιση μόνο συστήματα υψηλού κινδύνου. Η γαλλική προεδρία του Συμβουλίου της Ευρώπης πρότεινε να υπόκειται σε εσωτερικό έστω έλεγχο και η τεχνητή νοημοσύνη γενικού σκοπού, γεγονός που προκάλεσε έντονες αντιδράσεις από ορισμένα κράτη-μέλη της ΕΕ.
Παράλληλα, το λόμπινγκ συνεχίζεται αμείωτο. Βάσει της μελέτης, τα χρηματοδοτούμενα δίκτυα λόμπι των μεγάλων τεχνολογικών πολυεθνικών εταιρειών εργάζονται εδώ και καιρό «σε πλήρη απασχόληση προκειμένου να επηρεάσουν όσους αποφασίζουν αναφορικά με την τεχνητή νοημοσύνη γενικού σκοπού». Κάποιες φορές αυτό το λόμπινγκ γίνεται και δημόσια. Είναι χαρακτηριστικό ότι κατά τη διάρκεια συνεδρίου που διοργάνωσε το Politico τον Απρίλιο του 2022 η αντιπρόεδρος της Google Μάριαν Κρόουκ υποστήριξε πως τα μοντέλα τεχνητής νοημοσύνης γενικού σκοπού δεν θα πρέπει να συμμορφώνονται με τους κανόνες που εξετάζει η ΕΕ αναφορικά με τα συστήματα υψηλού κινδύνου. Σύμφωνα με την ίδια, η όποια συμμόρφωση θα πρέπει να επαφίεται στις ίδιες τις εταιρείες, οι οποίες θα τροποποιήσουν μοντέλα γενικού σκοπού για συγκεκριμένες εργασίες.
Σύμφωνα με το παρατηρητήριο πρόκειται για εξέλιξη που κρίνεται με έντονο σκεπτικισμό, «δεδομένου ότι η τεχνητή νοημοσύνη γενικού σκοπού είναι πιθανό να χρησιμοποιείται ολοένα πιο συχνά –άλλωστε πόσες μικρές εταιρείες θα αναπτύξουν δικά τους μοντέλα τεχνητής νοημοσύνης από το μηδέν;–, η απαλλαγή των μεγάλων εταιρειών οι οποίες παράγουν τα αρχικά μοντέλα, από την ευθύνη ανοίγει ένα τεράστιο κενό στη ρύθμιση». Επίσης προσφέρει ελάχιστη λογοδοσία σε όσους μπορεί να υφίστανται διακρίσεις από τη χρήση αυτής της τεχνητής νοημοσύνης.
«Σημαντικές ευκαιρίες για λόμπινγκ»
Φυσικά, είναι δύσκολο να γνωρίζουμε πολλά αναφορικά με το λόμπινγκ που πραγματοποιείται πίσω από κλειστές πόρτες του Ευρωπαϊκού Κοινοβουλίου. Οπως άλλωστε επισημαίνει το παρατηρητήριο, «οι συζητήσεις στο Συμβούλιο είναι ως γνωστόν μυστικές και είναι δύσκολο να τις παρακολουθήσει κανείς». Σύμφωνα με όσα δήλωσε ο Διαμεσολαβητής της ΕΕ, «είναι σχεδόν αδύνατο για τους πολίτες να παρακολουθήσουν τις νομοθετικές συζητήσεις στο Συμβούλιο μεταξύ εκπροσώπων των εθνικών κυβερνήσεων». Είναι προφανές ότι αυτή η μυστικότητα δημιουργεί σημαντικές ευκαιρίες για τους λομπίστες των πολυεθνικών.
Επιπλέον, «διπλωμάτες του Συμβουλίου δεν υποχρεούνται να δηλώνουν τις συναντήσεις λόμπινγκ τους και πολλά κράτη-μέλη της ΕΕ δεν έχουν μητρώα διαφάνειας τα οποία επιτρέπουν την εύκολη παρακολούθηση των συναντήσεων μεταξύ των κυβερνήσεών τους και των επιχειρηματικών τους συμφερόντων. Και είναι βέβαιο ότι τέτοιου είδους επαφές συνέβαιναν: σύμφωνα με πρακτικά συνεδρίασης της επιτροπής, το Facebook “ανέφερε ότι βρίσκεται σε επαφή με τα κράτη-μέλη και τους ευρωβουλευτές για να συζητήσουν την πράξη για την τεχνητή νοημοσύνη”».
«1.012 συναντήσεις με λομπίστες»
Είναι επίσης χαρακτηριστικό ότι βάσει στοιχείων που επικαλείται το παρατηρητήριο «μέχρι τα μέσα του Ιανουαρίου 2023 οι ευρωβουλευτές είχαν καταγράψει 1.012 συναντήσεις λόμπι για την τεχνητή νοημοσύνη με 551 διαφορετικούς λομπίστες». Η Google βρίσκεται στην κορυφή της λίστας με 28 σχετικές συναντήσεις, ενώ στην πρώτη δεκάδα της σχετικής λίστας βρίσκονται επίσης η Microsoft και η Meta. Οι ευρωβουλευτές του Ευρωπαϊκού Λαϊκού Κόμματος και του κόμματος Renew συμμετείχαν στο 61% αυτών των συναντήσεων με εκπροσώπους και λομπίστες της βιομηχανίας αναφορικά με την τεχνητή νοημοσύνη.
Ακόμη, οι επαφές των πολυεθνικών με τους αξιωματούχους της ΕΕ «είναι νήματα ενός πολύ μεγαλύτερου ιστού που οι τεχνολογικοί γίγαντες έχουν απλώσει σε όλη την Ευρώπη τα τελευταία χρόνια». Κι αυτό γιατί «τα τρία τέταρτα των λομπιστών της Google και της Meta στην ΕΕ έχουν προηγουμένως εργαστεί είτε για κυβερνητικό φορέα στην ΕΕ είτε για κάποιο κράτος-μέλος». Παράλληλα, η Ευρωπαϊκή Επιτροπή φαίνεται να δείχνει ότι εμπιστεύεται ακαδημαϊκούς, πολλοί εκ των οποίων όμως χρηματοδοτούνται από τις πολυεθνικές: σχεδόν οι μισοί από τους 52 εμπειρογνώμονες που έχουν σχηματίσει αυτή την ομάδα που συμβουλεύεται η Κομισιόν εκπροσωπούσαν –σύμφωνα με το παρατηρητήριο– επιχειρήσεις όπως η Google και η IBM, ενώ εννέα εξ αυτών είχαν χρηματοδοτικούς δεσμούς με τις πολυεθνικές, γεγονός που οδήγησε την επιτροπή στην απόφαση να αποκλείσει τη συμμετοχή τους.