Nbaxevanis

Europlan
KOSA
TECH & SCIENCE

ChatGPT: Προειδοποιήσεις για τους κινδύνους από την ανεξέλεγκτη τεχνητή νοημοσύνη

ΜΗΛΟ
DROP Palermo TECH HUB
Cosmos

Το προηγούμενο Σαββατοκύριακο μια παράδοξη εικόνα του Πάπα Φραγκίσκου έκανε τον γύρο των social media διεθνώς. Ο Ποντίφικας εμφανιζόταν να φορά ένα λευκό, μακρύ puffer μπουφάν, κάνοντας πολλούς χρήστες του διαδικτύου να σχολιάζουν ότι η εμφάνιση του επικεφαλής της ρωμαιοκαθολικής εκκλησίας περισσότερο θύμιζε τράπερ.

Το μπουφάν και η προειδοποίηση

Στην περίπτωση του Πάπα Φραγκίσκου, οι συχνά αντισυμβατικές δημόσιες τοποθετήσεις του έκαναν λίγο πιο ρεαλιστικό το σενάριο να έχει πράγματι εμφανιστεί με μια αμφίεση που, ενδεχομένως, θα τον έφερνε πιο κοντά στους νέους.

NOVA

Η αλήθεια όμως ήταν πολύ διαφορετική. Ο πάπας δεν είχε απαθανατιστεί να φορά κάτι πιο casual από τη συνήθη του περιβολή. Το puffer μπουφάν τού το είχε «φορέσει» (πιθανώς) ένας 31χρονος οικοδόμος από το Σικάγο, ο οποίος έχει διεκδικήσει την κυριότητα της viral εικόνας που δημιουργήθηκε με τη χρήση του λογισμικού τεχνητής νοημοσύνης Midjourney.

Mechanical Solutions

Δεν θα μάθουμε ποτέ αν το περιστατικό αυτό οδήγησε τον πάπα Φραγκίσκο να προειδοποιήσει για τους κινδύνους της τεχνητής νοημοσύνης λίγες ημέρες αργότερα, στο πλαίσιο μιας υψηλού επιπέδου ετήσιας συνάντησης επιστημόνων και εμπειρογνωμόνων που πραγματοποιήθηκε τη Δευτέρα στο Βατικανό.

«Είμαι πεπεισμένος ότι η ανάπτυξη της τεχνητής νοημοσύνης και της μηχανικής μάθησης έχει τη δυνατότητα να συμβάλει με θετικό τρόπο στο μέλλον της ανθρωπότητας», ανέφερε αρχικά ο Ποντίφικας, για να προειδοποιήσει όμως λίγο αργότερα: «Ταυτόχρονα, είμαι βέβαιος ότι αυτό το δυναμικό θα αξιοποιηθεί μόνο εάν υπάρχει μια συνεχής και συνεπής δέσμευση εκ μέρους εκείνων που αναπτύσσουν αυτές τις τεχνολογίες να ενεργούν ηθικά και υπεύθυνα».

«Δεν μπορούμε να επιτρέψουμε στους αλγόριθμους να περιορίσουν ή να θέσουν υπό διακύβευση το σεβασμό της ανθρώπινης αξιοπρέπειας, ή να αποκλείσουν τη συμπόνια, το έλεος, τη συγχώρεση και, πάνω απ’ όλα, την ελπίδα ότι οι άνθρωποι είναι σε θέση να αλλάξουν», είπε.

Ομοβροντία προειδοποιήσεων

Ήταν η πρώτη βολή σε μια ομοβροντία μηνυμάτων που θα ακολουθούσε τις επόμενες ημέρες για τους κινδύνους που εγκυμονεί η ανεξέλεγκτη ανάπτυξη των συστημάτων τεχνητής νοημοσύνης.

Ακολούθησε η ηχηρή παρέμβαση επιστημόνων, «γκουρού» της τεχνολογίας, επιχειρηματιών και ειδικών από όλο τον κόσμο οι οποίοι σε μια ανοιχτή επιστολή δημοσιευμένη στο Future of Life Institute – που μέχρι το μεσημέρι της Παρασκευής είχε συγκεντρώσει περισσότερες από 1800 υπογραφές – ζητούσαν την επιβολή μορατόριουμ στην ανάπτυξη συστημάτων ισχυρότερων από  το GPT4, την τελευταία έκδοση του ChatGPT.

«Τα συστήματα ΑΙ με ανθρώπινη ανταγωνιστική νοημοσύνη μπορούν να θέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα», προειδοποιούν οι υπογράφοντες το κείμενο, στους οποίους περιλαμβάνονται ο CEO της Tesla Ίλον Μασκ και ο συνιδρυτής της Apple Στιβ Βόζνιακ. «Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιαστεί και να τεθεί υπό διαχείριση με ανάλογη προσοχή και πόρους», αναφέρεται στην επιστολή. «Δυστυχώς, αυτό του είδους ο σχεδιασμός και η διαχείριση δεν υπάρχουν, παρόλο που τους τελευταίους μήνες τα εργαστήρια Τεχνητής Νοημοσύνης έχουν εγκλωβιστεί σε έναν ανεξέλεγκτο αγώνα δρόμου για την ανάπτυξη ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς – ούτε καν οι δημιουργοί τους – δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα».

Απολύουν τους ελεγκτές

Στην πραγματικότητα, η κατάσταση είναι λίγο χειρότερη: Οι εταιρείες όχι απλώς δεν μπορούν να προβλέψουν τις πιθανές λειτουργίες των πλατφορμών τεχνητής νοημοσύνης, αλλά και δεν το προσπαθούν κιόλας: Αντιθέτως, απολύουν προσωπικό από τις ομάδες που ασχολούνται με την αξιολόγηση ηθικών ζητημάτων σχετικά με την ανάπτυξη της τεχνητής νοημοσύνης.

Όπως μετέδιδαν την Τετάρτη οι Financial Times, η Microsoft, η Meta, η Google, η Amazon και το Twitter (ιδιοκτησίας του Ίλον Μασκ που κατά τα άλλα συνυπογράφει το κείμενο για τους κινδύνους της ανεξέλεγκτης ΑΙ) είναι μεταξύ των εταιρειών που έχουν περικόψει μέλη των «υπεύθυνων ομάδων τεχνητής νοημοσύνης», οι οποίες παρέχουν συμβουλές σχετικά με την ασφάλεια των καταναλωτικών προϊόντων που χρησιμοποιούν συστήματα ΑΙ.

Ο αριθμός του προσωπικού που απολύθηκε ανέρχεται σε μερικές δεκάδες, αντιπροσωπεύοντας – όπως σημειώνει το βρετανικό έντυπο – μόνο ένα μικρό κλάσμα των δεκάδων χιλιάδων εργαζομένων στον τομέα της τεχνολογίας που απολύθηκαν τους τελευταίους μήνες. Οι δε εταιρείες δηλώνουν ότι παραμένουν αφοσιωμένες στην ανάπτυξη ασφαλών προϊόντων τεχνητής νοημοσύνης.

Ωστόσο, όπως επεσήμαιναν οι FT, ειδικοί δηλώνουν ότι οι περικοπές είναι ανησυχητικές καθώς πλήττεται η δυνατότητα εντοπισμού πιθανών καταχρήσεων της τεχνολογίας ακριβώς τη στιγμή που εκατομμύρια άνθρωποι αρχίζουν να πειραματίζονται με εργαλεία τεχνητής νοημοσύνης.

«ΑΙ στο έλεος των διαφημιστικών επιταγών»

«Οι υπεύθυνες ομάδες τεχνητής νοημοσύνης είναι από τα μόνα εσωτερικά προπύργια που έχει η Big Tech για να διασφαλίσει ότι οι άνθρωποι και οι κοινότητες που επηρεάζονται από τα συστήματα ΑΙ βρίσκονται στο μυαλό των μηχανικών που τα κατασκευάζουν», δήλωσε στους FT ο Josh Simons, πρώην ερευνητής ηθικής ΤΝ του Facebook και συγγραφέας του βιβλίου Algorithms for the People.

«Η ταχύτητα με την οποία καταργούνται αφήνει τους αλγορίθμους της Big Tech στο έλεος των διαφημιστικών επιταγών, υπονομεύοντας την ευημερία των παιδιών, των ευάλωτων ανθρώπων και της δημοκρατίας μας», προειδοποίησε.

«Αυτό που αρχίζουμε να βλέπουμε είναι ότι δεν μπορούμε να προβλέψουμε πλήρως όλα τα πράγματα που πρόκειται να συμβούν με αυτές τις νέες τεχνολογίες και είναι ζωτικής σημασίας να τους δώσουμε κάποια προσοχή», δήλωσε από την πλευρά του ο Michael Luck, διευθυντής του Ινστιτούτου Τεχνητής Νοημοσύνης του King’s College του Λονδίνου.

Κίνδυνος για 300 εκατ. θέσεις εργασίας

Και οι προβληματισμοί δεν περιορίζονται στον τομέα της ηθικής. Όπως αναφέρεται στην ανοιχτή επιστολή με τις εκατοντάδες υπογραφές, «τα σύγχρονα συστήματα τεχνητής νοημοσύνης γίνονται πλέον ανταγωνιστικά προς τον άνθρωπο σε γενικές εργασίες», και ως εκ τούτου «πρέπει να αναρωτηθούμε: Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφόρησής μας με προπαγάνδα και αναλήθειες; Θα πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων και αυτών που εκπληρώνουν τις ανάγκες μας; Θα πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που μπορεί τελικά να μας ξεπεράσουν και να μας αντικαταστήσουν; Θα πρέπει να διακινδυνεύσουμε την απώλεια του ελέγχου του πολιτισμού μας;»

Οι προειδοποιήσεις μπορεί να ακούγονται λίγο παρατραβηγμένες σε όσους συνηθίζουν να αποθεώνουν τις τεχνολογικές εξελίξεις, χωρίς να νοιάζονται ιδιαίτερα για τις προβληματικές ή και επικίνδυνες πτυχές. Όμως οι κίνδυνοι είναι υπαρκτοί.

Έκθεση της Goldman Sachs που δημοσιεύτηκε εντός της εβδομάδας εκτιμά ότι τα «παραγωγικά» συστήματα τεχνητής νοημοσύνης, όπως το ChatGPT, θα μπορούσαν να πυροδοτήσουν μια έκρηξη παραγωγικότητας η οποία θα αύξανε τελικά το ετήσιο παγκόσμιο ακαθάριστο εγχώριο προϊόν κατά 7% σε μια περίοδο 10 ετών όμως θα επέφερε «σημαντική αναστάτωση» στην αγορά εργασίας, καθιστώντας επισφαλείς τις θέσεις περίπου 300 εκατομμυρίων υπαλλήλων πλήρους απασχόλησης στις ανεπτυγμένες οικονομίες.

Αναλύοντας δεδομένα από ΗΠΑ και Ευρώπη, οι ερευνητές της επενδυτικής τράπεζας υπέθεσαν ότι η τεχνητή νοημοσύνη θα είναι σε θέση να εκτελεί καθήκοντα όπως η συμπλήρωση φορολογικών δηλώσεων για μια μικρή επιχείρηση, η αξιολόγηση μιας πολύπλοκης ασφαλιστικής απαίτησης ή η τεκμηρίωση των αποτελεσμάτων μιας έρευνας σε τόπο εγκλήματος. Η ίδια η OpenAI, η εταιρεία που δημιούργησε το chatGPT, εκτιμά ότι το 80% του εργατικού δυναμικού των ΗΠΑ θα μπορούσε να δει τουλάχιστον το 10% των καθηκόντων του να εκτελείται από μηχανές τεχνητής νοημοσύνης.

«Καμπανάκι» από την Europol

Και οι κίνδυνοι δεν σταματούν εκεί.

Στις 27 Μαρτίου η Europol, η ευρωπαϊκή αστυνομική υπηρεσία, παρουσίασε έρευνα στην οποία καταγράφονται οι τομείς όπου το chatGPT θα μπορούσε να αξιοποιηθεί από εγκληματίες. Σταχυολόγησε αυτούς τους τομείς σε «απάτη και κοινωνική μηχανική», «παραπληροφόρηση» και «έγκλημα στον κυβερνοχώρο».

«Η ικανότητα του ChatGPT να συντάσσει εξαιρετικά ρεαλιστικό κείμενο το καθιστά χρήσιμο εργαλείο για σκοπούς phishing», σημειώνει η Europol. «Η ικανότητα τέτοιου είδους εφαρμογών να αναπαράγουν γλωσσικά μοτίβα μπορεί να χρησιμοποιηθεί για να υποδυθούν το ύφος ομιλίας συγκεκριμένων ατόμων ή ομάδων. Αυτή η ικανότητα μπορεί να γίνει αντικείμενο κατάχρησης σε μεγάλη κλίμακα για να παραπλανήσει τα πιθανά θύματα ώστε να εμπιστευτούν τους εγκληματίες».

Για την παραπληροφόρηση, η ευρωπαϊκή αστυνομική υπηρεσία υπογραμμίζει ότι το ChatGPT «υπερέχει στην παραγωγή αυθεντικού κειμένου με ταχύτητα και κλίμακα. Αυτό το καθιστά ιδανικό για σκοπούς προπαγάνδας και παραπληροφόρησης, καθώς επιτρέπει στους χρήστες να παράγουν και να διαδίδουν μηνύματα που αντικατοπτρίζουν μια συγκεκριμένη αφήγηση με σχετικά μικρή προσπάθεια.»

Όσον αφορά τα κυβερνοεγκλήματα, η Europol σημειώνει ότι «εκτός από τη δημιουργία γλώσσας που μοιάζει με ανθρώπινη, το ChatGPT είναι σε θέση να παράγει κώδικα σε διάφορες γλώσσες προγραμματισμού». «Για έναν δυνητικό εγκληματία με λίγες τεχνικές γνώσεις, αυτό αποτελεί ανεκτίμητη πηγή για την παραγωγή κακόβουλου κώδικα».

Ποιος αποφασίζει για το μέλλον της ανθρωπότητας;

Θίγοντας την ουσία του ζητήματος, η ανοιχτή επιστολή στο Future of Life Institute επισημαίνει ότι αποφάσεις τόσο σημαντικές για το μέλλον της ανθρωπότητας, όπως η ανάπτυξη ισχυρών συστημάτων τεχνητής νοημοσύνης, δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες της τεχνολογίας. «Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι. Αυτή η εμπιστοσύνη πρέπει να είναι καλά αιτιολογημένη και να αυξάνεται με το ανάλογα με τις πιθανές επιπτώσεις ενός συστήματος», σημειώνεται, ενώ τονίζεται: «Η πρόσφατη δήλωση της OpenAI (σ.σ., δημιουργού του chatGPT) σχετικά με την τεχνητή γενική νοημοσύνη, αναφέρει ότι “κάποια στιγμή, μπορεί να είναι σημαντικό να υπάρξει ανεξάρτητη αξιολόγηση πριν από την έναρξη της εκπαίδευσης μελλοντικών συστημάτων και για τις πιο προηγμένες προσπάθειες να συμφωνηθεί ο περιορισμός του ρυθμού αύξησης των υπολογιστών που χρησιμοποιούνται για τη δημιουργία νέων μοντέλων”. Συμφωνούμε. Αυτό το σημείο είναι τώρα.»

Υπό το πρίσμα όλων των παραπάνω, οι υπογράφοντες την έκκληση καλούν «όλα τα εργαστήρια τεχνητής νοημοσύνης να διακόψουν αμέσως για τουλάχιστον 6 μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης ισχυρότερων από το GPT-4. Αυτή η παύση θα πρέπει να είναι δημόσια και επαληθεύσιμη και να περιλαμβάνει όλους τους βασικούς εμπλεκόμενους. Εάν μια τέτοια παύση δεν μπορεί να θεσπιστεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ.»

Τα εργαστήρια τεχνητής νοημοσύνης και οι ανεξάρτητοι εμπειρογνώμονες «θα πρέπει να χρησιμοποιήσουν αυτή την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφαλείας για τον σχεδιασμό και την ανάπτυξη προηγμένης τεχνητής νοημοσύνης, τα οποία θα ελέγχονται αυστηρά και θα επιβλέπονται από ανεξάρτητους εξωτερικούς εμπειρογνώμονες». Αυτά τα πρωτόκολλα «θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα από κάθε λογική αμφιβολία. Αυτό δεν σημαίνει παύση της ανάπτυξης της ΤΝ γενικά, αλλά απλώς ένα βήμα πίσω από την επικίνδυνη κούρσα προς ολοένα και πιο απρόβλεπτες συνέπειες.»

Όσο για την έρευνα και την ανάπτυξη στον τομέα της τεχνητής νοημοσύνης, αυτή «θα πρέπει να επικεντρωθεί εκ νέου στο να γίνουν τα σημερινά ισχυρά, σύγχρονα συστήματα πιο ακριβή, ασφαλή, ερμηνεύσιμα, διαφανή, ισχυρά, ευθυγραμμισμένα και αξιόπιστα».

Οι επτά κινήσεις

Καταλήγοντας, οι «γκουρού» της τεχνολογίας καλούν τους προγραμματιστές στο πεδίο της τεχνητής νοημοσύνης «να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για να επιταχύνουν δραστικά την ανάπτυξη ισχυρών συστημάτων διακυβέρνησης ΤΝ. Αυτά θα πρέπει να περιλαμβάνουν τουλάχιστον:

  • νέες και ικανές ρυθμιστικές αρχές αποκλειστικά για την ΤΝ
  • εποπτεία και παρακολούθηση των πολύ ικανών συστημάτων ΤΝ και των μεγάλων δεξαμενών υπολογιστικών δυνατοτήτων
  • συστήματα σήμανσης προέλευσης και υδατοσήμανσης που θα βοηθούν στη διάκριση μεταξύ πληροφοριών που έχουν δημιουργηθεί από ανθρώπους ή μηχανές
  • ένα ισχυρό οικοσύστημα ελέγχου και πιστοποίησης
  • κατανομή της ευθύνης για βλάβες που προκαλούνται από την ΤΝ
  • ισχυρή δημόσια χρηματοδότηση για την έρευνα σε ζητήματα ασφάλειας της ΤΝ
  • καλά εξοπλισμένα θεσμικά όργανα για την αντιμετώπιση των δραματικών οικονομικών και πολιτικών διαταραχών (ιδίως στη δημοκρατία) που θα προκαλέσει η ΤΝ.

Προς καλοκαίρι ή φθινόπωρο;

Όπως οραματικά περιγράφουν οι συνυπογράφοντες το κείμενο, «η ανθρωπότητα μπορεί να απολαύσει ένα ακμάζον μέλλον με την τεχνητή νοημοσύνη. Έχοντας καταφέρει να δημιουργήσουμε ισχυρά συστήματα ΤΝ, μπορούμε τώρα να απολαύσουμε ένα “καλοκαίρι” κατά το οποίο θα αποκομίσουμε τους καρπούς, θα σχεδιάσουμε αυτά τα συστήματα για το ξεκάθαρο όφελος όλων και θα δώσουμε στην κοινωνία την ευκαιρία να προσαρμοστεί».

«Η κοινωνία έχει πατήσει παύση σε άλλες τεχνολογίες με δυνητικά καταστροφικές συνέπειες για αυτήν. Ας απολαύσουμε ένα μακρύ καλοκαίρι τεχνητής νοημοσύνης, όχι να βιαστούμε απροετοίμαστοι σε ένα φθινόπωρο», καταλήγουν.

Ή, όπως το έθεσε ο Πάππας απευθυνόμενος στους επιστήμονες – χωρίς, πιθανότατα, να φορά puffer μπουφάν – «θα ήθελα να σας ενθαρρύνω, κατά τις διαβουλεύσεις σας, να καταστήσετε την εγγενή αξιοπρέπεια κάθε άνδρα και κάθε γυναίκας βασικό κριτήριο για την αξιολόγηση των αναδυόμενων τεχνολογιών. Αυτές θα αποδειχθούν ηθικά ορθές στο βαθμό που συμβάλλουν στο σεβασμό αυτής της αξιοπρέπειας και στην αύξηση της έκφρασής της σε κάθε επίπεδο της ανθρώπινης ζωής».


- Ακολουθήστε το cna.gr στο Google News για όλες τις τελευταίες εξελίξεις.
- Δείτε όλες τις τελευταίες Ειδήσεις από την Κρήτη, την Ελλάδα και όλο τον Κόσμο, τη στιγμή που συμβαίνουν, με εγκυρότητα και αξιοπιστία, στο cna.gr
- Ακολουθήστε το cna.gr στο Facebook
- Ακολουθήστε το cna.gr στο Twitter
- Ακολουθήστε το cna.gr στο YouTube
- Ακολουθήστε το cna.gr στο Instagram


Οροι ανάγνωσης

Yiannis Jewellery

Σχετικά άρθρα

Back to top button